Akt o umetni inteligenci (AI Act)

Napredek na področju generativne umetne inteligence (UI) omogoča globoke transformacije v pedagoški praksi, predvsem s personalizacijo učenja in optimizacijo izobraževalnih procesov. Kljub temu pa implementacija teh tehnologij sproža številna etična vprašanja in varnostna tveganja, zaradi česar je nujno vzpostaviti odgovorne pristope k njihovi uporabi. Pedagoški delavci imajo ključno nalogo, da pri uporabi UI zagotovijo skladnost z zakonodajnimi okvirji, varujejo pravice udeležencev izobraževalnega procesa ter vzpostavijo etiko kot temeljni steber svoje prakse.

Evropska unija je s sprejetjem Akta o umetni inteligenci (2024) uvedla celovit okvir za urejanje UI sistemov, s katerim naslavlja tveganja in spodbuja etično uporabo. Akt razvršča UI sisteme glede na stopnjo tveganja:

  • Nesprejemljivo tveganje: Prepovedani so sistemi, ki manipulirajo ali izkoriščajo ranljivosti uporabnikov (npr. biometrična identifikacija v realnem času v javnih prostorih).
  • Visoko tveganje: Strogo regulirani sistemi, kot so tisti, uporabljeni v zdravstvu, transportu in izobraževanju. Ti sistemi morajo izpolnjevati zahteve po tehnični robustnosti, transparentnosti in skladnosti z zakonodajo.
  • Omejeno tveganje: Sistemi, kot so klepetalni roboti ali tehnologije za ustvarjanje deepfake vsebin, zahtevajo ustrezno obveščanju uporabnikov in določene varnostne ukrepe.
  • Minimalno tveganje: Večina UI aplikacij, kot so videoigre in filtri za nezaželeno pošto, ki ne potrebujejo posebne regulacije.

Akt določa tudi obveznosti za ponudnike in uporabnike visoko tveganih UI sistemov. Ponudniki morajo zagotoviti tehnično dokumentacijo, navodila za uporabo in preverjanje skladnosti z zakonodajnimi standardi. Profesionalni uporabniki pa morajo zagotoviti pravilno uporabo UI skladno s predpisanimi smernicami.

Ta zakonodaja predstavlja ključen korak k vzpostavitvi zaupanja vredne umetne inteligence, ki podpira inovacije ter krepi konkurenčnost evropskega izobraževalnega sistema. Spodaj so predstavljene smernice za etično in varno implementacijo UI v pedagoškem procesu.

Canva

Etične smernice za uporabo UI

Etične smernice za zaupanja vredno umetno inteligenco, ki jih je leta 2019 objavila Evropska komisija, so nastale kot rezultat dela strokovne skupine za umetno inteligenco. Dokument opredeljuje načela in smernice za razvoj ter uporabo UI, ki temelji na evropskih vrednotah, kot so spoštovanje temeljnih pravic, človekovega dostojanstva in načela vladavine prava. Smernice so namenjene zagotavljanju skladnosti tehnologij UI z etičnimi standardi in preprečevanju morebitnih tveganj, povezanih z njihovim delovanjem.

  • Spoštovanje človekove avtonomije: UI sistemi morajo omogočati podporo odločitvam uporabnikov, brez manipulacije ali zavajanja. Na primer, UI orodje za personalizirano učenje lahko analizira napredek učencev in ponuja prilagojene predloge, pri tem pa zagotavlja preglednost algoritmičnih odločitev ter možnost intervencij učitelja.
  • Preprečevanje škode: Sistemi UI morajo biti zasnovani tako, da preprečujejo fizično, psihološko ali družbenčno škodo, zlasti ranljivim skupinam. Na primer, UI lahko zazna zgodnje znake stresa pri učencih in ob tem zagotovi anonimizirane povzetke za učitelja, ki lahko ustrezno posreduje brez posega v zasebnost.
  • Pravičnost: Algoritmi morajo zagotoviti nediskriminatorne rezultate, ki upoštevajo raznolikost družbenih skupin. Na primer, orodje za ocenjevanje znanja mora temeljiti na kulturno nevtralnih vsebinah, da prepreči pristranskost. Poleg tega lahko pri uporabi UI za sprejemne izpite ali dodeljevanje učenih nagrad algoritmi upoštevajo le objektivne meritve, kot so rezultati testov, in izključujejo subjektivne dejavnike, ki bi lahko privedli do diskriminacije.
  • Razložljivost in transparentnost: Uporabniki morajo razumeti delovanje sistemov UI, kar omogoča nadzor, revizije in odpravljanje napak. Na primer, pri uporabi UI za avtomatizirano ocenjevanje esejev mora sistem zagotoviti razložljiv vpogled v kriterije ocenjevanja, omogočiti uporabnikom vprašanje ali izpodbijanje določenih rezultatov ter omogočiti nadzor nad tem, kako so bile odločitve sprejete.
  • Odgovornost: Vpeljati je treba mehanizme za spremljanje skladnosti z etičnimi načeli skozi celoten življenjski cikel UI. Na primer, v izobraževalnem kontekstu lahko šola implementira sistem rednega pregleda uporabe UI orodij, kjer se analizira njihovo delovanje glede na postavljena etična merila. V primeru, da sistem UI pokaže znake pristranskosti ali napačnega delovanja, se sprožijo protokoli za odpravo teh pomanjkljivosti, vključno s sodelovanjem z razvijalci in dodatnim usposabljanjem pedagoških delavcev.
Canva

Koraki do zagotavljanja varnosti podatkov pri uporabi UI

  1. Izbira zanesljivih orodij: Uporabljajte rešitve uglednih ponudnikov, ki zagotavljajo varnostne standarde.
  2. Redne posodobitve: Zagotovite, da so sistemi UI posodobljeni in varnostno optimizirani.
  3. Anonimizacija podatkov: Odstranite osebne identifikatorje, kot so imena ali naslovi, in uporabljajte zgolj agregirane podatke.
  4. Implementacija šifriranja: Zaščitite podatke z močnim šifriranjem in avtentikacijo.
  5. Izobraževanje: Če le lahko, se udeležite usposabljanj za prepoznavanje kibernetskih tveganj in varno uporabo UI.

Zaključek

Zaradi hitrega razvoja in razširjene rabe generativne umetne inteligence, je regulacija in doseganje varnosti pri uporabi zelo zahtevna, predvsem pa ves čas lovi tehnološki razvoj in trende. Prve regulacije in zakonske odredbe seveda niso tudi zadnje, saj se bodo dopolnjevale in spreminjale glede na potrebe in opažena tveganja. Zato mora implementacija UI v pedagoškem procesu temeljiti na premišljenem in odgovornem pristopu, ki uravnoteža inovacije z etičnimi in varnostnimi standardi. Pedagoški delavci so nosilci sprememb, ki lahko z doslednim upoštevanjem teh smernic omogočijo razvoj izobraževalnega sistema, ki spoštuje pravice udeležencev in maksimira koristi tehnologije.

Izziv

Katera UI orodja uporabljate pri pedagoškem delu in katere podatke vnašate vanje? Preberite naše korake do zagotavljanja varnosti podatkov pri uporabi UI in razmislite, koliko od petih korakov ste že naredili.

Viri

UL_Center_mini_logo.png

Center Digitalna UL

Kontakt

Univerza v Ljubljani
Kongresni trg 12
1000 Ljubljana

E-naslov: digitalna@uni-lj.si