A világ első mesterséges intelligencia törvénykönyveként említik az Európai Unió véglegesnek tekinthető szabályozását. A tervezetről a végső, tanácsi szavazás ugyan csak június közepén várható, de a döntéshozók arról egyeztek meg, hogy már nem nyújtanak be módosító javaslatokat.

A szabályozásról hosszú ideig vitatkoztak az uniós döntéshozatal minden szintjén, végül kompromisszumos megállapodás született, a véglegesnek tekinthető szöveget pedig a napokban az Európai Parlament is megszavazta.

A legtöbb MI modellre vonatkozó általános szabályozás a tájékoztatással, a működés átláthatóságával és az adatvédelemmel függ össze, vagyis a létező szabályozást terjesztik ki a mesterséges intelligencia használatára.

Szinte képtelenség a tökéletes szabályozás

Világszerte komoly nehézségekkel szembesülnek a jogalkotók, miközben a mesterséges intelligencia szabályozásáról heves viták zajlanak. Ennek legfőbb oka, hogy a jelentős technológiai ugrást okozó és immár világszerte mindenki számára hozzáférhető MI szabályozásának egyszerre kell

 

  • védenie a felhasználók adatait, 
  • keretek között tartani a fejlesztőket és magát a technológiát, 
  • miközben kezelnie kell az MI rendszerek sajátos működéséből adódó veszélyeket, 
  • mindezt úgy, hogy a technológia folyamatos fejlődését és a hozzáférhetőséget ne indokolatlanul ne korlátozza. 

 

Az Európai Unió végszavazás előtt álló törvénycsomagja az MI szabályozására irányul és a használatával járó potenciális veszélyforrásokat veszi alapul.

Szigorú nevelést kap az EU-ban a chatGPT

A törvényalkotás során a leghevesebb vita arról alakult ki, hogy miként kezeljék azokat a mesterséges intelligencia rendszereket, amelyeknek nincs konkrét céljuk. Idetartozik a nyíltan hozzáférhető chatGPT is.

Az uniós döntéshozók végül azt a megközelítést fogadták el, hogy a nyílt fejlesztésű, s nem konkrét célból létrehozott MI-rendszerekre – így a chatGPT-re is – szigorúbb kötelezettségeket határoznak meg.

A jogalkotás során komoly kihívást jelentett, hogy a generatív MI modellekre vonatkozó szabályok összhangban legyenek az EU alapvető jogaival, például a szabad véleménynyilvánításhoz való joggal. Ez azt jelenti, hogy a szabályozásnak úgy kell kivédenie a generatív modellek kártékony tevékenységét, hogy közben ne forduljon elő olyan korlátozás, amely sérti az uniós felhasználók véleményszabadsághoz fűződő jogát.

Új értelmet nyer az adatvédelem

Politikailag szintén érzékeny témának bizonyult, hogy milyen típusú mesterséges intelligencia-alkalmazásokat kell betiltani és melyek azok a tulajdonságok, amelyekkel ezek használata már elfogadhatatlan mértékű és gyakorlatilag kezelhetetlen kockázatokkal jár.

Az eredeti tervek szerint a törvény kivétel nélkül megtiltotta volna, hogy a mesterséges intelligenciával működő eszközök megfigyeljék és megjegyezzék az interperszonális kommunikációt és a biometrikus azonosítás adatait.

Végül az ujjlenyomat- vagy arcfelismerő, és ez alapján azonosításra is képes szoftverek biometrikus adatait egyedül a bűncselekmények felderítéséhez lehet felhasználni, kizárólag bírósági engedéllyel, valós időben pedig ilyen adatok nem kezelhetők.

Láncon tartják a kockázatos MI modelleket

Az MI-rendelet szigorúan tiltja a célzott befolyásolást, ám ennek bizonyítása kétséges. Ezért az érzelemfelismerő mesterséges intelligencia alapú szoftverek használata tilos, különösen a bűnüldözésben, az igazgatási területeken, a munkahelyeken és az oktatásban is.

Az uniós törvény azt is megtiltja, hogy hatósági beavatkozás induljon és bárki megvádolható legyen bűncselekmény elkövetésével pusztán az algoritmusok jelzését alapul véve.

Külön mellékletben szerepelnek a kritikus infrastruktúra – például energiahálózatok, vízrendszerek –működéséhez alkalmazható mesterséges intelligencia modellek. Ezek automatikusan magas kockázatúnak minősülnek, ha az egészségre, a biztonságra, a környezetre vagy az alapvető jogokra veszélyt jelentenek.

 

 

 

Hol tart Magyarország a felelősségteljes mesterséges intelligencia-használatban?

Az utóbbi időszakban különösen nagy figyelmet kapott a különféle mesterséges intelligencia modellek nagyközönség számára való elindítása. A generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatok megnövekedtek, különösen a szerzői jogi kérdések területén, de az ilyen eszközöket alkalmazó vállalatoknak olyan kockázatokra is komoly figyelmet kell fordítaniuk, mint a rendszer-kimenetek helyessége és megmagyarázhatósága, vagy a negatív előítéletek kiszűrése. Bővebben >>>