Az álhírek elleni küzdelem részeként meg kell jelölni a mesterséges intelligencia (MI) által létrehozott, dezinformáció terjesztésére alkalmas tartalmakat. Vera Jourová brüsszeli sajtótájékoztatóján hangsúlyozta, a mesterséges intelligenciát alkalmazó rendszereket működtető cégek feladatának kell lennie, hogy felcímkézzék a generált tartalmakat a felhasználók tájékoztatása érdekében.

A mesterséges intelligencia által létrehozott, álhírek terjesztésére alkalmas szolgáltatásokat működtető cégeknek olyan technológiát kell bevezetniük, amely felismeri az ilyen tartalmat, és megjelöli őket a felhasználók tájékoztatására

– fogalmazott.

Vera Jourová szerint azoknak a vállalatoknak, köztük a Google, a Microsoft és a Meta, amelyek csatlakoztak az EU félretájékoztatás leküzdésére létrehozott magatartási kódexéhez, júliusban jelentést kell tenniük a mesterséges intelligencia által lehetségesen terjesztett dezinformáció kezelésére bevezetett biztosítékokról.

Emlékeztetett, a Twitter múlt héten mondta fel a vonatkozó uniós kódex szerinti együttműködését, és arra figyelmeztette az amerikai közöségi oldalt, hogy a közeljövőben szabályozási ellenőrzésre számíthat.

A kódex elhagyásával a Twitter nagy figyelmet keltett, és a konfrontációt választotta. Úgy gondoljuk, hogy ez hiba a Twitter részéről. A Twitter a nehezebb utat választotta

– jelentette ki az uniós biztos, majd hozzátette: határozottan és sürgősen ellenőrizni fogják, hogy az amerikai cég tevékenysége megfelel-e az új digitális szolgáltatásokról szóló, augusztus 25-én hatályba lépő uniós szabályozásoknak.

Halálra van ítélve az EU-ban a mesterséges intelligencia?

Nem kegyelmez az Európai Unió annak a mesterséges intelligenciának, amely szándékosan vagy a hibás működése miatt minősített adatokat szivárogtat ki, ezzel megszegve az adatvédelmi törvényeket. Elkészült az Európai Unió mesterséges intelligenciát szabályozó modern törvénykönyve, a világon elsőként. A tervezetet még a tagállamoknak is jóvá kell hagyniuk. A szabályozás a lehetséges kockázatokat értékelve eltérő szigort ír elő az egyes típusokra. A chatGPT-re nagyobb szigor vár, mivel nincs meghatározva a működésének konkrét célja, ami növeli a kockázatokat. Bővebben >>>