A mesterséges intelligenciát az ember teszi jóvá, vagy rosszá
Hogyan válhat a mesterséges intelligencia hosszú távon is a hasznunkra?
Miért kulcsfontosságúak a jó minőségű adatok? Mit lehet tenni a deepfake ellen és mik azok a mesterséges intelligencia sandboxok? Az ELTE ősszel újrainduló tudományos-ismeretterjesztő videósorozatában ezúttal Badinszky Áron jogász, az ELTE munkatársa, az MI jogi szabályozásának szakértője osztja meg gondolatait.
Az MI gyors fejlődése napjaink egyik legnagyobb technológiai forradalmát jelenti. Badinszky Áron, aki a mesterséges intelligencia jogi aspektusait kutatja, úgy látja, hogy a mesterséges intelligencia életünk részéve vált, de csak akkor maradhat tartósan hasznos, ha az emberek megtanulják hatékonyan, felelősen és fenntarthatóan alkalmazni. A technológia biztosan velünk marad, de azt, hogy a mi érdekünkben is dolgozzon, csak az etikus fejlesztés biztosítja.
Széleskörű oktatási programok és etikai kódexek
A mesterséges intelligenciát fejlesztő vállalatok és kormányok egyre inkább felismerik annak fontosságát, hogy a technológia előnyeit minden társadalmi réteg egyaránt, biztonságban élvezhesse. Más célok mellett ennek előmozdítására jött létre az Európai Unióban az AI-rendelet is, amely emberközpontú, azaz az európai értékeket, alapjogokat végletekig tiszteleten tartó módon igyekszik keretek közé terelni az MI fejlesztésétét és felhasználását. Eközben az Egyesült Államokban és más nagyhatalmakban is kialakultak azok az etikai standardok, amelyek biztosítják, hogy az MI a társadalom érdekeit szolgálja. Napjainkban a globális MI fejlesztés ilyen kiemelt értékei az átláthatóság, az emberi felügyelet és a diszkriminációmentesség.
Az adatok fontossága
A mesterséges intelligencia működésének egyik alapja az adat, amelynek összetétele és részletessége meghatározza az algoritmusok hatékonyságát és az általuk létrehozott eredmények minőségét. Ahogyan Badinszky Áron fogalmaz "az adat az MI számára olyan, mint az üzemanyag az autóknak". A minőségi - azaz a felhasználási terület sajátosságait tükröző - adatkészletek biztosítják az algoritmusok megbízható működését. Azonban, ha az MI hiányos, torzított adatokból dolgozik, az – pl. etnikai vagy nemi alapú - diszkriminációhoz vezethet. Az adatkészletet ennek megfelelően következetesen kell kialakítani, figyelembe véve különösen azt, hogy az MI által javasolt vagy meghozott döntések milyen mértékben befolyásolják a döntéseben érintett személyek életét.
A deepfake és a mesterséges intelligencia kihívásai
Az MI alkalmazásával kapcsolatos etikai kérdések egyre nagyobb figyelmet kapnak, ezek súlyára különösen a deepfake technológia elterjedése hívja fel a figyelmet. Ez lehetővé teszi, hogy emberek kinézetét MI segítségével valósághűen lemásolják és manipulálják. Az így készített, hamisított felvételek a személyiségi jogokat sértő, vagy akár szexuális jellegű bűncselekményeket megvalósító visszaélések mellett dezinformációs eszközzé is válhatnak és akár választások kimenetelét is befolyásolhatják. Az ártó szándékú deepfake-ek ellen jelenleg még nem alakult ki és terjedt el hatékony eszköz és az elkövetők rendre ismeretlenek maradnak.
A generatív mesterséges intelligencia és szerzői jogok kérdése
A generatív MI modellek, például a DALL-E vagy a Stable Diffusion, szintén szerzői jogi problémákat vetnek fel. Az algoritmusok működéséhez hatalmas mennyiségű adat szükséges, de sok esetben ezek az adatok engedély nélkül felhasznált szerzői művekből (könyvekből, filmekből, festményekből, stb.) származnak. A hollywoodi írók tavalyi sztrájksorozata és az ennek nyomán indult szerzői jogi perek rámutatnak arra, hogy a mesterséges intelligencia és a szellemi tulajdon körüli kérdések még mindig tisztázásra várnak.
Az európai sandbox modell
Az innováció és a szabályozás közötti egyensúly megteremtése érdekében az Európai Unió kötelezővé tette az ún. sandboxok (azaz szabályozási tesztkörnyezetek) létrehozását, amelyek lehetőséget nyújtanak a vállalatoknak és innovatív szereplőknek arra, hogy biztonságos keretek között teszteljék MI fejlesztéseiket. A sandbox nyújtotta dinamikus – azaz a technológia fejlődésére gyorsan reagálni képes - szabályozási modell előmozdítja az innovációt, miközben a jogalkotók bevonásával védi a fogyasztókat és felhasználókat a potenciális kockázatoktól. A szabályozási tesztkörnyezetekben az MI-ről szerzett tapasztalatok később kiváló alapot szolgáltatnak a jogalkotóknak, hogy technológia és a piac sajátosságait valóban tükröző jogi kereteket alakítsanak ki. Az EU-ban 2026-ra minden országnak létre kell hoznia saját MI sandboxát, vagy csatlakoznia kell egy már működő tesztkörnyezethez.
Az ELTE Tudománykommunikációs sorozatának korábbi részeiben Csabai István akadémikus (ELTE TTK Komplex Rendszerek Fizikája Tanszék) a mesterséges intelligencia felhasználhatóságának sokrétűségéről, Gulyás László, az (ELTE IK Mesterséges Intelligencia Tanszék) a technológia fenntarthatóságáról és centralizálhatóságáról, míg Darázs Lénárd általános rektorhelyettes az MI jogi szabályozásainak kérdéseiről beszélt.
Kövesse az Egészségkalauz cikkeit a Google Hírek-ben, a Facebook-on, az Instagramon vagy a Twitter-en, Tiktok-on is!
Így segíti a mesterséges intelligencia a kutatókat