Bevezetés
A generatív mesterséges intelligencia, mint a ChatGPT, rohamosan terjed az üzleti életben: használják szövegalkotásra, ügyfélszolgálatra, sőt, toborzási folyamatokban is. Az Európai Unió 2024. augusztusában hatályba lépő mesterséges intelligencia rendelete (AI Act) azonban új jogi keretet teremt, amely meghatározza, mikor számít egy AI-alkalmazás „magas kockázatúnak”, és milyen követelmények vonatkoznak rá. De vajon a ChatGPT ebbe a kategóriába tartozik-e? És ha igen, mit jelent ez a vállalatok számára?
1. Az AI-rendelet kockázatalapú rendszere
Az AI-Act négy kockázati szintet határoz meg:
Elfogadhatatlan kockázat: Teljesen tiltott AI-használat, például manipulációs technológiák vagy személyiségprofilok alapján történő bűnözési előrejelzés.
Magas kockázat: Szabályozott területek, ahol az algoritmikus döntések jelentősen befolyásolhatják az emberek életét – például az egészségügy, oktatás vagy foglalkoztatás.
Korlátozott kockázat: Átláthatósági kötelezettségek, például a felhasználó tájékoztatása arról, hogy AI-val kommunikál (pl. chatbotok).
Minimális kockázat: Olyan rendszerek, mint a spam-szűrés vagy játékok AI-mechanizmusai, amelyekre nem vonatkoznak külön szabályok.
A ChatGPT és más általános célú AI-modellek besorolása attól függ, milyen kontextusban használják őket, vagyis mire és hogyan alkalmazzák.
2. A ChatGPT mint generatív mesterséges intelligencia
A ChatGPT szövegeket hoz létre, javaslatokat tesz és információkat dolgoz fel, számos üzleti folyamatba is integrálható. Az AI-rendelet 50. cikke előírja, hogy amikor az AI-t nyilvános kommunikációra vagy publikációra használják (például sajtóanyagok, marketingkampányok, webszövegek), kötelező a tájékoztatás arról, hogy az adott tartalom részben vagy egészben AI által generált.
Ez a jelölés („AI támogatásával készült”) biztosítja az átláthatóságot, különösen akkor, ha a közvélemény tájékoztatásáról van szó. Nem szükséges a jelölés, ha az AI által készített szöveg emberi felülvizsgálaton és jóváhagyáson esik át, mert ekkor a felelősség még a szerkesztőn marad.
A szabály megsértése súlyos következményekkel járhat: akár 15 millió eurós bírság vagy a vállalat éves forgalmának 3%-a is kiszabható, továbbá jelentős reputációs kár keletkezhet.
3. Mikor minősül a ChatGPT „magas kockázatú” rendszernek az AI Act alapján?
A kérdés kulcsa az AI-rendelet 6. cikke és III. melléklete. A besorolás nem a modell technológiájától, hanem a konkrét felhasználási céltól függ.
A III. melléklet nyolc magas kockázatú területet sorol fel, köztük a foglalkoztatást és munkaerő-kiválasztást. A ChatGPT akkor minősülhet magas kockázatúnak, ha például:
– álláspályázatok előszűrésére,
– alkalmassági értékelésekre,
– munkavállalói teljesítményértékelésre,
– vagy célzott álláshirdetések megjelenítésére használják.
Ezek az alkalmazások közvetlenül befolyásolhatják az emberek jogait, esélyeit és foglalkoztatási lehetőségeit.
A korábbi példák (pl. diszkriminatív algoritmusok álláshirdetési platformokon) igazolják, hogy a legkisebb adat- vagy modelltorzulás is hátrányos megkülönböztetéshez vezethet.
4. A 6. cikk (3) bekezdése – Kivétel a magas kockázat alól
A jogszabály lehetőséget ad arra, hogy a vállalat bizonyítsa: a ChatGPT használata nem jelent tényleges kockázatot.
Ez akkor lehetséges, ha a rendszer:
– nem hoz önálló döntéseket,
– kizárólag emberi felhasználókat támogat,
– és a döntéshozatalban az emberi kontroll megmarad.
Például, ha a ChatGPT csak segédanyagokat készít (álláshirdetés-szöveg, interjúkérdések), de nem dönt a jelöltek sorsáról, akkor a használat korlátozott kockázatúnak tekinthető.
Ha viszont az AI automatikusan értékel pályázókat, akkor a magas kockázatú kategóriába esik.
A lényeg tehát: minél mélyebben integrálják a modellt a döntéshozatalba, annál szigorúbb szabályozás vonatkozik rá.
5. Mit jelent a magas kockázatú besorolás a gyakorlatban?
Ha a ChatGPT-t olyan módon használják, hogy az magas kockázatú AI-rendszernek minősül, az üzemeltetőknek az AI-rendelet 26. cikke alapján szigorú kötelezettségeket kell teljesíteniük:
Emberi felügyelet: Csak képzett szakemberek kezelhetik a rendszert, akik képesek felismerni és korrigálni az AI hibáit.
Megfelelő adatok biztosítása: A bemeneti adatoknak torzításmentesnek és a célra alkalmasnak kell lenniük.
Folyamatos monitorozás: Az üzemeltetőknek nyomon kell követniük a rendszer teljesítményét, és jelenteniük kell a kockázatokat a hatóságoknak.
Adatnaplózás: Az automatikus naplófájlokat legalább hat hónapig meg kell őrizni.
Munkavállalói tájékoztatás: Az érintett dolgozókat előzetesen értesíteni kell, ha a munkahelyen AI-rendszert alkalmaznak.
Átláthatóság a felhasználók felé: Azokat, akiknek döntéseire az AI hatással van, tájékoztatni kell a rendszer működéséről.
Ezek a kötelezettségek a felelős és elszámoltatható AI-használatot hivatottak biztosítani.
6. Gyakorlati tanulságok a ChatGPT és az AI Act kapcsán
A ChatGPT használata nem önmagában magas kockázatú rendszer, de rossz kontextusban alkalmazva könnyen magas kockázatú kategóriába kerülhet. A vállalatoknak ezért:
– előzetesen jogi és adatvédelmi hatásvizsgálat elvégzése szükséges a bevezetés előtt,
– dokumentálniuk kell a használat célját és az emberi felügyelet módját,
– belső szabályzatot kell kialakítaniuk az AI-alkalmazásokra,
– és munkavállalói képzést kell szervezniük a generatív AI biztonságos használatáról.
A cikk Dr. Hans Markus Wulf, Theresa Marie Bardenhewer és Emily Bernklau cikke alapján készült.[1]
Dr. Varga Benedek
Dr. Miklós Péter
[1] https://www.lexology.com/library/detail.aspx?g=70194eea-0062-49f2-96b6-60cc747ee362
Amennyiben adatvédelem területén, vagy AI jogász segítségére van szüksége, vegye fel velünk a kapcsolatot elérhetőségeink egyikén:
Telefon: +36 30 648 5521
E-mail: dmp@dmp.hu