Bevezetés

A generatív mesterséges intelligencia, mint a ChatGPT, rohamosan terjed az üzleti életben: használják szövegalkotásra, ügyfélszolgálatra, sőt, toborzási folyamatokban is. Az Európai Unió 2024. augusztusában hatályba lépő mesterséges intelligencia rendelete (AI Act) azonban új jogi keretet teremt, amely meghatározza, mikor számít egy AI-alkalmazás „magas kockázatúnak”, és milyen követelmények vonatkoznak rá. De vajon a ChatGPT ebbe a kategóriába tartozik-e? És ha igen, mit jelent ez a vállalatok számára?

1. Az AI-rendelet kockázatalapú rendszere

Az AI-Act négy kockázati szintet határoz meg:

Elfogadhatatlan kockázat: Teljesen tiltott AI-használat, például manipulációs technológiák vagy személyiségprofilok alapján történő bűnözési előrejelzés.
Magas kockázat: Szabályozott területek, ahol az algoritmikus döntések jelentősen befolyásolhatják az emberek életét – például az egészségügy, oktatás vagy foglalkoztatás.
Korlátozott kockázat: Átláthatósági kötelezettségek, például a felhasználó tájékoztatása arról, hogy AI-val kommunikál (pl. chatbotok).
Minimális kockázat: Olyan rendszerek, mint a spam-szűrés vagy játékok AI-mechanizmusai, amelyekre nem vonatkoznak külön szabályok.

A ChatGPT és más általános célú AI-modellek besorolása attól függ, milyen kontextusban használják őket, vagyis mire és hogyan alkalmazzák.

2. A ChatGPT mint generatív mesterséges intelligencia

A ChatGPT szövegeket hoz létre, javaslatokat tesz és információkat dolgoz fel, számos üzleti folyamatba is integrálható. Az AI-rendelet 50. cikke előírja, hogy amikor az AI-t nyilvános kommunikációra vagy publikációra használják (például sajtóanyagok, marketingkampányok, webszövegek), kötelező a tájékoztatás arról, hogy az adott tartalom részben vagy egészben AI által generált.

Ez a jelölés („AI támogatásával készült”) biztosítja az átláthatóságot, különösen akkor, ha a közvélemény tájékoztatásáról van szó. Nem szükséges a jelölés, ha az AI által készített szöveg emberi felülvizsgálaton és jóváhagyáson esik át, mert ekkor a felelősség még a szerkesztőn marad.

A szabály megsértése súlyos következményekkel járhat: akár 15 millió eurós bírság vagy a vállalat éves forgalmának 3%-a is kiszabható, továbbá jelentős reputációs kár keletkezhet.

3. Mikor minősül a ChatGPT „magas kockázatú” rendszernek az AI Act alapján?

A kérdés kulcsa az AI-rendelet 6. cikke és III. melléklete. A besorolás nem a modell technológiájától, hanem a konkrét felhasználási céltól függ.

A III. melléklet nyolc magas kockázatú területet sorol fel, köztük a foglalkoztatást és munkaerő-kiválasztást. A ChatGPT akkor minősülhet magas kockázatúnak, ha például:

– álláspályázatok előszűrésére,
– alkalmassági értékelésekre,
– munkavállalói teljesítményértékelésre,
– vagy célzott álláshirdetések megjelenítésére használják.

Ezek az alkalmazások közvetlenül befolyásolhatják az emberek jogait, esélyeit és foglalkoztatási lehetőségeit.

A korábbi példák (pl. diszkriminatív algoritmusok álláshirdetési platformokon) igazolják, hogy a legkisebb adat- vagy modelltorzulás is hátrányos megkülönböztetéshez vezethet.

4. A 6. cikk (3) bekezdése – Kivétel a magas kockázat alól

A jogszabály lehetőséget ad arra, hogy a vállalat bizonyítsa: a ChatGPT használata nem jelent tényleges kockázatot.

Ez akkor lehetséges, ha a rendszer:

– nem hoz önálló döntéseket,
– kizárólag emberi felhasználókat támogat,
– és a döntéshozatalban az emberi kontroll megmarad.

Például, ha a ChatGPT csak segédanyagokat készít (álláshirdetés-szöveg, interjúkérdések), de nem dönt a jelöltek sorsáról, akkor a használat korlátozott kockázatúnak tekinthető.

Ha viszont az AI automatikusan értékel pályázókat, akkor a magas kockázatú kategóriába esik.

A lényeg tehát: minél mélyebben integrálják a modellt a döntéshozatalba, annál szigorúbb szabályozás vonatkozik rá.

5. Mit jelent a magas kockázatú besorolás a gyakorlatban?

Ha a ChatGPT-t olyan módon használják, hogy az magas kockázatú AI-rendszernek minősül, az üzemeltetőknek az AI-rendelet 26. cikke alapján szigorú kötelezettségeket kell teljesíteniük:

Emberi felügyelet: Csak képzett szakemberek kezelhetik a rendszert, akik képesek felismerni és korrigálni az AI hibáit.
Megfelelő adatok biztosítása: A bemeneti adatoknak torzításmentesnek és a célra alkalmasnak kell lenniük.
Folyamatos monitorozás: Az üzemeltetőknek nyomon kell követniük a rendszer teljesítményét, és jelenteniük kell a kockázatokat a hatóságoknak.
Adatnaplózás: Az automatikus naplófájlokat legalább hat hónapig meg kell őrizni.
Munkavállalói tájékoztatás: Az érintett dolgozókat előzetesen értesíteni kell, ha a munkahelyen AI-rendszert alkalmaznak.
Átláthatóság a felhasználók felé: Azokat, akiknek döntéseire az AI hatással van, tájékoztatni kell a rendszer működéséről.

Ezek a kötelezettségek a felelős és elszámoltatható AI-használatot hivatottak biztosítani.

6. Gyakorlati tanulságok a ChatGPT és az AI Act kapcsán

A ChatGPT használata nem önmagában magas kockázatú rendszer, de rossz kontextusban alkalmazva könnyen magas kockázatú kategóriába kerülhet. A vállalatoknak ezért:

– előzetesen jogi és adatvédelmi hatásvizsgálat elvégzése szükséges  a bevezetés előtt,
– dokumentálniuk kell a használat célját és az emberi felügyelet módját,
– belső szabályzatot kell kialakítaniuk az AI-alkalmazásokra,
– és munkavállalói képzést kell szervezniük a generatív AI biztonságos használatáról.

A cikk Dr. Hans Markus Wulf, Theresa Marie Bardenhewer és Emily Bernklau cikke alapján készült.[1]

Dr. Varga Benedek

Dr. Miklós Péter

[1] https://www.lexology.com/library/detail.aspx?g=70194eea-0062-49f2-96b6-60cc747ee362

Amennyiben adatvédelem területén, vagy AI jogász segítségére van szüksége, vegye fel velünk a kapcsolatot elérhetőségeink egyikén:
Telefon: +36 30 648 5521
E-mail: dmp@dmp.hu

Ezt a honlapot a Budapesti Ügyvédi Kamarában bejegyzett Dr. Miklós Péter Ákos egyéni ügyvéd (székhely: 1028 Budapest, Piszke utca 14., adószám: 42982117-2-41, KASZ szám: 36079442) tartja fenn az ügyvédekre vonatkozó jogszabályok és belső szabályzatok szerint, melyek az ügyféljogokra vonatkozó tájékoztatással együtt a www.magyarugyvedikamara.hu honlapon találhatóak. A honlapon elérhető blogbejegyzések, cikkek nem minősülnek konkrét jogi tanácsadásnak, ajánlattételnek vagy erre történő felhívásnak. Célja, hogy az érdeklődő tájékozódni tudjon Dr. Miklós Péter Ákos egyéni ügyvéd szakterületeiről. A honlap a Magyar Ügyvédi Kamara (MÜK) Elnökségének "Az ügyvédi honlap tartalmáról" szóló 2/2001 (IX.3.) számú állásfoglalásának, valamint a MÜK 6/2018. (III. 26.). számú szabályzatának 10. fejezetében leírtak figyelembevételével készült.  Jogi közlemény.

Honlapkészítés: ZK DESIGN - Ügyvédhonlap

dr. Miklós Péter adatvédelmi jogász
Adatvédelmi áttekintés

Honlapunk megfelelő működése és a felhasználói élmény növelése érdekében sütiket (cookie-kat) használunk. A sütik által gyűjtött információk a böngészőjében tárolódnak, és lehetővé teszik például az Ön felismerését, amikor újból meglátogatja a honlapunkat.

A sütikre vonatkozó tájékoztatást lentebb láthatja.