Adatvédelmi Szakmai Egyesület Hírek Milyen a megbízható mesterséges intelligencia? (1. rész)

Milyen a megbízható mesterséges intelligencia? (1. rész)


Kétrészes posztunk témája a megbízható mesterséges intelligencia követelményei, az Európai Unió mesterséges intelligenciával kapcsolatos álláspontja (1. rész), illetve a mesterséges intelligenciával kapcsolatos olyan problémák, mint például a torzítások típusai, a diszkrimináció és a tesztelés elmulasztása (2. rész).

Milyen a megbízható mesterséges intelligencia? (2. rész)

Melyek a megbízható mesterséges intelligencia követelményei?

Amennyiben az Európa Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportjának etikai iránymutatását vesszük irányadónak, akkor

a megbízható mesterséges intelligencia (MI) jogszerű, etikus, valamint

műszaki és társadalmi szempontból is stabil annak érdekében,

hogy lehetőleg ne okozzon kárt.[i]

Mikor jogszerű egy mesterséges intelligencia?

Akkor, ha az MI kifejlesztésének, elterjesztésének és felhasználásának részét képező folyamatokra és tevékenységekre vonatkozó valamennyi előírást betartjuk. Ezen előírások szempontjából a releváns jogforrások között van

  • az elsődleges uniós jog (az Európai Unió Szerződései és Alapjogi Chartája),
  • a másodlagos uniós jog (például a GDPR, a hátrányos megkülönböztetést tiltó irányelvek, a gépekről szóló irányelv, a termékfelelősségi irányelvek, a nem személyes adatok szabad áramlásáról szóló rendelet, a fogyasztói jogra, valamint a munkahelyi biztonságra és egészségre vonatkozó irányelvek), 
  • az ENSZ emberi jogi egyezményei 
  • az Európa Tanács egyezményei (például az emberi jogok európai egyezménye), valamint
  • az uniós tagállamok joga.

A jogalkotás jelenleg is folyamatban van, számos új jogszabály elfogadása várható a közeljövőben, például a mesterséges intelligencia alkalmazására vonatkozó EU rendelet.

Mikor etikus egy mesterséges intelligencia?

A szakértői csoport szerint

az alapvető jogoknak

a demokrácia és a jogállamiság keretében történő tiszteletben tartása az,

ami megfelelő alapot biztosíthat az olyan elvont etikai elvek és értékek meghatározásához, amely a mesterséges intelligenciával összefüggésben alkalmazhatók.

Melyek ezek?

  • Az emberi méltóság tiszteletben tartása.

Minden emberi lény rendelkezik olyan „belső értékkel”, amelyet mások soha nem csökkenthetnek, sérthetnek vagy nyomhatnak el, így az új technológiák sem. Az Mi-rendszerekben minden embert a neki az erkölcs alanyaként járó tisztelettel, és nem átszitálandó, kiválogatandó, pontozandó, terelendő, kondicionálandó vagy manipulálandó tárgyként kell kezelnünk – azaz az MI-rendszereket oly módon kell kifejlesztenünk, amely az emberek testi és szellemi épségét, személyi és kulturális identitástudatát és alapvető szükségleteinek kielégítését tiszteletben tartja, azt szolgálja és óvja.

  • Az egyén szabadsága.

Hagynunk kell, hogy az emberi lények maguk hozzák meg az életüket érintő döntéseiket. Az egyén szabadsága a mesterséges intelligenciával összefüggésben a közvetlen (közvetett) jogellenes kényszer, a szellemi autonómia és egészség fenyegetésének, az indokolatlan felügyeletnek, megtévesztésnek és tisztességtelen manipulációnak a visszaszorítását igényli, illetve lehetővé kell tennünk, hogy az egyének még szélesebb körű ellenőrzést gyakorolhassanak a saját életük felett, beleértve (más jogok között) a vállalkozás szabadságának, a művészet és a tudomány szabadságának, a véleménynyilvánítás szabadságának, a magánélethez való jognak, valamint a gyülekezés és egyesülés jogának védelmét.

  • A demokrácia, az igazságosság és a jogállamiság tiszteletben tartása.

Az MI-rendszereknek a demokratikus folyamatok fenntartását és elősegítését, valamint az egyének értékei és életükkel kapcsolatos választásai sokféleségének tiszteletben tartását kell szolgálnia és nem áshatjuk alá a demokratikus folyamatokat, az emberi döntéshozatali vagy demokratikus szavazási rendszereket.

  • Egyenlőség, megkülönböztetésmentesség és szolidaritás.

Biztosítanunk kell az emberi lények erkölcsi értékének és méltóságának egyenlő védelmét. Az MI-rendszer műveletei nem hozhatnak méltánytalanul elfogult eredményt, ehhez pedig szükséges, hogy az esetlegesen kiszolgáltatott rétegek, például munkavállalók, nők, fogyatékossággal élő személyek, etnikai kisebbségek, gyermekek, fogyasztók, illetve más, kirekesztés kockázatának kitett személyeket megfelelő tiszteletben részesítsük.

  • A polgárok jogai.

Ilyen jog például a szavazáshoz való jog, a megfelelő ügyintézéshez való jog vagy a nyilvános dokumentumokhoz történő hozzáféréshez való jog, valamint petíció hatóságokhoz való benyújtásának joga. Ezen jogokat óvnunk kell az MI-rendszerek alkalmazása esetén is.

A szakértői csoport véleménye alapján négy fő etikai elv betartására kell mindig törekednünk:

  • Azemberi autonómia tiszteletben tartásának elve.
    • az MI-rendszerekkel nem rendelhetjük alá, nem kényszeríthetjük, téveszthetjük meg, manipulálhatjuk, kondicionálhatjuk vagy terelhetjük indokolatlanul az embereket.
    • az MI-rendszereket úgy kell kialakítanunk, hogy azok az emberek kognitív, szociális és kulturális készségeit fokozzák, kiegészítsék és megerősítsék.
    • az emberek és MI-rendszerek közötti feladatmegosztás elve az emberközpontú kialakítás, azaz az emberi döntésnek jelentős szerepet kell hagynunk és biztosítanunk kell, hogy az ember felügyelhesse és ellenőrizhesse az MI-rendszerek munkafolyamatait.
  • A kár megelőzésének elve.

Az MI-rendszerek soha nem okozhatnak kárt, illetve nem lehetnek hátrányos hatással az emberi lényekre. Az MI-rendszereknek és e rendszerek működési környezetének biztonságosnak kell lennie és meg kell akadályoznunk a rosszindulatú használat lehetőségét.

Különös figyelmet kell fordítanunk azokra a helyzetekre, amelyekben az MI-rendszerek hátrányos hatásokat idézhetnek elő vagy e hatásokat súlyosbíthatják, például

  • a munkaviszonyban,
    • fogyasztói jogviszonyban vagy
    • a kormány és állampolgárok közötti jogviszonyban a fennálló hatalmi vagy információs aszimmetria miatt.

A kár megelőzése nemcsak az emberek, hanem a természetes környezet és valamennyi élőlény figyelembevételét is magában foglalja.

  • A méltányosság elve.

Az MI-rendszerek kifejlesztésének, elterjesztésének és használatának méltányosnak kell lennie:

  • mind az előnyök, mind pedig a költségek egyenlő és igazságos elosztásának, valamint annak biztosítása, hogy az egyének és csoportok ne legyen kitéve méltánytalan torzításnak, hátrányos megkülönböztetésnek és megbélyegzésnek.
    • esélyegyenlőség támogatása az oktatáshoz, termékekhez, szolgáltatásokhoz és technológiához való hozzáférés terén.
    • soha nem eredményezheti a (végső) felhasználók megtévesztését vagy választási szabadságának sérelmét.
    • tiszteletben kell tartanunk az eszközök és célok arányosságának elvét, és alaposan meg kell vizsgálnunk, hogyan teremthető egyensúly a versengő érdekek és célkitűzések között
    • az MI-rendszerek és az e rendszereket üzemeltető emberek által hozott döntések megtámadhatóak legyenek, és a személyek ezen döntésekkel szembeni hatékony jogorvoslat érvényesítésére legyenek képesek. Ennek érdekében a döntésért felelős jogalanyoknak azonosíthatónak, és a döntéshozatali folyamatoknak megmagyarázhatóknak kell lenniük.
  • A megmagyarázhatóság elve.

A folyamatoknak átláthatónak kell lenniük:

  • az MI-rendszerek képességeit és célját nyíltan közölnünk kell, és a döntéseket lehetőség szerint el kell magyaráznunk a közvetlenül és közvetve érintetteknek, mivel tájékoztatás hiányában a döntés szabályszerűen nem vitatható.
    • a „feketedoboz” algoritmusok esetében nem lehet mindig megmagyarázni, hogy az adott modell miért hozott egy adott eredményt vagy döntést, és ehhez a kiindulási tényezők mely kombinációja járult hozzá. Ezekben az esetekben a megmagyarázhatósággal kapcsolatos más intézkedésekre, például a rendszer képességeinek nyomon követhetőségére, ellenőrizhetőségére és az azokkal kapcsolatos átlátható tájékoztatásra lehet szükségünk.
    • a megmagyarázhatóság szükséges mértéke nagyban függ attól, hogy téves vagy egyébként pontatlan eredmény esetén a következmények mennyire súlyosak az érintettekre nézve.

Ezek az elvek akár ütközhetnek is egymással, az ilyen esetekben bizonyítékokon alapuló megfontolt döntésre van szükségünk ahhoz, hogy egyik vagy másik elvet – jogszerűen – háttérbe szoríthassuk.

  • Stabil mesterséges intelligencia.

Még ha az etikusság biztosított is, az egyéneknek és a társadalomnak abban is bíznia kell, hogy az MI-rendszerek nem okoznak nem kívánt kárt, azaz a nemkívánatos hátrányos hatások megelőzése érdekében óvintézkedéseket kell előírni.

Milyen követelményeknek kell megfelelnünk az MI alkalmazása során?

A szakértői csoport szerint az MI alkalmazása során – többek között, de nem kizárólag – az alábbi követelményeknek kell megfelelnünk:

  • az emberi cselekvőképesség támogatása és emberi felügyelet
  • műszaki stabilitás és biztonság (a támadással szembeni ellenálló képesség és a védelem, a készenléti terv és általános biztonság, a pontosság, megbízhatóság és reprodukálhatóság)
  • adatvédelem és adatkezelés (a magánélet tiszteletben tartása, az adatok minősége és sértetlensége, valamint az adatokhoz való hozzáférés)
  • átláthatóság (nyomon követhetőség, a megmagyarázhatóság és a tájékoztatás)
  • sokféleség, megkülönböztetésmentesség és méltányosság (a méltánytalan torzítás elkerülése, a hozzáférhetőség és az egyetemes tervezés, az érdekeltek részvétele)
  • társadalmi és környezeti jólét (a fenntarthatóság és a környezetbarát jelleg, a társadalmi hatás, a társadalom és a demokrácia)
  • elszámoltathatóság (az ellenőrizhetőség, a hátrányos hatás minimalizálása és jelentése, a kompromisszumok és a jogorvoslat).

Az Európa Unió mesterséges intelligencia használatával kapcsolatos rendelettervezete[ii]

A rendelettervezet alapvetően kockázatalapú megközelítést alkalmaz és célja a belső piac működésének javítása azáltal, hogy egységes jogi keretet állapít meg különösen a mesterséges intelligencia uniós értékekkel összhangban történő fejlesztésére, forgalmazására és használatára vonatkozóan.

A rendelet tervezete az alábbi területekre vonatkozik („tárgyi hatály”, 1. cikk):

  1. az MI-rendszerek Unión belüli forgalomba hozatalára, üzembe helyezésére és használatára vonatkozó harmonizált szabályok
  2. egyes mesterségesintelligencia-gyakorlatokra vonatkozó tilalmak
  3. a nagy kockázatú MI-rendszerekre vonatkozó különös követelmények és az ilyen rendszerek üzemeltetőire vonatkozó kötelezettségek
  4. harmonizált átláthatósági szabályok a természetes személyekkel való interakcióra szánt MI-rendszerek, az érzelemfelismerő rendszerek és a biometrikus kategorizálási rendszerek, valamint a kép-, audio- vagy videotartalom előállítására, vagy manipulálására használt MI-rendszerek tekintetében;
  5. a piaci nyomon követésre és a piacfelügyeletre vonatkozó szabályok.

A rendelettervezet és az alapvető jogok védelme

A sajátos jellemzőkkel (például átláthatatlanság, összetettség, adatoktól való függés, autonóm magatartás) rendelkező mesterséges intelligencia használata hátrányosan érinthet számos, az Európai Unió Alapjogi Chartájában (a továbbiakban: Charta) rögzített alapvető jogot. A javaslat biztosítani kívánja ezen alapvető jogok magas szintű védelmét, és egyértelműen meghatározott kockázatalapú megközelítéssel kezelni kívánja a kockázatok különböző forrásait.

A javaslat az alábbi jogok védelmét, illetve támogatását emeli ki:

  • az emberi méltósághoz való jog (1. cikk),
  • a magánélet tiszteletben tartása és a személyes adatok védelme (7. és 8. cikk),
  • a megkülönböztetésmentesség (21. cikk), valamint a nők és férfiak közötti egyenlőség (23. cikk).
  • véleménynyilvánítás szabadságához (11. cikk) és a gyülekezés szabadságához (12. cikk) való jog biztosítása,
  • a hatékony jogorvoslathoz és a tisztességes eljáráshoz való jog, a védelemhez való jog és az ártatlanság vélelme védelmének biztosítása (47. és 48. cikk), valamint a megfelelő ügyintézés általános elve.
  • a munkavállalók tisztességes és igazságos munkafeltételekhez való jog (31. cikk),
  • a magas szintű fogyasztóvédelem (28. cikk),
  • a gyermekek jogai (24. cikk) és
  • a fogyatékossággal élő személyek integrációja (26. cikk)
  • a magas szintű környezetvédelemhez és a környezet minőségének javításához való jog (37. cikk).

A várakozások szerint az előzetes tesztelésre, kockázatkezelésre és az emberi felügyeletre vonatkozó kötelezettségek is elő fogják segíteni egyéb alapvető jogok tiszteletben tartását azáltal, hogy minimálisra csökkentik a mesterséges intelligencián alapuló téves vagy elfogult döntések kockázatát olyan kritikus területeken, mint az oktatás és képzés, foglalkoztatás, fontos szolgáltatások, bűnüldözés és igazságszolgáltatás. Abban az esetben, ha továbbra is sor kerül az alapvető jogok megsértésére, az MI-rendszerek átláthatóságának és nyomon követhetőségének biztosítása, valamint a szigorú utólagos ellenőrzés lehetővé teszi a hatékony jogorvoslatot az érintett személyek számára.

A javaslat bizonyos korlátozásokat vezet be a vállalkozás szabadságára (16. cikk), valamint a művészet és a tudomány szabadságára (13. cikk) azért, hogy a nagy kockázatú MI-technológiák kifejlesztése és használata során érvényesüljenek a közérdeken alapuló kényszerítő indokok, például az egészség, a biztonság, a fogyasztóvédelem és az egyéb alapvető jogok védelme („felelős innováció”). Ezek a korlátozások arányosak, és a súlyos biztonsági kockázatok és az alapvető jogok valószínű megsértésének megelőzéséhez és enyhítéséhez szükséges minimumra korlátozódnak.

A fokozott átláthatósági kötelezettségek a szellemi tulajdon védelméhez való jogot (17. cikk (2) bekezdés) sem érintik aránytalanul, mivel csak az egyének hatékony jogorvoslathoz való jogának gyakorlásához szükséges minimális információkra, valamint a felügyeleti és végrehajtó hatóságok számára szükséges átláthatóságra korlátozódnak. Az információk közzététele az e területre vonatkozó jogszabályoknak – többek között a nem nyilvános know-how és üzleti információk (üzleti titkok) jogosulatlan megszerzésével, felhasználásával és felfedésével szembeni védelemről szóló (EU) 2016/943 irányelvnek – megfelelően történik. Ha a lényeges kötelezettségeknek való megfelelés vizsgálata céljából hozzáférést kell biztosítani a hatóságok és a bejelentett szervezetek számára a bizalmas információkhoz vagy a forráskódhoz, abban az esetben kötelező titoktartási kötelezettség vonatkozik rájuk.

dr. Albert Ágota adatvédelmi és adatbiztonsági szakjogász, DPO


[i] Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan – Mesterséges intelligenciával foglalkozó magas szintű szakértői csoport, 2019.

[ii] https://eur-lex.europa.eu/legal-content/HU/TXT/HTML/?uri=CELEX:52021PC0206&from=HU