Adatvédelmi Szakmai Egyesület Hírek Milyen a megbízható mesterséges intelligencia? (2. rész)

Milyen a megbízható mesterséges intelligencia? (2. rész)


Kétrészes posztunk témája a megbízható mesterséges intelligencia követelményei, az Európai Unió mesterséges intelligenciával kapcsolatos álláspontja (1. rész), illetve a mesterséges intelligenciával kapcsolatos olyan problémák, mint például a torzítások típusai, a diszkrimináció és a tesztelés elmulasztása (2. rész).

Milyen a megbízható mesterséges intelligencia? (1. rész)

A gépi tanulás alapú mesterséges intelligencia problémái (torzítások, diszkrimináció, teszteléssel kapcsolatos hiányosságok)

Napjainkban a mesterséges intelligenciát alkalmazó rendszerek már számos területen elterjedtek, köztük olyanokban is, amelyek rendkívül érzékenyek és amelyek fontos, akár életeket is megváltoztató döntések meghozatalára is használhatók. Éppen ezért nagyon fontos az, hogy

az MI-rendszerek megbízhatóak, a segítségükkel hozott döntések pedig

jogszerűek, tisztességesek, és átláthatóak legyenek,

valamint biztosított legyen, hogy ne adjanak alkalmat diszkriminációra, illetve igazságtalanságra. Ennek érdekében tisztában kell lennünk azzal, hogy milyen hibákkal szembesülhetünk, illetve mindent el kell követnünk annak érdekében, hogy elkerüljük ezeket a hibákat.

„Az elmúlt években az algoritmikus döntéshozatal az amerikai gazdaság néhány legfontosabb területén elfogult, diszkriminatív és más módon problémás eredményeket hozott. (…) Ezeket a károkat gyakran a történelmileg hátrányos helyzetű népességcsoportok, különösen a fekete amerikaiak és más színes bőrű közösségek érzik a legélesebben. És bár a (…) leírt károk közül sok nem teljesen újszerű, a mesterséges intelligencia és az algoritmusok különösen veszélyesek, mert egyszerre képesek elfedni és felerősíteni a problémákat – miközben azt a hamis benyomást keltik, hogy ezek a problémák nem léteznek vagy nem is létezhetnek.”[1]

A gépi tanulás esetében a hibákat két lehetséges forrásra szokták visszavezetni,

egyrészt az adatokban rejlő torzításokra,

másrészt az algoritmusból eredő hibákra.

Hogyan jelennek meg ezek a hibák a gyakorlatban?

Ha például az adott rendszer képzésére használt adatok torzítást tartalmaznak, az ezen adatokkal kiképzett algoritmusok megtanulják (átveszik) ezeket a torzulásokat és az eredményeik ezeket tükrözni fogják. Például amenyiben az adatok diszkriminatívak voltak, az algoritmus döntései is azok lesznek. Azonban az algoritmusok nemcsak tükrözik ezeket a torzításokat, hanem akár fel is erősíthetik és állandósíthatják is ezeket. Az is előfordulhat, hogy bár az adatok nem torzultak, maguk az algoritmusok – bizonyos tervezési-fejlesztési döntések miatt – torzított viselkedést mutathatnak. Az elfogult, diszkriminatív algoritmusok által előállított eredmények (döntések) bekerülhetnek a valós rendszerekbe, és befolyásolhatják a felhasználók döntéseit, ez pedig még elfogultabb adatokat eredményezhet a jövőbeli algoritmusok oktatásához.

Milyen típusai lehetnek a torzításoknak?[2]

1. Hibás bemeneti adatok befolyása az algoritmusra

A képzési adatokban rejlő torzítások torz algoritmikus eredményeket eredményezhetnek. Egy gépi tanuló algoritmus értéke összefügg a kifejlesztéséhez felhasznált adatok minőségével, és a hibás bemenetek alapvetően problémás eredményeket eredményezhetnek („garbage in, garbage out”).

A gépi tanulási algoritmus fejlesztéséhez használt adatok torzak lehetnek például azért, mert az egyes adatpontok problémás emberi torzításokat tükröznek, vagy mert az általános adathalmaz nem megfelelően reprezentatív. A torz képzési adatok gyakran az előítéletek vagy egyenlőtlenségek történelmi és tartós mintáit tükrözik, és amennyiben ez történik, akkor ezek a hibás bemeneti adatok olyan elfogult algoritmusokat hozhatnak létre, amelyek tovább súlyosbítják az igazságtalanságot.

1.1. A mérési vagy adatszolgáltatási torzítás abból ered, ahogyan bizonyos jellemzőket kiválasztunk, felhasználunk és mérünk – például különböző csoportokat különböző mértékben vagy módszerrel mérünk, ez torzíthatja a mérési adatokat.

1.2. Kihagyott változóból eredő torzítás akkor fordul elő, amikor egy vagy több fontos változó kimarad a modellből.

1.3. Reprezentációs torzítás abból adódik, ahogy az adatgyűjtés során mintát veszünk a sokaságból; a nem reprezentatív mintákból hiányzik a sokaság sokszínűsége, hiányzó alcsoportok és egyéb anomáliák.

1.4. Aggregációs torzítás akkor történik, amikor a teljes sokaság megfigyeléséből téves következtetéseket vonunk le az egyénekre vonatkozóan. Ilyen fordulhat elő akkor, amikor a modell figyelmen kívül hagyja az egyéni különbségeket, és ezért valószínűleg nem lesz megfelelő a népesség valamennyi etnikai és nemi csoportja számára.

(a) A Simpson-paradoxon az aggregációs torzítás egy típusa, amely heterogén adatok elemzése során merül fel. A paradoxon akkor merül fel, amikor az aggregált adatokban megfigyelt összefüggés eltűnik vagy megfordul, amikor ugyanazokat az adatokat a mögöttes alcsoportokra bontjuk.

(b) A módosítható területi egység probléma egy olyan statisztikai torzítás a térbeli elemzésben, amely akkor merül fel, amikor az adatokat a térbeli aggregáció különböző szintjein modellezzük. Ez a torzítás azt eredményezi, hogy az adatok különböző térbeli léptékeken történő aggregálásakor különböző tendenciák rajzolódnak ki.

1.5. A mintavételi torzítás a reprezentációs torzításhoz hasonló, és az alcsoportok nem véletlenszerű mintavételezése miatt keletkezik. A mintavételi torzítás következményeként előfordulhat, hogy az egy sokaság alapján becsült trendek nem általánosíthatók egy új sokaságból gyűjtött adatokra.

1.6. Longitudinális adatok torzítása. Az időbeli adatokat elemző kutatóknak longitudinális elemzést kell alkalmazniuk, hogy a kohortokat időben nyomon követhessék, hogy megismerjék viselkedésüket. Ehelyett az időbeli adatokat gyakran keresztmetszeti elemzéssel modellezik, amely különböző kohortokat egyesít egyetlen időpontban. A heterogén kohortok torzíthatják a keresztmetszeti elemzést, ez pedig a longitudinális elemzéstől eltérő következtetésekhez vezethet.

1.7. Kapcsolódási torzítás akkor keletkezik, amikor a felhasználói kapcsolatokból, tevékenységekből vagy interakciókból nyert hálózati attribútumok eltérnek egymástól, és félrevezetőek a felhasználók valódi viselkedésével kapcsolatban.

Összességében megállapítható, hogy a mesterséges intelligencia rendszerekben – különösen a mélytanulási rendszerek esetében – gyakran előfordul a torzítás

  • a változatos és jó minőségű képzési és tesztelési adatok hiánya miatt, például ha olyan adathalmazokat használnak, amelyek nem eléggé reprezentatívak a veszélyeztetett csoportok szempontjából, vagy ha maguk a feladatmeghatározás vagy a követelményrendszerek elfogultak,
  • a fejlesztőcsapatok esetleges sokszínűségének hiánya miatt, megismételve a belső elfogultságokat,
  • a korlátozott mennyiségű képzési és tesztelési adatok miatt, vagy
  • ha egy elfogult MI-fejlesztő veszélyeztette az algoritmust.

Az Európai Parlament AIDA-jelentése[3] hangsúlyozza, hogy a társadalmunkban jelen lévő strukturális előítéleteket nem szabad megismételnünk vagy akár növelnünk az alacsony minőségű adatkészletek révén; mivel az algoritmusok megtanulják, hogy olyan diszkriminatívak legyenek, mint az adatok, amelyekkel dolgoznak, és az alacsony minőségű képzési adatok vagy a társadalomban megfigyelhető előítéletek és megkülönböztetés következtében olyan döntéseket javasolhatnak, amelyek eredendően diszkriminatívak, ami súlyosbítja a társadalmon belüli megkülönböztetést.

Nem mindig lehetséges a mesterséges intelligencia-algoritmusokat

teljes mértékben „torzításmentessé” tenni,

mivel a hibamentes adatok ideális célját nagyon nehéz vagy szinte lehetetlen elérni, illetve még egy tesztelt mesterséges intelligencia-rendszer is elkerülhetetlenül találkozik olyan valós helyzetekkel, amelyek torzított eredményeket produkálhatnak, ha olyan környezetben alkalmazzák, amely eltér a képzési és tesztelési adatok összetételétől. [4]

2. Az algoritmus befolyása a felhasználóra

Az algoritmusok bármilyen torzítása torzíthatja a felhasználói viselkedést.

2.1. Algoritmikus torzításról akkor beszélünk, ha a torzítás nincs jelen a bemeneti adatokban, azt pusztán az algoritmus adja hozzá. Az algoritmikus tervezési döntések, például bizonyos optimalizálási függvények használata, regularizációk, a regressziós modelleknek az adatok egészére vagy alcsoportok figyelembevételével kapcsolatos döntések, valamint a statisztikailag torzított becslések mind hozzájárulhatnak az algoritmikus döntések torzításához, ami torzíthatja az algoritmusok eredményét.

Ebben az esetben a hiba az adatok olyan algoritmusokba történő betáplálásával kapcsolatos, amelyek pontatlan vagy félrevezető következtetéseket generálnak („data in, garbage out”). Az ilyen hiba gyakran előfordul például az érzelemfelismerésre kifejlesztett rendszerek esetében.

2.2. Felhasználói interakciós torzítás a torzítás egy olyan típusa, amely nemcsak a weben figyelhető meg, hanem két forrásból – a felhasználói felületről és magán a felhasználón keresztül is – kiváltható azáltal, hogy a felhasználó saját maga által választott elfogult viselkedését és interakcióját erőlteti. A torzítás ezen típusát más típusok és altípusok, például a prezentációs és rangsorolási elfogultságok is befolyásolhatják.

(a) Prezentációs torzítás az információ prezentálásának módjából adódik. A weben például a felhasználók csak arra a tartalomra kattinthatnak, amit látnak, minden másra nem, miközben előfordulhat, hogy a felhasználó nem látja az összes információt a weben.

(b) Rangsorolási torzítás abból adódik, hogy lehet olyan elképzelés, miszerint a legjobb helyre rangsorolt eredmények a legrelevánsabbak és legfontosabbak. Ez a torzítás a keresőmotorokat és a közösségi alkalmazásokat érinti.

2.3. Népszerűségi torzítás. A népszerűbb elemek általában jobban szem előtt vannak. A népszerűségi mérőszámok azonban ki vannak téve a manipulációnak például hamis véleményeknek vagy közösségi botoknak köszönhetően. Ez a típusú torzítás a keresőmotorokban, illetve az ajánlórendszerekben figyelhető meg, amelyek a népszerűbb elemeket jobban bemutatják a közönségnek – ez a bemutatás azonban nem feltétlenül a jó minőséget tükrözi, hanem más torzító tényezők miatt is előfordulhat.

2.4. Az emergens torzítás a használat és a valódi felhasználókkal való interakció eredményeként jön létre. Ez a torzítás a lakosság, a kulturális értékek vagy a társadalmi ismeretek változásának eredményeként keletkezik, általában a tervezés befejezését követően.

2.5. Az értékelési torzítás a modellértékelés során történhet és ide tartozik a nem megfelelő és aránytalan referenciaértékek használatát az alkalmazások értékeléséhez.

2.6. Automatizálási torzítás. A mesterséges intelligencia képességei biztonsági kockázatokat is jelenthetnek, mivel olyannyira megbízhatunk a mesterséges intelligenciában, hogy jobban bízunk benne, mint saját ítélőképességünkben. Előfordulhat, hogy a mesterséges intelligencia autonómiájának szintjét az eredetileg tervezett támogató szerepkörön túlra emeljük, és ezáltal elszalasztjuk a lehetőséget, hogy tapasztalatot szerezzünk és fejlesszük a mesterséges intelligencia rendszerekkel kapcsolatos készségeinket és ismereteinket. Az ilyen automatizálási torzítások leküzdése érdekében a magas kockázatú mesterséges intelligencia rendszerekben a tervezés általi biztonságra és a megfelelő képzésen alapuló, értelmes emberi felügyeletre, valamint a megfelelő biztonsági és adatvédelmi biztosítékokra van szükségünk.[5]

3. A felhasználó befolyása az algoritmusra

Az ML-modellek képzéséhez használt számos adatot a felhasználók generálnak, és a felhasználókban rejlő esetleges torzítások tükröződhetnek az általuk generált adatokban. Továbbá, ha a felhasználói viselkedést algoritmus befolyásolja/modulálja, az algoritmusban jelen lévő bármilyen torzítás torzítást vihet be az adatgenerálási folyamatba.

3.1. A historikus torzítás a világban már meglévő torzítás, illetve társadalmi-technikai problémák, amelyek még tökéletes mintavétel és funkcióválasztás esetén is beszivároghatnak az adatgenerálási folyamatból.

3.2. A populációs (a sokaság) torzítás akkor merül fel, amikor a platform felhasználói populációjában a statisztikai adatok, a demográfiai adatok, a képviselők és a felhasználói jellemzők eltérnek az eredeti célpopulációtól. A populációs torzítás nem reprezentatív adatokat hoz létre. Az ilyen típusú torzításra példa lehet a különböző közösségi platformok eltérő felhasználói demográfiai jellemzői, például az, hogy a nők nagyobb valószínűséggel használják a Pinterestet, a Facebookot, az Instagramot, míg a férfiak aktívabbak az olyan online fórumokon, mint a Reddit vagy a Twitter.

3.3. Az önválasztási torzítás a szelekciós vagy mintavételi torzítás egyik altípusa, amelyben a kutatás alanyai önmagukat választják ki. Az ilyen típusú torzításra példa lehet egy politikai jelölt iránti lelkesedést mérő közvélemény-kutatás, ahol a leglelkesebb támogatók nagyobb valószínűséggel töltik ki a felmérést.

3.4. A társadalmi (szociális) torzítás akkor következik be, amikor mások cselekedetei befolyásolják az ítéletünket. Az ilyen típusú elfogultságra példa lehet az, amikor egy elemet alacsony pontszámmal akarunk értékelni vagy véleményezni, de más magas értékelések hatására megváltoztatjuk a pontozásunkat azt gondolván, hogy talán túl szigorúak vagyunk.

3.5. A viselkedési torzítás a különböző platformokon, kontextusokban vagy különböző adathalmazokban eltérő felhasználói viselkedésből ered; például a platformok közötti emoji-reprezentációk közötti különbségek hogyan eredményezhetnek eltérő reakciókat és viselkedést az emberek részéről, és néha még kommunikációs hibákhoz is vezethetnek.

3.6. Az időbeli torzítás a populációk és viselkedések időbeli különbségeiből adódik. Erre példa a Twitteren figyelhető meg, ahol az emberek egy adott témáról beszélgetve egy bizonyos ponton elkezdenek egy hashtaget használni, hogy megragadják a figyelmet, majd a hashtag használata nélkül folytatják a vitát az eseményről.

3.7. A tartalom előállítási torzítás a felhasználók által generált tartalmak strukturális, lexikai, szemantikai és szintaktikai különbségeiből adódik. Az ilyen típusú torzításra példa az, amikor a különböző nemű és korú csoportok nyelvhasználatának különbségei kerülnek megvitatásra.

Mikor beszélünk diszkriminációról az MI-rendszerek esetében?

A torzításokhoz hasonlóan a diszkrimináció is okozhat méltánytalanságot. Ebben az esetben

a megkülönböztetés az emberi előítéleteknek

és az érzékeny tulajdonságokon alapuló sztereotipizálásnak köszönhető,

ami történhet szándékosan vagy akaratlanul, míg a torzítások az adatgyűjtésnek, a mintavételnek és a mérésnek köszönhetőek.

1. A megmagyarázható diszkrimináció olyan diszkrimináció, amely során a különböző csoportok közötti bánásmódbeli és eredménybeli különbségek igazolhatóak és magyarázhatóak bizonyos tulajdonságok révén. Ekkor előfordulhat, hogy azok a módszerek, amelyek nem veszik figyelembe a megkülönböztetés megmagyarázható részét, nemkívánatos eredményekhez vezethetnek, így bekövetkezhet a fordított megkülönböztetést, amely ugyanolyan káros és nemkívánatos.

2. A megmagyarázhatatlan diszkrimináció esetében egy csoporttal szembeni megkülönböztetés indokolatlan, és ezért jogellenesnek tekinthető. Az ilyen esetekre vannak olyan előfeldolgozási technikák, amelyek úgy változtatják meg a képzési adatokat, hogy azok ne tartalmazzanak megmagyarázhatatlan diszkriminációt.

A megmagyarázhatatlan megkülönböztetés származhat közvetlen, illetve közvetett megkülönböztetésből.

(a) Közvetlen diszkrimináció akkor történik, amikor az egyének védett tulajdonságai kifejezetten nem kedvező eredményeket eredményeznek velük szemben. Ezek jellemzően olyan, a törvény által meghatározott tulajdonságok, amelyek alapján jogellenes a megkülönböztetés.

(b) A közvetett megkülönböztetés során az egyénekkel látszólag semlegesnek tűnő és nem védett tulajdonságok alapján bánnak; a védett csoportok vagy egyének azonban a védett tulajdonságaikból eredő implicit hatások következtében mégis igazságtalan bánásmódban részesülnek (pl. egy személy lakóhelyi irányítószámát felhasználhatják olyan döntéshozatali folyamatokban, mint a hitelkérelmek).

Amikor az algoritmikus rendszerek helyettesítő (proxy) diszkriminációt alkalmaznak, egy vagy több, látszólag semleges változót használnak egy jogilag védett tulajdonság helyettesítésére/jelzésére, ami gyakran a védett osztályok egyenlőtlen bánásmódját vagy egyenlőtlen hatását eredményezi bizonyos gazdasági, társadalmi és állampolgári lehetőségek tekintetében. Ezek az algoritmusok látszólag semleges jellemzőket azonosítanak, hogy olyan csoportokat hozzanak létre, amelyek szorosan tükröznek egy védett osztályt, és ezeket a „helyetteseket”/”jelzőket” (proxykat) használják fel a befogadásra vagy kizárásra.

Mi lehet a diszkrimináció forrása?

1. A rendszerszintű diszkrimináció olyan politikákra, szokásokra vagy viselkedésre utal, amelyek egy szervezet kultúrájának vagy struktúrájának részét képezik, és amelyek állandósíthatják a lakosság bizonyos alcsoportjainak diszkriminációját.

2. A statisztikai diszkrimináció olyan jelenség, amikor a döntéshozók csoportstatisztikák átlagát használják az adott csoporthoz tartozó egyén megítélésére. Ez általában akkor fordul elő, amikor a döntéshozók (pl. a munkáltatók vagy a bűnüldöző szervek) az egyén nyilvánvaló, felismerhető jellemzőit használják fel akár rejtett, akár nehezebben meghatározható jellemzők helyettesítésére, amelyek valójában relevánsak lehetnek az eredmény szempontjából.

A mesterséges intelligencia rendszerekben az előítéletek csökkentésének egyik leghatékonyabb módja annak biztosítása, hogy – az uniós jog által lehetséges mértékben – a lehető legtöbb nem személyes adat álljon rendelkezésre a képzés és a gépi tanulás céljaira.[6]

Milyen problémák fakadhatnak a tesztelés elmulasztásából?

Még ha egy algoritmust gondosan és jó szándékkal terveztek is, akkor is hozhat torz vagy káros, nem várt eredményeket. Az algoritmusokat gyakran alkalmazzák anélkül, hogy olyan megfelelő tesztelésre kerülne sor, amely feltárhatná ezeket a nemkívánatos eredményeket, mielőtt azok a való világban kárt okoznának az embereknek. Az Európai Unió Alapjogi Ügynöksége példálózó jelleggel ad javaslatot a teszteléssel kapcsolatban:

„(…) tesztelhetnék a megkülönböztetést. Ez alapulhat a mindennapi életben az elfogultság tesztelésére használt bevált módszertanokhoz hasonló módszereken, például az álláspályázatokkal összefüggésben használt módszeren, amikor a pályázó nevét kicserélik azért, hogy (közvetetten) jelezzék az etnikai származását. Az MI-alkalmazásokkal kapcsolatban ezek a tesztek magukban foglalhatnák csak a védett tulajdonságok tekintetében különböző hamis profilok online eszközökön való lehetséges létrehozását. Így az eredményt értékelhetik a lehetséges megkülönböztetés szempontjából. A kutatást a védett csoportokkal kapcsolatos adatkészletek közötti különbségek felderítését célzó magas szintű statisztikai elemzések is elősegíthetnék, amelyek alapul szolgálhatnak a lehetséges megkülönböztetés felderítésére.”[7]

Nem sokat ér azonban olyan tesztelés, amely során tesztadatként a tanuló adatokat használják például azért, mert kevés adat áll rendelkezésre.

Az Európai Unió Alapjogi Ügynöksége kihangsúlyozza még a hatásvizsgálat fontosságát is, különös tekintettel a Chartában rögzített alapjogokra. Slaughter (USA) az átláthatóság szerepét emeli ki az algoritmusokkal kapcsolatban:

„Majdnem minden problémás példában nem világos, hogy pontosan milyen inputok és döntések vezettek az elfogult vagy más módon káros eredményhez. A szabadalmaztatott algoritmikus modellek gyakran titokzatosságba burkolóznak és korlátozott emberi közreműködéssel működnek, és a „fekete doboz” átláthatatlansága miatti frusztráció a fogyasztókban erőtlenséget és bizalmatlanságot kelthet. Ugyanakkor a döntéseket hozó semleges technológia patinája azt az érzést kelti, hogy a rossz algoritmusok alkalmazói vagy fejlesztői nem lehetnek felelősek az eredményekért. A fekete doboz homályosságának kombinációja a bonyolult és látszólag semleges technológia széles körű alkalmazásával hamis biztonságérzetet nyújt az algoritmikus döntéshozatal objektivitásában.

Az átláthatóság növelése lerántja a leplet ezekről az átláthatatlan folyamatokról. A szabályozási rendszerünk régi alapköve, az átláthatóság megköveteli, hogy az algoritmikus rendszerek fejlesztői és alkalmazói biztosítsák, hogy az automatizált döntések a lehető legjobban megmagyarázhatóak és védhetőek legyenek. A napfény segítségével az érdekvédők, a tudósok és más harmadik felek szélesebb körben tesztelhetik a diszkriminatív és káros eredményeket.”[8]

A mesterséges intelligenciával kapcsolatos bizonyos torzítások korrigálhatók, ennek érdekében az ilyen rendszerek esetében technikai eszközöket kell alkalmazni, és különböző ellenőrzési rétegeket kell létrehozni, beleértve az általuk használt és előállított szoftvereket, algoritmusokat és adatokat is, hogy ez a kockázat a lehető legkisebbre csökkenjen. Ezen túlmenőleg a mesterséges intelligenciát fel lehet használni az előítéletek és a megkülönböztetés csökkentésére, valamint az egyenlő jogok és a pozitív társadalmi változások előmozdítására.

dr. Albert Ágota adatvédelmi és adatbiztonsági szakjogász, DPO


[1] Rebecca Kelly Slaughter with Janice Kopec and Mohamad Batal: Algorithms and Economic Justice: A Taxonomy of Harms and a Path Forward for the Federal Trade Commission, August 2021, ISP Digital Future Whitepaper & YJoLT Special Publication

[2] Mehrabi et al. A Survey on Bias and Fairness in Machine Learning alapján. arXiv:1908.09635v3 [cs.LG] 25 Jan 2022

[3] European Parliament Special Committee on Artificial Intelligence in a Digital Age: REPORT on artificial intelligence in a digital age (2020/2266(INI))

[4] European Parliament Special Committee on Artificial Intelligence in a Digital Age: REPORT on artificial intelligence in a digital age (2020/2266(INI))

[5] European Parliament Special Committee on Artificial Intelligence in a Digital Age: REPORT on artificial intelligence in a digital age (2020/2266(INI))

[6] European Parliament Special Committee on Artificial Intelligence in a Digital Age: REPORT on artificial intelligence in a digital age (2020/2266(INI))

[7] Hogyan alakítsuk jól a jövőt? Mesterséges intelligencia és alapvető jogok – Összefoglaló. Az Európai Unió Alapjogi Ügynöksége (FRA), 2021

[8] Rebecca Kelly Slaughter with Janice Kopec and Mohamad Batal: Algorithms and Economic Justice: A Taxonomy of Harms and a Path Forward for the Federal Trade Commission, August 2021, ISP DIGITAL FUTURE WHITEPAPER & YJoLT SPECIAL PUBLICATION