Nädal XV (IT-eetikakoodeksid)
Viieteistkümnenda ning ühtlasi viimase nädala postituse eesmärgiks oli valida mõni huvipakkuvam IT-eetikakoodeks ning seda analüüsida. Laias laastus paistsid kõik postituse eeltööks uuritud suurfirmade eetikakoodeksid üsnagi ühe malli järgi kirjutatud: me ei kasuta sunnitööd, lapstööjõudu, järgime seadust, austame teineteist, kaitseme ettevõtte vara, kaitseme keskkonda, hoiame privaatsust jne. Ettevõtete puhul on eetika kahtlemata oluline teema, kuid eetikakoodeksite osas olen pigem kõhkleval seisukohal, allpool leiab sellele ka põhjenduse. Küll aga olen nõus nädalatekstiga (1) selles osas, et kuna mitmed teised analoogsed dokumendid on juba võetud vaevaks fikseerida, siis miks ei võiks seda teha ka eetikakoodeksiga - midagi hullemaks see ometigi ei tee. Analüüsitavaks koodeksiks osutus ainus, mis vaadeldutest suuremal määral erines ning selleks on Google AI eetikakoodeks, kuid järgnevas lõigus tuleb näiteid ka Facebookilt ja teistelt suurtelt IT-ettevõtetelt.
Alustan kohe sellest, miks mul üldiselt eetikakoodeksitesse üleüldiselt vähe usku on. 2016. aastal avaldatud Amnesty Internationali raportis väideti, et terve rida suurettevõtteid, nende seas nii Microsoft kui ka Apple, ostsid Kongo Demokraatlikust Vabariigist akude tootmiseks lapstööjõu poolt kaevandatud koobaltit (2) - ettevõtted aga vastasid, et nad ei ole võimelised täpselt ütlema, kust nende koobalt tuleb (3). Keeruline on uskuda, et nimetatud ettevõtted tõepoolest ei ole võimelised tuvastama, kust nende koobalt pärineb, et Amazoni peamiseks prioriteediks on töötajate heaolu, tervis ja ohutus (4), et Facebook tõepoolest oma kasutajate privaatsusest sel määral hoolib, nagu väidab nende eetikakoodeks (5). Seal on kirjutatud, et nad austavad inimeste privaatsust kõigis oma tegemistes, annavad inimestele hääle, kaitsevad nii nende privaatsust kui neid endid ning loovad tooteid, mis on disainitud justnimelt privaatsusest lähtuvalt - ilusad pildid ja pehmed toonid kenasti taustaks. Koodeksis on öeldud: “We continue to safeguard the privacy and security of the data we are entrusted with.” - ja samal ajal lekib dokument, mille kohaselt ei tea tegelikult Facebook ise ka päris täpselt, kuhu nende andmed välja jõuavad või kuidas neid kasutatakse (6). 2018. aastal avalikkuse ette tulnud Cambridge Analytica juhtum seda mõtet pigem toetab (7). Üldiselt on probleemiks kõik justkui ühe vitsaga löödud sotsiaalmeedia platvormid, kelle eetikakoodeksid kooris esimeses lõigus toodud punkte kordavad. Privaatsusprobleemidele lisaks on levinud ka vaieldavalt ebaeetiline tähelepanumajandus, mis manipulatiivseid ning isegi petvaid taktikaid kasutades inimesi tarkvaraplatvormides ning -teenustes kinni hoiab (8). Selle kohta on viidatud artikli autoriks olev UX disainer Harry Brignull kasutusele võtnud ka termini dark pattern ehk tume muster (9). Tumedate mustrite näideteks võib siin tuua taaskord Facebooki ning nende mobiilirakenduse, mida Samsungi nutitelefonides lõplikult maha lasta lihtsalt ei saagi (10) või Amazoni ning nende kurikuulsa konto kustutamise protsessi (11). Niisiis tunduvad suur osa eetikakoodekseid olema lihtsalt võltsid ning silmakirjalikud ega anna eriti ausat ning adekvaatset ülevaadet ettevõtte tegelikust olukorrast ning seisukohtadest - teod loevad, mitte üksnes sõnad. See tundub olevat ennekõike dokument, millele saab näpuga näidata juhul, kui midagi valesti peaks minema.
Nüüd aga põhiteema juurde, milleks on Google AI eetikakoodeks (12). Tuleb tunnistada, et tegemist ei ole tõenäoliselt nädalateema kontekstis kõige õigemini valitud koodeksiga, kuna see ei käsitle mitmesuguseid keskkondlikke, sotsiaalseid, juhtimise ning töötajate heaoluga seotud teemasid, vaid ennekõike AI arendusega seonduvaid eetilisi printsiipe. Antud koodeks koosneb peamiselt seitsmest taotlusest arendatavale tehisintelligentsile ning neljast valdkonnast, mida koodeksi järgi Google AI lubab vältida.
Taotlused on järgnevad:
Alustan kohe sellest, miks mul üldiselt eetikakoodeksitesse üleüldiselt vähe usku on. 2016. aastal avaldatud Amnesty Internationali raportis väideti, et terve rida suurettevõtteid, nende seas nii Microsoft kui ka Apple, ostsid Kongo Demokraatlikust Vabariigist akude tootmiseks lapstööjõu poolt kaevandatud koobaltit (2) - ettevõtted aga vastasid, et nad ei ole võimelised täpselt ütlema, kust nende koobalt tuleb (3). Keeruline on uskuda, et nimetatud ettevõtted tõepoolest ei ole võimelised tuvastama, kust nende koobalt pärineb, et Amazoni peamiseks prioriteediks on töötajate heaolu, tervis ja ohutus (4), et Facebook tõepoolest oma kasutajate privaatsusest sel määral hoolib, nagu väidab nende eetikakoodeks (5). Seal on kirjutatud, et nad austavad inimeste privaatsust kõigis oma tegemistes, annavad inimestele hääle, kaitsevad nii nende privaatsust kui neid endid ning loovad tooteid, mis on disainitud justnimelt privaatsusest lähtuvalt - ilusad pildid ja pehmed toonid kenasti taustaks. Koodeksis on öeldud: “We continue to safeguard the privacy and security of the data we are entrusted with.” - ja samal ajal lekib dokument, mille kohaselt ei tea tegelikult Facebook ise ka päris täpselt, kuhu nende andmed välja jõuavad või kuidas neid kasutatakse (6). 2018. aastal avalikkuse ette tulnud Cambridge Analytica juhtum seda mõtet pigem toetab (7). Üldiselt on probleemiks kõik justkui ühe vitsaga löödud sotsiaalmeedia platvormid, kelle eetikakoodeksid kooris esimeses lõigus toodud punkte kordavad. Privaatsusprobleemidele lisaks on levinud ka vaieldavalt ebaeetiline tähelepanumajandus, mis manipulatiivseid ning isegi petvaid taktikaid kasutades inimesi tarkvaraplatvormides ning -teenustes kinni hoiab (8). Selle kohta on viidatud artikli autoriks olev UX disainer Harry Brignull kasutusele võtnud ka termini dark pattern ehk tume muster (9). Tumedate mustrite näideteks võib siin tuua taaskord Facebooki ning nende mobiilirakenduse, mida Samsungi nutitelefonides lõplikult maha lasta lihtsalt ei saagi (10) või Amazoni ning nende kurikuulsa konto kustutamise protsessi (11). Niisiis tunduvad suur osa eetikakoodekseid olema lihtsalt võltsid ning silmakirjalikud ega anna eriti ausat ning adekvaatset ülevaadet ettevõtte tegelikust olukorrast ning seisukohtadest - teod loevad, mitte üksnes sõnad. See tundub olevat ennekõike dokument, millele saab näpuga näidata juhul, kui midagi valesti peaks minema.
Nüüd aga põhiteema juurde, milleks on Google AI eetikakoodeks (12). Tuleb tunnistada, et tegemist ei ole tõenäoliselt nädalateema kontekstis kõige õigemini valitud koodeksiga, kuna see ei käsitle mitmesuguseid keskkondlikke, sotsiaalseid, juhtimise ning töötajate heaoluga seotud teemasid, vaid ennekõike AI arendusega seonduvaid eetilisi printsiipe. Antud koodeks koosneb peamiselt seitsmest taotlusest arendatavale tehisintelligentsile ning neljast valdkonnast, mida koodeksi järgi Google AI lubab vältida.
Taotlused on järgnevad:
- Sotsiaalne kasutegur - valdkondade valikul lähtutakse ennekõike ühiskondlikust kasust, mis peab üle kaaluma riski. Samuti soovitakse AI abil suurenevas infohulgas tuua välja täpne ning kõrge kvaliteediga informatsioon, järgides kultuurseid, sotsiaalseid ning seaduslikke norme riikides, kus Google AI tegutseb.
- Neutraalsus ja erapooletus - üritatakse minimeerida algoritmides ning treeningandmetest erapoolikus rassi, etnilise kuuluvuse, soo, sissetuleku, seksuaalse orientatsiooni, religiooni suhtes..
- Ohutus - ohutustavade järgimine, testimine kontrollitud keskkonnas ning monitooring peale tarkvara väljalaskmist.
- Inimkontroll - tehisintelligents jääb inimeste poolt juhitavaks ning kontrollitavaks.
- Privaatsus - märksõnadeks läbipaistvus ning nõusoleku küsimine kasutajatelt.
- Teaduslikud standardid - õppematerjalide, teadmiste ning teadustöö jagamine, mitmesuguste teadusvaldkondadega läbipõimumine.
- Kättesaadavuse tingimused - enne tehnoloogia jagamist laiemale üldsusele hinnatakse, kas
- tehnoloogia on kasutatav pahatahtlikel eesmärkideks või on selleks lihtsasti kohaldatav
- kas tehnoloogial on olemasoleva ees mõni eelis või
- kas oleks ta teistest kättesaadavam kui suur oleks tehnoloogia kasutamise mõju ühiskonnale
- mis oleks Google roll antud tehnoloogias
Hoiduda aga lubatakse järgnevatest rakendustest:
Google puhul on toodud punktidest kindlasti olnud probleemiks neutraalsuse ning erapooletuse punkt. Tihtipeale sõltub pildituvastuse tulemus mõnest füüsilisest tunnusmärgist - nii on näiteks käeshoitav kraadiklaas sõltuvalt nahavärvist tehisintelligentsi poolt sildistatud kas elektrooniliseks seadmeks või relvaks, tumedanahalised inimesed ise aga sootuks gorilladeks (13). Google vabandas, kuid viga neil otseselt parandada ei õnnestunudki. Selle asemel otsustati Google pildituvastuse süsteemist absoluutselt kõik vasted gorilladele eemaldada (14). Ühtlasi väärib veidi kriitikat kolmas punkt tehnoloogiatest, mida lubatakse vältida - nimelt jälgimist ning informatsiooni kogumist võimaldavad tehnoloogiad. Kuigi tegu ei pruugi olla otseselt isikustatud informatsiooniga, kasutab Google sellegipoolest tehisintelligentsi näiteks reklaamide sihtgruppide kindlakstegemiseks ning “sihtimiseks” (15), mis eeldab inimeste eelistuste, tausta ning isikuomaduste “mõningast” tundmist ning neid andmeid ju ometigi kogutakse ning hoitakse. Muus osas aga tunduvad välja toodud printsiibid mõistlikud ning head, kuid nagu igal ettevõttel, on lihtne tekkima konflikt ettevõtte majanduslike huvide ning eetiliste ideaalide vahel - seda eriti globaalsete organisatsioonide puhul, nagu seda on Google. Oluline aga on, et needsamad ideaalid oleksid paigas ning hetkel see nii tundub olevat. Ja seda, kas need jäävad pelgalt sõnadeks või väljenduvad ka tegudes, näitab aeg.
Allikad:
- Tehnoloogiad, mis võivad tekitada kahju või mida oleks võimalik kasutada pahatahtlikel eesmärkidel. Sarnaselt ülaltoodud sotsiaalse kasuteguri punktiga peab kasutegur üle kaaluma võimaliku riski.
- Relvad või tehnoloogiad, mida saaks kasutada relvana tekitamaks füüsilisi vigastusi.
- Tehnoloogiad, mida saab kasutada inimeste kohta informatsiooni kogumiseks või nende jälgimiseks, mis rikuvad aktsepteeritud norme.
- Tehnoloogiad, mis rikuvad rahvusvahelist seadust või inimõigusi.
Google puhul on toodud punktidest kindlasti olnud probleemiks neutraalsuse ning erapooletuse punkt. Tihtipeale sõltub pildituvastuse tulemus mõnest füüsilisest tunnusmärgist - nii on näiteks käeshoitav kraadiklaas sõltuvalt nahavärvist tehisintelligentsi poolt sildistatud kas elektrooniliseks seadmeks või relvaks, tumedanahalised inimesed ise aga sootuks gorilladeks (13). Google vabandas, kuid viga neil otseselt parandada ei õnnestunudki. Selle asemel otsustati Google pildituvastuse süsteemist absoluutselt kõik vasted gorilladele eemaldada (14). Ühtlasi väärib veidi kriitikat kolmas punkt tehnoloogiatest, mida lubatakse vältida - nimelt jälgimist ning informatsiooni kogumist võimaldavad tehnoloogiad. Kuigi tegu ei pruugi olla otseselt isikustatud informatsiooniga, kasutab Google sellegipoolest tehisintelligentsi näiteks reklaamide sihtgruppide kindlakstegemiseks ning “sihtimiseks” (15), mis eeldab inimeste eelistuste, tausta ning isikuomaduste “mõningast” tundmist ning neid andmeid ju ometigi kogutakse ning hoitakse. Muus osas aga tunduvad välja toodud printsiibid mõistlikud ning head, kuid nagu igal ettevõttel, on lihtne tekkima konflikt ettevõtte majanduslike huvide ning eetiliste ideaalide vahel - seda eriti globaalsete organisatsioonide puhul, nagu seda on Google. Oluline aga on, et needsamad ideaalid oleksid paigas ning hetkel see nii tundub olevat. Ja seda, kas need jäävad pelgalt sõnadeks või väljenduvad ka tegudes, näitab aeg.
Allikad:
- https://wiki.itcollege.ee/index.php/E-ITSPEA_15:_Eetika_ja_IT
- https://www.amnesty.org/en/documents/afr62/3183/2016/en/
- https://www.amnesty.org/en/latest/news/2016/01/Child-labour-behind-smart-phone-and-electric-car-batteries/
- https://sustainability.aboutamazon.com/people/human-rights/principles
- https://s21.q4cdn.com/399680738/files/doc_downloads/governance_documents/2021/06/FB-Code-of-Conduct.pdf
- https://www.techradar.com/news/facebook-has-no-clue-where-your-data-goes-leak-suggests
- https://www.businessinsider.com/cambridge-analytica-a-guide-to-the-trump-linked-data-firm-that-harvested-50-million-facebook-profiles-2018-3
- https://harrybr.medium.com/bringing-dark-patterns-to-light-d86f24224ebf
- https://www.deceptive.design/
- https://time.com/5497200/samsung-facebook-app-delete/
- https://www.trustedreviews.com/news/delete-amazon-account-3966577
- https://ai.google/principles/
- https://venturebeat.com/2021/09/03/bias-persists-in-face-detection-systems-from-amazon-microsoft-and-google/
- https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/
- https://www.thinkwithgoogle.com/future-of-marketing/emerging-technology/ai-personalized-marketing/
Kommentaarid
Postita kommentaar