Môže byť umelá inteligencia rasistická? Nové výsledky štúdií prekvapujú aj samotných vedcov

Ruka bieleho robota

Môže byť umelá inteligencia rasistická? (Zdroj: Unsplash/Possessed Photography)

#Nový výskum odhalil, že modely hlbokého učenia založené na umelej inteligencii dokážu identifikovať niečiu rasu len z ich röntgenových snímkov – niečo, čo by pre ľudského lekára pri pohľade na rovnaké obrázky nebolo možné. Zistenia vyvolávajú viaceré znepokojujúce otázky o úlohe umelej inteligencie v lekárskej diagnostike, hodnotení a liečbe. Mohla by byť rasová zaujatosť neúmyselne použitá počítačovým softvérom pri štúdiu obrázkov, ako sú tieto?

Medzinárodný tím zdravotníckych výskumníkov z USA, Kanady a Taiwanu pracoval s umelou inteligenciou, ktorá mala rozoznať rasu na stovkách tisícov röntgenových snímok. Výskumníci mali pritom tieto snímky označené s podrobnosťami o rase pacienta. Umelá inteligencia na týchto obrázkoch predpovedala rasovú identitu pacienta s prekvapivou presnosťou, a to aj vtedy, keď boli skeny urobené od ľudí rovnakého veku a rovnakého pohlavia. Systém dosiahol úrovne 90 percent s niektorými skupinami obrázkov.

Takmer sto percentná presnosť

Práve teraz si vedci nie sú istí, prečo je systém umelej inteligencie taký dobrý pri identifikácii rasy z obrázkov, ktoré neobsahujú takéto informácie, aspoň nie na povrchu. Aj keď sú poskytnuté obmedzené informácie, napríklad odstránením záchytných bodov o hustote kostí alebo zameraním sa na malú časť tela, modely si stále viedli prekvapivo dobre pri uhádnutí rasy uvedenej v súbore.


Umelá inteligencia a deepfake vo videoklipe? Kendrick Lamar prichádza s revolúciou, mení sa na Willa Smitha či Kanyeho Westa


Výskum odzrkadľuje výsledky predchádzajúcej štúdie, ktorá zistila, že skenovanie röntgenových snímok umelou inteligenciou s väčšou pravdepodobnosťou nezistilo známky choroby u černochov. Aby sa tomu zabránilo, vedci musia pochopiť, prečo sa to deje. Umelá inteligencia svojou podstatou napodobňuje ľudské myslenie, aby rýchlo rozpoznala vzory v údajoch. To však tiež znamená, že môže nevedomky podľahnúť rovnakým druhom predsudkov.

Prečo sa to deje?

Výskum pridáva k rastúcej hromade dôkazov , že systémy AI môžu často odrážať predsudky a predsudky ľudských bytostí, či už ide o rasizmus, sexizmus alebo niečo iné. Skreslené tréningové údaje môžu viesť k skresleným výsledkom, takže sú oveľa menej užitočné. To musí byť v rovnováhe so silným potenciálom umelej inteligencie získať oveľa viac údajov oveľa rýchlejšie ako ľudia, a to všade od techník detekcie chorôb až po modely klimatických zmien.

Je možné, že systém nachádza známky melanínu, pigmentu, ktorý dáva pokožke jej farbu, ktoré veda zatiaľ nepozná. Zo štúdie zostáva veľa nezodpovedaných otázok, ale zatiaľ je dôležité uvedomiť si potenciál rasovej zaujatosti, ktorá sa môže prejaviť v systémoch umelej inteligencie – najmä ak im v budúcnosti prenesieme väčšiu zodpovednosť.


Čaká ťa tento rok maturita? Uč sa s naším maturitným podcastom Schooltag!

Zdroj: hashtag.sk, sciencealert.com
Odporúčame