Dokáže písať piesne i zložiť skúšky z medicíny: Aká je odvrátená stránka chatbotu Chat GTP?

roboty

Asi ťa neprekvapí, že umelá inteligencia má aj svoje temné stránky (ZDROJ: Unsplash/julien Tromeur)

#O umelej inteligencii sa momentálne hovorí čoraz častejšie. Portréty vytvorené pomocou AI znepokojujú umelcov a len pred nedávnom sme ťa informovali o chatbote Chat GTP, ktorý je schopný napríklad napísať pieseň v štýle konkrétneho umelca. Práve z tohto dôvodu si „vyslúžil“ kritiku Nicka Cavea, a spevák ani zďaleka nie je jediný, kto upozorňuje na odvrátenú stránku umelej inteligencie.

O čo vlastne ide?

Chat GTP je open-source chatbot, ktorý spoločnosť Open AI spustila ešte v novembri minulého roka. Chat GTP sa „učí“ z textov napísaných ľuďmi a jeho úlohou je imitovať ľudskú konverzáciu. Vzhľadom na to, že z veľkej časti čerpá z odborných textov, často dokáže poskytnúť kvalifikované odpovede či napodobniť štýl písania konkrétnych autorov.

Keďže sa však Chat GTP učí z testov na internete, ktoré písali ľudia, „učí“ sa aj ich predsudky, ktoré sa následne prejavujú v konverzáciách. Stále navyše ide o technológiu, ktorá nerozumie kontextu konverzácie, a ako upozorňuje špecialista na etiku umelej inteligencie Timnit Gebru, nedokáže ani rozlíšiť fakty od fikcie.

„Nevie rozlíšiť, čo je pravda a čo nie, ani nič také. V podstate len opakuje to, čo je na internete,“ povedal Gebru pre CBS.

Dokáže byť veľmi presvedčivý

Chat GTP však aj nesprávne informácie dokáže interpretovať veľmi presvedčivým spôsobom. Diskusné fórum pre programátorov Stack Overfow napríklad dočasne zakázalo publikovať odpovede, ktoré chatbot vygeneroval.

„Keďže podiel správnych odpovedí od Chat GTP je veľmi nízky, pridávanie takto vygenerovaných odpovedí je pre stránku a jej používateľov, ktorí hľadajú správne odpovede, škodlivé. Hlavný problém je v tom, že odpovede, ktoré Chat GTP produkuje, sú do veľkej miery chybné, často vyzerajú tak, že byť správne,“ odôvodňuje svoje rozhodnutie Stack Overflow.

Vhodný na šírenie dezinformácií

Ako upozorňuje portál Scientific American, práve na základe schopnosti dôveryhodne naformulovať mylné informácie, sa môže Chat GTP stať ďalším nástrojom na šírenie dezinformácií.

Problémom však nie sú len nesprávne informácie, ktoré môže Chat GTP poskytnúť. Ako sa ukázalo, chatbot dokázal s 60 percentnou úspešnosťou absolvovať skúšky z medicíny a začali ho tiež využívať, alebo skôr zneužívať študenti. Tí Chat GTP napríklad žiadajú, aby im skontroloval gramatiku v slohových či seminárnych prácach, alebo mu rovno prenechajú celé zadanie. Ako uvádza nzherald.co.nz, napísať prácu obsahujúcu 1 500 slov trvá technológii približne 5 sekúnd. Ako však uviedol profesor Robin Gauld z Otago Business School, práca vygenerovaná umelou technológiou síce bola napísaná pomerne dobre, no mala isté nedostatky. A to najmä čo sa týka citácií a zdrojov.

„Stále by to bolo treba upraviť. Citácie neboli celkom tam, kde mali byť. Keby to študent odovzdal, pravdepodobne by sme na to rýchlo prišli,“ povedal Gauld.

Nutná potreba myslieť

Možné podvádzanie je však len jednou z vecí, ktoré pedagógom spôsobujú obavy.

„To, čoho sa tiež obávam, je potreba myslieť. Keď študentom dávame písomné zadania, učíme ich pracovať s myšlienkou. Pochopiť, čo o nej povedali iní, a prísť na to, čo si o nej myslia oni sami. Technológia síce dokáže dať myšlienky na papier, ale nedokáže naň dať vaše myšlienky,“ povedala Jane Rosenzweig z Harvardskej univerzity.

Mnohé školy a univerzity už pristúpili k tomu, že Chat GTP zakázali a problém už zaregistrovala aj spoločnosť Open AI.

„Nechceme, aby bol Chat GTP používaný na nekalé účely. Ani v školách, ani nikde inde. Jednou z používateľských podmienok je, že pri zdieľaní textu by mal každý používateľ jasne uviesť, že text bol vygenerovaný umelou inteligenciou, a to tak, že túto informáciu nebude ľahké prehliadnuť alebo si zle vysvetliť. V súčasnosti tiež pracujeme na nástroji, ktorý by pomohol komukoľvek identifikovať text vygenerovaný pomocou Chat GTP,“ uviedla spoločnosť.


Chceš byť nonstop v obraze?

 

Zdroj: hashtag.sk
Odporúčame