Naslovnica SCI-TECH AI pristranost može proizaći iz uputa za napomene – Vijesti.TV

AI pristranost može proizaći iz uputa za napomene – Vijesti.TV

59
0

Istraživanja u području strojnog učenja i umjetne inteligencije, sada ključna tehnologija u gotovo svakoj industriji i tvrtki, previše su opsežna da bi ih itko mogao sve pročitati. Ova kolumna, Perceptron (prethodno Deep Science), ima za cilj prikupiti neka od najrelevantnijih nedavnih otkrića i radova – osobito u, ali ne ograničavajući se na umjetnu inteligenciju – i objasniti zašto su važna.

Ovog tjedna u AI-u, nova studija otkriva kako pristranost, uobičajeni problem u sustavima umjetne inteligencije, može početi s uputama danim ljudima koji su unovačeni za označavanje podataka iz kojih AI sustavi uče predviđati. Koautori otkrivaju da annotatori preuzimaju uzorke u uputama, što ih uvjetuje da daju bilješke koje tada postaju previše zastupljene u podacima, pristrano AI sustav prema tim bilješkama.

Mnogi sustavi umjetne inteligencije danas “nauče” razumjeti slike, video zapise, tekst i zvuk iz primjera koje su označili anotatori. Oznake omogućuju sustavima da ekstrapoliraju odnose između primjera (npr. vezu između natpisa “kuhinjski sudoper” i fotografije kuhinjskog sudopera) na podatke koje sustavi prije nisu vidjeli (npr. fotografije kuhinjskih sudopera koji nisu bili nije uključeno u podatke koji se koriste za “poučavanje” modela).

Ovo radi izvanredno dobro. Ali bilješka je nesavršen pristup – anotatori unose predrasude u tablicu koje mogu prokrvariti u obučeni sustav. Na primjer, studije su pokazale da je vjerojatnije da će prosječni anotator označavati fraze na afroameričkom vernakularnom engleskom (AAVE), neformalnoj gramatici koju koriste neki crni Amerikanci, kao otrovne, vodeći detektori AI toksičnosti obučeni na etiketama da vide AAVE kao neproporcionalno otrovan.

Kako se ispostavilo, predispozicije anotatora možda nisu isključivo krive za prisutnost pristranosti u oznakama za obuku. U preprint studiji sa Sveučilišta Arizona State i Allen Institute for AI, istraživači su istraživali može li izvor pristranosti ležati u uputama koje su napisali kreatori skupova podataka kako bi poslužili kao vodiči za anotatore. Takve upute obično uključuju kratak opis zadatka (npr. “Označite sve ptice na ovim fotografijama”) zajedno s nekoliko primjera.

Zasluge za slike: Parmar i sur.

Istraživači su pogledali 14 različitih skupova podataka “benchmark” koji se koriste za mjerenje performansi sustava za obradu prirodnog jezika ili sustava umjetne inteligencije koji mogu klasificirati, sažeti, prevesti i na drugi način analizirati ili manipulirati tekstom. Proučavajući upute zadatka koje su dane annotatorima koji su radili na skupovima podataka, pronašli su dokaze da su upute utjecale na anotatore da slijede određene obrasce, koji su se potom proširili na skupove podataka. Na primjer, više od polovice bilješki u Quorefu, skupu podataka dizajniranom za testiranje sposobnosti AI sustava da razumiju kada se dva ili više izraza odnose na istu osobu (ili stvar), počinju s izrazom “Kako se zove”, fraza prisutna u trećini uputa za skup podataka.

Fenomen, koji istraživači nazivaju “pristranost instrukcija”, posebno je zabrinjavajući jer sugerira da sustavi obučeni na pristranim podacima o uputama/napomenama možda neće raditi tako dobro kao što se u početku mislilo. Doista, koautori su otkrili da pristranost instrukcija precjenjuje performanse sustava i da ti sustavi često ne uspijevaju generalizirati izvan obrazaca instrukcija.

Srebrna podloga je da su veliki sustavi, poput OpenAI-jevog GPT-3, općenito manje osjetljivi na pristranost instrukcija. Ali istraživanje služi kao podsjetnik da su sustavi umjetne inteligencije, poput ljudi, osjetljivi na razvoj pristranosti iz izvora koji nisu uvijek očiti. Nerješivi izazov je otkrivanje ovih izvora i ublažavanje utjecaja nizvodno.

U manje otrežnjujućem radu, znanstvenici iz Švicarske zaključili su da sustave za prepoznavanje lica nije lako prevariti realistična lica uređena umjetnom inteligencijom. “Napadi morfiranja”, kako ih zovu, uključuju korištenje umjetne inteligencije za izmjenu fotografije na osobnoj iskaznici, putovnici ili drugom obliku osobnog dokumenta u svrhu zaobilaženja sigurnosnih sustava. Koautori su stvorili “morfove” koristeći AI (Nvidijin StyleGAN 2) i testirali ih na četiri najsuvremenija sustava za prepoznavanje lica. Morfi nisu predstavljali značajnu prijetnju, tvrdili su, unatoč njihovom stvarnom izgledu.

Drugdje u domeni računalnog vida, istraživači u Meta razvili su AI “pomoćnika” koji može zapamtiti karakteristike prostorije, uključujući lokaciju i kontekst objekata, kako bi odgovorio na pitanja. Detaljno opisano u prethodnom dokumentu, rad je vjerojatno dio Metine inicijative Project Nazare za razvoj naočala proširene stvarnosti koje koriste AI za analizu okoline.

Meta egocentrični AI

Zasluge za slike: Meta

Sustav istraživača, koji je dizajniran za korištenje na bilo kojem uređaju koji se nosi na tijelu opremljenom kamerom, analizira snimke kako bi konstruirao “semantički bogata i učinkovita sjećanja scene” koja “kodiraju prostorno-vremenske informacije o objektima”. Sustav pamti gdje se objekti nalaze i kada su se pojavili u video snimci, a osim toga u svoju memoriju unosi odgovore na pitanja koja bi korisnik mogao postaviti o objektima. Na primjer, na pitanje “Gdje ste zadnji put vidjeli moje ključeve?”, sustav može pokazati da su ključevi tog jutra bili na pomoćnom stoliću u dnevnoj sobi.

Meta, koja navodno planira izdati potpuno opremljene AR naočale 2024., objavila je svoje planove za “egocentričnu” umjetnu inteligenciju prošlog listopada lansiranjem Ego4D, dugoročnog istraživačkog projekta AI “egocentrične percepcije”. Tvrtka je tada rekla da je cilj bio naučiti sustave umjetne inteligencije da, između ostalih zadataka, razumiju društvene znakove, kako radnje nositelja AR uređaja mogu utjecati na njihovu okolinu i kako ruke komuniciraju s objektima.

Od jezika i proširene stvarnosti do fizičkih fenomena-AI model bio je koristan u MIT studiji valova – kako se lome i kada. Iako se čini pomalo zagonetnim, istina je da su modeli valova potrebni i za izgradnju struktura u i blizu vode, i za modeliranje interakcije oceana s atmosferom u klimatskim modelima.

Zasluge za slike: S

Obično se valovi grubo simuliraju skupom jednadžbi, ali istraživači su trenirali model strojnog učenja na stotinama primjera valova u spremniku vode od 40 stopa ispunjenom senzorima. Promatrajući valove i dajući predviđanja na temelju empirijskih dokaza, a zatim ih uspoređujući s teorijskim modelima, AI je pomogao pokazati gdje su modeli nedostajali.

Startup se rađa iz istraživanja na EPFL-u, gdje se doktorska teza Thibaulta Asselborna o analizi rukopisa pretvorila u cjelovitu obrazovnu aplikaciju. Koristeći algoritme koje je dizajnirao, aplikacija (nazvana School Rebound) može identificirati navike i korektivne mjere sa samo 30 sekundi kada dijete piše na iPadu olovkom. Oni su predstavljeni djetetu u obliku igara koje mu pomažu da jasnije piše jačajući dobre navike.

“Naš znanstveni model i strogost su važni i ono što nas izdvaja od ostalih postojećih aplikacija”, rekao je Asselborn u priopćenju za javnost. “Dobili smo pisma od učitelja koji su vidjeli kako njihovi učenici napreduju. Neki studenti dođu i prije nastave na praksu.”

Zasluge za slike: Sveučilište Duke

Još jedno novo otkriće u osnovnim školama odnosi se na prepoznavanje problema sa sluhom tijekom rutinskih pregleda. Ove projekcije, kojih se neki čitatelji mogu sjetiti, često koriste uređaj koji se zove timpanometar, kojim moraju upravljati obučeni audiolozi. Ako jedan nije dostupan, recimo u izoliranom školskom okrugu, djeca s problemima sluha možda nikada neće dobiti potrebnu pomoć na vrijeme.

Samantha Robler i Susan Emmett iz Dukea odlučile su izgraditi timpanometar koji u suštini radi sam, šaljući podatke u aplikaciju za pametne telefone gdje ih tumači AI model. Sve zabrinjavajuće bit će označeno i dijete može biti podvrgnuto daljnjem pregledu. Nije zamjena za stručnjaka, ali je puno bolje nego ništa i može pomoći u prepoznavanju problema sa sluhom mnogo ranije na mjestima bez odgovarajućih sredstava.


Izvor-techcrunch.com


Pratite nas na Facebook-u | Twitter-u | YouTube-u


Dio Vijesti.TV medije.