PREPOZNATE, KATERE FOTOGRAFIJE SO LAŽNE? Že 5 minut treninga lahko bistveno izboljša uspešnost

Svet

Najnovejše raziskave kažejo, da so obrazi, ki jih ustvarja umetna inteligenca (AI), postali tako realistični, da jih večina ljudi ne zna več zanesljivo ločiti od resničnih. Pogosto jih celo dojema kot bolj resnične od resničnih, pojav, znan kot hiperrealizem, pa predstavlja vse večji varnostni izziv, saj se takšne slike vse pogosteje uporabljajo za prevare, širjenje dezinformacij in krajo identitete.

Ali lahko prepoznate, katere podobe so lažne? Spodaj je ista slika ponovno prikazana z razkritimi odgovori.

Študija, objavljena v znanstveni reviji Royal Society Open Science, je pokazala, da ima lahko že kratek, petminutni trening presenetljivo velik učinek na sposobnost prepoznavanja lažnih obrazov. Raziskavo so izvedli znanstveniki z britanskih univerz Leeds, Reading, Greenwich in Lincoln, pri čemer so uporabili napredni model AI StyleGAN3, ki ustvarja izjemno realistične portrete.

V raziskavi so sodelovali tudi tako imenovani 'superprepoznavalci', posamezniki z nadpovprečnimi sposobnostmi prepoznavanja obrazov. Kljub temu so se brez treninga tudi oni slabo odrezali, saj so lažne obraze pravilno prepoznali v 41 odstotkih primerov, kar je celo slabše od naključnega ugibanja. Udeleženci s povprečnimi sposobnostmi so bili še manj uspešni in so umetno ustvarjene obraze pravilno prepoznali v le 31 odstotkih primerov.

Ti rezultati jasno kažejo, da se na intuicijo in občutek v digitalnem okolju ne moremo več zanesljivo opirati.

Raziskovalci so nato preverili, ali je mogoče to sposobnost izboljšati, in novi skupini udeležencev pred testiranjem ponudili petminutni trening. Med njim so jim pokazali najpogostejše napake, ki jih AI naredi pri ustvarjanju obrazov, ter jih naučili, na katere vizualne podrobnosti je treba biti pozoren.

Udeleženci so se naučili prepoznavati nenavadne podrobnosti na obrazu, kot so manjkajoči ali nenavadno razporejeni zobje, asimetrična ušesa ali uhani, pa tudi nenaravne linije las, zameglitve na prehodih med lasmi in kožo ter pretirano gladko, skoraj popolno teksturo kože. Posebno pozornost so namenili tudi simetriji, saj so obrazi, ki jih ustvari AI, pogosto bolj proporcionalni in simetrični kot resnični človeški obrazi.

Rezultati po treningu so bili izjemno spodbudni. Uspešnost superprepoznavalcev se je zvišala na 64 odstotkov, pri udeležencih s povprečnimi sposobnostmi pa na 51 odstotkov, kar pomeni, da so se vsaj izognili zavajajočemu vtisu, da so lažni obrazi bolj resnični od pravih.

Zgornja in spodnja vrstica prikazujeta obraze, ustvarjene z AI, srednja vrstica pa prikazuje resnične ljudi.

Vodja raziskave dr. Katie Gray z Univerze v Readingu je poudarila, da je spodbudno, kako lahko že zelo kratek in enostaven trening občutno izboljša rezultate pri obeh skupinah.

Sposobnost razlikovanja med resničnimi in umetno ustvarjenimi obrazi ni zgolj akademsko vprašanje, temveč ima pomembne varnostne posledice. Lažne podobe, ustvarjene z AI, se vse pogosteje uporabljajo za zlonamerne namene, od lažnih profilov na družbenih omrežjih do prevar, kraje identitete in obhajanja varnostnih sistemov.

Raziskovalka dr. Eilidh Noyes z Univerze v Leedsu opozarja, da je slike AI vse lažje ustvariti in vse težje odkriti, zato je z varnostnega vidika poglavitno razvijati in preizkušati učinkovite metode za njihovo prepoznavanje. Zanimivo je, da je trening podoben učinek imel tako pri superprepoznavalcih kot pri drugih udeležencih, kar nakazuje, da superprepoznavalci pri presoji uporabljajo tudi druge vizualne namige, ne le očitne tehnične napake.

Ena glavnih ugotovitev raziskave je tudi, da so udeleženci po treningu dlje časa analizirali slike, preden so sprejeli odločitev, kar kaže na bolj premišljeno opazovanje. Čeprav se bo AI še naprej hitro razvijala in bodo napake sčasoma vse manj opazne, raziskava dokazuje, da ljudje nismo povsem nemočni. Strokovnjaki menijo, da bo v prihodnosti najučinkovitejši pristop kombinacija avtomatiziranih orodij AI in usposobljenih ljudi, zlasti superprepoznavalcev, ki bi služili kot zadnja varnostna preverba.

Deli novico:

Komentiraj

Za komentiranje je potrebna  Prijava  oz.  Registracija