Usłyszała w telefonie głos wnuczka. Spotkała się z klonem. "Mogłam stracić wszystkie oszczędności"

Oszustwa telefoniczne i mailowe nie są niczym nowym. Jednak wraz z rozwojem technologii, oszuści również znajdują coraz to nowsze i bardziej wyszukane. Wraz z dynamicznym rozwijaniem się sztucznej inteligencji, oszuści znaleźli sposób, by wykorzystać ją w znanej metodzie "na wnuczka".

Wszędzie słyszy się o tym, jak rozwija się AI, czyli sztuczna inteligencja. Potrafi teraz pisać jak człowiek, tworzyć obrazy i jak wychodzi brzmieć jak konkretni ludzie. Jednak, mimo że w zamyśle ma być wykorzystywana do czegoś dobrego, oszuści nauczyli się wykorzystywać ją w swoich przekrętach. 

Zobacz wideo Czy sztuczna inteligencja jest w stanie poradzić sobie z maturą?

Więcej podobnych artykułów przeczytasz na stronie głównej Gazeta.pl

Usłyszała w telefonie głos wnuczka. Padła ofiarą sztucznej inteligencji 

73-letnia Ruth Card otrzymała ostatnio telefon od kogoś, kto brzmiał dokładnie jak jej wnuk Brandon. Nie usłyszała dobrych informacji. Dzwoniący powiedział, że przebywa obecnie w areszcie, nie mając ze sobą ani portfela, ani telefonu i przede wszystkim pieniędzy potrzebnych do wpłacenia kaucji. Starsza kobieta postanowiła działać natychmiastowo. Razem ze swoim mężem szybko pojechała do banku, skąd wypłaciła 3 tysiące dolarów kanadyjskich, czyli ponad 9600 złotych, co jest dziennym limitem wypłat. Po wypłacie skierowali się do następnego oddziału banku, by móc wyciągnąć z konta jeszcze więcej pieniędzy. Na szczęście zainterweniował wtedy kierownik banku, który zaprowadził ich do biura i opowiedział, że niedawno inny z ich klientów otrzymał podobny telefon, co okazało się oszustwem. Ten przypadek był dokładnie taki sam. Głos wnuczka Ruth został wygenerowany komputerowo. Tak zwane deepfake'i stają się coraz bardziej popularną metodą oszustw telefonicznych.

Brzmiał tak naturalnie, tak prawdziwie. Mogłam stracić wszystkie oszczędności

- mówiła Ruth Card cytowana przez News Rebeat.

Social media mogą pomagać w oszustwach? Wystarczy niewiele, by brzmieć jak ktoś inny

Nieuczciwe osoby, które dokonują oszustw, od dawna podają się za członków rodziny w potrzebie, by namówić swoje ofiary do przekazania pieniędzy. Jednak teraz, dzięki tak rozwiniętej technologii, może być to dla nich jeszcze łatwiejsze. Postępy, jakie robi AI, pozwalają na szybkie wygenerowanie dowolnego głosu, o ile mamy kilkuzdaniową próbkę dźwiękową oryginału. Heny Farid, profesor kryminalistyki cyfrowej na Uniwersytecie Kalifornijskim w Berkeley mówi:

Dwa lata temu, a nawet jeszcze przed rokiem, potrzebna była duża próbka dźwięku, aby sklonować czyjś głos. Dziś, jeśli […] nagrałeś 30-sekundowego TikToka, w którym pojawia się twój głos, to wystarczy, by go sklonować
Więcej o: