Știați că tehnologia deepfake era deja utilizată pentru apeluri înșelătoare?
Nu numai fețele și sunetele pot fi clonate cu ajutorul MI, iar rezultatul poate înșela cu ușurință pe oricine, deci este important să fii conștient de cele mai recente trucuri de înșelăciune!
Încă nu s-a văzut cât de profunde * sunt utile lumii (Disney, de exemplu, ar declanșa, probabil, munca actorilor decedați sau ocupați cu ea), dar da, care sunt pericolele tehnologiei, cum poate fi folosită pentru abuz. Evoluează constant, devine din ce în ce mai credibil și nu trebuie să ne gândim foarte profund pentru a clarifica, poate deveni ușor periculos și în viața de zi cu zi. Dacă nu mai putem crede ceea ce vedem sau auzim pe videoclip, va fi și mai dificil să ne găsim drumul în secolul XXI. De aceea, am lansat o nouă inițiativă numită # oszdazész pentru a crește gradul de conștientizare a problemelor importante în conștientizarea și autoapărarea online, ajutându-vă să împărtășiți aceste știri prietenilor dvs., în special celor care au nevoie de informații și sfaturi corecte.
Unii oameni folosesc inteligența artificială pentru a face deepfakes audio, adică pentru a copia vocea cuiva și apoi pentru a stiva feliile împreună, astfel încât să poată convinge persoana chemată că o cunoștință vorbește și astfel să înșele bani de la ei. Înregistrarea de mai jos, dintr-un raport NISOS, este un extras dintr-un mesaj de mesagerie vocală trimis unui angajat al unei companii de tehnologie care îi cerea prin „vocea sa executivă” să ajute la finalizarea unui caz de afaceri urgent. Sigur, este oarecum robotizat, dar puteți conduce cu ușurință colegi noi sau nu atât de precauți.
În acest caz, apropo, fraudatorii nu au avut succes, angajatul a suspectat și a semnalat imediat apelul către departamentul juridic. În septembrie 2019, însă, o companie britanică de energie a fost înșelată, iar executivul ar fi transferat peste 220.000 de euro într-o factură maghiară, deoarece credea că șeful său o va cere. Făptașii nu au putut fi prinși.
Câteva înregistrări audio, chiar și interviuri disponibile publicului, pot fi utile pentru realizarea unor astfel de analize profunde și, dacă sistemul poate funcționa cu suficiente materii prime, singura propoziție de care au nevoie escrocii este rapidă.
Experții sugerează să apelăm înapoi numărul necunoscut, astfel încât să fie imediat clar dacă vorbim cu persoana căreia s-a predat apelantul.
Inspecția nu poate fi niciodată o povară suplimentară și, în caz de suspiciune serioasă, nu ezitați să contactați poliția pentru ajutor!
* deepfake: conținutul creat cu tehnologia deepfake acoperă în primul rând videoclipuri și imagini în care fața unei persoane a fost schimbată cu alta, dar mișcarea facială originală a fost păstrată. Poate fi folosit pentru a crea materiale false, dar credibile, care pot apărea în multe locuri, de la politică la industria cinematografică pentru adulți. Cazul prezentat în articol poate fi, de asemenea, clasificat ca deepfake.
- Știați ce probleme pot cauza Revista de stil de viață prietenoasă cu câinii tiroidieni - Împreună peste tot
- Știați că gustarea poate fi și sănătoasă
- Știați că există o linie fierbinte între creier și intestine? Aceasta poate fi o soluție pentru obezitate, anorexie
- Știați că tații pot suferi și de depresie postpartum Canapea
- Vedetele lumii pe care nu ți le-ai fi putut imagina erau rude - Noizz