Ne/ja brska
Ali ste vedeli, da slovenski raziskovalci razvijajo tehnologijo za bolj učinkovito zaznavanje globokih ponaredkov?
Slovenski raziskovalci v okviru projekta DeepFake DAD razvijajo naprednejšo tehnologijo za bolj učinkovito zaznavanje globokih ponaredkov (angl. deepfakes).
Globoki ponaredki so ponarejeni videoposnetki ali fotografije, ki so bili digitalno spremenjeni s pomočjo umetne inteligence in na katerih je npr. podoba osebe zamenjana s podobo nekoga drugega. S hitrim razvojem tehnologije jih je vse lažje ustvariti, na družbenih omrežjih pa se hitro širijo.
Namen ustvarjanja globokih ponaredkov je običajno zlonameren, poudarja vodja projekta DeepFake DAD Vitomir Štruc. Ljudje jih namreč pogosto poskušajo uporabiti za izsiljevanje drugih, za širjenje neresničnih informacij, tudi za raznorazne zlorabe in kraje identitete.
Ker je tehnologija že postala široko dostopna in enostavna za uporabo, se jo tudi zlahka zlorabi, zato je pomembno, da strokovnjaki razvijajo tehnologijo detektorjev, ki bo omogočala lažje odkrivanje globokih ponaredkov.
V okviru navedenega projekta tako slovenski strokovnjaki tehnologijo za njihovo bolj učinkovito zaznavanje razvijajo v Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani (UL) v sodelovanju z Laboratorijem za računalniški vid Fakultete za računalništvo in informatiko UL.
Ideja slovenskih raziskovalcev: detektorje naučiti prepoznavanja resničnih posnetkov
Navadno so detektorji, ki temeljijo na strojnem učenju, naučeni prepoznavati specifične vrste globokih ponaredkov in jih ločiti od resničnih posnetkov. Problem pa je, da obstaja veliko različnih načinov za ustvarjanje globokih ponaredkov, hkrati pa se nenehno pojavljajo novi. Kot pojasnjuje Štruc, teh detektorji ne morejo prepoznati, ker niso bili naučeni na takšnih primerih.
Ideja slovenskih raziskovalcev v projektu je, da detektorje naučijo prepoznavati resnične posnetke, namesto da bi jih učili na globokih ponaredkih. "Na podlagi resničnih posnetkov želimo razviti razvrščevalnik, ki bo določil, ali je nekaj resnično. Vse, česar razvrščevalnik ne bo prepoznal kot resnično, pa bomo nato opredelili kot globoki ponaredek," je pojasnil Štruc.
Nekaj takšnih začetnih modelov so že razvili in ti so po njegovih besedah tudi že dokaj učinkoviti. Končni cilj triletnega projekta, ki so ga začeli lani, pa je razviti detektor, ki bo ne glede na to, kakšni globoki ponaredki se bodo pojavili v prihodnje, še zmeraj sposoben prepoznati vse. Obenem ciljajo tudi na to, da bo detektor prosto dostopen javnosti.
Globoki ponaredki grožnja na več področjih
Tovrstni detektorji bodo namreč vse bolj nujni. Globoki ponaredki se namreč na družbenih omrežjih širijo z neverjetno hitrostjo, je opozoril. To je denimo še posebej problematično za področje politike, kjer gre za usmerjanje javnega mnenja.
Po Štručevih besedah pa lahko globoki ponaredki, ki delujejo v realnem času, predstavljajo resno grožnjo zlasti na področjih, kjer se identiteta dokazuje preko video klicev.
Vsak način identifikacije ima v skladu z uredbo eIDAS sicer določeno stopnjo zaupanja. Najvišjo ima identifikacija, ko je oseba fizično prisotna in pokaže osebni dokument, ki se preveri na mestu. Ta identifikacija nam na primer omogoča prodajo nepremičnin pri notarju.
Video klici imajo trenutno po Štručevih pojasnilih še vedno nižjo stopnjo zaupanja, z njimi zato lahko opravljamo zgolj manjše pravne posle, kot je pregled bančnega stanja. Prednosti storitve video identifikacije pa so hitro prepoznale tudi zavarovalnice in jo prav tako vključile v svoje poslovanje.
Na ravni EU in tudi v Sloveniji sicer, kot je dejal Štruc, že razmišljajo o dvigu stopnje zaupanja na najvišjo raven tudi pri video klicih, kar bi omogočilo tudi pomembnejše transakcije, kot je prodaja nepremičnin brez fizične prisotnosti osebe.
"Če bi identiteto preverjali tako, bi nekdo lahko s pomočjo globokega ponaredka prek video klica prodal vašo hišo, kar je zelo problematično," je opozoril.
Pred dvema letoma se je denimo že zgodila bančna prevara v Združenih arabskih emiratih. Hekerji so s ponarejenim zvokom prevarali banke, ki so preverjale identiteto na podlagi govora, in tako povzročili milijonsko škodo. Takih primerov je po Štručevih besedah veliko, zato je še toliko bolj pomembno razvijati programske rešitve, ki bi preprečile širjenje globokih ponaredkov. "Le tako bomo lahko zagotovili varno digitalno okolje," je poudaril.