V digitálnom svete a pri zdieľaní našich osobných údajov či súkromných fotografií musíme byť v súčasnej dobe obozretní. FOTO: Telekom
StoryEditor

Prichádza rok, kedy nám AI ukáže, že nemožno veriť ani vlastným očiam a ušiam

02.02.2024, 16:11
Autor:
vsevse

Reálna skúsenosť prinesie oveľa viac ako tisíce varujúcich upozornení a správ. Platí to aj pre podvrhy, s ktorých výrobou pomohla umelá inteligencia. Prvé falošné výstupy zneužívajú tváre či hlasy známych ľudí, aby ich poškodili alebo divákov či poslucháčov nalákali na podvod.

Spomínate si, keď ste prvýkrát využili vo videokonferenčnej aplikácii falošné pozadie? K prvým pokusom ste museli mať jednotné pozadie, ideálne zelené, a rovnako výsledok vyzeral na prvý pohľad umelo a okolo hlavy vám pri pohybe presvitala „svätožiara“.

Postupne sa to však menilo a teraz tie najpokročilejšie technológie zvládnu relatívne kvalitne váš obraz snímaný webkamerkou vložiť do iného prostredia, než v ktorom sa práve nachádzate. Výsledok sa dá od reality poznať len ťažko.

Teraz to skúsme obrátiť. Čo keby sa namiesto vašej tváre objavil napríklad Brad Pitt alebo Angelina Jolieová. Ľudia by tak tieto celebrity videli v prostredí vášho domova s pozadím vašej izby. Pred kamerou by ste to pritom boli stále vy, ale vaša tvár by bola nahradená niektorým z týchto hercov. Všetko v reálnom čase a s mimikou, ktorú by systém premietal na falošnú tvár.

Hudba blížiacej sa budúcnosti

Zatiaľ je to hudba budúcnosti, tá ale nie je až taká vzdialená. Dobre vytrénované systémy umelej inteligencie s veľkým výpočtovým výkonom sa už tejto méte postupne približujú. Ilúzia bude dokonalá v kombinácii s falošným hlasom hercov, ktorý by hovoril to, čo chcete vy.

Súčasné systémy tieto akcie v reálnom čase ešte nezvládnu alebo nie dokonale, a navyše potrebujú veľa dát na trénovanie. Tým je myslený dostatok vašich záberov z viacerých uhlov s rôznymi grimasami, aby sa mohol vytvoriť avatar s uveriteľnou tvárou používateľa.

Získať také množstvo obrazových dát je zatiaľ najjednoduchšie u verejne známych ľudí. Aj preto sa v poslednej dobe ako huby po daždi vyrojili lákavé ponuky na investície, pri ktorých odporúčajú rozprávkové zbohatnutie známi businessmani, politici alebo herci. Odborníci na kybernetickú kriminalitu upozorňujú, že nie každý odolá a rozozná podvrh.

Na druhej strane stačí populárna aplikácia, aby ľudia takéto dáta poskytli dobrovoľne. Aj preto špeciálna aplikácia BaiRBIE.me vyvolala varovanie príslušných úradov po celom svete pred jej používaním. Aplikácia dokázala upraviť vzhľad ľudí využitím systémov generatívnej umelej inteligencie (gAI) tak, aby sa podobali postavám z filmu Barbie.

image

Nebezpečná aplikácia BaiRBIE.me. FOTO: Internet/bairbie.me

Ešte jednoduchšie je získať vzorku hlasu. Stačí na to dostatočne dlhý telefonát a využitie správnej taktiky, aby útočník z volajúceho vylúdil aj nejakú intonáciu. Nie je zložité si predstaviť následný telefonát príbuznému seniorovi, ktorého takto útočník prinúti „ukradnutou“ vzorkou hlasu vnúčika nainštalovať si malware, ktorý môže viesť až k ukradnutiu peňazí z účtu.

Zjednodušenie výroby podvrhov

K podvodom so zneužitím identity na fotografii alebo v upravenom videu dochádzalo ešte pred súčasným rozvojom umelej inteligencie, ale bolo veľmi zložité a časovo náročné také podvrhy vyrobiť.

Človek, ktorý chcel vytvoriť tzv. deepfake alebo kvalitný podvrh, sa musel naozaj snažiť. Bolo nutné, aby sa naučil dobre pracovať s grafickým alebo video programom. Trvalo pomerne dlho, aby bola zložitejšia scéna upravená tak, aby zodpovedala zámerom útočníka a zároveň bola pri bližšom skúmaní ťažko odhaliteľná.

S nástupom generatívnej umelej inteligencie, ktorá vie vytvárať obrázky aj videá, môže toto úskalie útočník prekonať rýchlo, pokiaľ sa naučí vytvoriť správne zadanie. Nie je to síce triviálne, ale behom niekoľkých chvíľ môže vygenerovať veľké množstvo variantov, ktoré bude ťažšie jeden po druhom analyzovať.

image

Ilustračná snímka. FOTO: REUTERS

Odborníci varujú, že práve keď bude na celom svete prebiehať množstvo dôležitých volebných súbojov, bude takýchto podvrhov pribúdať. Pripravme sa tak na to, že takýmto útočníkom naozaj stačí len niekoľko hodín pred hlasovaním zaplaviť siete množstvom podvrhov v podobe hyper realistických syntetických médií, ktoré nebude možné jednoducho overiť alebo vyvrátiť. Tým obrátia smerovanie veľkých skupín požadovaným smerom.

V osobnej rovine môže byť ešte väčším problémom, pokiaľ niekto vytvorí dehonestujúci obraz alebo video, ako sa to stalo speváčke Taylor Swiftovej. Nejde tu len o známe osobnosti, šikanovanie v škole alebo na pracovisku dostáva nový rozmer.

Nastáva doba, kedy si pri dôležitých veciach budeme musieť dávať ešte väčší pozor ako doteraz a neveriť vlastným očiam a ušiam, pokiaľ si všetko neoveríme.

Teraz ešte môžeme niektoré takéto podvody odhaliť na detailoch, ktoré nesedia predovšetkým na tvári a jej okrajoch, alebo ktoré môžu na niektorých častiach akoby splývať s pozadím. Kontrolovať tiež môžete detaily tela v pohybe alebo sa sústreďte na osvetlenie a podivné tiene. Bude to však stále zložitejšie.

Automatické systémy na odhaľovanie takýchto podvodov nie sú presné a ani virtuálne pečiatky či vodoznaky pri originálnom obsahu nie sú všeliek, pretože aj táto ochrana sa dá nejakým spôsobom obísť. Napriek tomu boj s falošným obsahom nemá zmysel vzdávať a pokúšajú sa oň rôzne organizácie.

01 - Modified: 2024-04-12 07:26:47 - Feat.: - Title: Apple čoskoro spustí výrobu čipov M4. Chce nimi vybaviť počítače Mac 02 - Modified: 2024-04-11 11:13:32 - Feat.: - Title: Vietnamská realitná magnátka dostala trest smrti za obrovský bankový podvod 03 - Modified: 2024-04-07 20:43:49 - Feat.: - Title: Kanada vyčlení 2,4 miliardy kanadských dolárov na investície do umelej inteligencie 04 - Modified: 2024-04-05 17:38:15 - Feat.: - Title: Meta spúšťa boj proti deepfakes. Od mája začne označovať obsah generovaný umelou inteligenciou 05 - Modified: 2024-04-07 22:00:00 - Feat.: - Title: EÚ musí opustiť svoj kafkovský svet
menuLevel = 2, menuRoute = style/tech, menuAlias = tech, menuRouteLevel0 = style, homepage = false
13. apríl 2024 13:59