Hjem udtalelser Kan noget beskytte os mod deepfakes? | ben dickson

Kan noget beskytte os mod deepfakes? | ben dickson

Indholdsfortegnelse:

Video: Improving Tron Legacy using Deep Fakes (Oktober 2024)

Video: Improving Tron Legacy using Deep Fakes (Oktober 2024)
Anonim

I slutningen af ​​2017 rapporterede Motherboard om en AI-teknologi, der kunne bytte ansigter i videoer. På det tidspunkt producerede teknologien - senere kaldet deepfakes - rå, kornede resultater og blev mest brugt til at oprette falske pornovideoer med berømtheder og politikere.

To år senere har teknologien udviklet sig enormt og er sværere at opdage med det blotte øje. Sammen med falske nyheder er forfalskede videoer blevet et nationalt sikkerhedsmæssigt anliggende, især når præsidentvalget i 2020 nærmer sig.

Siden deepfakes dukkede op, har flere organisationer og virksomheder udviklet teknologier til at opdage AI-manipulerede videoer. Men der er en frygt for, at deepfakes-teknologien en dag vil være umulig at opdage.

Forskere ved University of Surrey udviklede en løsning, der muligvis løser problemet: i stedet for at opdage, hvad der er falsk, vil det bevise, hvad der er sandt. Planlagt til at blive præsenteret på den kommende konference om computervision og mønstergenkendelse (CVPR), teknologien, kaldet erkeengel, bruger AI og blockchain til at oprette og registrere et manipuleringssikkert digitalt fingeraftryk til autentiske videoer. Fingeraftrykket kan bruges som reference til at kontrollere gyldigheden af ​​medier, der distribueres online eller udsendes på tv.

Brug af AI til at underskrive videoer

Den klassiske måde at bevise ægtheden af ​​et binært dokument er ved at bruge en digital signatur. Udgivere kører deres dokument gennem en kryptografisk algoritme som SHA256, MD5 eller Blowfish, der producerer en "hash", en kort række bytes, der repræsenterer indholdet af denne fil og bliver dens digitale signatur. Kørsel af den samme fil gennem hash-algoritmen til enhver tid vil producere den samme hash, hvis dens indhold ikke er ændret.

Hashes er overfølsomme over for ændringer i den binære struktur i kildefilen. Når du ændrer en enkelt byte i den hashede fil og kører den gennem algoritmen igen, giver den et helt andet resultat.

Men mens hasjer fungerer godt til tekstfiler og applikationer, udgør de udfordringer for videoer, som kan gemmes i forskellige formater, ifølge John Collomosse, professor i computervision ved University of Surrey og projektleder for Arkangel.

"Vi ønskede, at underskriften skulle være den samme, uanset hvilken codec videoen komprimeres med, " siger Collomosse. "Hvis jeg tager min video og konverterer den fra f.eks. MPEG-2 til MPEG-4, så vil denne fil have en helt anden længde, og bitene vil have ændret sig fuldstændigt, hvilket vil producere en anden hash. Hvad vi havde brug for var en indholdsbevidst hashing-algoritme."

For at løse dette problem udviklede Collomosse og hans kolleger et dybt neuralt netværk, der er følsomt over for indholdet i videoen. Dybe neurale netværk er en type AI-konstruktion, der udvikler dens adfærd gennem analyse af store mængder eksempler. Interessant nok er neurale netværk teknologien i hjertet af dybder.

Når du opretter deepfakes, fremkalder udvikleren netværket med billeder af et motivs ansigt. Neuralnetværket lærer ansigtets egenskaber og bliver med tilstrækkelig træning i stand til at finde og bytte ansigter i andre videoer med motivets ansigt.

Erkeengelsels neurale netværk er trænet i videoens fingeraftryk. "Netværket ser på indholdet af videoen snarere end dets underliggende bits og bytes, " siger Collomosse.

Efter træning, når du kører en ny video gennem netværket, validerer den den, når den indeholder det samme indhold som kildevideoen uanset dens format og vil afvise den, når det er en anden video eller er blevet manipuleret med eller redigeret.

Ifølge Collomosse kan teknologien registrere både rumlig og tidsmæssig manipulation. Rumlige manipulationer er ændringer, der er foretaget til individuelle rammer, såsom de ansigtsudskiftende redigeringer, der udføres i deepfakes.

Men deepfakes er ikke den eneste måde, hvorpå videoer kan manipuleres. Mindre diskuteret, men lige så farligt, er forsætlige ændringer foretaget i rækkefølgen af ​​rammer og videoens hastighed og varighed. En nylig, bredt cirkuleret forfalsket video af hushøjttaler Nancy Pelosi brugte ikke dybder, men blev skabt gennem omhyggelig brug af enkle redigeringsteknikker, der fik hende til at virke forvirret.

"En af de former for manipulation, vi kan opdage, er fjernelse af korte segmenter af videoen. Dette er tidsmæssige tampere. Og vi kan registrere op til tre sekunder af manipulation. Så hvis en video er flere timer lang, og du bare fjerner tre sekunder af den video, kan vi registrere det, ”siger Collomosse og tilføjer, at Ærkeengelen også vil registrere ændringer foretaget til hastigheden af ​​den originale video, som det blev gjort i Pelosi-videoen.

Registrering af fingeraftrykket på Blockchain

Den anden komponent i Archangel-projektet er en blockchain, en manipuleringssikker database, hvor ny information kan gemmes, men ikke ændres - ideel til videoarkiver, som ikke foretager ændringer i videoer, når de først er blevet registreret.

Blockchain-teknologi ligger til grund for digitale valutaer som Bitcoin og Ether. Det er en digital hovedbok vedligeholdt af flere uafhængige parter. Flertallet af partierne skal være enige om ændringer foretaget i blockchain, hvilket gør det umuligt for et enkelt parti at ensidig indbinde sig til hovedbogen.

Det er teknisk muligt at angribe og ændre indholdet af en blockchain, hvis mere end 50 procent af dets deltagere er sammen. Men i praksis er det ekstremt vanskeligt, især når blockchain opretholdes af mange uafhængige parter med forskellige mål og interesser.

Erkeengelsels blockchain adskiller sig lidt fra den offentlige blockchain. For det første producerer det ikke cryptocurrency og gemmer kun identifikatoren, det indholdsbevidste fingeraftryk og den binære hash for verificerende neurale netværk for hver video i et arkiv (blockchains er ikke egnede til at gemme store mængder data, hvorfor selve videoen og det neurale netværk gemmes off-chain).

Det er også en tilladt eller "privat" blockchain. Dette betyder, at i modsætning til Bitcoin blockchain, hvor alle kan registrere nye transaktioner, er det kun tilladte parter, der kan gemme nye poster på Erkeenglen blockchain.

Erkeengel er i øjeblikket retsforfulgt af et netværk af nationale regeringsarkiver fra Storbritannien, Estland, Norge, Australien og USA: For at gemme ny information skal hvert involveret land underskrive tilføjelsen. Men selvom det kun er de nationale arkiver i de deltagende lande, der har ret til at tilføje poster, har alle andre læseadgang til blockchain og kan bruge det til at validere andre videoer mod arkivet.

  • AI og Machine Learning Exploit, Deepfakes, nu sværere at opdage AI og Machine Learning Exploit, Deepfakes, Now Harder at Detect
  • Deepfake-videoer er her, og vi er ikke klar Deepfake-videoer er her, og vi er ikke klar
  • Adobes nye AI opdager fotoshoppede ansigter Adobes nye AI opdager fotoshoppede ansigter

"Dette er en anvendelse af blockchain til det offentlige, " siger Collomosse. "Efter min mening er den eneste rimelige brug af blockchain, når du har uafhængige organisationer, der ikke nødvendigvis har tillid til hinanden, men de har denne interesserede interesse i dette kollektive mål om gensidig tillid. Og hvad vi ønsker at gøre er sikre de nationale regeringsarkiver overalt i verden, så vi kan underskrive deres integritet ved hjælp af denne teknologi."

Da oprettelse af forfalskede videoer bliver lettere, hurtigere og mere tilgængelig, har alle brug for al den hjælp, de kan få til at sikre integriteten af ​​deres videoarkiver - især regeringer.

”Jeg tror, ​​at dybder er næsten som et våbenløb, ” siger Collomosse. "Fordi folk producerer mere og mere overbevisende dybder, og en dag kan det blive umuligt at opdage dem. Derfor er det bedste, du kan gøre, forsøge at bevise oprindelsen af ​​en video."

Kan noget beskytte os mod deepfakes? | ben dickson