Hjem udtalelser Hvordan openais falske nyhedsadvarsler udløste faktiske falske nyheder

Hvordan openais falske nyhedsadvarsler udløste faktiske falske nyheder

Indholdsfortegnelse:

Video: "MEDIA IS CORRUPT" President Trump EXPLODES At "FAKE NEWS MEDIA AND REPORTERS" (Oktober 2024)

Video: "MEDIA IS CORRUPT" President Trump EXPLODES At "FAKE NEWS MEDIA AND REPORTERS" (Oktober 2024)
Anonim

Non-profit AI-forskningslaboratorium OpenAI forårsagede en bølge af AI-apokalypspanik i sidste måned, da det introducerede en avanceret tekstgenererende AI kaldet GPT-2. Men mens det fejrede resultaterne af GPT-2, erklærede OpenAI, at den ikke ville frigive sin AI-model til offentligheden i frygt for, at GPT-2 i de forkerte hænder kunne bruges til ondsindede formål, såsom at generere vildledende nyhedsartikler, efterligne andre online, og automatisere produktionen af ​​falske indhold på sociale medier.

Forudsigeligt skabte OpenAIs meddelelse en flod af sensationelle nyhedshistorier, men selvom enhver avanceret teknologi kan våben, har AI stadig langt at gå, før den mestrer tekstgenerering. Selv da tager det mere end tekstgenererende AI at skabe en falsk-nyhedskrise. I lyset her var OpenAI's advarsler overdrevne.

AI og menneskeligt sprog

Computere har historisk kæmpet for at håndtere menneskets sprog. Der er så mange kompleksiteter og nuancer i den skrevne tekst, at det praktisk talt er umuligt at konvertere dem til klassiske softwareregler. Men de seneste fremskridt inden for dyb læring og neurale netværk har banet vejen for en anden tilgang til at skabe software, der kan håndtere sprogrelaterede opgaver.

Deep learning har bragt store forbedringer inden for områder som maskinoversættelse, tekstopsummering, besvarelse af spørgsmål og naturligt sproggenerering. Det lader softwareingeniører oprette algoritmer, der udvikler deres egen adfærd ved at analysere mange eksempler. Til sprogrelaterede opgaver foder ingeniører neurale netværk, digitaliseret indhold såsom nyhedshistorier, Wikipedia-sider og sociale medieindlæg. Neuralnet sammenligner data omhyggeligt og noterer sig, hvordan visse ord følger andre i gentagne sekvenser. De forvandler derefter disse mønstre til komplekse matematiske ligninger, der hjælper dem med at løse sprogrelaterede opgaver, såsom forudsigelse af manglende ord i en tekstsekvens. Generelt, jo mere kvalitetsuddannelsesdata, du leverer til en dyb læringsmodel, jo bedre bliver det til at udføre sin opgave.

Ifølge OpenAI er GPT-2 blevet uddannet på 8 millioner websider og milliarder af ord, hvilket er meget mere end andre lignende modeller. Det bruger også avancerede AI-modeller til bedre at anvende tekstmønstre. Prøveudgang fra GPT-2 viser, at modellen formår at opretholde sammenhæng i længere tekstsekvenser end dens forgængere.

Men selvom GPT-2 er et skridt fremad inden for generation af naturligt sprog, er det ikke et teknologisk gennembrud mod at skabe AI, der kan forstå betydningen og konteksten af ​​skrevet tekst. GPT-2 bruger stadig algoritmer til at oprette sekvenser af ord, der statistisk ligner de milliarder af tekstuddrag, det tidligere har set - det har absolut ingen forståelse for, hvad det genererer.

I en dybdegående analyse peger ZDNets Tiernan Ray på flere tilfælde, hvor GPT-2's output-prøver forråder deres kunstige natur med velkendte artefakter såsom duplikering af udtryk og mangel på logik og konsistens i fakta. "Når GPT-2 går videre med at tackle skrivning, der kræver mere udvikling af ideer og logik, bryder revnerne ret bredt ud, " bemærker Ray.

Statistisk læring kan hjælpe computere med at generere tekst, der er grammatisk korrekt, men en dybere begrebsmæssig forståelse kræves for at opretholde logisk og faktuel konsistens. Desværre er det stadig en udfordring, at aktuelle blandinger af AI ikke har overvundet. Derfor kan GPT-2 generere dejlige tekstafsnit, men det vil sandsynligvis være hårdt presset for at generere en autentisk langformet artikel eller forudse nogen på en overbevisende måde og over en længere periode.

Hvorfor AI Fake-News Panic er overdreven

Et andet problem med OpenAIs ræsonnement: Det antager, at AI kan skabe en falsk-nyhedskrise.

I 2016 spredte en gruppe makedonske teenagere falske nyhedshistorier om det amerikanske præsidentvalg til millioner af mennesker. Ironisk nok havde de ikke engang ordentlige engelskkundskaber; de var ved at finde deres historier på nettet og sy sammen forskelligt indhold. De var succesrige, fordi de oprettede websteder, der så autentiske nok til at overbevise besøgende til at stole på dem som pålidelige nyhedskilder. Sensationelle overskrifter, uagtsomme brugere af sociale medier og trendalgoritmer gjorde resten.

I 2017 udløste ondsindede aktører en diplomatisk krise i den persiske golfregion ved at hacking Qatari-statslige nyhedswebsteder og regerings sociale mediekonti og offentliggøre falske bemærkninger på vegne af Sheikh Tamim bin Hamad Al Thani, Qatar-emiren.

Som disse historier viser, hænger succes med falske nyhedskampagner på at skabe (og forråde) tillid, ikke på at generere store mængder sammenhængende engelsk tekst.

OpenAI's advarsler om at automatisere produktionen af ​​falske indhold til post på sociale medier er dog mere berettigede, fordi skala og volumen spiller en vigtigere rolle i sociale netværk end i traditionelle medier. Antagelsen er, at en AI som GPT-2 vil være i stand til at oversvømme sociale medier med millioner af unikke indlæg om et specifikt emne, der påvirker trendalgoritmer og offentlige diskussioner.

Men stadig mangler advarslerne realiteten. I de sidste par år har virksomheder i sociale medier kontinuerligt udviklet muligheder for at opdage og blokere automatiseret opførsel. Så en ondsindet skuespiller bevæbnet med en tekstgenererende AI ville være nødt til at overvinde en række udfordringer ud over at skabe unikt indhold.

For eksempel ville de have brug for tusinder af falske sociale mediekonti til at placere deres AI-genererede indhold. Selv hårdere for at sikre, at der ikke er nogen måde at forbinde de falske konti, har de brug for en unik enhed og IP-adresse til hver konto.

Det bliver værre: Kontierne skal oprettes på forskellige tidspunkter, muligvis over et år eller længere, for at reducere ligheder. Sidste år viste en New York Times- undersøgelse, at datoen for kontooprettelse alene kunne hjælpe med at opdage botkonti. For yderligere at skjule deres automatiserede karakter for andre brugere og tilpasningsalgoritmer, ville kontiene skulle engagere sig i menneskelignende opførsel, såsom at interagere med andre brugere og sætte en unik tone i deres indlæg.

Ingen af ​​disse udfordringer er umulige at overvinde, men de viser, at indhold kun er en del af den indsats, der er nødvendig for at gennemføre i en falske nyhedskampagne på sociale medier. Og igen spiller tillid en vigtig rolle. Et par pålidelige influencere på sociale medier, der sætter et par falske nyhedsindlæg, vil have større indflydelse end en masse ukendte konti, der genererer store mængder indhold.

Til forsvar af OpenAI's advarsler

OpenAIs overdrevne advarsler udløste en cyklus af mediehype og panik, der ironisk nok grænser op til falske nyheder i sig selv, hvilket medførte kritik fra anerkendte AI-eksperter.

De inviterede mediefolk til at få tidlig adgang til resultaterne med en pressembargo, så det hele blev offentliggjort samme dag. Ingen forskere, som jeg kender, fik at se den store model, men journalister gjorde det. Ja, de sprang det med vilje.

- Matt Gardner (@nlpmattg) 19. februar 2019

Hvert nyt menneske kan potentielt bruges til at generere falske nyheder, formidle konspirationsteorier og påvirke mennesker.

Skal vi holde op med at babyer?

- Yann LeCun (@ylecun) 19. februar 2019

Kunne gerne give jer alle heads up, vores laboratorium fandt et fantastisk gennembrud i sprogforståelse. men vi er også bange for, at det kan falde i de forkerte hænder. så vi besluttede at skrabe det og kun offentliggøre de almindelige * ACL-ting i stedet. Stor respekt for teamet for deres store arbejde.

- (((? () (? () 'Yoav)))) (@yoavgo) 15. februar 2019

Zachary Lipton, AI-forsker og redaktøren af ​​Ca. Rigtigt, pegede på OpenAIs historie om "at bruge deres blog og forstørre opmærksomheden på katapult umodent arbejde i offentligheden og ofte afspille de menneskelige sikkerhedsaspekter ved arbejde, der endnu ikke har intellektuel benene at stå på."

Selvom OpenAI fortjener al den kritik og varme, den har modtaget i kølvandet på sine vildledende bemærkninger, er det også rigtigt at være ægte bekymret over den mulige ondsindede anvendelse af sin teknologi, selvom virksomheden brugte en uansvarlig måde til at uddanne offentligheden om det.

  • AI-industriens år for etisk regnering AI-industriens år for etisk regning
  • Urimelig fordel: Forvent ikke, at AI spiller som en menneskelig Urimelig fordel: Forvent ikke, at AI spiller som et menneske
  • Denne AI forudsiger online trolling, før det sker. Denne AI forudsiger online trolling, inden det sker

I de seneste år har vi set, hvordan AI-teknologier, der offentliggøres uden tanke og refleksion, kan våben til ondsindede formål. Et eksempel var FakeApp, et AI-program, der kan bytte ansigter i videoer. Kort efter, at FakeApp blev frigivet, blev det brugt til at oprette falske pornografiske videoer, der indeholdt berømtheder og politikere, hvilket skabte bekymring over truslen om AI-drevet forfalskning.

OpenAIs beslutning viser, at vi er nødt til at stoppe og tænke over de mulige konsekvenser af offentlig frigivelse af teknologi. Og vi er nødt til at have mere aktive diskussioner om risiciene ved AI-teknologier.

"En organisation, der sætter et bestemt projekt på pause, vil ikke rigtig ændre noget på lang sigt. Men OpenAI får en masse opmærksomhed for alt det, de gør… og jeg synes, de skal applauderes for at have fokuseret på dette spørgsmål, " siger David Bau, en forsker ved MITs datalogi og kunstig intelligenslaboratorium (CSAIL), fortalte Slate.

Hvordan openais falske nyhedsadvarsler udløste faktiske falske nyheder