Hjem udtalelser Hvorfor ai skal afsløre, at det er ai

Hvorfor ai skal afsløre, at det er ai

Indholdsfortegnelse:

Video: Dynoro & Gigi D’Agostino - In My Mind (Oktober 2024)

Video: Dynoro & Gigi D’Agostino - In My Mind (Oktober 2024)
Anonim

Google gentog for nylig Duplex for eksplicit at afsløre for restaurantværter og salonpersonale, at de taler med Google Assistant og bliver optaget.

Google udelade denne lille, men vigtige detalje, da den først introducerede Duplex på sin I / O-udviklerkonference i maj. Der opstod en mediesvingning, og kritikerne fornyede den gamle frygt for implikationerne af at løsne AI-agenter, der kan udgive sig for menneskers opførsel på uskilte måder.

Ved at finpusse Duplex hviler Google på noget af denne kritik. Men hvorfor er det så vigtigt, at virksomheder er gennemsigtige med hensyn til identiteten af ​​deres AI-agenter?

Kan AI-assistenter tjene onde formål?

"Der er en voksende forventning om, at når du sender en besked til en virksomhed, kan du interagere med en AI-drevet chatbot. Men når du faktisk hører et menneskeligt talende, forventer du generelt, at det er en rigtig person, " siger Joshua March, CEO af Coversocial.

Marts siger, at vi er i begyndelsen af, at folk regelmæssigt har meningsfulde interaktioner med AI, og fremskridt på området har skabt frygt for, at hackere kunne udnytte AI-agenter til ondsindede formål.

"I et bedste tilfælde kan AI-bots med ondsindede intentioner fornærme folk, " siger Marcio Avillez, SVP for Networks ved Cujo AI. Men Marcio tilføjer, at vi måske står over for mere alvorlige trusler. F.eks. Kan AI lære specifikke sproglige mønstre, hvilket gør det lettere at tilpasse teknologien til at manipulere mennesker, efterligne ofre og scene vishing (voice phishing) angreb og lignende aktiviteter.

Mange eksperter er enige om, at truslen er reel. I en spalte til CIO lagde Steven Brykman de forskellige måder, hvorpå en teknologi som Duplex kan udnyttes: ”I det mindste med mennesker, der ringer mennesker, er der stadig en begrænsende faktor - et menneske kan kun foretage så mange opkald pr. Time pr. Dag. Mennesker skal betales, tage pauser osv. Men en AI-chatbot kunne bogstaveligt talt foretage et ubegrænset antal opkald til et ubegrænset antal mennesker på en ubegrænset række måder!"

På dette tidspunkt er det meste af det, vi hører, spekulation; vi ved stadig ikke omfanget og alvoret af de trusler, der kan opstå med fremkomsten af ​​stemmeassistenter. Men mange af de potentielle angreb, der involverer stemmebaserede assistenter, kan misbruges, hvis det firma, der leverer teknologien eksplicit kommunikerer til brugerne, når de interagerer med en AI-agent.

Bekymringer om privatlivets fred

Et andet problem omkring brugen af ​​teknologier som Duplex er den potentielle risiko for privatlivets fred. AI-drevne systemer har brug for brugerdata til at træne og forbedre deres algoritmer, og Duplex er ingen undtagelse. Hvordan det vil gemme, sikre og bruge disse data er meget vigtigt.

Der kommer nye regler, der kræver, at virksomhederne skal få det udtrykkelige samtykke fra brugerne, når de vil indsamle deres information, men de er hovedsageligt designet til at dække teknologier, hvor brugerne med vilje indleder interaktioner. Dette giver mening for AI-assistenter som Siri og Alexa, som er brugeraktiveret. Men det er ikke klart, hvordan de nye regler vil gælde for AI-assistenter, der når ud til brugerne uden at blive udløst.

I sin artikel understreger Brykman behovet for at etablere lovgivningsmæssige garantier, såsom love, der kræver, at virksomheder erklærer tilstedeværelsen af ​​en AI-agent - eller en lov om, at når du spørger en chatbot, om det er en chatbot, er det forpligtet til at sige, "Ja, Jeg er en chatbot. " Sådanne foranstaltninger ville give den menneskelige samtalepartner chancen for at frigøre sig eller i det mindste beslutte, om de vil interagere med et AI-system, der registrerer deres stemme.

Selv med sådanne love vil privatlivets fred ikke gå væk. "Den største risiko, som jeg forudser i teknologiens nuværende inkarnation, er, at den vil give Google endnu flere data om vores private liv, som den ikke allerede havde. Indtil dette kendte de kun til vores onlinekommunikation; de vil nu få reel indsigt i vores samtaler i den virkelige verden, ”siger Vian Chinner, grundlægger og CEO af Xineoh.

De seneste privatlivsskandaler, der involverer store tech-virksomheder, hvor de har brugt brugerdata på tvivlsomme måder til deres egne gevinster, har skabt en følelse af mistillid omkring at give dem flere vinduer i vores liv. ”Folk føler generelt, at de store Silicon Valley-virksomheder ser dem som inventar i stedet for kunder og har en stor grad af mistillid til næsten alt, hvad de gør, uanset hvor banebrydende og livsændrende det vil ende med at blive, ” siger Chinner.

Funktionelle fejl

På trods af at have en naturlig stemme og tone og bruge menneskelignende lyde som "mmhm" og "ummm", er Duplex ikke forskellig fra andre moderne AI-teknologier og lider under de samme begrænsninger.

Uanset om stemme eller tekst bruges som interface, er AI-agenter gode til at løse specifikke problemer. Derfor kalder vi dem "snæver AI" (i modsætning til "generel AI" - den type kunstig intelligens, der kan engagere sig i generel problemløsning, som det menneskelige sind gør). Mens smal AI kan være usædvanlig god til at udføre de opgaver, den er programmeret til, kan den mislykkes spektakulært, når det får et scenarie, der afviger fra sit problemdomæne.

"Hvis forbrugeren tror, ​​at de taler med et menneske, vil de sandsynligvis spørge noget, der er uden for AIs normale script, og vil derefter få et frustrerende svar, når boten ikke forstår, " siger Conversocials marts.

I modsætning hertil, når en person ved, at de taler med en AI, der er blevet uddannet til at reservere borde på en restaurant, vil de forsøge at undgå at bruge sprog, der forvirrer AI'en og får den til at opføre sig på uventede måder, især hvis det bringer dem en kunde.

"Medarbejdere, der modtager opkald fra Duplex, bør også modtage en ligetil introduktion om, at dette ikke er en rigtig person. Dette ville hjælpe kommunikationen mellem personalet og AI til at være mere konservativ og klar, " siger Avillez.

Af denne grund, indtil (og hvis) vi udvikler AI, der kan fungere på niveau med menneskelig intelligens, er det i selskabernes interesse at være gennemsigtige omkring deres brug af AI.

I slutningen af ​​dagen skyldes en del af frygt for stemmeassistenter som Duplex, at de er nye, og vi er stadig vant til at møde dem i nye indstillinger og bruge sager. "I det mindste synes nogle mennesker meget ubehagelige med tanken om at tale med en robot uden at vide det, så indtil videre skal det muligvis videregives til modparterne i samtalen, " siger Chinner.

  • AI er (også) en styrke til det gode AI er (også) en styrke til det gode
  • Når AI slører linjen mellem virkelighed og fiktion Når AI slører linjen mellem virkelighed og fiktion
  • Kunstig intelligens har et bias-problem, og det er vores fejl Kunstig intelligens har et bias-problem, og det er vores fejl

Men på lang sigt bliver vi vant til at interagere med AI-agenter, der er smartere og mere dygtige til at udføre opgaver, der tidligere blev antaget at være det eksklusive domæne for menneskelige operatører.

"Den næste generation er ligeglad med, om de taler til en AI eller et menneske, når de kontakter en virksomhed. De vil bare gerne have svar hurtigt og nemt, og de er vokset op med at tale med Alexa. Venter på hold for at tale med et menneske vil være meget mere frustrerende end bare at interagere med en bot, ”siger Conversocials marts.

Hvorfor ai skal afsløre, at det er ai