Hjem udtalelser At lære af alexas fejl

At lære af alexas fejl

Indholdsfortegnelse:

Video: Ring Doorbell Skill Updated to Show Live View on Echo Show & Announcements on Echo Speakers (Oktober 2024)

Video: Ring Doorbell Skill Updated to Show Live View on Echo Show & Announcements on Echo Speakers (Oktober 2024)
Anonim

En Amazon Echo-enhed registrerede for nylig en brugers private samtale og sendte den til en af ​​deres kontakter uden deres viden og samtykke. Dette rejser (igen) bekymring for sikkerheden og privatlivets fred for smarte højttalere. Men som det senere blev tydeligt, var Alexa's underlige opførsel ikke en del af et uhyggeligt spionage-plot - det var snarere forårsaget af en række sammenkoblede fejl, der blev tilskrevet den måde, hvorpå den smarte højttaler fungerer.

Ifølge en konto fra Amazon: "Echo vågnede op på grund af et ord i baggrundssamtale, der lød som 'Alexa.' Derefter blev den efterfølgende samtale hørt som en "send besked" -anmodning. På hvilket tidspunkt sagde Alexa højt "Til hvem?" På hvilket tidspunkt blev baggrundssamtalen fortolket som et navn på kundens kontaktliste. Alexa spurgte derefter højlydt, 'ikke?' Alexa fortolker derefter baggrundssamtale som 'rigtigt'. Så usandsynligt som denne streng af hændelser er, vurderer vi mulighederne for at gøre denne sag endnu mindre sandsynlig."

Scenariet er et randtilfælde, den type hændelse, der sker meget sjældent. Men det er også en interessant undersøgelse i grænserne for den kunstige intelligens teknologi, der styrer Echo og andre såkaldte "smarte" enheder.

For meget skyafhængighed

For at forstå stemmekommandoer er smarte højttalere som Echo og Google Home afhængige af dyb-læringsalgoritmer, som kræver omfattende computerkraft. Da de ikke har databehandlingsressourcerne til at udføre opgaven lokalt, skal de sende dataene til producentens cloud-servere, hvor AI-algoritmer omdanner taledata til tekst og behandler kommandoerne.

Men smarte højttalere kan ikke sende alt, hvad de hører, til deres sky-servere, fordi det ville kræve, at producenten gemmer store mængder data på deres servere - hvoraf de fleste ville være ubrugelige. Tilfældigvis optagelse og lagring af private samtaler, der finder sted i brugernes hjem, ville det også give en privatlivsudfordring og kunne få producenterne i problemer, især med nye databeskyttelsesregler, der sætter alvorlige begrænsninger for, hvordan teknologiske virksomheder lagrer og bruger data.

Derfor er intelligente højttalere designet til at blive udløst, efter at brugeren har udtalt et vågent ord, såsom "Alexa" eller "Hey Google." Først efter at have hørt vågent ordet begynder de at sende deres mikrofoners lydindgang til skyen til analyse og behandling.

Mens denne funktion forbedrer privatlivets fred, præsenterer den sine egne udfordringer, som den nylige Alexa-hændelse fremhævede.

"Hvis ord - eller noget der lyder meget som det - sendes halvvejs gennem en samtale, vil Alexa ikke have nogen af ​​den tidligere kontekst, " siger Joshua March, administrerende direktør for Conversocial. "På det tidspunkt lytter det ekstremt hårdt til nogen kommandoer, der er relateret til de færdigheder, du har konfigureret (som deres messaging-app). For det meste forbedres privatliv meget ved at begrænse den kontekst, som Alexa er opmærksom på (som det er ikke at optage eller lytte til nogen af ​​dine normale samtaler), selvom det blev bekræftet i dette tilfælde."

Fremskridt inden for edge computing kan hjælpe med at afhjælpe dette problem. Da AI og dyb læring finder vej til flere og flere enheder og applikationer, har nogle hardwareproducenter oprettet processorer, der er specialiserede til at udføre AI-opgaver uden for meget afhængighed af skyressourcer. Edge AI-processorer kan hjælpe enheder som Echo med at bedre forstå og behandle samtaler uden at krænke brugernes privatliv ved at sende alle data til skyen.

Kontekst og hensigt

Bortset fra at modtage forskellige og fragmenterede lydstykker, kæmper Amazons AI med at forstå nuancerne i den menneskelige samtale.

"Selvom der er sket enorme fremskridt inden for dyb læring i de sidste par år, hvilket gør det muligt for software at forstå tale og billeder bedre end nogensinde før, er der stadig mange grænser, " siger March. "Mens stemmeassistenter kan genkende de ord, du siger, har de ikke nødvendigvis nogen form for reel forståelse af betydningen eller hensigten bag det. Verden er et komplekst sted, men ethvert AI-system i dag er kun i stand til at håndtere meget specifikke, snævre brugssager."

For eksempel har vi mennesker mange måder at bestemme, om en sætning er rettet mod os, som f.eks. Stemmetone eller efter visuelle signaler - siger retningen, som højttaleren ser.

I modsætning hertil antager Alexa, at det er modtageren af ​​enhver sætning, der indeholder "A" -ordet. Dette er grunden til, at brugerne ofte udløser det ved et uheld.

En del af problemet er, at vi overdriver mulighederne i de nuværende AI-applikationer, ofte lægger dem på niveau med eller over det menneskelige sind og sætter for meget tillid til dem. Derfor er vi overrasket, når de fejler spektakulært.

"En del af problemet her er, at udtrykket 'AI' er blevet markedsført så aggressivt, at forbrugerne har lagt en ufortjent mængde tro på produkter, hvor dette udtryk er knyttet til dem, " siger Pascal Kaufmann, neurovidenskabsmand og grundlægger af Starmind. "Denne historie illustrerer, at Alexa har mange muligheder og en relativt begrænset forståelse af, hvordan og hvornår de skal anvendes korrekt."

Deep-learning-algoritmer er tilbøjelige til at mislykkes, når de står over for indstillinger, der afviger fra de data og scenarier, de er trænet til. "Et af de definerende træk ved AI på menneskeligt niveau vil være selvforsynende kompetence og en sand forståelse af indhold, " siger Kaufmann. "Dette er en afgørende del af virkelig at betragte en AI 'intelligent' og vital for dens udvikling. Oprettelse af selvbevidste digitale assistenter, der bringer en fuld forståelse af den menneskelige natur, vil markere deres transformation fra en sjov nyhed til en virkelig nyttigt værktøj."

Men at skabe menneskelig AI, også kaldet generel AI, er lettere sagt end gjort. I mange årtier har vi tænkt, at det er lige rundt om hjørnet, kun for at blive forfærdet, da teknologiske fremskridt har vist, hvor kompliceret det menneskelige sind er. Mange eksperter mener, at jagte af generel AI er nytteløst.

I mellemtiden giver smalle AI (som de nuværende teknologier for kunstig intelligens er beskrevet) stadig mange muligheder og kan rettes til at undgå gentagelse af fejl. For at være klar begynder dyb læring og maskinlæring stadig, og virksomheder som Amazon opdaterer konstant deres AI-algoritmer for at adressere kantsager, hver gang de sker.

Hvad vi skal gøre

"Dette er et ungt, voksende felt. Naturlig sprogforståelse er især i sin spædbarn, så der er meget, vi kan gøre her, " siger Eric Moller, CTO for Atomic X.

Moller mener, at stemme-analyse AI-algoritmer kan indstilles for bedre at forstå intonation og bøjning. "Brug af ordet 'Alexa' i en bredere sætning lyder anderledes end en påkaldelse eller kommando. Alexa skulle ikke vågne op, fordi du sagde det navn i forbifarten, " siger Moller. Med tilstrækkelig træning skal AI være i stand til at skelne, hvilke specifikke toner der er rettet mod den smarte højttaler.

Tekniske virksomheder kan også træne deres AI til at være i stand til at skelne, når de modtager baggrundsstøj i stedet for at blive talt direkte. "Baggrundsskrav har en unik auditiv 'signatur', som mennesker er meget gode til at samle op og selektivt afstemme. Der er ingen grund til, at vi ikke kan træne AI-modeller til at gøre det samme, " siger Moller.

Som en forholdsregel bør AI-assistenter bedømme virkningen af ​​de beslutninger, de træffer, og involvere menneskelig beslutning i tilfælde, hvor de ønsker at gøre noget, der er potentielt følsomt. Producenter bør bage mere sikkerhed i deres teknologier for at forhindre overførsel af følsomme oplysninger uden brugerens udtrykkelige og klare samtykke.

"Selvom Amazon rapporterede, at Alexa forsøgte at bekræfte den handling, den fortolkede, skal nogle handlinger styres mere omhyggeligt og holdes til en højere standard for bekræftelse af brugerens intention, " siger Sagi Eliyahi, administrerende direktør for Tonkean. "Mennesker har de samme problemer med talegenkendelse, som lejlighedsvis mishandler anmodninger. I modsætning til Alexa er det imidlertid mere sandsynligt, at et menneske bekræfter, at de forstår en uklar anmodning og, endnu vigtigere, vurderer sandsynligheden for en anmodning sammenlignet med tidligere anmodninger."

I mellemtiden…

Mens tech-virksomheder finjusterer deres AI-applikationer for at reducere fejl, skal brugerne tage den ultimative beslutning om, hvor meget de ønsker at blive udsat for de potentielle fejl, som deres AI-drevne enheder muligvis gør.

"Disse historier viser en konflikt med den mængde data, som folk er villige til at dele imod løftet om nye AI-teknologier, " siger Doug Rose, datavidenskabsekspert og forfatteren af ​​flere bøger om AI og software. "Du kan drille Siri for at være langsom. Men den bedste måde for hende at opnå større intelligens er ved at invadere vores private samtaler. Så et vigtigt spørgsmål i det næste årti er, hvor meget vil vi lade disse AI-agenter kigge ind i vores opførsel ?"

"Hvilken familie ville placere en menneskelig assistent i stuen og lade denne person lytte til enhver form for samtale hele tiden?" siger Kaufmann, neurovidenskabsmanden fra Starmind. "Vi skal mindst anvende de samme standarder på såkaldte 'AI' enheder (hvis ikke højere), at vi også anvender menneskelige intelligente væsener, når det kommer til privatliv, hemmelighed eller pålidelighed."

At lære af alexas fejl