Hjem udtalelser Ubers selvkørende bilulykke: svigte ai os?

Ubers selvkørende bilulykke: svigte ai os?

Indholdsfortegnelse:

Video: Michelangelo - Machine Learning @Uber (Oktober 2024)

Video: Michelangelo - Machine Learning @Uber (Oktober 2024)
Anonim

Den 12. marts kørte MIT Technology Review en historie, der startede sådan: ”Det er året 2023, og selvkørende biler navigerer endelig vores bygader. For første gang har en af ​​dem ramt og dræbt en fodgænger med enorm mediedækning. En højprofilt retssag er sandsynligvis, men hvilke love skal gælde?

Alt om forudsigelse var rigtigt, undtagen for datoen. Præcis en uge efter, at artiklen blev offentliggjort, ramte en selvkørende Uber og dræbte en fodgænger i Tempe, Arizona, mens han fungerede i autonom tilstand.

Selvom hændelsen stadig undersøges, er den opstand, der fulgte, en indikation af, hvor langt vi er fra med succes at integrere kunstig intelligens i vores kritiske opgaver og beslutninger.

I mange tilfælde er problemet ikke med AI, men med vores forventninger og forståelse for det. Ifølge Wired døde næsten 40.000 mennesker i vejhændelser sidste år alene i USA - hvoraf 6.000 var fodgængere. Men meget få (hvis nogen) kom med overskrifter, som Uber-hændelsen gjorde.

En af grundene til, at Uber-nedbruddet forårsagede en sådan opstand, er, at vi generelt har høje forventninger til nye teknologier, selv når de stadig er i udvikling. Under illusionen om, at ren matematik driver AI-algoritmer, har vi en tendens til at stole på deres beslutninger og er chokeret, når de begår fejl.

Selv sikkerhedschaufførerne bag rattet på selvkørende biler svækker deres vagter. Optagelser fra Uber-hændelsen viste, at chaufføren blev distraheret og kiggede ned sekunder, før ulykken skete.

I 2016 døde føreren af ​​en Tesla S-model, der kørte i autopilot-tilstand, efter at køretøjet styrtede ned i en lastbil. En undersøgelse fandt, at chaufføren muligvis har set en Harry Potter-film på tidspunktet for kollisionen.

Forventningerne til perfektion er høje, og skuffelser er kraftige. Kritikere var hurtig med at bringe Ubers hele selvkørende bilprojekt i tvivl efter hændelsen; Virksomheden har midlertidigt suspenderet selvkørende biltest i efterfølgende.

AI er ikke menneske

Blandt kritikken, der fulgte efter styrtet, var, at en menneskelig chauffør let ville have undgået hændelsen.

"Hoppede ikke ud af buskene. Hun havde gjort klare fremskridt på tværs af adskillige baner med trafik, som burde have været i systemområdet for at samle op, " sagde en ekspert til CNN.

Hun har ret. En erfaren menneskelig chauffør ville sandsynligvis have set hende. Men AI-algoritmer er ikke menneskelige.

Dyb indlæringsalgoritmer, der findes i selvkørende biler, bruger adskillige eksempler til at "lære" reglerne for deres domæne. Når de bruger tid på vejen, klassificerer de de oplysninger, de indsamler, og lærer at håndtere forskellige situationer. Men dette betyder ikke nødvendigvis, at de bruger den samme beslutningsproces som menneskelige chauffører. Det er derfor, de muligvis klarer sig bedre end mennesker i nogle situationer og mislykkes i dem, der synes trivielle for mennesker.

Et perfekt eksempel er billedklassificeringsalgoritmen, der lærer at genkende billeder ved at analysere millioner af mærkede fotos. I årenes løb er billedklassificering blevet supereffektiv og overgår mennesker i mange omgivelser. Dette betyder ikke, at algoritmerne forstår sammenhæng med billeder på samme måde, som mennesker gør.

F.eks. Fandt forskning fra eksperter fra Microsoft og Stanford University, at en dyb indlæringsalgoritme, der blev trænet med billeder af hvide katte, troede med en høj grad af overbevisning, at et foto af en hvid hund repræsenterede en kat, en fejl, som et menneskebarn let kunne undgå. Og i en berygtet sag klassificerede Googles algoritme for billedklassificering fejlagtigt personer med mørk hudfarve som gorillaer.

Disse kaldes "edge cases", situationer, som AI-algoritmer ikke er blevet trænet til at håndtere, normalt på grund af mangel på data. Uber-ulykken er stadig under efterforskning, men nogle eksperter i AI antyder, at det kan være en anden kant-sag.

Deep learning har mange udfordringer at overvinde, inden den kan anvendes i kritiske situationer. Men dens fiaskoer bør ikke afskrække os. Vi må justere vores opfattelser og forventninger og omfatte den virkelighed, som enhver stor teknologi svigter under dens udvikling. AI er ikke anderledes.

Ubers selvkørende bilulykke: svigte ai os?