Hjem udtalelser Ai-industriens år med etisk beregning

Ai-industriens år med etisk beregning

Indholdsfortegnelse:

Video: Poverty isn't a lack of character; it's a lack of cash | Rutger Bregman (Oktober 2024)

Video: Poverty isn't a lack of character; it's a lack of cash | Rutger Bregman (Oktober 2024)
Anonim

Lige siden dybe neurale netværk vandt verdens vigtigste konkurrence om billedgenkendelse i 2012, har alle været begejstrede for, hvad kunstig intelligens kunne løsrive. Men i løbet om at udvikle nye AI-teknikker og applikationer tog de mulige negative virkninger bagud.

Vi ser nu et skift mod mere opmærksomhed omkring AI-etik. I 2018 blev AI-udviklere mere bevidste om de mulige konsekvenser af deres kreationer. Mange ingeniører, forskere og udviklere gjorde det klart, at de ikke ville bygge teknologier, der skader eller forårsager skade på uskyldige menneskers liv, og de holdt deres virksomheder.

Ansigtsgenkendelse ved retshåndhævelse

Tidligere var oprettelse af ansigtsgenkendelsesapplikationer vanskelige, ressurskrævende og fejlagtige. Men med fremskridt inden for computervision - delmængden af ​​AI, der gør det muligt for computere at genkende indholdet af billeder og video - blev applikationsgenkendelsesapplikationer meget lettere og inden for alles rækkevidde.

Store tech-virksomheder som Microsoft, Amazon og IBM begyndte at levere skybaserede tjenester, der gjorde det muligt for enhver udvikler at integrere ansigtsgenkendelsesteknologi i deres software. Dette låste op for mange nye brugssager og applikationer i forskellige domæner, såsom identitetsbeskyttelse og autentificering, smarthemmesikkerhed og detailhandel. Men aktivister til beskyttelse af privatlivets fred udtrykte bekymring over potentialet for misbrug.

I maj 2018 afslørede American Civil Liberties Union, at Amazon markedsførte Rekognition, en realtids videoanalytisk teknologi, til retshåndhævelse og myndigheder. Ifølge ACLU brugte politiet i mindst tre stater Rekognition til ansigtsgenkendelse på overvågningsvideo feeds.

"Med Rekognition kan en regering nu opbygge et system til at automatisere identifikation og sporing af nogen. Hvis politikropskameraer, for eksempel var udstyret med ansigtsgenkendelse, ville enheder beregnet til officiel gennemsigtighed og ansvarlighed yderligere omdannes til overvågningsmaskiner rettet mod offentligt, ”advarede ACLU. "Ved at automatisere masseovervågning truer ansigtsgenkendelsessystemer som Rekognition denne frihed og udgør en særlig trussel for samfund, der allerede er uretfærdigt målrettet i det aktuelle politiske klima. Når først kraftfulde overvågningssystemer som disse er bygget og implementeret, vil skaden være ekstremt vanskelig at fortryde."

ACLU's bekymringer blev gentaget af Amazon-ansatte, som i juni skrev et brev til Jeff Bezos, virksomhedens administrerende direktør, og krævede, at han stoppede med at sælge Rekognition til retshåndhævelse. "Vores virksomhed bør ikke være i overvågningsbranchen; vi bør ikke være i politi-forretning; vi skal ikke være i branchen for at støtte dem, der overvåger og undertrykker marginaliserede befolkninger, " lyder brevet.

I oktober afslørede en anonym personale fra Amazon, at mindst 450 ansatte havde underskrevet et andet brev, der opfordrede Bezos og andre ledere til at stoppe med at sælge Rekognition til politiet. "Vi kan ikke drage fordel af en undergruppe af magtfulde kunder på bekostning af vores samfund; vi kan ikke afværge vores øjne fra de menneskelige omkostninger ved vores forretning. Vi bygger ikke lydløs teknologi til at undertrykke og dræbe mennesker, hvad enten det er i vores land eller i andre, " den sagde.

Fallout af Googles militære AI-projekt

Mens Amazon beskæftigede sig med denne interne tilbageslag, oplevede Google lignende kampe om en kontrakt om at udvikle AI til det amerikanske militær, kaldet Project Maven.

Google hjalp angiveligt forsvarsdepartementet med at udvikle computer-vision-teknologi, der ville behandle drone-videooptagelser. Mængden af ​​videooptagelser optaget af droner hver dag var for meget for menneskelige analytikere til at gennemgå, og Pentagon ønskede at automatisere en del af processen.

En talsmand for Google anerkendte den kontroversielle karakter af opgaven og anførte, at den kun leverede API'er til TensorFlow, dets maskinlæringsplatform, til at detektere objekter i videofeeds. Google understregede også, at det var ved at udvikle politikker og sikkerhedsforanstaltninger til at tackle etiske aspekter af dens teknologi.

Men Project Maven sad ikke godt med Google-medarbejdere - 3.000 af dem, inklusive snesevis af ingeniører, underskrev snart et åbent brev til administrerende direktør Sundar Pichai, der opfordrede til afslutning af programmet.

"Vi mener, at Google ikke bør være i krig, " lyder brevet. Det bad om, at virksomheden "udarbejdede, offentliggjorde og håndhæver en klar politik om, at hverken Google eller dets entreprenører nogensinde vil bygge krigsførelsesteknologi."

Google-medarbejderne advarede også om, at deres arbejdsgiver bringer sit omdømme og sin evne til at konkurrere om talent i fremtiden i fare. "Vi kan ikke outsource det moralske ansvar for vores teknologier til tredjepart, " understregede Googlers.

Kort efter opfordrede en andragende underskrevet af 90 akademikere og forskere de øverste Google-ledere til at afbryde arbejdet med militær teknologi. Underskriverne advarede om, at Googles arbejde ville sætte scenen for "automatisk målgenkendelse og autonome våbensystemer." De advarede også om, at når teknologien udvikler sig, ville de stå "et kort skridt væk fra at autorisere autonome droner til automatisk at dræbe uden menneskelig tilsyn eller meningsfuld menneskelig kontrol."

Efterhånden som spændingerne voksede, trak flere Google-ansatte sig i protest.

Hvordan teknologiledere reagerede

Under pres erklærede Google i juni, at den ikke ville fornye sin kontrakt med Department of Defense om Project Maven, efter at den udløb i 2019.

I et blogindlæg erklærede administrerende direktør Sundar Pichai (på billedet nedenfor) et sæt etiske principper, der ville styre virksomhedens udvikling og salg af AI-teknologi. Ifølge Pichai vil virksomheden fra nu af overveje projekter, der er til gavn for samfundet som helhed og undgå udviklingen af ​​AI, der forstærker eksisterende urimelige partier eller undergraver den offentlige sikkerhed.

Pichai erklærede også eksplicit, at hans firma ikke vil arbejde på teknologier, der krænker menneskerettighedsnormer.

Amazons Bezos blev mindre begejstret af forargelsen over Rekognition. "Vi vil fortsætte med at støtte DoD, og ​​det synes jeg vi skulle, " sagde Bezos på en teknisk konference i San Francisco i oktober. "Et af de ledende stillinger er at tage den rigtige beslutning, selv når den er upopulær."

Bezos understregede også behovet for, at teknologisamfundet skal støtte militæret. ”Hvis store tech-virksomheder vil vende ryggen til DoD, vil dette land være i problemer, ” sagde han.

Microsofts præsident Brad Smith, hvis firma blev udsat for kritik over sit arbejde med ICE, offentliggjorde et blogindlæg i juli, hvor han opfordrede til en målrettet tilgang til salg af følsom teknologi til regeringsorganer. Mens Smith ikke udelukkede salg af ansigtsgenkendelsestjenester til retshåndhævelse og militæret, understregede han behovet for bedre regulering og gennemsigtighed i teknologisektoren.

  • MIT til at bruge $ 1 milliard på program til at studere AI-etik MIT til at bruge $ 1 milliard på program til at studere AI-etik
  • Taler AI virkelig vores sprog? Taler AI virkelig vores sprog?
  • Nedbryde Kinas ustoppelige AI-fabrik Nedbryde Kinas ustoppelige AI-fabrik

"Vi har valgte repræsentanter i Kongressen har de værktøjer, der er nødvendige for at vurdere denne nye teknologi med alle dens konsekvenser. Vi drager fordel af kontrollerne og balancerne i en forfatning, der har set os fra lysenes alder til en æra med kunstig intelligens. Som i så mange gange tidligere har vi brug for at sikre, at nye opfindelser tjener vores demokratiske friheder i henhold til retsstatsprincippet, ”skrev Smith.

I 2018 gav fjerne trusler om mordererobotter og massearbejdsløshed plads til bekymring for den mere umiddelbare etiske og sociale virkning af AI. På mange måder tyder denne udvikling på, at branchen modnes, da AI-algoritmer bliver mere fremtrædende i kritiske opgaver. Men når algoritmer og automatisering bliver mere indgroet i vores daglige liv, vil der opstå flere debatter.

Ai-industriens år med etisk beregning