Hjem Fremadrettet tænkning Google-apps, værktøjer sigter mod at 'demokratisere ai'

Google-apps, værktøjer sigter mod at 'demokratisere ai'

Indholdsfortegnelse:

Video: “Let Er’ R.I.P.” – Inanimate Insanity II [Ep. 6] (Oktober 2024)

Video: “Let Er’ R.I.P.” – Inanimate Insanity II [Ep. 6] (Oktober 2024)
Anonim

For mig var det største tema på sidste uges Google I / O-konference "at demokratisere AI" - med andre ord, gøre AI tilgængeligt både for slutbrugere gennem dets anvendelse i en række Google-tjenester og for udviklere gennem nye værktøjer, programmer, og endda hardware designet omkring Googles TensorFlow AI-ramme.

Googles administrerende direktør Sundar Pichai startede konferencen med en hovednote, hvor han igen understregede, at virksomheden var ved at gå fra en mobil-først til en AI-første tilgang, på samme måde som han sagde sidste år.

Han sagde, at Google "revurderede alle vores produkter og anvendte maskinlæring og AI til at tjene brugerens problemer." Han sagde, at maskinlæringsalgoritmer allerede har indflydelse på rangeringen af ​​forskellige resultater i søgningen, og hvordan Street View nu automatisk genkender tegn. Andre tjenester bliver smartere på grund af AI, sagde han, f.eks. Hvordan Google Home nu understøtter flere brugere, og hvordan Gmail nu udruller en "smart svar" -funktion, hvor den automatisk foreslår svar på e-mails.

Med henblik herpå fremsatte han en række meddelelser om AI-produkter, både for forbrugere og for udviklere.

Linse, assistent og foto bruger AI-funktioner

For slutbrugere er den mest synlige af disse nye bestræbelser Google Lens, et sæt visionbaserede computerfunktioner, der kan forstå, hvad du ser og gribe ind, både i Google Assistant og i Google Fotos.

For eksempel demonstrerede han, hvordan du kan tage et billede af en blomst, og hvordan Google Lens nu kan identificere den. Mere prosaisk kan det tage et billede af et brugernavn og adgangskode til Wi-Fi og derefter automatisk forstå, at du vil oprette forbindelse og gøre det for dig. Andre eksempler inkluderer at tage et billede af ydersiden af ​​en restaurant og få softwaren til at forstå, hvad det er, og derefter vise dig brugeranmeldelser og menuer. Dette er ikke alt sammen helt nyt, men jeg kan forestille mig, at det vil være ganske nyttigt - den slags ting, vi alle sammen bruger stort set ved at rote om et par år. Google siger, at dette vil være i gang om et par måneder.

Google Assistant bliver fortsat smartere og vil inkorporere Google-objektivet, skønt den største nyhed derfra er, at Assistant nu kommer til iPhone.

Den populære Google Fotos-app får også en række andre nye AI-drevne funktioner, herunder "foreslået deling", hvor den automatisk vælger de bedste billeder og foreslår, at du deler dem med folkene på billederne. Google Fotos tilføjer også en funktion, der automatisk giver dig mulighed for at dele hele eller en del af din bibliotek, så hvis du tager billeder af dine børn, bliver de automatisk også en del af din partners fotobibliotek. Og det kan foreslå de bedste fotos til en fotobog.

AI-første datacentre og nye udviklingsværktøjer

På den interne side talte Pichai om, hvordan virksomheden "revurderede" sin beregningsarkitektur for at bygge "AI-første datacentre." Han sagde, at Google bruger sine nuværende Tensor Processing Units (TPU'er) på tværs af alle sine tjenester, fra grundlæggende søgning til talegenkendelse til sin AlphaGo-konkurrence.

Jeg blev især fascineret af virksomhedens introduktion af en ny version af dens TPU 2.0, som Pichai sagde var i stand til at nå 180 teraflops (180 billioner flydende punktoperationer pr. Sekund) pr. 4-chip bord, eller 11, 5 petaflops i hver "pod" af 64 sådanne tavler. Disse er tilgængelige for udviklere som "cloud-TPU'er" på Google Cloud Engine nu, og virksomheden sagde, at det ville stille 1000 cloud-TPU'er til rådighed for maskinlæringsforskere via sin nye TensorFlow Research Cloud.

Dette er del af et stigende pres på TensorFlow, virksomhedens open source-maskinelæringsramme for udviklere, og konferencen havde en række sessioner med det formål at få flere udviklere til at bruge denne ramme. TensorFlow ser ud til at være den mest populære af rammerne for maskinlæring, men det er kun et af et antal valg. (Andre inkluderer Caffe, der er skubbet af Facebook, og MXNet, der er skubbet af Amazon Web Services.)

Jeg gik til en session om "TensorFlow for ikke-eksperter" designet til at evangelisere rammerne og Keras dyb læringsbibliotek, og det var pakket. Det er fascinerende ting, men ikke så kendt som de mere traditionelle udviklingsværktøjer. Alle de store virksomheder siger, at de har problemer med at finde nok udviklere med ekspertise i maskinlæring, så det er ingen overraskelse at se dem alle skubbe deres interne rammer. Mens værktøjerne til at bruge disse bliver bedre, er det stadig kompliceret. Naturligvis er det meget lettere at kalde en eksisterende model, og Google Cloud Platform såvel som Microsoft og AWS har alle en række sådanne ML-tjenester, som udviklere kan bruge.

Fordi det er så svært at udvikle sådanne tjenester, brugte Pichai megen tid på at tale om "AutoML", en tilgang, der har neurale net til at designe nye neurale netværk. Han sagde, at Google håber, at AutoML vil tage en evne, som et par ph.d.er har i dag, og vil gøre det muligt for hundreder af tusinder af udviklere at designe nye neurale net til deres særlige behov om tre til fem år.

Dette er del af en større indsats kaldet Google.ai for at bringe AI til flere mennesker, hvor Pichai taler om en række forskellige initiativer til at bruge AI til at hjælpe i sundhedsvæsenet. Han talte om patologi og kræftdetektion, DNA-sekventering og opdagelse af molekyler.

Fortsætter temaet annoncerede Dave Burke, leder af Android engineering, en ny version af TensorFlow optimeret til mobil kaldet TensorFlow lite. Det nye bibliotek vil give udviklere mulighed for at opbygge slankere dyb læringsmodeller designet til at køre på Android-smartphones, og han talte om, hvordan mobile processor-designere arbejdede med specifikke acceleratorer i deres processorer eller DSP'er designet til neurale netværksinferencer og endda træning.

I Keynote til udvikleren sagde Fei Fei Li, en Stanford-professor, der leder Googles AI-forskning, at hun tiltrådte Google "for at sikre, at alle kan udnytte AI til at forblive konkurrencedygtige og løse de problemer, der betyder mest for dem."

Hun talte meget om "Demokratisering af AI", herunder de forskellige værktøjer, som Google stiller til rådighed for udviklere til specifikke applikationer, såsom vision, tale, oversættelse, naturligt sprog og video-intelligens, samt at gøre værktøjer til at oprette dine egne modeller, sådan som TensorFlow, som er lettere at bruge med flere API'er på højt niveau.

Hun talte om, hvordan udviklere nu vil være i stand til at bruge CPU'er, GPUS eller TPU'er på Google Compute Engine. Hun gav et eksempel på, hvor meget en hastighedsforbedring nogle modeller har på TPU'er, og sagde, at forskningsvirkningerne af dette er betydningsfulde.

Hun gentager Pichai og udråbede den nye TensorFlow Research Cloud og sagde, at studerende og Kaggle-brugere skulle ansøge om at bruge den; og afsluttede med at sige, at firmaet oprettede sit cloud-AI-team for at gøre AI demokratisk, for at møde dig, hvor du er, med Googles mest magt AI-værktøjer, og til at dele rejsen, som du bruger disse.

Google-apps, værktøjer sigter mod at 'demokratisere ai'