Hjem Fremadrettet tænkning Apple, google og vejen til den kendte assistent

Apple, google og vejen til den kendte assistent

Video: How to wake the Google Assistant on iPhone (Oktober 2024)

Video: How to wake the Google Assistant on iPhone (Oktober 2024)
Anonim

Når jeg så hovedmærket fra Apples verdensomspændende udviklerkonference i denne uge, og fra Googles I / O-konference for to uger siden, var det, der stod mest ud for mig, den indsats, som både virksomheder - såvel som Microsoft - lægger på for at skabe intelligente systemer så meget som muligt om dig.

Sådanne systemer ved, hvem du er, hvor du er, og alle oplysninger på din skærm, generelt med det mål at fungere som en "personlig assistent", der forudser dine behov. Dette er et enormt ambitiøst mål, som et af disse virksomheder synes at forstå, kan være det næste store skridt inden for computing.

I tilfælde af Apple og Google kan andre tilbud, der annonceres ved deres hovedpunkter, få større opmærksomhed eller have mere synlig kortsigtet virkning. Google Fotos fik en masse opmærksomhed; både Apple Pay og Android Pay ser ud til at være på randen af ​​at blive meget mere almindelige, og forbedringerne i Android Wear og WatchOS kan muligvis forudse, at der strømmer applikationer til bærbare apparater. Men bevægelsen til mere intelligente, mere omfattende samlede systemer kan vise sig at have den største langsigtede virkning.

Apple, Google og Microsoft kommer alle fra forskellige vinkler. Men de ser ud til at konvergere på systemer, der har en mobil front-end, der kan kontrolleres ved at skrive eller tale, bakket op med et sæt internetbaserede tjenester og processer, der indeholder en enorm mængde data om dig, og foretager konklusioner baseret på disse data og hvad du laver.

Vejen til denne konvergens er blevet brolagt af en række introduktioner i de sidste par år. Mange har arbejdet med personlige assistenter i årevis, og Siri blev oprindeligt udviklet som en selvstændig applikation af en spin-off fra SRI International. I 2011 introducerede Apple Siri som en "virtuel assistent" med iPhone 4s, hovedsagelig fungerende som en frontend til ting som websøgning, lokalt vejr og restaurantopslag. I 2012 introducerede Google Google Now som en del af Android 4.1 Jelly Bean og leverede oplysninger om en række "kort", der besvarede spørgsmål. Med tiden voksede dette til at give mere information og dække flere domæner.

Først troede jeg, at begge var interessante, men stemmestyringen virkede som et mere "parlour trick" end et nyttigt program.

Men i løbet af de sidste par år er begge forbedret i hurtigt tempo. Til dels gav flere brugere begge virksomheder flere data at arbejde med. Dette kombineret med mere intelligente algoritmer og meget arbejde med serverbehandling resulterede i systemer, der nu er langt mere nøjagtige til at forstå, hvad du spørger, end de var ved lanceringen. Begge er nu i stand til at besvare spørgsmål på flere domæner. Og Google Nu kan udlede oplysninger, som hvor dit hjem og dit kontor er baseret på dine typiske placeringer.

Microsoft introducerede Cortana sidste år som en del af Windows Phone 8.1-udgivelsen, og beskrev det som den første virkelig personlige "digitale assistent", fordi den forstod mere af hvad du gjorde i andre applikationer ud over websøgning. Det kunne gøre ting som angive påmindelser og forstå, hvem der var vigtig for dig, og hvem der ikke var, og selvom der ikke var så mange brugere, ser det ud til, at det er forbedret i løbet af de sidste par år. Cortana bliver nu også en del af Windows 10 på desktops og laptops.

Dette bringer os til de nyere meddelelser, hvor alle tre leverandører ser ud til at låne funktioner fra de andre og virkelig prøver at forbedre deres tilbud.

Google Now On Tap

Hos Google I / O for et par uger siden talte Google Senior Vice President Sundar Pichai om, hvordan virksomheden fortsatte med at fokusere på søgning. Men når det kom til funktioner i den nyeste version af Android, var det, der fandt min opmærksomhed, sæt med nye funktioner til Google Now personlig assistent kaldet "Nu på tryk."

Pichai talte om Googles investering i dyb læring og maskinlæring og sagde, at det har hjulpet Google med at reducere ordfejlfrekvensen i sin talegenkendelse fra 23 procent til 8 procent det seneste år.

Google Nu har allerede nogle kontekstuelle funktioner - for eksempel ved den, hvor du er, så det kan estimere den tid det vil tage dig at komme hjem, og det kan vise dette på de forskellige "kort", det bruger til at vise information eller inden for meddelelser.

Men Aparna Chennapragada, direktør for Google Now, sagde "Vi spurgte os selv, hvordan kan vi få dig hurtige svar på hurtige spørgsmål uden at forlade kontekst. Hvordan kan vi hjælpe dig med at få tingene gjort i så få trin som muligt?" Resultatet, sagde hun, var en ny service til at hjælpe dig "i øjeblikket", uanset hvad du gjorde på telefonen. Dette er Now On Tap, og hun sagde, at det kombinerer Googles vidensgraf - dets forståelse af mere end 1 milliard enheder (såsom baseballhold og tankstationer) - med kontekst og forbindelser med andre applikationer for at give dig information proaktivt.

I demonstrationen, hun viste, fik hun en besked i en app, der antydede en restaurant til middag og bad hende om at afhente renseri. Ved at trykke på og holde hjemme-tasten blev Google Now-kortet bragt op, og funktionen Now on Tap trak grundlæggende oplysninger om restauranten op, herunder links til navigationskort, Yelp og OpenTable; det indstiller også en påmindelse om renseri. Ved at trykke på OpenTable-linket åbnede appen, men mere imponerende åbnede den direkte på siden på den restaurant.

Ideen er, at operativsystemet nu forstår sammenhængen med, hvor du er, og hvad du har gjort på resten af ​​enheden. Et andet eksempel er, at hvis du lytter til musik, kan du bare holde Hjem-tasten nede og stille et spørgsmål om sangen. Google Nu ved, hvilken sang der spilles, og kan derefter besvare spørgsmål om den.

"Du kan få oplysninger med det samme, " sagde Chennapragada. "I alle disse eksempler - den artikel, du læser, musikken, du lytter til, beskeden, du svarer på - er nøglen forståelse af øjeblikket. Når først denne forståelse er nået, er det i stand til at give dig hurtige svar til hurtige spørgsmål, hjælpe dig med at få tingene gjort uanset hvor du er i telefonen."

Apple understreger intelligens

På sin WWDC-keynote mandag drøftede Apple en række ændringer, der kommer i iOS 9, men førte med begrebet "intelligens".

Craig Federighi, Apples senior vice president for software engineering, talte om at gøre Siri til en "proaktiv assistent", der kan gøre ting som at minde dig om en bestemt opgave eller et specifikt link i en browser på et særligt tidspunkt eller når du kommer til et bestemt sted. Hvis du for eksempel modtager en tekstmeddelelse om en kommende begivenhed, kan du bede Siri om at "minde mig om dette", og det vil forstå, at du henviser til begivenheden og indstiller en påmindelse. Det kan gøre ting som automatisk tilføje invitationer i en sms til dine kalendere.

Den kan huske de apps, du har en tendens til at bruge på et bestemt tidspunkt på dagen, og præsentere dem for dig i et simpelt ikon, og tilføjer nu "beskrivende kort", som giver dig mere information om resultaterne af en søgning (som lignede i konceptet til kortene i Google Nu).

Og det ser generelt ud til at have forbedret sig. Federighi sagde, at Apple har set en reduktion på 40 procent i ordfejlrate i det sidste år til 5 procent. Og det er smartere om at håndtere ting i selve systemet, nu i stand til at svare på forespørgsler på naturligt sprog som "vis mig fotos fra Utah i august sidste år."

Det mest interessant, det tilbyder en API til søgning, så den kan finde indhold i apps. For eksempel talte han om at være i stand til at linke dybt ind i Airbnb-appen for at finde tilgængelige huslejer i et bestemt område; eller finde oplysninger om opskrifter i en anden applikation.

I en demo viste han en ny søgeskærm, du kommer til ved at skubbe lige fra startskærmen, og hvordan systemet i sig selv fremsætter forslag om, hvem du måske vil kontakte, baseret på dine hyppigste kontakter og om kommende begivenheder. Han viste, hvordan det så kan "dybe link" til specifikke applikationer for at give dig mere information. Lignende funktioner var tilgængelige i Siri.

Én ting Apple understregede var privatlivets fred, idet Federighi sagde "Vi var i stand til at bringe intelligens gennem oplevelsen i iOS 9, men vi gør det på en måde, der ikke går på kompromis med dit privatliv." I det, der bestemt lød som en grave efter Googles reklamebaserede model, sagde han, at Apple ikke miner dine fotos, e-mail, fotos eller skyoplysninger. Han sagde, at alle oplysningerne udføres på enheden og forbliver på enheden under din kontrol, og når systemet skal sende oplysninger til skyen for at udføre søgninger eller se efter trafik, gør det det anonymt uden oplysninger, der deles med tredjepart. ”Du har kontrol, ” sagde han.

Cortana Going Cross platform

Du kan argumentere for, at Microsoft havde et forspring med at levere mange af de personlige assistentfunktioner med sin Cortana-assistent til Windows Phone. Det var den første af de tre store telefonassistenter, der forsøgte at fungere som en rigtig assistent, hvad angår planlægning af påmindelser og integrering mere dybt med nogle af telefonapplikationerne.

Cortana er også en del af Windows 10 på skrivebordet og den bærbare computer. Senest annoncerede Microsoft, at en version af Cortana ville komme til iOS- og Android-telefoner sammen med en "Phone Companion" -app, der forbinder din pc til Cortana, så du kan starte opgaver på en enhed og afslutte dem på en anden.

Som Microsofts Joe Belfiore beskrev det, "Du kan få Cortana til at minde dig om at hente mælk, næste gang du er i købmanden, og så vil din telefon vågne op og brumme med påmindelsen. Du kan spore en flyvning ved hjælp af Cortana på både din telefon og din pc, og få opdateringerne på den enhed, du er på, så du ikke går glip af noget."

Konklusion

På mange måder hører vi alle tre virksomheder flytte sammen, især i "proaktiv" indsats. Google og Apple sagde, at deres værktøjer ville være mere "proaktive", idet de bruger udtrykket til at beskrive, hvordan de vil have, at deres personlige assistenter i det mindste ser ud som om de er i stand til at forudse, hvad du vil være på udkig efter.

Alle tre fokuserer på bedre forbindelse med de andre applikationer på dit system, hvor Apple og Google annoncerer et fokus på "dyb linking". Specifikt ønsker de at linke til ting i en app, såsom at gå til det rigtige skærmbillede i OpenTable for at reservere et bord. Hos I / O viste vicepræsident for teknik til Android Dave Burke, hvordan Android M nu har bedre måder for links til at gå fra links i e-mail eller websteder til det rigtige sted i en applikation uden den aktuelle skærm "disambiguation".

Resultatet af alt dette er en sløring af linjerne mellem operativsystemet og apps, der kører oven på det, for at give en mere problemfri oplevelse og systemer, der virkelig ved meget mere om dig.

Alt dette skal være ganske nyttigt. Men af ​​forskellige årsager kan alt dette også være skræmmende. Det er alt for let at forestille sig muligheden for misbrug af dataene, hvad enten det drejer sig om overdreven markedsføring eller for reelle invasioner af privatlivets fred. Jeg er nysgerrig efter, hvordan hver af virksomhederne vil tackle dette. Jeg spekulerer på, om en af ​​grundene til, at Google ikke har kaldt sin service som en "personlig assistent", er, fordi det lyder en smule afskrækkende fra et firma, hvis primære forretningsmodel er orienteret omkring at indsamle data om mennesker og bruge dem til bedre målretning.

Det er også let at overdrive kapaciteten i disse systemer. Konceptet med en all-know-out, all-Seeing maskine kan være skræmmende, men jeg er ikke bekymret for, at nogen af ​​disse systemer udvikler "stærk AI" i betydningen The Terminator 's Skynet eller 2001: A Space Odyssey 's HAL når som helst i den nærmeste fremtid. Som en af ​​deltagerne sagde på et nyligt panel, jeg deltog, sagde, "Tænk Jarvis, ikke HAL" - fortæller om den hjælpsomme efterretningstøj, der blev båret i Iron Man-filmene, i modsætning til den mordiske maskine fra 2001. I de næste par år, spørgsmålet vil ikke være, om disse systemer er for smarte, men om de vil være smarte nok til at være rigtig nyttige, eller vi finder os selv ved at bruge dem kun som frontend til websøgning.

Selvfølgelig er djævelen i detaljerne, og vi ved ikke rigtig, hvor godt nogle af systemerne fungerer, før de nye versioner sendes. Mens stemmegenkendelse forbedres, medfører det at udvide dette til nye domæner flere udfordringer. Og jeg er ikke klar over, hvor godt et job systemerne vil gøre ved at lade dig vælge de tjenester, du vil bruge, som imod at misligholde Apple eller Googles egne tjenester.

Men det overordnede koncept er klart, og nytten kan være fantastisk. Hvis de distribueres korrekt, skal sådanne tjenester gøre vores enheder føles enklere at bruge, mere intelligente og mere personaliserede. De vil have udfordringer og vil rejse nogle bekymringer, men jeg gætter på, at de vil gøre mere for at ændre, hvordan vi interagerer med vores enheder end noget andet siden berøringsskærmen.

Apple, google og vejen til den kendte assistent