En av mina favoritkonferenser i år är denna veckas Oracle Openworld, främst för att Oracle är ett företag som konkurrerar i en mängd olika applikationsgrupper. Och de har appar för den högre delen av SMB-utrymmet. Tyvärr kunde jag inte delta i detta år, men mycket lyckligt att prata med Suhas Uliyar, Oracles VD för Bots, AI och Mobile Strategy.
Conversational Interface Technologies
Med artificiell intelligens, bots och voice-first-enheter som tre av de hetaste ämnena idag, var jag glad att Suhas tog lite tid att dela med sig av sina tankar om hur kundernas engagemang formas i realtid av dessa tekniker. Nedan finns ett redigerat transkript av vår konversation. För att höra den fullständiga intervjun, vänligen klicka på den inbäddade spelaren nedan.
$config[code] not found* * * * *
Småföretagstendenser: Kanske kan du ge oss en liten bit av din personliga bakgrund.Suhas Uliyar: Jag har varit i mobilindustrin de senaste 21 åren och varje år har varit ett utmärkt och intressant år. Mobile fortsätter att förändras varje år, men jag har varit med Oracle nu i fyra år. Innan Oracle var jag ledande VP i SAP för deras Internet-saker och tidigare var jag med Motorola Solutions som Chief Solutions Architect for Enterprise Applications.
Så jag har varit i branschen i 20 plus år, och det har varit en riktigt spännande tid det senaste decenniet plus. Titta på utvecklingen av mobil och nu Tech Bots och conversational AI.
Småföretagstendenser: Jag hade en konversation lite över ett år sedan med CTO och medgrundare av Hubspot. Han sa något som verkligen fascinerade mig. Han trodde bots och konversationsgränssnitt kan vara den viktigaste tekniken under de senaste två decennierna. Eftersom du har varit och varit med i detta, är det så viktigt? Är det vi ser med bots och röst-första enheter … Är det på den nivån av betydelse i ditt sinne?
Suhas Uliyar: Absolut, Brent. Jag beskriver det som nästa gång i webbläsaren. Faktum är att chatbots och AI kommer att göra för alla våra applikationer, och hur vi interagerar med data, vilka webbläsare gjorde kunder eller appar om du kan komma ihåg den omvandlingen.
Det kommer att bli nästa, jag skulle säga att nästa decennium handlar om en konversationell AI-första tillvägagångssätt som är en mycket högre omfattning än vad vi såg från mobil-första tillvägagångssätt.
Småföretagstendenser: Så vi hörs mycket prat om AI och med rätta det. Det är så mycket som händer i området. Men vilken påverkan har konversationsgränssnitt på AI?
Suhas Uliyar: Så AI är ett brett ämne, Brent. Jag tror att det finns flera smaker av AI, och det sätt vi tenderar att kategorisera AI är dessa fem hinkar. För det första handlar det om maskininlärning, djup inlärningsteknik. En viss, naturlig språkförståelse är absolut kritisk och viktig för att chatbots framgångar ska lyckas.
De övriga kategorierna är lika viktiga. Nästa är dialog och sammanhang. Den tredje är kunskapstjänster. Den fjärde är data och insikt. En jag saknar … kognitiva tjänster kring tal och bildigenkänning, så vidare och så vidare.
Varför är naturligt språkförståelse väldigt viktigt? Vad driver verkligen med antagandet av denna enorma momentum som vi ser i konversationsgränssnittet. Det är ett faktum att vi kan prata om ett språk som är mest naturligt för oss och det vi är mest bekväma i. Och när du tittar på saker som Facebook Messenger eller ReachOut, WhatsApp, Telegram, Skype - alla de olika chattbaserade meddelandehantering. Den andra aspekten till kommunikation är att vi förväntar oss och kommer i närheten av realtids momentant svar från andra sidan. Idag var det mycket som var mänskligt för människor, men de två aspekterna av en naturlig konversation och få omedelbara svar har gjort den här kanalen mycket attraktiv jämfört med att använda e-post eller någon annan kommunikationskanal där den är "eld och glöm" och vänta om annan person svarar eller inte.
För att kunna skala för ett företag och kunna använda chatbots för att verkligen möjliggöra det antagandet behöver du något, ett datorprogram, dvs en chatbot för att hantera den skalaen. Och för att hantera denna skala betyder det att kunna bearbeta det naturliga språket som kommer in från slutanvändaren och sedan kunna extrahera relevant information från den kommunikationen och sedan integrera till alla system av rekord och kunna få information tillbaka. Oavsett om det till exempel är en finansiell institution där du försöker kontrollera balansen på dina konton eller ditt flygbolag, där du hittar reda på om det finns en gångjärnssittplats som du kan boka, etc., etc.
För att underlätta detta är naturligt språkförståelse, djupt lärande, maskininlärningsalgoritmer mycket kritiska om det är neuralt nätverksbaserat eller spektrumbaserat. Så, utan AI och, speciellt, naturligt språkförståelse, chatbots, skulle enligt min mening inte ens ta av sig. Det är nummer ett.
Den andra aspekten är vad jag nämnde som dialog och sammanhang. Vilket är förmågan att gudomliga samtal med slutanvändaren. Du vill se till att boten inte är mänsklig, men samtidigt vill du ha en anständig konversation med en slutanvändare. Och vi vet alla, som människor, vi tycker inte riktigt linjärt. Vi tenderar att gå på olika tangenter och baseras på vissa frågor.
Till exempel, låt oss säga att jag letade efter att överföra pengar från ett konto till ett annat eller jag vill betala, skicka pengar till någon. Jag säger "Skicka pengar till mamma.", Till exempel. Och boten svarar med, "Ja, det är bra. Vilket konto vill du ha pengar att överföra? "Och jag säger" checkkonto ". Och det står:" Hur mycket vill du skicka mamma? "Och plötsligt inser jag faktiskt att jag inte är säker på att jag har tillräckligt med pengar vid kontrollen konto. Jag ska bara fråga boten en fråga som är "Vad är mitt balans?". Och jag vill inte ge något annat sammanhang än att säga "Vad är mitt balans?" Och boten måste vara smart och konversationskonstantdesignern måste vara smart nog att erkänna att du byter kontext nu och du " gå på en annan väg frågar om saldon, kanske uppföljningsfrågor kan vara runt, vad är transaktionerna, vilka insättningar eller kontroller som har rensats. Och då kan du komma tillbaka till den ursprungliga transaktionen som du hade. Så detta menar jag med att vara icke-linjär.
Och dialogen och sammanhanget måste också, från ett maskinlärande perspektiv, vara tillräckligt smart för att förstå det och arbeta i samband med din naturliga språkförståelse för att kunna bearbeta det.
En sista kommentar jag ska göra om detta - jag nämnde ordet "extraktion". När jag som slutanvändare får information som vad som var mina fem senaste insättningar i mitt konto, bör maskininlärningen vara smart nog att förstå de senaste fem och jag behöver inte citera allt detta. Maskininlärningsalgoritmen är tillräckligt smart för att extrahera all den informationen, extrahera den informationen som mitt checkkonto, vet vem jag är, vad jag ber om och konstruera integrationsskiktet för att få all information från baksidan.
Så, långt svar, men AI är absolut kritiskt för framgången med chatbots.
Småföretagstendenser: Bra och det har varit så mycket dykning i och företagen börjar verkligen sina konversationsgränssnitt, tittar på chatbots och tittar på hur du kan integrera i saker som Facebook Messenger eftersom det är där alla människor är och det är där många samtal äger rum.
Men var ser du röstens första enheter börjar komma in? Är det något som verkligen är för långt för många företag att oroa sig för eller kommer det snabbare än vissa tycker att det är?
Suhas Uliyar: Jag skulle säga att det kommer snabbare … Du ser från Alexa, men jag är inte säker på om du har hämtat Google Home nu har förmågan att ha flera användarautentisering på röst. Så, till exempel, om min dotter säger "Call Mom.", Det kommer att ringa min fru, i motsats till att ringa min mamma. Och om jag skulle säga, "Ring mamma.", Skulle det säga, "Du har ingen mamma."
Så jag tror att sofistikeringen redan finns, och det finns många företagsäkerhetsfunktioner som läggs till det, så jag skulle säga att röst kommer snabbt.
$config[code] not foundMen innan vi kommer in i dessa, vad jag kallar, VPAs som Alexa eller Amazon Dot Echo, Google Home, Apple Pod. Brent, voice-först har varit där genom Siri, och Cortana och Google Voice. Vad jag skulle säga är, särskilt i företagsvärlden, särskilt i CRM och service och så vidare, vill många kunder förlänga sin befintliga mobilapp eller deras befintliga webbgränssnitt för att inkludera röst i den.
Så om du till exempel använder Internet Explorer eller Chrome eller din favoritbläddrare, kan du utöka den på din MacBook eller på din Surface-enheter och kunna använda antingen Siri eller Cortana för att koppla ihop med chatbot. Jag tror inte att du måste vänta tills alla omfattar Amazon Dot, Echo, Google Home. Vi har sett det för det senaste året plus där mobila enheter redan har interagerat med Siri, Cortana, Google Voice etc. Och så har det varit en del av vårt antagande som har hänt under det senaste året. Om det finns mobila enheter som har mobila appar, har de nu tillägg till chattprogram inom mobilappen eller i webbläsaren. Inom det själv kan du använda dessa röstkanaler.
Så de antas redan, och vi ser en väldigt naturlig antagande av dessa röstkanaler eftersom människor, igen, gillar att prata och använda röst. Det enda som är, jag skulle säga, hämmar tillväxten eller antagandet av enheter som Dot Echo, Google Home i företaget är säkerhetsskiktet av det, vilket jag tror blir snabbt fixat. Idag kan du till exempel använda Alexa för en hembank eller integration med din bank, vilket förmodligen är det säkraste som alla är oroade över. Så jag ser denna progression mycket snabbt och mycket snabbt ser vi denna nivå.
Nu är det enda som slutar rösta att antas, i allmänhet privatlivet, inte nödvändigtvis att verifiera, auktorisera det, men vad folk kan lyssna på. Så, säkert, du kommer inte att gå i ditt hus med en massa gäster och fråga din bot, Alexa eller Google Home, vad är din balans. Du vill göra det i privatlivet. Problemet med det är om du befinner dig i en offentlig miljö, oavsett var du är, svaret i röst hörs av de flesta människor. Så jag tror att det bara kommer ner till användningsområdet omgivningarna där du är.
Det är därför som ett av de områden som vi har starkt fokuserat på är insamling av insikter i antagandet av dessa kanaler. Det är inte så enkelt att säga, "Folk vill inte använda röst kontra chat mot det." Det kan också förstå vad är de specifika användningsfallen där vissa kanaler är bättre än de andra. Finns det vissa miljöer, finns det vissa tider där dessa kanaler används eller antas mer än de andra kanalerna?
Småföretagstendenser: En av folket över på Amazon sa: "Nu är det dags att börja utforma upplevelser för örat." Ska din kundbas mumma hur de traditionellt gör saker för att dra full nytta av att leverera erfarenheter som kunder börjar Förvänta dig med dessa gränssnitt? Vad är några av de största utmaningarna för företagen när man letar efter att genomföra dessa strategier?
Suhas Uliyar: Brent, helt. För ungefär ett decennium sedan transformerade de digitala organen sig själva för att skapa underbara mobilappupplevelser. Om du frågade mig den här frågan för 14 år sedan, skulle jag ha sagt, "Ja, företag måste verkligen se på att föra på designers, UI / UX-designers för dina mobilappar." Och nu är vi på samma sätt ett decennium senare för konversationsdesignern. Och vi börjar se vissa företag ta med på människor eller börja med forskningskapacitet. På Oracle har vi ett konversationsdesignerslag som hjälper våra kunder att verkligen förstå hur du konfigurerar det bäst, så det ger den förtjusande upplevelsen till slutanvändaren.
Så riskerna är faktiskt i exakt det läget, som har rätt design för att få rätt erfarenheter. Och förstå också kanalen. Som ett exempel, om du designar för Facebook Messenger, är en mer visuell kanal lite lättare att hantera så att när du skickar information tillbaka och skickar bilder eller videor tillbaka är det lättare att konsumera i Messenger, Line, Skype, etc. Men du kommer inte att se det i Alexa eller Google Home eller andra typer av kanaler. Och så måste du verkligen förstå vilka kanaler dina kunder kommer in och ha rätt design.
Småföretagstendenser: Om vi kollar ut ett år eller två från och med nu, var ska vi vara med konversationsgränssnitt? Var ska vi vara med de första gränssnitten, tror du?
Suhas Uliyar: Jag tror att vi ska se en konvergens av nedsänkande teknik och konversationsgränssnitt.Så saker som ökad verklighet, virtuell verklighet … En av utmaningarna med den virtuella verkligheten idag är att typen av enheter begränsar vad du kan och inte kan göra. Men jag ser det öppnas. Google Glasses var ett experiment som visade att det kunde fungera - det behövde lite arbete. Men föreställ dig en dag där du inte nödvändigtvis behöver titta på dina mobila enheter variabler i sig är konversationsledda. Så nu kan du vara väldigt - i ett mycket naturligt sätt - kunna titta på världen på ett tredimensionellt sätt och kunna urskilja information som du behöver använda konversationsgränssnitt.
$config[code] not foundDet finns mycket utanför det. I just i AIs värld, till exempel bildigenkänning, sentimentanalys, Q och A-analys. Vi har kunskapsgrafer, så jag kan … CRM, till exempel, föreställa dig de uppgifter som säljaren frågar CRM-databasen, "Hej, det är ett nytt kvartal. Berätta för mig de 10 försäljningsmöjligheter som hjälper mig att göra min kvot. "Och back-end, boten och AI-motorn tar inte bara de ledningar de har, utan de kan också gifta sig med information från andra källor, om det är LinkedIn eller Reuters eller andra saker som beräknar kundens benägenhet att köpa din produkt och belyser det för dig baserat på frågan du frågade. Och den informationen kan skickas till dig på vilket sätt du vill. Enheterna kan vara som till exempel HoloLens som Microsoft arbetar med. Så jag skulle säga att vi går in i de närmaste åren där enheterna kommer att ta en mycket intressant form genom 3D-virtuell verklighet, men samspelet med det kommer alla att vara röstbaserade.
Det här är en del av One-on-One Interview-serien med tanke ledare. Transkriptet har redigerats för publicering. Om det är en ljud- eller videointervju klickar du på den inbäddade spelaren ovan, eller prenumererar via iTunes eller via Stitcher.