Hjem Audio Legge ned analyse overalt: muliggjøre innbyggerens dataforsker

Legge ned analyse overalt: muliggjøre innbyggerens dataforsker

Anonim

Av Techopedia Staff, 25. august 2016

Takeaway: Vert Rebecca Jozwiak diskuterer fenomenet innebygde analyser og innbyggerdataforskere med Dr. Robin Bloor, Dez Blanchfield og David Sweenor.

Du må registrere deg for dette arrangementet for å se videoen. Registrer deg for å se videoen.

Rebecca Jozwiak: Mine damer og herrer, hei og velkommen til Hot Technologies. "Embed Everywhere: Enabling the Citizen Data Scientist" er temaet vårt i dag. Jeg fyller ut for din vanlige vert, dette er Rebecca Jozwiak som fyller ut for Eric Kavanagh. Ja, i år er det varmt. Spesielt har begrepet "dataforsker" fått mye oppmerksomhet, selv om vi pleide å kalle dem kjedelige navn som "statistiker" eller "analyseekspert", og takler ganske mye den samme typen aktiviteter, men den har fått et sexy nytt navn og det gir mye oppmerksomhet. De er svært ønskelige å ha på arbeidsplassen, gunstige for organisasjonen, og alle vil ha en. Men de er: 1) dyre, 2) vanskelige å finne. Du vet, det har vært over nyhetene om mangelen på dataforskere, ja, men likevel tilbyr de enorm verdi for organisasjonen, og folk klager på en måte for å finne ut hvordan de kan få den verdien uten å måtte slippe krisen, så snakke.

Men den gode nyheten er at vi ser verktøy og programvare som kommer ut som kompenserer for den mangelen. Vi har automatisering, maskinlæring, innebygd analyse, og det er det vi skal lære om i dag, og det er på en måte gitt opphav til dette nye begrepet, “the civil data scientist, ” og hva betyr det? Nei, det er ikke din utdannede dataforsker, det kan være din forretningsbruker, BI-eksperten din, noen fra IT, noen som har bakgrunn, men kanskje ikke nødvendigvis ekspertisen. Men hva det gjør, disse verktøyene og programvaren, er at det gir flere mennesker tilgang til de smarte løsningene, selv om de kanskje ikke kjenner den dype kodingen. Men det hjelper bare til å forbedre ytelsen generelt når du gir alle litt mer tilgang til den analytiske tanken. Du trenger ikke å ha opplæringen nødvendigvis for å ha den typen nysgjerrighet som kan føre til god innsikt for selskapet ditt.

Diskuterer at med oss ​​i dag er vår egen Robin Bloor, sjefanalytiker i Bloor Group, en av de unnvikende dataforskerne selv, Dez Blanchfield som ringer inn, og så har vi David Sweenor fra Dell Statistica vil gi oss en presentasjon i dag. Og med det skal jeg overføre det til Robin Bloor.

Robin Boor: Ok, takk for introduksjonen. Jeg tenkte på dette i en historisk sammenheng. Det vi faktisk ser på her, er et av Leonardo da Vincis design for en slags glider som en mann kan legge på ryggen. Jeg aner ikke om det faktisk ville fungere. Jeg ville ikke komme inn på det, må jeg si. Imidlertid, da Vinci, når jeg tenker på da Vinci, tenker jeg på ham som en av de mest nysgjerrige og analytiske menneskene som noen gang har eksistert. Og det er helt klart hvis du bare ser på den glidebryteren at den er designet på grunnlag av en fuglevinge og at han på en eller annen måte har studert fuglenes fly for å bygge den.

Hvis vi tar det historiske perspektivet - jeg faktisk så dette opp - er analytics kanskje den eldste anvendelsen av matematikk. Det er folketellinger som dateres tilbake minst til babylonsk tid. Vi vet om dette fordi det i utgangspunktet er noen cuneiform tabletter som har data som det på seg. Det er ikke kjent om det var noe som gikk tilbake tidligere. Men det åpenbare er at du har en sivilisasjon med en stor befolkning av mennesker, det krever faktisk planlegging og det er verdt å vite hva du planlegger for og hva kravene til disse menneskene faktisk er.

Og det er sånn hvor det begynte, og det er også der databehandling begynte fordi de tidlige datamaskinene, de tidlige mekaniske datamaskinene, faktisk var, tror jeg den første var folketellingen opprettet av Hollerith, som ble IBM, tror jeg. Alt dette har beveget seg fremover. Det har vært et slags mellomspill mellom kanskje 1970-tallet og i dag, hvor det er et stort antall andre applikasjoner og analyser, kan du si, tok en plass. Ja, det var analytics som foregikk - det skjedde i store organisasjoner, spesielt banker og forsikringsselskaper, og faktisk General Electric og telco og sånt - men det ble ikke brukt generelt i virksomheten, og nå begynner det å bli brukt gjennom hele virksomhet. Og det har forandret spillet, egentlig. Det første jeg trodde jeg ville trekke oppmerksomhet til, er datapyramiden, som jeg spesielt liker. Dette er, jeg mener, jeg tegnet en av disse for 20 år siden - minst 20 år siden - for å prøve å forstå, egentlig, den gangen, jeg prøvde å forstå BI og noe av den tidlige data mining som ble gjort. Det jeg har definert her er ideen om data, og eksemplene er signaler, målinger, opptak, hendelser, transaksjoner, beregninger, aggregeringer, individuelle informasjonspunkter. Du kan tenke på dem som molekyler av informasjon, men det er individuelle poeng. Det blir informasjon så snart den får kontekst. Koblede data, strukturerte data, databaser, visualisering av data, plottere, skjemaer og ontologier - de kvalifiserer alle i mitt sinn som informasjon, fordi det du har gjort, samler mye variasjon sammen og skapte noe mye mer enn et datapunkt, noe som faktisk har en form, en matematisk form.

Over det har vi kunnskap. Ved å undersøke informasjon kan vi lære at det er forskjellige mønstre, og vi kan utnytte disse mønstrene ved å formulere regler, retningslinjer, retningslinjer, prosedyrer, og så tar den form av kunnskap. Og stort sett alle dataprogrammer, uansett hva de gjør, er kunnskap om et slag, fordi de jobber mot data og bruker regler på dem. Vi har disse tre lagene, og det er en økende forfining som foregår mellom lagene. Og på venstre side av dette diagrammet får du vist nye data som kommer inn, så mange av disse tingene er statiske. Dataene akkumuleres, informasjonen samles og kunnskapen potensielt vokser. På toppen har vi "Forståelse", og jeg vil hevde, selv om det er et filosofisk argument, at forståelsen bare bor i mennesker. Hvis jeg tar feil i det, vil vi alle bli erstattet av datamaskiner på et tidspunkt. Men heller enn å ha debatten, fortsetter jeg til neste lysbilde.

Da jeg så på dette, var det interessante, dette er noe som var nylig, det interessante var å prøve å finne ut hva analytics faktisk var. Og etter hvert ved å tegne forskjellige diagrammer og ende opp med en som så ut, kom jeg til konklusjonen, faktisk, analyseutvikling er egentlig bare programvareutvikling med en forferdelig mengde matematiske formler. Analytisk utforskning er litt annerledes enn programvareutvikling i den forstand at du faktisk vil ta mange, mange forskjellige modeller og undersøke dem for å generere ny kunnskap om data. Men når du først har generert den, blir den implementert enten i det jeg tenker på som passiv beslutningsstøtte, som er informasjon som bare er lei av en bruker; interaktiv beslutningsstøtte, som er ting som OLAP, der brukeren får et strukturert sett med data som de kan undersøke og utlede ting for seg selv ved å bruke de forskjellige tilgjengelige verktøyene. Mye visualisering er sånn. Og så har vi automatisering hvis du bare kan gjøre litt analytisk innsikt som du har samlet til et sett med regler som kan implementeres, du ikke nødvendigvis trenger et menneske for å være involvert. Det var den typen måte jeg så på det da jeg gjorde alt dette. Og forskjellige ting begynte å oppstå for meg. Når det først er et aktivitetsområde, skal vi si, når et datadomen faktisk er utvunnet, grundig utvunnet, grundig utforsket gjennom alle mulige retninger, til slutt blir det bare krystallisert BI. Kunnskapen som er oppfunnet begynner å bli kunnskap som informerer forskjellige brukere på forskjellige måter, og øker deres muligheter, forhåpentligvis, til å faktisk gjøre det arbeidet de gjør.

Noe av det jeg la merke til, og jeg har sett på prediktiv analyse i omtrent fem år, men prediktiv analyse blir BI, i den forstand at det bare blir til nyttig informasjon å mate til folk, og som jeg allerede har påpekt, det er automatisert BI-rapportering, BI-utforskende, BI, veldig forskjellige graderinger av den og prediktiv analyse går faktisk i alle tre retninger. Og den analytiske prosessen som jeg påpekte, er ikke så forskjellig fra programvareutvikling, bare gjort av forskjellige mennesker med litt forskjellige ferdigheter. Jeg antar at jeg må understreke at ferdighetene som kreves for å få en virkelig god dataforsker til å ta mange år å tilegne seg. De er ikke lett anskaffet og ikke et stort antall mennesker kan gjøre det, men det er fordi det innebærer å forstå matematikk på et veldig sofistikert nivå for å vite hva som er gyldig og hva som ikke er gyldig. Analytics-utvikling, oppdagelse av ny kunnskap, analytisk implantasjon, det handler om å gjøre kunnskapen operativ. Det er den typen bakteppe som jeg ser for hele analysen. Det er et enormt område og det er mange, mange dimensjoner i det, men jeg tror at generalisering gjelder alt.

Så er det forretningsforstyrrelsen, som jeg nevnte at det er en rekke organisasjoner, farmasøytiske selskaper er et annet, som har i deres DNA de har analyser. Men det er mange organisasjoner som virkelig ikke har det i sitt DNA, og nå har de muligheten, nå er programvaren og maskinvaren langt billigere enn den pleide å være, nå har de muligheten til å utnytte den. Jeg vil si en rekke ting. Den første tingen er at analytics er, i mange tilfeller FoU. Du bruker kanskje bare analyser på et spesifikt område i organisasjonen, og det kan virke verdifullt at du på en eller annen måte analyserer kundebestillingene ut fra forskjellige perspektiver og sammenføyer den med andre data. Men analyser skaper faktisk muligheten til å se på organisasjonen som en helhet og til ganske mye å analysere enhver spesiell aktivitet som foregår i organisasjonen og hele kjeder av aktiviteter. Men når du faktisk har flyttet inn i det området, vil jeg hevde at det er forskning og utvikling. Og det er et spørsmål jeg har blitt spurt om et par ganger, som er: "Hvor mye skal et selskap bruke på analytics?" Og jeg tror den beste måten å tenke på å gi et svar på det er å tenke på analytics som FoU, og bare spør, "Vel, hvor mye vil du bruke på FoU på området effektivitet i virksomheten?"

Og virksomhetene som ikke er med analytics, det er mange ting de ikke vet. For det første vet de ikke hvordan de skal gjøre det. Normalt hvis de faktisk skal på en eller annen måte ta i bruk analyser i organisasjonen - de har egentlig stort sett ikke noe annet valg enn å gå til et konsulentfirma som kan hjelpe dem med å gjøre det fordi det ville være umulig eller veldig vanskelig for de fleste bedrifter til å faktisk ansette en dataforsker, finne en, betale for en og faktisk stole på dem til å gjøre det du vil at de skal gjøre. Veldig vanskelig. De fleste bedrifter vet ikke hvordan de skal ansette eller utdanne ansatte til å faktisk utføre dette arbeidet, og grunnen til det er ganske enkelt at det ikke ligger i deres DNA ennå, så det er ikke en del av deres naturlige forretningsprosesser. Dette strømmer inn til neste punkt. De vet ikke hvordan de kan gjøre det til en forretningsprosess. Den beste måten å gjøre det på, forresten, er å kopiere det legemiddelfirmaer og forsikringsselskaper, bare se, og noen selskaper i helsestasjonen, bare se på måten de bruker analyser på og kopierer det. Fordi det er en forretningsprosess. Vet ikke hvordan jeg skal politiføre det eller revidere det. Det virkelig, spesielt nå som en god del programvareselskaper har laget produkter som automatiserer utrolig mange analyser. Poenget med revisjon er viktig, når du har et konsulentfirma eller noen på stedet som kan stole på for å forstå hva resultatene av en hvilken som helst analytisk beregning er, er det et slags valg du må ta, men hvis du legger virkelig kraftige analytiske verktøy i hendene på folk som ikke forstår analysene riktig, vil de sannsynligvis hoppe til konklusjoner som kanskje ikke stemmer. Og som sagt, selskaper vet ikke hvordan de skal budsjettere for det.

Dette er smaker av analyser, jeg vil bare løpe gjennom dem. Statistisk analyse og statistisk modellering er vesentlig forskjellig fra prediktiv analyse, hvorav de fleste forresten er kurvepassende. Maskinlæring er forskjellig fra de tingene, baneanalyse og tidsserier, som i utgangspunktet gjøres på statusstrømmer er forskjellige igjen. Grafanalyse er annerledes igjen, og tekstanalyse og semantisk analyse er annerledes igjen. Dette er bare å påpeke at dette er en veldig flersjanger ting. Det er det ikke, du begynner ikke å analysere, du begynner å se på problemer du har og lete etter de forskjellige verktøyene og forskjellige smaker av analyser som passer for dem. Og til slutt, nettet. På grunn av utvikling av maskinvare og programvare er analytics etter min mening i sin spede begynnelse. Det er mye, mye mer som kommer, og vi vil se det utfolde seg i løpet av de kommende årene. Jeg tror jeg kan gi ballen videre til Dez nå.

Dez Blanchfield: Ja, snakk om en tøff handling å følge, Robin. Jeg kommer til å besøke dette emnet kort fra en av favorittvinklene mine, som er menneskets vinkel. Det skjer så mange endringer i hverdagen vår. En av de største forstyrrelsene i våre daglige liv, for øyeblikket etter mitt syn, er bare hverdagsarbeid. Å slå opp til jobb og prøve å gjøre jobben du er ansatt til å gjøre, og den økende forventningen om at du kommer til å gå fra en hverdag til en superhelt og mengden informasjon som flyter rundt organisasjoner og sender ut veldig, veldig raskt, det er en betydelig utfordring, og mer og mer vi må tilby bedre og bedre verktøy til folk å prøve og takle flyt av kunnskap og informasjon, og så tenkte jeg at jeg skulle prøve å komme til dette fra en litt morsom vinkel . Men det slår meg alltid hvordan vi har dette høye sinnet eller flash mobs og så videre, som på en måte driver oss mot det vi snakker om som analyser, men det vi snakker om er å gjøre informasjon tilgjengelig for folk, og slik at de kan samhandle med det og gjøre det på en slik måte at det er naturlig og det føles normalt.

Og faktisk minner det meg om en YouTube-video av et lite barn, liten baby, som sitter på gulvet og sitter der og leker med en iPad og den klaffer rundt og klemmer og klemmer og flytter ut bildene og leker med skjermen, dataene der. Og så tar forelderen iPaden bort og legger et magasin, et trykt magasin på barnets fang. Og dette barnet er sannsynligvis ikke mer enn to år gammelt. Barnet begynner å prøve og sveipe med skjermen til magasinet, og klyper og klemmer, og magasinet svarer ikke. Barnet løfter fingeren opp og ser på den og tenker, “Hmm, jeg tror ikke fingeren min fungerer, ” og den stikker seg i armen og tenker, “Ah nei, fingeren fungerer, jeg kan kjenne armen min og det ser bra ut, ”og den vrir fingeren, og fingeren vrir seg og svarer. Ja. Så prøver det å samhandle med magasinet igjen, og lave og se at det ikke klyper og klemmer og ruller. Så tar de bladet bort og setter iPaden tilbake i fanget, og plutselig fungerer ting. Og så her er en baby som har blitt med og blitt opplært til å bruke et analytisk verktøy eller et live streaming-verktøy for underholdning, og det kan ikke ordne hvordan et magasin skal fungere og hvordan du kan bla sider.

Og det er et interessant konsept i seg selv. Men når jeg tenker på kunnskap som beveger seg rundt organisasjoner, og hvordan data flyter og måten folk oppfører seg, tenker jeg ofte på dette konseptet om hva folk har lært å være en flash mobb, som er en hendelse der, og som sosiale medier lager dette enda enklere å gjøre, en ide som sådan som går til dette stedet på dette tidspunktet og datoen og handlingen, eller video og lære disse dansene, eller ha på deg denne fargede hatten og peker nordover klokken ett. Og du skyver dette ut gjennom nettverket ditt, og alltid en hel masse mennesker, hundrevis av dem, dukker opp på samme sted samtidig gjør det samme, og det er denne wow-faktoren, som "Hellig ku, det var virkelig imponerende! ”Men faktisk er det en veldig enkel ide, og et enkelt konsept som bare blir dyttet ut gjennom nettverkene våre, og vi får dette resultatet som er en visuelt imponerende og hørbar imponerende ting. Og når du tenker på en organisasjon, måten vi vil at folk skal oppføre seg og måten vi ønsker at de skal håndtere informasjonssystemer og kunder, så er det ofte så enkelt, det er en idé eller et konsept eller en kulturell eller atferdsegenskap som vi prøver å passere gjennom og styrke med verktøy og informasjon.

Og som underbygger alt dette er dette mantraet som jeg har hatt i over to og et halvt tiår, og det vil si at hvis de ansatte ikke finner det de trenger for å gjøre jobben sin, det være seg verktøy eller informasjon, vil de alltid finne opp hjulet på nytt. Og så er dette en stadig større utfordring nå, hvor vi har mye kunnskap og mye informasjon og ting som beveger seg veldig raskt, at vi ønsker å stoppe folk på nytt oppfinne rattet. Og når vi tenker på arbeidsmiljøet vårt, og kom tilbake til menneskers vinkel, som er en av favorittene mine, ble jeg overrasket da vi ble overrasket over at avlukkene ikke var et miljø som gir gode resultater, eller vi stilte opp ting som dette forferdelige bilder her, og det har ikke endret seg mye, bare senket veggene og kalte dem åpne arbeidsplasser. Men i midten med den gule sløyfen rundt seg, er det to personer som utveksler kunnskap. Og likevel, hvis du ser på resten av rommet, sitter de alle pliktoppfyllende der og legger informasjon inn på en skjerm. Og oftere enn ikke, egentlig ikke å utveksle kunnskap og data, og det er mange årsaker til det. Men samspillet midt på gulvet til venstre der i den gule sirkelen, det er to mennesker som prater der borte, bytter kunnskap, og sannsynligvis prøver å finne noe, og prøver å si: “Vet du hvor denne rapporten er, hvor jeg kan finne disse dataene, hvilket verktøy bruker jeg for å gjøre denne tingen? ”Og det har sannsynligvis ikke fungert, så de har ingenting, og vandret over gulvet, brøt regelen om avlukke kontorlokaler og gjorde det personlig.

Og vi har hatt lignende miljøer rundt om på kontoret som vi spøkefullt kaster moro med, men virkeligheten er at de er ganske kraftige og effektive. Og en av favorittene mine er den mobile eller faste analyseplattformen kalt vannkjøleren, der folk reiser seg der oppe og chit-chatter rundt der og bytter kunnskap, og sammenligner ideer og utfører analyser mens de står ved vannkjøleren og bytter ideer. Det er veldig kraftige konsepter når du tenker på dem. Og hvis du kan oversette dem til systemene og verktøyene dine, får du et fantastisk resultat. Og vi har tidenes favoritt, som egentlig er kontorets kraftigste datadistribusjonssenter, ellers kjent som resepsjonen. Og hvis du ikke finner noe, hvor går du? Vel, du går foran på kontoret og går til resepsjonen og sier: "Vet du hvor x, y, z er?" Og jeg tør noen fortelle meg at de ikke har gjort det minst en gang i en ny jobb eller på et tidspunkt når de bare ikke finner noe. Og du må spørre deg selv, hvorfor er det tilfelle? Det skal være et sted på intranettet eller et eller annet verktøy. Det skal være enkelt å finne.

Og så når det gjelder data og analyse og verktøyene vi har gitt våre ansatte til å gjøre jobben sin og måten mennesker interagerer med jobber, har jeg fått den oppfatning at før den nylige fremveksten av analyseverktøy og big data-plattformer, eller "databehandling" i tillegg til å kalle det på old school, rapportering og kunnskapsdeling var langt fra dynamisk eller samarbeidende eller åpen, og når du tenker på hvilken type systemer vi forventer at folk gjør jobben sin med, hadde vi klassisk, hva folk kaller arv nå, men virkeligheten er at det bare er arv som har fortsatt og er fremdeles her i dag, og derfor er det ikke egentlig arv. Men tradisjonelle HR-systemer og ERP-systemer - human resource management, enterprise resource planning, enterprise data management og systemer som vi bruker for å administrere informasjonen for å drive et selskap. Det er alltid tøyset. Og fra den øverste enden, enkle plattformer som avdelingsintranett, prøver å kommunisere hvor ting er og hvordan du får dem og hvordan du kan samhandle med kunnskapen rundt stedet. Vi dukker det opp på intranettet vårt. Det er bare så bra som menneskene som gjør tid og krefter på å legge det opp der, ellers blir det bare igjen i hodet ditt. Eller så har du data som sitter helt nederst i næringskjeden, på bedrifts-SAN-ene og alt derimellom, så det er lagringsområdet som nettverk er fulle av filer og data, men hvem vet hvor du kan finne det.

Oftere enn ikke har vi bygget disse lukkede dataplattformene eller lukkede systemene, og derfor har folk gått tilbake til slike regneark og PowerPoints for å formidle informasjon rundt om i stedet. Men det var en interessant ting som skjedde nylig, i mitt sinn, og det var at mobile enheter og internett generelt fungerer slik at ideen faktisk kunne bli bedre. Og overveiende på forbrukerområdet. Og det er en interessant ting at hverdagen vi begynte å ha ting som nettbank. Vi trengte ikke å gå til en faktisk bank fysisk for å samhandle med dem, vi kunne gjøre det på telefon. Opprinnelig var det klumpete, men så kom internett rundt, og vi hadde et nettsted. Du vet det, og hvor mange ganger har du faktisk vært i banken din i det siste? Det kan jeg faktisk ikke, jeg hadde en samtale om dette her om dagen, og jeg kan faktisk ikke huske sist jeg gikk til banken min, noe jeg var ganske sjokkert over, jeg trodde jeg måtte være i stand til å huske dette, men det var så lenge siden jeg faktisk ikke husker når jeg dro dit. Og så har vi nå disse modulene i hånden i form av mobiler og telefoner, nettbrett og bærbare datamaskiner, vi har nettverk og tilgang til verktøy og systemer, og forbrukerområdet har vi lært at ting kan være bedre, men fordi av den raske endringen i forbrukerområdet som har vært mer sløv og isbre i virksomheten og miljøer, har vi ikke alltid tatt den endringen til det daglige arbeidslivet.

Og jeg elsker å pirke moro ved det faktum at du ikke kan leve stream data til hardkopi. I dette bildet her sitter en person og ser på noen analyser som er blitt utført, og det er en vakker graf som er produsert av noen som sannsynligvis får betalt mye penger som statist eller aktuar, og de sitter der og prøver å gjøre analyse på en kopi og pirke på den. Men her er det skremmende for meg: Disse menneskene i dette møterommet, for eksempel, og jeg vil bruke dette som et eksempel, de samhandler med data som nå er historiske. Og den er like gammel fra da den tingen ble produsert og deretter skrevet ut, så kanskje det er en uke gammel rapport. Nå tar de beslutninger om ikke så mye dårlige data, men gamle data, som alltid kan være dårlige data. De tar en beslutning i dag basert på noe som er historisk, som er et virkelig dårlig sted å være. Vi klarte å erstatte den hardkopien med slike nettbrett og telefoner fordi vi jobbet veldig raskt på forbrukerområdet, og nå har vi jobbet ut i bedriftsområdet, at sanntid er innsikt er sanntidsverdi.

Og det blir vi bedre og bedre. Og det bringer meg til poenget som Robin reiste tidligere, det var begrepet innbyggerdataforsker og drivkraften til dette konseptet. For meg er en innbygger dataforsker bare vanlige mennesker med riktige verktøy og informasjon om slike som en iPad. De trenger ikke å gjøre matematikkene, de trenger ikke å vite algoritmene, de trenger ikke å vite hvordan de skal bruke algoritmene og regeldataene, de trenger bare å vite hvordan de bruker grensesnittet. Og det bringer meg tilbake til introduksjonen min og konseptet med smårollingen som sitter der med en iPad kontra et magasin, kontra en iPad. Småbarnet kan veldig raskt, intuitivt lære hvordan du bruker grensesnittet til en iPad for å dykke i informasjon og samhandle med den, om enn kanskje et spill eller streamingmedium eller en video. Men det kan ikke få den samme responsen eller interaksjonen fra en magasinbar og bare blinkende side etter side, noe som ikke er veldig engasjerende, spesielt hvis du er en smårolling som er vokst opp med iPads. Unødvendigvis kan mennesker se og lære veldig raskt hvordan du kjører verktøy og ting som hvis vi bare gir dem, og hvis vi gir dem et grensesnitt som mobile enheter og spesielt nettbrett og smarttelefoner med store nok skjermer, og spesielt hvis du kan samhandle dem i berøring, med fingerbevegelser, plutselig får du dette konseptet om en innbygger dataforsker.

Noen som kan bruke datavitenskap med de riktige verktøyene, men uten egentlig å vite hvordan de skal gjøre det. Og i mitt sinn var mye av dette, som sagt, drevet av forbrukerinnflytelse, som beveget seg og forvandlet til etterspørsel og enterprise. Et par veldig raske eksempler. Vi, mange av oss, ville begynne å gjøre ting med bloggene og nettstedene våre, for eksempel legge inn små annonser eller se på sporing og bevegelse, vi brukte verktøy som Google Analytics og vi ble vekket til det faktum at i bloggene og de små nettstedene våre, vi kunne legge små biter med kode der inne, og Google ville gitt oss innsikt i sanntid om hvem som besøker nettstedet, når og hvor og hvordan. Og i sanntid kunne vi faktisk se folk treffe nettstedet, gå gjennom sidene og deretter forsvinne. Og det var ganske forbløffende. Jeg elsker å fortsatt gjøre det, når jeg prøver å forklare analyser i sanntid for mennesker, dummer jeg det bare for å vise dem et nettsted med Google Analytics koblet til, og faktisk se live-samspillet med folk som treffer nettsteder og spør dem: "Tenk om du hadde den slags innsikt i virksomheten din i sanntid. ”

Ta et detaljeksempel, og kanskje et farmasøytisk, jeg tror du kaller det en medisinbutikk i Amerika, et apotek der du går inn og kjøper alt fra hodepintabletter til solkrem og hatter. Å prøve å drive den organisasjonen uten sanntidsinformasjon er et skummelt konsept nå vi vet hva vi vet. Du kan for eksempel måle fottrafikk, du kan plassere enheter rundt i butikken med et smilefjes på den ene siden av skjermen fordi du er lykkelig, og en ulykkelig rød helt til høyre og noen forskjellige nyanser i midten. Og det er en plattform som heter "Glad eller ikke" i disse dager, hvor du går inn i en butikk og du kan banke et lykkelig ansikt eller et trist ansikt, avhengig av tilbakemeldinger fra live-kundesentralen. Og det kan være interaktivt med sanntid. Du kan få direkte etterspørselsdrevet priser. Hvis det er mange mennesker der inne, kan du føre prisene opp litt, og du kan gjøre lagerbeholdning og fortelle folk, for eksempel - flyselskaper, for eksempel, vil fortelle folk hvor mange seter som er tilgjengelige nå på nettstedet når du Når du bestiller en flyreise, ringer du ikke bare tilfeldig inn og håper du kan komme opp og få et fly. Live HR-data, kan du fortelle når folk klokker på og stenger av. Anskaffelser, hvis du er i anskaffelse og har livedata, kan du gjøre ting som å vente en times tid og sikre deg mot prisen på amerikanske dollar for å kjøpe din neste mengde lager og få en lastebil med ting dukket opp.

Når jeg viser folk Google Analytics, og jeg videresender den typen anekdote, dette eureka-øyeblikket, dette “a-ha!” -Øyeblikket, går denne lyspæren av i tankene deres som, “Hmm, jeg kan se mange steder hvor jeg kunne gjøre det . Hvis jeg bare hadde verktøyene, og hvis jeg bare hadde tilgang til den kunnskapen. ”Og vi ser dette nå i sosiale medier. Alle som er en kyndig bruker av sosiale medier enn å bare vise bilder av frokosten, har en tendens til å se på hvor mange liker de får og hvor mye trafikk de får og hvor mange venner de får, og de gjør det med liker, for eksempel, Twitter som et analyseverktøy. Du kan gå til Twitter.com for å bruke verktøyet, men du skriver inn Google Twitter Analytics dot com, eller klikker på øverst til høyre-knappen og trekker ned menyen og gjør det, du får disse pene, levende grafene som forteller deg hvor mange tweets du gjør selv, og hvor mange interaksjoner med dem. Og analyser i sanntid bare på dine personlige sosiale medier. Tenk om vi hadde Google Analytics og Facebook og LinkedIn og Twitter, eBay-statistikk kommer til deg, men i arbeidsmiljøet ditt.

Nå har vi direktesendt nett og mobil til hånden, det blir et kraftkonsept. Og slik at det trekker meg til min konklusjon, og det er at jeg alltid har funnet ut at organisasjoner som utnytter verktøy og teknologi tidlig, får en så betydelig fordel i forhold til konkurrentene at konkurrenter faktisk aldri kan ta igjen. Og det ser vi nå med konflikten fra innbyggerdataforsker. Hvis vi kan ta mennesker med ferdighetene, kunnskapen vi leide dem til, og vi kan gi dem de riktige verktøyene, spesielt muligheten til å se sanntidsdataene og oppdage data og vite hvor det er uten å måtte gå rundt i avlukkene og stille spørsmål høyt, måtte gå og stå ved vannkjøleren for å gjøre noen sammenlignende analyser med folk eller gå og spørre resepsjonen hvor indeksen er. Hvis de kan gjøre det til fingerspissene og de kan ta det med til møtene deres med dem og sitte i et styrerom og bla gjennom skjermene i sanntid i stedet for å kopiere, har vi plutselig gitt våre ansatte som ikke trenger å være reelle dataforskere, men for å faktisk bruke datavitenskap og drive fantastiske resultater for organisasjoner. Og jeg tror dette tippepunktet vi faktisk har passert nå der forbrukeren blir drevet inn i bedriften, utfordringen er hvordan gir vi det foretaket, og det er temaet jeg antar i dagens diskusjon. Og med det skal jeg pakke opp stykket mitt og overlate for å høre hvordan vi kan løse det. David, over til deg.

David Sweenor: Ok, tusen takk, folkens, og takk Robin. Du vet, Robin, jeg er enig i din opprinnelige vurdering. Analytisk prosess, det er egentlig ikke annerledes enn programvareutvikling. Jeg tror utfordringen i en organisasjon bare er, vet du, kanskje ting ikke er så godt definert, kanskje det er en utforskende komponent i det, og en kreativ komponent i det. Og Dez, du vet, jeg er enig med deg, det er mye å finne opp hjulet på nytt, og du vet, det er ikke en organisasjon som jeg går inn på i dag, spørsmålet ditt, vel, hvorfor gjør du det på denne måten? Hvorfor driver virksomheten på denne måten? Og det er lett å stille spørsmål, og det er vanskelig å endre mange ganger når du er i en organisasjon. Jeg elsker analogien, konsumering av ting. Og så ikke lenger når jeg drar til flyplassen og vil bytte sete - jeg gjør det på mobilen. Jeg trenger ikke å gå opp til agenten på boden, og se på at agenten skriver inn noe på en monokrom skjerm i 15 minutter for å endre setetildelingen. Jeg foretrekker bare å gjøre det på telefonen min, og det er en interessant utvikling.

I dag skal vi snakke litt om kollektiv intelligens. For de som ikke er klar over, er Statistica en ledende analyseplattform som det har eksistert i over 30 år. Hvis du ser på noen av publikasjonene der ute i analytikerbransjen, kommer den alltid ut på toppen som en av de mest intuitive og enkle å bruke avansert analyseprogramvare. Så vi har brukt de siste årene på å jobbe med et konsept som heter kollektiv intelligens, og vi tar det til neste nivå. Jeg ønsket å starte denne samtalen med: hvordan gjøres arbeid i organisasjonen din?

Og det er to bilder her. Den til venstre er et bilde fra 1960-tallet, og jeg startet ikke karrieren på 1960-tallet, men bildet til høyre er - det er en halvlederfabrikk der jeg begynte å jobbe. Og jeg jobbet opp i den svarte bygningen, svart tak oppe til venstre. Men de lagde halvledere. Dette er et nylig bilde fra Google Bilder. Men når du går tilbake til 1960-tallet til venstre, er det veldig interessant. Du har disse menneskene som sitter i en linje, og de lager, du vet, integrerte kretsløp og halvledere. Men det er en standardisering, det er en standard måte å gjøre ting på, og det var en veldefinert prosess. Du vet, kanskje siden disse menneskene alle sitter i et åpent miljø, kanskje det var noe samarbeid. Jeg tror at vi har mistet litt av det innen kunnskapstaben.

Da jeg satt i bygningen øverst til venstre, hvis jeg ville samarbeide med noen, var den ikke åpen. Det var disse kontorene, kanskje var noe av teamet fjernt, eller kanskje måtte jeg trekke over dette campus; det var en 25-minutters spasertur, og jeg måtte snakke med noen i bygningen helt til høyre. Jeg tror vi mistet noe underveis. Og så, du vet, jeg hadde den samme tanken, hvorfor gjør folk - hvor mange mennesker fortsetter å finne opp hjulet i organisasjonen din? Jeg tror, ​​organisasjoner som helhet gjorde en god jobb på 1990- og 2000-tallet med CRM og datavarehus, og til en viss grad BI. Av en eller annen grunn har analysene blitt litt etter. Det var betydelige investeringer i datalagring, og standardisering og normalisering av dataene dine, og alt dette, og CRM, men analyser har hengt av en eller annen grunn. Og jeg lurer på hvorfor. Kanskje det er en kreativ - kanskje prosessen din ikke er vel definert, kanskje du ikke vet hvilken beslutning eller spak du prøver å snu, du vet, i din virksomhet for å endre ting. Når vi går inn i organisasjoner i dag, er det mange som gjør ting veldig manuelt i regneark.

Og du vet, jeg så på en stat i morges, jeg tror den sa at 80, 90 prosent av regnearkene har feil, og noen av disse kan være veldig betydningsfulle. Som den i Whale, der JPMorgan Chase tapte milliarder og milliarder av dollar på grunn av feil i regnearket. Så jeg har forutsetningen jeg tror, ​​det må være en bedre måte å gjøre ting på. Og som vi nevnte, vi har disse dataforskerne. Disse karene er dyre, og de er vanskelige å finne. Og noen ganger er de litt rare. Men jeg tror, ​​hvis du måtte oppsummere hva en dataforsker er, er det sannsynligvis noen som forstår dataene. Jeg tror det er noen som forstår regnestykket, noen som forstår problemet. Og egentlig, noen som kan kommunisere resultatene. Og hvis du er en dataforsker, er du veldig heldig akkurat i disse dager, fordi lønnen din sannsynligvis har doblet seg de siste årene.

Men sannheten skal sies, mange organisasjoner, de har ikke disse dataforskerne, men organisasjonen din har smarte mennesker. Du har en organisasjon, du har mange smarte mennesker, og de bruker regneark. Du vet, statistikk og matematikk er ikke deres primære jobb, men de bruker data for å drive virksomheten videre. Virkelig, utfordringen vi adresserer oss er, hvordan tar du deg, hvis du er heldig som har en dataforsker eller en statistiker eller to, hvordan kan du ta dem, og hvordan kan du forbedre samarbeidet mellom disse menneskene og andre personer i organisasjonen din? Hvis vi tar en titt på hvordan organisasjonen vår er strukturert, skal jeg starte, og jeg skal gå fra høyre til venstre. Og jeg vet at dette er baklengs, men vi har denne linjen av forretningsbrukere.

Dette er hoveddelen av kunnskapsarbeidernes befolkning, og for disse menneskene må du legge inn analyser i forretningsområdet ditt. Kanskje ser de analytiske utskrifter på et call center-skjermbilde eller noe, og det forteller dem det neste beste tilbudet å gi til en kunde. Kanskje det er en forbruker eller leverandør på en nettportal, og det gir dem øyeblikkelig kreditt, eller sånt. Men ideen er at de bruker analyser. Hvis vi går til midten, er dette disse kunnskapsarbeidere. Dette er menneskene som gjør ting med regnearkene i dag, men regneark er feilutsatt og på et tidspunkt går det tom for bensin. Disse innbyggerdataforskerne, som vi kaller dem, du vet, hva vi prøver å gjøre for dem, er virkelig å øke automatiseringsnivået.

Og med analytics får du høre at 80 til 90 prosent av arbeidet er i data prep-brikken, og det er ikke den faktiske matematikken, men det er data-prep. Vi prøver å automatisere det, uansett om du gjør det, og vi har veivisere og maler og gjenbrukbare ting, og du trenger ikke å ha kunnskap om den underliggende infrastrukturen i miljøet ditt. Og hvis vi ser helt til venstre, har vi disse dataforskerne. Og som jeg nevnte, de er mangelvare. Og det vi prøver å gjøre for å gjøre dem mer produktive, er å la dem lage ting som disse innbyggeropplysningene kan gjøre. Tenk på det som en Lego-blokk, slik at disse dataforskerne kan lage en gjenbrukbar eiendel som en innbygger dataforsker kan bruke. Bygg det en gang, så vi slipper å fortsette å finne opp hjulet.

Og da kan også disse karene være bekymret for om vi kan gjøre ting i databasen, og utnytte eksisterende teknologiinvesteringer som selskapet ditt har gjort. Du vet, det er ikke fornuftig i denne dag og alder å blande data frem og tilbake over hele verden. Så hvis vi ser på Statistica, som jeg nevnte, er det en plattform som har eksistert i ganske lang tid. Og det er et veldig innovativt produkt. Datablending, det har ikke vært en datakilde vi ikke har tilgang til. Vi har alle dataoppdagelsen og visualiserings tingene du kan forvente; vi kan gjøre det i sanntid. Og det har sannsynligvis - jeg tror det er over 16 000 analytiske funksjoner i programvareverktøyet, så det er mer matte enn jeg noen gang kunne brukt eller forstått, men det er der hvis du trenger det.

Vi har muligheten til å kombinere både forretningsregler og analytiske arbeidsflyter for virkelig å ta en forretningsavgjørelse. Du går utover bare, her er en algoritme, her er en arbeidsflyt, men du har forretningsregler som du alltid må forholde deg til. Vi er veldig sikre på styresett. Vi brukes i mange farmasøytiske kunder, fordi FDA stoler på oss. Du vet, bare bevis i puddingen at vi har kontrollene og revisjonsevnen til å bli akseptert av dem. Og så til slutt, du vet, vi er åpne og fleksible og utvidbare, så du må lage en plattform som er at du vil at datavitenskapsmenn skal være produktive, du vil at innbyggerdataforskerne skal være produktive, du vil kunne for å distribuere disse analytiske outputene til arbeiderne i organisasjonen din.

Hvis vi ser på det, er her et eksempel på noen visualiseringer. Men å kunne distribuere den analytiske utdata til brukere av bedrifter, så det første eksemplet til venstre, det er et nettverksanalysediagram. Og kanskje er du en svindelsetterforsker, og du vet ikke hvordan disse forbindelsene blir opprettet, og dette kan være mennesker, dette kan være enheter, dette kan være kontrakter, hva som helst. Men du kan manipulere dette med musen din, og samhandle med den for å virkelig forstå - hvis du er en svindelsetterforsker, for å forstå en prioritert liste over hvem du skal undersøke, ikke sant, fordi du ikke kan snakke med alle, så du har å prioritere.

Hvis vi ser på bildet på høyre side der, for et prediktivt vedlikeholdspanel, er dette et virkelig interessant problem. Kanskje du er eier av en flyplass, og du har disse kroppsskannerne der inne. Disse kroppsskannerne, hvis du drar til en flyplass, er det noen komponenter der som har omtrent ni måneders holdbarhet. Og disse tingene er virkelig, veldig dyre. Hvis jeg har flere inngangspunkter, flere skannere på flyplassen min, nummer én vil jeg sørge for at jeg er bemannet på riktig måte ved hver av portene, og for delene som er i skannerne, vil jeg ikke bestille dem også tidlig, og jeg vil gjerne ha dem før det går i stykker. Vi har evner, kanskje hvis du eier en flyplass, til å kunne forutsi når disse tingene vil bryte og forutsi bemanningsnivå.

Hvis vi ser nede til høyre, er dette hvis du er i et produksjonsmiljø, dette er bare en grafisk fremstilling av produksjonsflyten. Og det er litt vanskelig å se, men det er røde og grønne trafikklys på disse forskjellige prosessektorene, og så hvis jeg er ingeniør, er det veldig sofistikert matematikk der inne, men jeg kan bore ned i den spesielle prosessektoren og se på parametrene, og inndata som, kanskje fører til at det er ute av kontroll. Hvis vi ser på innbyggerdataforskeren, er målet vårt virkelig å gjøre det enkelt for innbyggerdataforskeren. Vi har veivisere og maler, og en ting jeg synes er veldig interessant, er at vi har denne automatiserte datahelsekontrollnoden. Og hva dette gjør, har den innebygde smarts.

Jeg nevnte data prep - det tar betydelig tid, det er både i datasamling og klargjøring. Men la oss anta at jeg har dataene mine, jeg kan kjøre dem gjennom denne datahelsekontrollnoden, og den kontrollerer for uoverensstemmelser, sparsness og outliers, og alle disse tingene, det fyller ut manglende verdier og det gjør mye matte jeg ikke forstår ikke, så jeg kan enten akseptere misligholdene, eller hvis jeg er litt flinkere, kan jeg endre dem. Men poenget er at vi ønsker å automatisere prosessen. Denne tingen gjør omtrent 15 forskjellige kontroller og utfall på et renset datasett. Det vi gjør er å gjøre dette lettere for folk å lage disse arbeidsflytene.

Det er her vi snakker om samarbeid mellom dataforskerne og innbyggerens dataforskere. Hvis vi ser på disse bildene til høyre, ser vi denne arbeidsgjennomstrømningen for data. Og kanskje dette er veldig sofistikert, kanskje dette er selskapets hemmelige saus, jeg vet ikke, men vi vet at noen i organisasjonen din kan få tilgang til en eller flere av disse datasiloene som vi har. Vi trenger en måte å, nummer én, ta dem og sy dem sammen, og nummer to, kanskje det er spesiell behandling vi ønsker å gjøre, at det er utenfor vår datahelsekontroll, og det er selskapets hemmelige saus. Jeg kan lage denne arbeidsflyten i organisasjonen vår, og den kollapser som en node. Du ser pilen peke ned, det er bare en node, og vi kan ha hundre av disse tingene i en organisasjon. Tanken er at vi har mennesker som vet noe om et visst rom, de kan lage en arbeidsflyt, og noen andre kan gjenbruke det. Vi prøver å minimere gjenoppfinnelsen av hjulet.

Og vi kan gjøre det samme med analytiske modelleringsarbeidsflyter. I dette tilfellet til høyre, denne arbeidsflyten, kanskje det er 15 forskjellige algoritmer, og jeg vil velge den beste for oppgaven. Og jeg trenger ikke å forstå som en innbygger dataforsker hva som foregår i det edderkoppnettet rotet der oppe, men det bare kollapser i en node, og kanskje sier den noden ganske enkelt "beregne kredittrisikoscore." "Beregn sjansen av en kirurgisk infeksjon, "hva har du. "Beregn sannsynligheten for at noe blir en uredelig transaksjon." Som innbyggerdataforsker kan jeg bruke denne veldig sofistikerte matematikken som noen andre har bygget, kanskje en av disse dataene forskere har bygget i organisasjonen min.

Fra et data science-perspektiv, vet du, jeg har snakket med dataforskere som elsker å skrive kode, og jeg har snakket med dataforskere som hater å skrive kode. Og det er greit, så vi har et veldig visuelt, grafisk brukergrensesnitt. Vi kan ta tak i dataene våre, vi kan gjøre vår automatiske datahelsekontroll, og kanskje jeg vil skrive kode. Jeg liker Python, jeg liker R, men tanken er, disse dataforskerne, de er mangelvare, og de liker koden på et bestemt språk. Vi foretrekker ikke spesielt hvilket språk du vil kode på, så hvis du vil gjøre R, gjør du R; Hvis du vil gjøre Python, gjør Python. Det er flott. Hvis du vil sprenge analysene dine til Azure, kan du sprenge analysene i skyen. Og så er målet her å tilby fleksibilitet og muligheter for å gjøre dataforskerne dine så produktive som de kan være.

Nå data forskere, de er ganske smarte mennesker, men kanskje de ikke er spesialist i alt, og kanskje er det noen hull i hva de kan gjøre. Og hvis du ser ut i bransjen, er det mange forskjellige analytiske markedsplasser som finnes der ute. Dette er et eksempel på, kanskje jeg trenger å gjøre bildegjenkjenning og jeg har ikke den ferdigheten, vel kanskje jeg går ut til Algoritmia og får en algoritme for bildegjenkjenning. Kanskje jeg drar ut til Apervita og får en veldig spesiell helsealgoritme. Kanskje jeg vil bruke noe i Azure machine learning-biblioteket. Kanskje jeg vil bruke noe i den opprinnelige Statistica-plattformen.

Igjen, ideen her er at vi ønsker å utnytte det globale analysesamfunnet. Fordi du ikke kommer til å ha alle ferdighetene innenfor de fire veggene, så hvordan kan vi lage programvare - og det er dette vi gjør - som lar dataforskerne dine bruke algoritmer fra en rekke markedsplasser. Vi har gjort det med R og Python i lang tid, men dette utvider det til disse app-markedsplassene som finnes der ute. Og det samme som du ser her på toppen av dette, vi bruker H2O på Spark, så det er mange analytiske algoritmer der. Du trenger ikke å fokusere på å lage disse fra bunnen av, la oss gjenbruke disse som lever i open source-samfunnet, og vi vil at disse menneskene skal være så produktive som mulig.

Det neste trinnet, etter at vi har fått innbyggerdataforskere og våre dataforskere, er egentlig hvordan promoterer du og distribuerer du denne beste praksis? Vi har teknologi innenfor programvaren vår som lar deg distribuere analyser hvor som helst. Og dette er mer et modellstyringssyn, men jeg er ikke lenger bundet av de fire veggene eller en spesifikk installasjon i Tulsa eller Taiwan eller California, eller hva har du. Dette er en global plattform, og vi har mange, mange kunder som den er distribuert i bruk av flere nettsteder.

Og så virkelig, de viktigste tingene er at hvis du gjør noe i Taiwan og ønsker å gjenskape det i Brasil, er det flott. Gå inn dit, ta tak i de gjenbrukbare malene, ta tak i arbeidsflytene du vil ha. Dette prøver å lage disse standardene, og den vanlige måten å gjøre ting på, slik at vi ikke gjør ting helt annerledes overalt. Og den andre viktige komponenten i dette, er egentlig at vi ønsker å ta regnestykket dit dataene bor. Du trenger ikke å blande data mellom California og Tulsa og Taiwan og Brasil. Vi har teknologi som lar oss ta regnestykket til dataene, og vi kommer til å ha en annen webteknologi med Hot Technology om det emnet.

Men vi kaller denne arkitekturen, og her er en sniktitt, Native Distribuert Analytics-arkitektur. Nøkkeltanken bak dette er at vi har en plattform, Statistica, og jeg kan eksportere en analytisk arbeidsflyt som et atom. Og jeg kunne gjøre en modell, eller en hel arbeidsflyt, så det betyr ikke noe. Men jeg kan lage dette, og eksportere det på et språk som passer til målplattformen. På venstre side av dette gjør mange mennesker dette, men de scorer i kildesystemet. Det er bra, vi kan gjøre poeng og vi kan gjøre modellbygging i databasen, så det er interessant.

Og på høyre side har vi Boomi. Dette er en følgesvennsteknologi, vi jobber med alle disse. Men vi kan også ta arbeidsflytene og transportere den overalt i verden. Alt som har en IP-adresse. Og jeg trenger ikke å ha en Statistica installert på den offentlige eller private skyen. Alt som kan kjøre en JVM, kan vi kjøre disse analytiske arbeidsflytene, arbeidsforberedelsene for data, eller bare modeller på noen av disse målplattformene. Enten det er i min offentlige eller private sky, enten det er i traktoren, bilen, hjemmet mitt, lyspæren, tingenes internett, så har vi teknologi som lar deg transportere arbeidsflyt hvor som helst i verden.

La oss se på. Du vet, vi har en rekke forretningsbrukere, så disse menneskene, vi har teknologi som lar dem konsumere utdata i et format som de er komfortable med. Vi har forskere fra innbyggerdata, og det vi prøver å gjøre er å forbedre samarbeidet, gjøre dem til en del av et team, ikke sant? Og så vil vi at folk skal slutte å finne opp hjulet på nytt. Og vi har disse dataforskerne, det kan være et ferdighetsgap der, men de kan kode på et språk de vil, de kan gå til de analytiske markedsplassene og bruke algoritmer der. Og så med dette, hvordan kunne du ikke tro at alt er kjempebra med dette? Dette er perfekt, dette er hva vi gjør. Vi bygger gjenbrukbare arbeidsflyter, vi gir folk instruksjoner, vi gir dem Lego-blokkene slik at de kan bygge disse mektige slottene og hva de enn vil gjøre. For å oppsummere det, har vi en plattform som gjør det mulig for brukere av forretningsbrukere, innbyggerdataforskere, programmerer dataforskere, vi har - vi kan ta opp alle typer bruk av IoT edge analytics, og vi aktiverer denne oppfatningen om kollektiv intelligens. Med det tror jeg vi sannsynligvis vil åpne det for spørsmål.

Robin Bloor: Greit nok. Jeg tror det første - jeg mener, for å være ærlig, mener jeg at jeg har blitt orientert av Dell Statistica før, og for å være ærlig er jeg faktisk ganske overrasket over de tingene som jeg ikke visste at du tok opp i presentasjonen . Og jeg må si at den ene tingen, det er noe som har vært en bugbear for meg innen bruk av analyse, er at du vet at du får verktøyene, er du ikke? Det er utrolig mange verktøy der ute, det er åpen kildekodeverktøy, og så videre og så videre, og det er forskjellige, hva jeg vil kalle, semi-plattformer. Men jeg tror forskjellen du har, jeg var spesielt imponert over noe av arbeidsflyten.

Men forskjellen er at du ser ut til å gi ende til ende. Det er som om analytics er en sofistikert forretningsprosess som begynner med innsamling av data, og deretter går den gjennom en hel rekke trinn, avhengig av hvor flassende dataene er, og så kan de forgrene seg i en hel serie forskjellige matematiske angrep på data. Og så dukker resultatene opp på en eller annen måte, og de må være handlinger. Det er en enorm mengde analyser jeg har kommet over hvor mye bra arbeid ble gjort, men det er ikke noe som gjør det til handling. Og du ser ut til å ha forferdelig mye av det som kreves. Jeg vet ikke hvor omfattende det er, men det er langt mer omfattende enn jeg forventet. Det er jeg utrolig imponert over.

Jeg vil gjerne at du kommenterer regneark. Du har allerede sagt noe, men en av de tingene som jeg bemerket, og jeg har lagt merke til gjennom årene, men det har bare blitt mer og mer tydelig, er at det er utrolig mange regneark som er skyggesystemer, og virkelig tror jeg regnearket, mener jeg, det var et fantastisk verktøy da det ble introdusert, og det har vært fantastisk siden på mange forskjellige måter, men det er et generalisert verktøy, det er ikke egentlig egnet til formålet. Det er absolutt ikke veldig bra i BI-sammenheng, og jeg synes det er forferdelig i analysesammenheng. Og jeg lurte på om du hadde noen kommentarer å si om, la oss si, eksempler der, du vet, Statistica har sluppet ut, overdreven bruk av regneark eller noen kommentarer du vil komme med om det?

David Sweenor: Ja, jeg tror at du kan se på berømte regnearksfeil. Google eller hvilken som helst søkemotor du bruker vil komme tilbake med en rekke resultater. Jeg tror ikke, vi vil noen gang erstatte regneark. Det er ikke vår intensjon, men mange organisasjoner som jeg går til, det er et par av disse regneark-veivisere eller ninjaer eller hva du enn vil kalle dem, men de har disse veldig sofistikerte regnearkene og du må tenke, hva skjer når disse folk vinner lotto og de kommer ikke tilbake? Og det vi prøver å gjøre er at vi vet at regneark vil eksistere slik at vi kan innta disse, men jeg tror at det vi prøver å gjøre er å utvikle en visuell representasjon av arbeidsflyten din slik at den kan forstås og deles med andre mennesker . Regneark er ganske vanskelig, ganske vanskelig å dele. Og så snart du har gitt regnearket til meg, har jeg endret det, og nå er vi ute av synkronisering og vi får forskjellige svar. Det vi prøver å gjøre er å legge noen rekkverk rundt dette og gjøre ting litt mer effektive. Og regneark er virkelig forferdelig med å kombinere flere datasett sammen, vet du? De faller der nede. Men vi kommer ikke til å erstatte dem, vi tar dem inn og vi har folk som begynner å skifte fordi hvis vi har en node som sier “beregne risiko”, er det det personen som bruker regnearket prøver å gjøre. Så de er borte.

Robin Bloor: Ja, jeg mener, jeg vil si at fra et av perspektivene på at jeg ser på ting, vil jeg si at regneark er bra for å lage informasjon. De er til og med gode for å skape kunnskapsøyer, men de er virkelig dårlige for å dele kunnskap. De har ingen mekanismer for å gjøre det overhodet, og hvis du gir et regneark videre til noen, er det ikke som du kan lese det som om det er en artikkel som forklarte nøyaktig hva de gjør. Den er bare ikke der. Jeg tror, ​​du vet, det som imponerte meg mest med presentasjonen og om Statisticas muligheter, det virker til å være utrolig agnostisk. Men det har denne tråden som løper gjennom arbeidsflyten. Har jeg rett i å anta at du kan se på en ende-til-ende arbeidsflyt på tvers av, vet du, fra datainnsamling helt gjennom til å legge inn resultater i bestemte BI-applikasjoner eller til og med kjøre applikasjoner?

David Sweenor: Ja, absolutt. Og den har den ende-til-ende-evnen, og noen organisasjoner bruker det helt, og jeg er ikke i noen illusjon om at noe selskap i disse dager kjøper alt fra en leverandør. Vi har en blanding. Noen mennesker bruker Statistica for alt, og noen bruker den for modellering arbeidsflyter, noen mennesker bruker den for data prep arbeidsflyt. Noen mennesker bruker den til å distribuere hundrevis av ingeniørrapporter til ingeniører. Og slik har vi alt i mellom. Og det er virkelig ende til ende, og det er, du vet, en agnostisk plattform, ved at hvis det er algoritmer du vil bruke i R eller Python, Azure, Apervita, hva enn, du vet, bruk disse. Det er flott, vær produktiv, bruk det du vet, bruk det du er komfortabel med, og vi har mekanismer for å sikre at de er kontrollerte og reviderbare og alle den slags ting.

Robin Bloor: Jeg liker spesielt godt det aspektet av det. Jeg mener, jeg vet ikke om du kan snakke utover det du har sagt til rikdommen til det som er der ute. Jeg mener, jeg har sett på dette, men jeg har ikke sett på det på en omfattende måte, og det er sikkert en enorm mengde Python-biblioteker i bibliotekene våre, men er det noe du kan legge til det bildet? Fordi jeg synes det er en veldig interessant ting, vet du, ideen om at du ville ha komponenter som var pålitelige, fordi du kjente forskjellige mennesker som hadde opprettet dem og forskjellige mennesker som brukte dem som du kunne laste ned. Kan du berike det du allerede har sagt om det?

David Sweenor: Ja, jeg tror noen av markedsplassene for appene, du vet, algoritmemarkedene som er der ute. For eksempel, du vet, Dr. John Cromwell ved University of Iowa, han har utviklet en modell som vil forutsi, som brukes i sanntid mens vi blir operert, vil gi deg en score hvis du skal få en kirurgisk infeksjon. Og hvis den poengsummen er høy nok, vil de ta en intervensjon rett i operasjonssalen. Det er veldig interessant. Så kanskje er det et annet sykehus som ikke er så stort. Vel, Apervita er en helse-app-markedsplass for analyse. Du kan enten finne en i mange av disse app-markedene, du kan finne en og bruke dem på nytt, og transaksjonen er mellom deg og den som eier det, men du kan enten finne en eller du kan si: “Her det jeg trenger. ”Jeg tror det er å utnytte det globale samfunnet fordi alle er spesialist i disse dager, og du kan ikke vite alt. Jeg tror R og Python er en ting, men denne ideen om, "Jeg vil utføre denne funksjonen, legge en spesifikasjon der ute på et av disse appmarkedene og få noen til å utvikle den for deg." Og de kan tjene penger på det, tror jeg det er veldig interessant og veldig annerledes enn rent open source-modellen.

Robin Bloor: OK . Jeg vil uansett sende ballen til Dez. Vil du dykke i desember?

Dez Blanchfield: Absolutt og jeg vil gjerne holde meg på regneark-saken bare for et øyeblikk, fordi jeg tror det har fanget den rette essensen av mye av det vi snakker om her. Og du kom med en kommentar, Robin, med hensyn til overgangen fra slags gamle regneark i deres fysiske form til elektronisk form. Vi hadde en interessant ting som foregikk der, du vet, når regneark opprinnelig var en ting, de bare var papirark med rader og kolonner, og du manuelt ville skrevet ting ned, så ville du slå gjennom og beregne dem, enten ved å gjøre det fra toppen av hodet eller med en annen enhet. Men vi har fortsatt muligheten til å få feil med håndskriftfeil eller dysleksi, og nå har vi erstattet det med skrivefeil. Risikoen er at med regneark er risikoprofilen raskere og større, men jeg tror verktøyene som Statistica inverterer risikopyramiden.

Jeg tegner ofte dette bildet på en tavle av en pinnefigur av et menneske øverst, som en person, og deretter en samling av dem nede i bunnen, la oss si, forestille oss ti av dem nederst på den tavlen, og jeg tegner en pyramide der pyramidepunktet er ved den enkelte og foten av pyramiden er samlingen av mennesker. Og jeg bruker dette til å visualisere ideen om at hvis en person øverst gjør et regneark gjør en feil og deler den med ti personer, og nå har vi fått ti eksemplarer av feilen. Vær veldig forsiktig med makroene dine, og vær veldig forsiktig med Visual Basic hvis du skal flytte til det. For når vi bygger elektroniske verktøy som regneark, er det veldig kraftig, men det er også kraftig på en god og dårlig måte.

Jeg tror verktøy som Statistica får muligheten til å invertere den risikoprofilen, og det er at du nå kan komme til det punktet hvor du har mange verktøy som er tilgjengelige for den enkelte og når de går fra mange verktøy øverst på pyramiden og deretter ned til bunnen der poenget med pyramiden som nå blir omvendt er det faktiske verktøyet, hvis vi har et team av mennesker som bygger verktøyene og algoritmene. Og dataforskeren trenger ikke å være spesialist i regresjonsanalyse på dataene sine. De kan være i stand til å bruke verktøyet, men du har kanskje fem eller seks statistikere og en aktuar og en dataforsker og noen matematikere som jobber med det verktøyet, den modulen, den algoritmen, den plug-in og så i regnearkparlance, så tenk deg at hvert regneark som ble publisert som du kunne bruke, faktisk var skrevet av spesialister som testet makroene, testet Visual Basic, sørget for at algoritmene fungerte, så når du fikk det, kunne du bare hente inn data i det, men du kunne faktisk ikke bryte det og derfor har det vært bedre å kontrollere.

Jeg tror mange av analyseverktøyene gjør det. Jeg antar at når du kommer til poenget med dette, ser du det ute i feltet nå, ser du overgangen fra regneark som potensielt kan presse feil og feil og risikere, til det punktet verktøyene du bygger med plattformer nå, med dataoppdagelsen som er nøyaktig i sanntid, og menneskene som bygger modulene og algoritmene fjerner eller reduserer risikoprofilen? Ser kundeservice det i reell forstand, eller tror du det bare skjer og at de ikke skjønner det?

David Sweenor: Du vet, jeg tror det er noen måter å svare på dette på. Men det vi ser er, du vet, i enhver organisasjon, og jeg nevnte at analyser jeg tror har hengt fra et investeringsperspektiv, slags hva vi gjorde med datavarehus og CRM. Men det vi ser, så det krever mye å endre en organisasjon, for å komme over den organisatoriske tregheten. Men det vi ser er at folk tar regnearkene sine, tar arbeidsflytene sine, og jeg nevnte sikkerheten og styringen, "Vel, kanskje har jeg et regneark, " "Vel, jeg kan låse dette og jeg kan versjon kontrollere det." vi ser mange organisasjoner, kanskje de bare begynner der. Og hvis det er endret, er det en arbeidsflyt og jeg ender opp med å gå, nummer én, hvem har endret det? Hvorfor de forandret det. Da de forandret det. Og jeg kan også sette opp en arbeidsflyt slik at jeg ikke kommer til å sette dette nye regnearket i produksjon med mindre det er validert og bekreftet av en, to, tre, uansett hvor mange parter du vil definere i arbeidsflyten. Jeg tror folk begynner å ta, og organisasjoner begynner å ta babysteg der, men jeg vil antagelig foreslå at vi har en lang vei å gå.

Dez Blanchfield: Ja, og jeg tror at når du bygger både sikkerhetskontrollene og styringen der inne, kan arbeidsmengden automatisk kartlegge det og alt opp til sjef for risikobetjent, som nå er en ting. Du kan begynne å kontrollere hvordan du får tilgang til disse verktøyene og systemene og hvem som gjør hva med dem, så det er veldig kraftig. Jeg tror de andre tingene som kommer inn i dette, er at de verktøyene du gir, for meg, låner til menneskelig oppførsel mer enn til de tradisjonelle regnearkene vi snakker om, i det at hvis jeg har et rom fullt av mennesker med samme dashbord og tilgang til de samme dataene som de faktisk kan få et annet syn, og som et resultat få litt annerledes innsikt fra den samme informasjonen, som passer deres behov slik at de kan samarbeide. Vi har da et mer menneskelig syn og samhandling med virksomheten og beslutningsprosessen, i motsetning til at alle skal til det samme møtet med samme PowerPoint, og de samme regnearkene som er skrevet ut, alle de samme faste dataene.

Ser du en overgang i atferd og kultur i organisasjoner som på en måte tar opp verktøyene dine der de ser det som foregår, der det ikke er som om fem personer i rommet ser på det samme regnearket og prøver å bare verbalisere det og lage notater om det, men nå samhandler de faktisk med dashbordene og verktøyene i sanntid, med visualisering og analyse innen fingertuppene og får en helt annen flyt på samtalen og samhandlingen, ikke bare i møter, men bare generelt samarbeid rundt organisasjonen? Fordi de kan gjøre det sanntid, fordi de kan stille spørsmålene og få et reelt svar. Er det en trend du ser for øyeblikket, eller har det ikke helt skjedd ennå?

David Sweenor: Nei, jeg tror det definitivt er startet på den veien, og jeg tror det veldig interessante er, hvis du tar eksempel på en fabrikk. Kanskje noen som eier en bestemt prosessektor innen den fabrikken de vil se og samhandle med disse dataene på en viss måte. Og kanskje meg, med utsikt over alle prosessene, kanskje denne på bunnen, kanskje jeg vil se på det på tvers av alt. Jeg tror det vi ser er nummer én at folk begynner å bruke et felles sett med visualiseringer eller standardvisualiseringer i organisasjonene sine, men det er også skreddersydd til rollen de er i. Hvis jeg er prosessingeniør, kanskje det er et veldig annet syn enn noen som ser på det fra et forsyningskjedeperspektiv, og jeg synes det er flott fordi det må skreddersys og det må sees på gjennom linsen du trenger for å få jobben din gjort.

Dez Blanchfield: Jeg antar at beslutningsprosessen kommer ned, tidsmessig og raskt, for å faktisk ta smarte og nøyaktige beslutninger øker også raskt, ikke sant? For hvis du har sanntidsanalyser, sanntids dashboards, og hvis du har statistica-verktøyene til fingerspissene, trenger du ikke å løpe over gulvet for å spørre noen om noe, har du det i papirkopi. Du kan slags samarbeide, samhandle og faktisk ta avgjørelser mens du er på farten og få det resultatet umiddelbart. Som jeg tror noen av selskapene virkelig ikke har forstått ennå, men når de gjør det kommer dette til å være dette eureka-øyeblikket som, ja, vi fortsatt kan bo i avlukkene våre og jobbe hjemme, men vi kan samhandle og samarbeide og de beslutningene vi gjør når vi samarbeider blir til resultater umiddelbart. Se, jeg synes det var fantastisk å høre hva du har å si så langt, og jeg gleder meg veldig til å se hvor det går. Og jeg vet at vi har mange spørsmål i spørsmål og svar, så jeg kommer til å løpe tilbake til Rebecca for å løpe gjennom noen av dem, så vi kan komme til de så raskt du kan. Tusen takk.

Rebecca Jozwiak: Takk Dez, og ja Dave, vi har ganske mange spørsmål fra publikum. Og takk Dez og Robin for innsikten din også. Jeg vet at denne deltakeren måtte droppe helt på toppen av timen, men hun spør litt, ser du informasjonssystemavdelingene er mer prioriterte avanserte datakontroller i stedet for å være komfortable med å tilby verktøy til kunnskapsarbeiderne? Jeg mener, er det - gå foran.

David Sweenor: Ja, jeg tror det kommer an på organisasjonen. Jeg tror en bank, et forsikringsselskap, kanskje de har forskjellige prioriteringer og måter å gjøre ting på, kontra en markedsføringsorganisasjon. Jeg antar at jeg måtte si det bare avhenger av bransjen og funksjonen du ser på. Ulike bransjer har forskjellige fokus og vekt.

Rebecca Jozwiak: OK bra, det er fornuftig. Og så ville en annen deltaker vite, hva er motoren bak Statistica? Er det C ++ eller dine egne ting?

David Sweenor: Vel, jeg vet ikke om jeg kan få det spesifikt med det at dette har eksistert i 30 år og det ble utviklet før min tid, men det er et kjernebibliotek med analytiske algoritmer som er Statistica-algoritmer som kjører. Og du så her at vi også kan kjøre R, vi kan kjøre Python, vi kan sprekke til Azure, vi kan kjøre på Spark på H2O, så jeg antar at jeg vil måtte svare på det spørsmålet i form av, det er en rekke motorer. Og avhengig av hvilken algoritme du velger, hvis det er en Statistica-en, kjører den slik, hvis du velger en på H2O og Spark, bruker den den, og så er den en rekke av dem.

Rebecca Jozwiak: OK bra. En annen deltaker som ble spurt, spesifikt pekte på dette lysbildet, som vil vite, slags, hvordan vet innbyggerens dataforsker hvilke gjenbrukbare maler å bruke? Og jeg vil nok lage et bredere spørsmål ut av det. Det, hva ser du når bedriftsrelaterte brukere eller forretningsanalytikere kommer inn og vil bruke disse verktøyene, hvor lett er det for dem å hente og løpe?

David Sweenor: Jeg antar at jeg vil svare det, og hvis du kan bruke, hvis du er kjent med Windows, er dette en Windows-basert plattform, så jeg kuttet av toppen av disse skjermbildene, men det har Windows-båndet. Men hvordan vet de hvilken arbeidsflyt de skal bruke? Det ser ut som Windows Utforsker, så det er en trestruktur, og du kan konfigurere den og sette den opp, men organisasjonen din ønsker å sette den opp. Men det kan være, du ville bare ha disse mappene, og du ville plassere disse gjenbrukbare malene i disse mappene. Og jeg tror det sannsynligvis er en nomenklatur ditt selskap kan vedta, si at her er “beregne risikoprofilen”, her er “få data fra disse kildene”, og du navngir dem hva du vil. Det er bare en gratis mappe, du drar bare notatene rett ut på lerretet. Så, ganske enkelt.

Rebecca Jozwiak: OK bra. Kanskje en demo neste gang. Så bringer en annen deltaker slags opp, og det er det du og Robin og Dez snakket om så langt som unøyaktighetene, spesielt på et regneark, men søpla inn / søppel ute, og han ser det som enda mer kritisk når det kommer til analyse. Det å nevne at misbruk av data virkelig kan føre til noen uheldige avgjørelser, vet du. Og han lurer på hva dine synspunkter er på utviklingen av mer mislykkede algoritmer, antar jeg for det, han bruker ordet, "overflødig" bruk av analyser. Du vet, noen kommer inn, de blir veldig spente, de vil gjøre disse avanserte analysene, de vil kjøre disse avanserte algoritmene, men kanskje er de ikke helt sikre. Så hva gjør du for å beskytte det?

David Sweenor: Ja, så jeg antar at jeg vil svare på dette så godt jeg kan, men jeg tror alt kommer ned på mennesker, prosess og teknologi. Vi har teknologi som hjelper deg med å aktivere mennesker og hjelper deg med å aktivere den prosessen du vil legge inn i organisasjonen din. I eksemplet med å sende en kupong til noen er det kanskje ikke så kritisk, og hvis det er digitalt er det virkelig ingen kostnader, kanskje det er ett nivå av sikkerhetskontroller og kanskje bryr vi oss ikke. Hvis jeg spår infeksjoner på kirurgiske steder, vil jeg kanskje være litt mer forsiktig med det. Eller hvis jeg spår stoffkvalitet og sikkerhet og sånt, kanskje jeg vil være litt mer forsiktig med det. Du har rett, søppel inn / søppel ute, så det vi prøver å gjøre er å tilby en plattform som lar deg skreddersy det til hvilken prosess organisasjonen din vil ta i bruk.

Rebecca Jozwiak: OK bra. Jeg har noen spørsmål til, men jeg vet at vi har gått ganske mye i timen, og jeg vil bare fortelle presentatørene våre, det var kjempebra. Og vi vil takke så mye Dave Sweenor fra Dell Statistica. Dr. Robin Bloor og Dez Blanchfield, selvfølgelig, takk for at du er analytikerne i dag. Vi kommer til å ha en ny webcast neste måned med Dell Statistica. Jeg vet at Dave tipset om emnet. Det vil dreie seg om analytics at the edge, et annet fascinerende tema, og jeg vet at noen svært overbevisende brukssaker kommer til å bli diskutert på den nettkasting. Hvis du likte det du så i dag, kom tilbake for mer neste måned. Og med det, folkens, tar jeg farvel. Takk så mye. Ha det.

Legge ned analyse overalt: muliggjøre innbyggerens dataforsker