Hjem Audio Edge analytics: iot-økonomien til slutt

Edge analytics: iot-økonomien til slutt

Anonim

Av Techopedia Staff, 22. september 2016

Takeaway: Vert Rebecca Jozwiak diskuterer kantanalyse med Dr. Robin Bloor, Dez Blanchfield og Dell Statisticas Shawn Rogers.

Du er ikke logget inn for øyeblikket. Logg inn eller registrer deg for å se videoen.

Rebecca Jozwiak: Mine damer og herrer, hallo, og velkommen til Hot Technologies i 2016. I dag har vi “Edge Analytics: The IoT Economy omsider.” Jeg heter Rebecca Jozwiak. Jeg vil være din moderator for dagens webcast. Vi twitrer med en hashtagg av # HOTTECH16 hvis du vil være med på Twitter-samtalen.

Så IoT, definitivt et hett tema i år og tingenes internett, det handler egentlig om maskindata, sensordata, loggdata, enhetsdata. Ingen av dem er nye, vi har hatt den typen data for alltid, men det er at vi egentlig ikke har kunnet bruke dem, og nå ser vi bare mange nye måter å bruke disse dataene på. Spesielt i medisinsk industri, finansmarkedene, med olje og gass, råvarer, er det bare et vell av informasjon som tidligere er uutnyttet. Og ikke mange mennesker har virkelig fått et godt grep om hvordan de skal gjøre det bra. Vi snakker om mye lite data, men det er mye data, og du vet, det er nettverksproblemer involvert, det er maskinvare involvert, eller må behandles, og hvordan gjør du det uten å tette systemet opp? Det er det vi skal lære om i dag.

Her er vårt utvalg av eksperter. Vi har Dr. Robin Bloor, vår sjefanalytiker i The Bloor Group. Vi har også Dez Blanchfield, dataforskeren vår i The Bloor Group. Og vi er glade for å ha Shawn Rogers, direktør for global markedsføring og kanaler fra Dell Statistica. Og med det skal jeg gi ballen videre til Robin.

Dr. Robin Bloor: Ok, takk for det. Jeg skal trykke på en knapp og kaste opp et lysbilde. Jeg aner ikke hvorfor jeg skapte dette apokalyptiske bildet for tingenes internett. Muligens fordi jeg tror det kommer til å bli kaotisk til slutt. Jeg kommer videre. Dette tilsvarer kurset i enhver IoT-presentasjon. Du må på en eller annen måte si noe skandaløst om hvor det hele går. Og faktisk er det meste av dette sant. Hvis du faktisk ser på hvordan disse kurvene gradvis utvides. Du vet, personlige datamaskiner, smarttelefoner og nettbrett vil sannsynligvis fortsette å øke. Smarte TV-er vil trolig stige. Wearables, de eksploderer sannsynligvis akkurat nå, sammenlignet med hva de var for noen år siden. Tilkoblede biler, uunngåelig at stort sett alle biler kommer til å være koblet grundig bredt og overføre data grundig hele tiden. Og alt annet. Og akkurat denne grafen fra BI Intelligence indikerer at alt annet vil oppveie de åpenbare ting veldig, veldig raskt.

Så hva skal jeg si om IoT? Det første er bare et arkitektonisk poeng. Du vet at når du har data og har behandlet deg, på en eller annen måte, er du nødt til å sette sammen de to. Og med data på volumene det er nå, og når de samles forskjellige steder, er de ikke naturlig sammen lenger. De pleide å være i de gamle mainframe-dagene, antar jeg. Så du kan tenke i form av at det er et behandlingslag, et transportlag og et datalag. Og på en eller annen måte skal transportlag i dag flytte behandlingen rundt eller flytte dataene på tvers av nettverk. Så her er valgene: Du kan flytte dataene til behandlingen, du kan flytte behandlingen til dataene, du kan flytte behandlingen og dataene til et praktisk utførelsessted, eller du kan skjære behandlingen og skjære dataene. Når det gjelder tingenes internett, er dataene stort sett allerede shardet ved fødselen, og sannsynligheten er stor for at en del av behandlingen kommer til å bli sharded for at applikasjonene som må kjøres kan skje.

Så jeg har malt et bilde. Det interessante for meg om IoT, jeg snakker om et aggregeringsdomen i dette diagrammet, og jeg påpeker at det er underdomener. Så du kan forestille deg at IoT-domene 1 her er en bil av noe slag, og domene 2 og domene 3 og domene 4, er biler av noe slag, og du vil samle data lokalt, du vil kjøre lokale apper på den dataen, og du vil sette i gang forskjellige ting. Men for å ha analyser om alle bilene, må du overføre data til senteret, ikke nødvendigvis alle dataene, men du må aggregere i sentrum. Og hvis du tenker på dette, kan det være lurt å ha mange, mange forskjellige aggregeringsdomener til samme sett med IoT-ting. Og domenene i seg selv kan samles ytterligere. Så du kan ha dette repeterende hierarkiet. Og i utgangspunktet det vi har der er et utrolig komplekst nettverk. Langt mer sammensatt enn noe vi måtte ha før.

Jeg har en lapp nederst her. Alle nettverksnoder, inkludert bladnoder, kan være dataskapere, datalagre og behandlingspunkter. Og det gir deg en mulighet for distribusjon, slik vi ikke har sett før. Dez kommer til å snakke litt mer om det, så jeg skal komme videre til akkurat dette punktet. Når vi først er på tingenes internett og alle dataene faktisk har løst seg til å være begivenheter, er poenget med dette lysbildet bare for å indikere at vi blir nødt til å standardisere hendelser. Vi blir nødt til å i det minste måtte ha dette. Vi kommer til å ha tidspunktet hendelsen skjedde, den geografiske plasseringen den skjedde, den virtuelle eller logiske plasseringen av prosessen som opprettet den, kildenheten som opprettet den, enhets-ID slik at du vet nøyaktig hvilken kildenhet som skapte den, eierskapet av dataene og aktørene, de menneskene som har rett til å bruke dataene på en eller annen måte, det blir nødt til å bære sine tillatelser med seg, noe som betyr at det virkelig vil måtte bære sikkerhet med det, og så er det selve dataene. Og når du ser på dette, skjønner du at du vet, selv om du har en sensor som ikke gjør noe mer enn å rapportere temperaturen på noe hvert sekund, så er det faktisk ganske mye data bare for å identifisere nøyaktig hvor dataene er oppsto og hva det faktisk er. Forresten, dette er ikke en uttømmende liste.

Så når det gjelder det fremtidige IT-landskapet, slik jeg ser det, er dette: at det ikke bare er tingenes internett, det er også det faktum at vi vil være i en verden av hendelsesdrevet aktivitet, og derfor må ha begivenhetsstyrte arkitekturer, og de arkitekturene må spenne over store nettverk. Og den andre tingen er alt i sanntid, det er ikke nødvendigvis slik at vi skal være i sanntid, men det er noe jeg omtaler som forretningstid som er tiden hvor data faktisk må serveres og klar å behandle. Det kan ikke være, du vet, et millisekund etter at det er opprettet. Men det er alltid en slik tid for hvert stykke data, og når du først har en hendelsesstyrt arkitektur, begynner det å bli mer fornuftig å tenke i form av en sanntids tilnærming til måten verden fungerer på.

Så å koke det ned, fordi det vi egentlig snakker om, er analyser på IoT. Til tross for alt dette handler det fremdeles om tid til innsikt, og det er ikke bare tid til innsikt, innsikt må følges av handlinger. Så tid til innsikt og tid til handling er det jeg vil koke det ned til. Når det er sagt, skal jeg føre ballen tilbake til Dez.

Dez Blanchfield: Takk, Robin. Innsiktsfull som alltid. Jeg elsker det faktum at det er en vanskelig handling å følge i alle tilfeller, men jeg vil gjøre mitt beste.

En av tingene jeg ser, og jeg blir ofte underholdt av det, for å være ærlig, og ikke i en uhøflig og negativ skrå form, men det er mye bekymring og panikk ved internett over ting som overtar verden. og slotting oss, og du vil begynne å miste dataene dine, så jeg vil se litt på noen av tingene vi har gjort før i løpet av de siste to til tre tiårene som var en nær faksimil til internett av ting, men kanskje ikke helt i samme skala. Og bare for å vise oss at vi faktisk har vært her og løst noen av problemene, ikke på dette skalanivået og ikke med denne hastigheten. Fordi det betyr at vi faktisk kan løse problemet og at vi vet hva noen av svarene er; Vi har bare nødt til å slå ned og bruke noen av lærdommene vi hadde før. Og jeg vet at dette er hele samtalen vi skal føre, og jeg har fått en rekke morsomme ting bare for å chatte gjennom i spørsmål og svar-delen.

Men når vi tenker på tingenes internett i sirkelen, er det en god del sentralisering for tiden på et designnivå som ble skrevet i de første tidene. Fitbit-enheter, for eksempel, har alle en tendens til å gå til et sentralt sted, og det vil sannsynligvis være vertskap på en skyplattform et sted, og all den informasjonen fra alle disse enhetene treffer den samme, la oss si det, foran enden av en stabel, inkludert web app- og databaserte tjenester. Men over tid vil den skalaen kreve en ny prosjektering for å takle mengden data som kommer til dem, og de vil konstruere at det er flere grenser og flere kopier av stabelen på flere steder og regioner. Og vi ser dette, og det er en rekke eksempler som jeg vil gi deg som vi kan diskutere.

Hovedpoenget med dette er at selv om vi har sett noen av disse løsningene som jeg skal dekke, krever omfanget og volumet av dataene og nettverkstrafikken som tingenes internett genererer, et skifte fra sentralt til distribuerte arkitekturer etter mitt syn, og vi vet dette, men vi har ikke nødvendigvis forstått hva løsningen er. Når vi tenker på begrepet hva tingenes internett er, er det en storstilt nettverksmodell. Det er mange ting som nå lager lyd. Ting som ikke bråket før nylig. Og faktisk, jeg tror det var i går, jeg snakket spøkefullt om bunken, men jeg gikk for å kjøpe en ny brødrister og den fulgte med et alternativ som kunne fortelle meg forskjellige ting, inkludert når det trengtes rengjøring. Og en ny mikrobølgeovn med en veldig lik funksjon og kan til og med faktisk pinge en app på telefonen min for å si at tingen jeg var oppvarmet nå var gjort. Og jeg er veldig opptatt av at hvis det er et par ting jeg ikke vil snakke med meg, så er det kjøleskap, mikrobølgeovn og brødristere. Jeg er ganske komfortabel med at de er stumme enheter. Men jeg har fått en ny bil nylig, litt Audi, og den snakker med meg, og jeg er ganske fornøyd med det, fordi tingene det snakker om er interessante ting. Som å oppdatere kart i sanntid for å fortelle meg hvor det er en bedre rute å komme fra punkt A til punkt B fordi det oppdages trafikk gjennom forskjellige mekanismer med data den blir sendt.

Jeg har dette lysbildet. Vi har allerede sett at høye volum nettverksmodeller krever en overgang fra sentral til distribuert innsamling og levering av databehandlings- og analysemodeller. Vi har sett ting bevege seg fra de tre små grafskjemaene der på høyre side der vi har, den til venstre ut av de tre, det er en sentralisert modell med alle de små enhetene som kommer til det sentrale stedet og samle inn data, og omfanget er ikke så bra, de klarer seg helt fint der. I midten har vi fått en litt mer desentralisert modell og hub og snakket, og det er det jeg tror vi kommer til å trenge med tingenes internett i neste generasjon. Og på høyresiden har vi dette fullt distribuerte og nettede nettverket som er der tingenes internett og maskin-til-maskin kommer til å gå på veldig kort sikt fremover, men vi er ikke helt der av en rekke årsaker. Og hovedsakelig fordi vi bruker internettplattformer til det meste av kommunikasjonen så langt og vi faktisk ikke har bygd et andre nettverk for å bære mye av disse dataene.

Det er andre nettverk som allerede eksisterer, for eksempel Batelco-nettverk. Mange mennesker tenker ikke på det faktum at telenes nettverk ikke er internett. Internett er en veldig egen ting på mange måter. De dirigerer data fra smarttelefoner over telefonnettverk, og deretter over telefonnettverk og til internett generelt der de faktisk lager dem i to nettverk. Men det er fullt mulig og sannsynlig at tingenes internett trenger et annet nettverk. Vi snakker om det industrielle internett som et tema generelt, som vi ikke vil gå i detalj nå, men egentlig snakker vi om et annet nettverk som er spesielt designet for typer transport for data eller internett for ting og maskin-til-maskin kommunikasjon.

Men noen av eksemplene jeg ønsket å dele der vi har sett nettverk med høyt volum og distribuert data fungerer veldig bra, er ting som internett. Internett ble spesielt designet og arkivert fra første dag for å kunne overleve en atomkrig. Hvis deler av USA sprenges, ble internett designet slik at data kan bevege seg rundt på Internett uten pakke-tap av grunner til at vi fremdeles er tilkoblet. Og det eksisterer fortsatt i dag i global skala. Internett har flere muligheter rundt redundans og ruting av pakker. Og faktisk er internett kontrollert av en ting som heter BGP, Border Gateway Protocol, og Border Gateway Protocol, BGP, er spesielt designet for å takle enten en ruter eller switch eller server er nede. Når du sender eller mottar en e-post, hvis du sender tre e-poster på rad, er det ingen garanti for at hver av disse e-postene vil følge den samme ruten til samme sluttdestinasjon. De kan bevege seg gjennom forskjellige deler av internett av forskjellige grunner. Det kan være et avbrudd, det kan være vedlikeholdsvinduer der ting ikke er tilgjengelig for å bli oppgradert, det kan bare være overbelastning i nettverket, og vi ser at med ting som trafikknett med biler og offentlig transport og skip og fly. Vi får innhold til enhetene våre som bærbare datamaskiner og nettbrett og datamaskiner gjennom nettlesere og så videre hver dag gjennom innholdsleveringsnettverk. Innholdsleveringsnettverk handler om å ta kopier av innhold fra den primære serveringsplattformen din, for eksempel webserveren og flytte kopier av den og cachen i liten grad ut til kanten av nettverket og bare levere det til deg fra nærmeste del av kanten.

Anti-spam og cybersecurity - hvis en spam-hendelse finner sted i Canada og Microsoft oppdager den og ser at det er mange kopier av den samme e-posten som blir sendt til en gruppe tilfeldige personer, blir det tatt sjekksum for det, er en signatur for den meldingen opprettet og satt inn i et nettverk og distribuert umiddelbart. Og slik at e-posten aldri kommer inn i innboksen min, eller hvis den gjør det, blir den merket som spam umiddelbart fordi den er oppdaget et annet sted i kanten av nettverket. Og så blir andre deler av kanten av nettverket fortalt om denne signaturen for spammeldinger, og den blir lagt inn i en databases indeks, og hvis disse meldingene begynner å vises på den andre siden av planeten, oppdager vi dem og vi vet at de er spam. Og det samme gjelder cybersecurity. Et hack som finner sted på den ene siden av planeten blir oppdaget og registrert og kartlagt, og plutselig på den andre delen av nettverket kan vi bekjempe det og arkivere regler og policyer og endre for å se om vi kan blokkere det. Spesielt med den nye effekten av ting som tjenestenekt eller distribuert tjenestenekt, der tusenvis av maskiner brukes til å angripe et sentralt nettsted.

Bitcoin og blockchain er som standard, i sin natur en distribuert hovedbok, blockchain, og takler eventuelle strømbrudd eller brudd i nettverket. Frauddeteksjon og forebygging, kraft- og vannverktøy - vi ser, du kjenner kraftnettet, hvis en del av nettverket får et tre på seg og tar ut en stang og en ledning, får huset mitt fortsatt strøm. Jeg vet ikke engang om det, jeg ser det ofte ikke engang i nyhetene. Og vi er alle vant til transportnettverk der det opprinnelig var en sentralisert modell, "Alle veier førte til Roma, " som de sier, og så til slutt måtte vi gå til den desentraliserte modellen med knutepunkter og eiker, og så gikk vi til et nettet nettverk hvor du kunne komme deg fra den ene siden av byen til den andre gjennom forskjellige nettede ruter og forskjellige kryss. Og det vi ser her, er at denne sentraliserte modellen av det vi gjør nå med tingenes internett, må presse ut til kanten av nettverket. Og dette gjelder analyse mer enn noen gang, og det er at vi trenger å skyve analyser ut i nettverket. Og for å gjøre det krever det en helt ny tilnærming til hvordan vi får tilgang til og behandler disse dataene og datastrømmene, etter mitt syn. Vi snakker om et scenario nå hvor jeg tror vi ser begrenset intelligens presset ut til kanten av nettverket på internett-tilkoblede enheter, men vi kommer snart til å se at enhetene øker i intelligensen og øker nivået av analyse de ønsker å gjøre. Og som et resultat av det, vil vi trenge å skyve de smarts videre og lenger gjennom nettverket.

For eksempel smarte apper og sosiale medier - hvis vi tenker på sosiale medier og noen av de smarte appene, er de fortsatt veldig sentrale. Du vet, det er bare to eller tre datasentre for slike som Facebook. Google har blitt mye mer desentralisert, men det er fremdeles et begrenset antall datasentre over hele verden. Når vi tenker på innholdstilpasning, må du tenke ned på et veldig lokalt nivå. Mye av det blir gjort i nettleseren din eller i et lokalt lag for innholdsleveringsnettverk. Og vi tenker på helse- og kondisjonstrenere - mye av dataene som samles inn fra dem blir analysert lokalt, og så de nye versjonene av Garmin og Fitbit-enhetene du legger på håndleddet, de blir smartere og smartere i enheten . De sender nå ikke alle dataene om pulsen din tilbake til en sentralisert server for å prøve å få analysene gjort. de bygger den intelligensen direkte inn i enheten. Navigasjon i bilen pleide det å være at bilen hele tiden skulle få oppdateringer og kart fra et sentralt sted, nå er de smarte i bilen og bilen tar beslutninger helt av seg selv og etter hvert vil bilene mesh. Bilene vil snakke med hverandre via trådløse nettverk av en eller annen form, som kan være over en 3G eller et 4G trådløst nettverk i neste generasjon, men til slutt vil det være enhet til enhet. Og den eneste måten vi skal takle volumet på er ved å gjøre enhetene smartere.

Vi har allerede nødvarslingssystemer som vil samle informasjon lokalt og sende det sentralt eller inn i et nettverk og ta beslutninger om hva som skjer lokalt. I Japan er det for eksempel applikasjoner som folk kjører på smarttelefonene sine med akselerometre i smarttelefonen. Akselerometerene i smarttelefonen vil oppdage vibrasjoner og bevegelse og kan bestemme forskjellen mellom bare normal bevegelse fra dag til dag og skjelvinger og støt fra et jordskjelv. Og den telefonen vil begynne å varsle deg umiddelbart, lokalt. Selve appen vet at den oppdager jordskjelv. Men den deler også dataene opp gjennom et nettverk i en distribuert hub og snakket modell slik at folk i nærheten blir advart umiddelbart eller så snart som mulig når dataene strømmer gjennom nettverket. Og så til slutt når det kommer til en sentral beliggenhet eller en distribuert kopi av den sentrale beliggenheten, skyver den tilbake til folk som ikke er i nærområdet, ikke har oppdaget bevegelsen til planeten, men trenger å bli advart om det fordi kanskje en tsunami kommer.

Og smart byinfrastruktur - begrepet intelligent infrastruktur, vi bygger allerede intellektet til smarte bygninger og smart infrastruktur. Faktisk parkerte jeg i går bilen min i byen i et nytt område der en del av byens pusses opp og bygges om. Og de har gjort alle gatene på nytt, og det er sensorer i gatene, og den faktiske parkeringsmåleren vet at når jeg har kjørt inn med en bil, vet den at når jeg skal oppdatere i den to timers grensen, bilen har ikke beveget seg, og den ville faktisk ikke la meg fylle på og holde meg i ytterligere to timer. Jeg måtte inn i bilen, trekke ut av plassen og deretter trekke meg inn for å lure den for å tillate meg å være der i ytterligere to timer. Men det interessante er at vi etter hvert skal til punktet hvor det ikke bare er å oppdage bilen som kommer inn i området som en lokal sensor, men ting som optiske egenskaper der gjenkjennelse vil bli brukt ved kameraer som ser på lisensplaten min, og den vil vite at jeg faktisk bare trakk meg ut og trakk meg tilbake og lurte den, og den vil bare ikke la meg fornye seg, og jeg fortsetter. Og så vil den distribuere disse dataene og sørge for at jeg ikke kan gjøre det andre steder og lure nettverket fortløpende også. Fordi det av naturens side må bli smartere, ellers vil vi alle fortsette å lure det.

Det er et eksempel på dette som jeg personlig har bodd der i brannmurteknologi, på slutten av 80-tallet og begynnelsen av 90-tallet, et produkt som heter Check Point FireWall-1. En veldig enkel brannmurteknologi som vi brukte til å lage regler og bygge retningslinjer og regler rundt visse ting å si at typer trafikk gjennom visse porter og IP-adresser og nettverk for å komme til og fra hverandre, nettrafikken fra et sted til et annet, går fra nettleser og klient slutt til vår server slutt. Vi løste dette problemet ved å faktisk ta logikken ut av brannmuren selv og faktisk flytte den til ASIC, den applikasjonsspesifikke integrerte kretsen. Den kontrollerte portene i Ethernet-brytere. Vi fant ut at serverdatamaskinene, datamaskinene vi faktisk brukte som servere for å ta beslutninger som brannmurer, ikke var kraftige nok til å håndtere trafikkvolumet som går gjennom dem for hver liten pakkekontroll. Vi løste problemet ved å flytte logikken som kreves for å gjøre pakkeinspeksjon og internettdeteksjoner i nettverksbryterne som ble distribuert og kunne håndtere volumet av data som går gjennom nettverksnivået. Vi bekymret oss ikke for det på sentralisert nivå med brannmurer, vi flyttet den ut til bryterne.

Og slik at vi fikk produsentene til å bygge muligheten for oss å skyve stier og regler og policyer inn i Ethernet-bryteren slik at på det faktiske Ethernet-portnivået, og kanskje mange mennesker i bassenget ikke er kjent med dette fordi vi er alle lever i en trådløs verden nå, men en gang i tid måtte alt kobles til via Ethernet. Nå på Ethernet-portnivå undersøkte vi pakker for å se om pakkene til og med fikk flytte inn i bryteren og inn i nettverket. Noe av dette er hva vi løser nå rundt denne utfordringen med å fange data i nettverket, spesifikt fra IRT-enhetene, og inspisere dem og gjøre analyse på det og sannsynligvis analysere det i sanntid for å ta beslutninger om det. Og noe av det for å få innsikt i forretningsintelligens og informasjon om hvordan mennesker tar bedre beslutninger og annen analyse og ytelse for ting fra maskin til maskin der enheter snakker med enheter og tar beslutninger.

Og dette kommer til å være en trend som vi må se på å løse i den nærmeste fremtiden, hvis vi ikke gjør det, vil vi bare ende opp med denne støyfloden. Og vi har sett i big data-verdenen, vi har sett ting som datasjøer blir til datasumpe som vi bare ender opp med en strøm av strøm som vi ikke har funnet ut hvordan vi skal løse behandlingsanalysene for i en sentralisert mote. Hvis vi ikke løser dette problemet, etter mitt syn, med IoT umiddelbart og får en plattformløsning veldig raskt, kommer vi til å havne på et veldig, veldig dårlig sted.

Og med det i bakhodet vil jeg avslutte med poenget mitt, som er at jeg tror at en av de største endringene som skjer i big data og analytics, nå blir drevet av det umiddelbare behovet for å reagere på virkningen av internett av ting på høyt volum og sanntidsanalyse, ved at vi må flytte analysene ut i nettverket og deretter til slutt til kanten av nettverket bare for å takle det store volumet av det, bare for å behandle det. Og så til slutt, forhåpentligvis, legger vi intelligensen inn i nettverket og kanten av nettverket i en hub og snakket modell om at vi faktisk kan administrere den og få innsikt i sanntid og få verdi av det. Og med det skal jeg overføre til gjesten vår og se hvor denne samtalen tar oss.

Shawn Rogers: tusen takk. Dette er Shawn Rogers fra Dell Statistica, og gutt, bare til å begynne med, jeg er helt enig i alle de viktigste temaene som er blitt berørt her. Og Rebecca, du startet med en rundt ideen om, du vet, disse dataene er ikke nye, og det er bemerkelsesverdig for meg hvor mye tid og energi som brukes til å diskutere dataene, dataene, dataene til IoT. Og det er absolutt relevant, vet du, Robin gjorde et godt poeng, selv om du gjør noe veldig enkelt og du tapper på en termostat en gang i sekundet, vet du, gjør du det 24 timer i døgnet, og du har faktisk, du vet, noen interessante datautfordringer. Men, du vet, til slutt - og jeg tror mange mennesker i bransjen snakker om dataene på denne måten - at det egentlig ikke er så interessant og, til Rebeccas poeng, har det vært lenge, men vi har ikke tidligere vært i stand til å utnytte det godt. Og jeg tror den avanserte analysebransjen og BI-bransjen generelt begynner å snu hodet mot IoT. Og Dez, til ditt endelige poeng, dette er en del av eller et av de utfordrende punktene i big data-landskapet tror jeg er veldig sant. Jeg tror alle er veldig begeistret for hva vi kan gjøre med denne typen data, men på samme tid, hvis vi ikke kan finne ut hvordan vi kan bruke innsikt, ta grep og, vet du, få analyser der dataene er, tror jeg vi kommer til å ha utfordringer som folk ikke ser virkelig kommer sin vei.

Når det er sagt, er vi i det avanserte analyserommet store fans av hva vi tror kan skje med IoT-data, spesielt hvis vi bruker analyse for det. Og det er mye informasjon om dette lysbildet, og jeg lar alle bare jakte og pirke rundt, men hvis du ser på forskjellige sektorer som detaljhandel helt til høyre, ser muligheten deres oppstå rundt å være mer nyskapende eller ha litt kostnadsbesparelser eller prosessoptimalisering eller forbedringer er veldig viktig, og de ser mange brukssaker for det. Hvis du ser, fra venstre til høyre over lysbildet, vil du se hvordan hver av disse individuelle bransjene krever nye evner og nye differensieringsmuligheter for seg selv når de bruker analyse til IoT. Og jeg tror at bunnlinjen er at hvis du skal forsøke å gå den veien, må du ikke bare bekymre deg for dataene, som vi har diskutert, og arkitekturen, men du må også se på hvordan du best kan bruke analysene på den og hvor analysen trenger å finne sted.

For mange av oss på dagens samtale, vet du, Robin og jeg har kjent hverandre veldig lenge og hatt utallige samtaler om tradisjonelle arkitekturer i det siste, de rundt sentraliserte databaser eller enterprise datavarehus og så videre, og som vi ' Vi har funnet det siste tiåret eller så, og vi gjør en ganske god jobb med å utvide begrensningene for infrastrukturen. Og de er ikke så standhaftige eller så sterke som vi ønsker at de skal være i dag for å støtte alle de flotte analysene som vi bruker på informasjonen, og selvfølgelig informasjonen bryter arkitekturen også, vet du, datahastigheten, datamengden og så videre, utvider absolutt begrensningene for noen av våre mer tradisjonelle tilnærminger og strategier for denne typen arbeid. Og så jeg tror det begynner å kalle behovet for at selskaper skal innta et mer smidig og kanskje mer fleksibelt synspunkt på dette, og det er den delen, antar jeg, jeg vil snakke om litt rundt IoT-siden.

Før jeg gjør det, vil jeg ta et øyeblikk bare for å la alle som ringer, gi deg litt bakgrunn på hva Statistica er og hva vi gjør. Som du kan se på tittelen på dette lysbildet, er Statistica en prediktiv analyse, big data og visualisering for IoT-plattformen. Produktet i seg selv er litt over 30 år gammelt, og vi konkurrerer med de andre markedslederne som du sannsynligvis er kjent med på en måte å kunne bruke prediktiv analyse, avansert analyse på data. Vi så en mulighet til å utvide rekkevidden til hvor vi la analysene våre og begynte å jobbe med noen teknologier for en stund tilbake som har posisjonert oss ganske godt til å dra nytte av det både Dez og Robin har snakket om i dag, som er denne nye tilnærmingen og hvor du skal legge analysene og hvordan du skal smelte den sammen med dataene. Langs den siden kommer andre ting du må kunne ta tak i med plattformen, og som jeg nevnte, Statistica har vært i markedet lenge. Vi er veldig gode på datasammenslåingen av ting, og jeg tror, ​​du vet, vi har ikke snakket for mye om datatilgang i dag, men å kunne nå på tvers av disse forskjellige nettverkene og få hendene på de riktige dataene på rett tid blir mer og mer interessant og viktig for sluttbrukerne.

Til slutt vil jeg kommentere et stykke til her, fordi Dez gjorde et godt poeng om nettverkene selv, har et visst nivå av kontroll og sikkerhet over analytiske modeller i miljøet ditt og hvordan de knytter seg til at data blir veldig viktig. Da jeg kom inn i denne bransjen for noen år tilbake - nesten 20 tror jeg på dette tidspunktet - da vi snakket om avansert analyse, var det på en veldig kuratert måte. Bare et par mennesker i organisasjonen hadde hendene på det, de satte det ut og de ga folk svaret etter behov eller ga innsikt etter behov. Det endrer virkelig, og det vi ser er mange som jobbet med en eller flere forskjellige og mer fleksible måter å nå dataene på, bruke sikkerhet og styring på dataene og deretter kunne samarbeide om dem. Dette er noen av de viktige tingene som Dell Statistica ser på.

Men jeg vil dykke inn i emnet som er litt nærmere dagens tittel, og hvordan skal vi ta opp dataene som kommer fra tingenes internett og hva du kanskje vil se etter når du ser på forskjellige løsninger. Lysbildet jeg har fått opp foran deg akkurat nå, er en slags tradisjonell utsikt, og både Dez og Robin berørte slags på dette, du vet, denne ideen om å snakke med en sensor, enten det er en bil eller en brødrister eller en vindturbin, eller hva har du, og deretter flytte disse dataene fra datakilden over til nettverket ditt tilbake til en sentralisert konfigurasjon, som Dez nevnte. Og det nettverk ganske bra, og mange selskaper kommer inn i IoT-rommet opprinnelig begynner å gjøre det med den modellen.

Det andre som fulgte med, hvis du ser mot bunnen av lysbildet, er denne ideen om å ta andre tradisjonelle datakilder, øke IoT-dataene dine og deretter på denne typen kjerne, om kjernen din tilfeldigvis er et datasenter eller det kan være i skyen, det betyr ikke noe, du vil ta et produkt som Statistica og deretter bruke analyser på det på det tidspunktet og deretter gi den innsikten til forbrukerne til høyre. Og jeg tror at dette er tabellinnsatser på dette tidspunktet. Dette er noe du må kunne gjøre, og du må ha en åpen nok arkitektur for en avansert analyseplattform og snakke med alle disse, slags, forskjellige datakilder, alle disse sensorene og alle disse forskjellige destinasjonene der du har dataene. Og jeg tror at dette er noe du må kunne gjøre, og jeg tror at du vil synes det er sant at mange ledere i markedet er i stand til å gjøre denne typen ting. Her på Statistica snakker vi slags om dette som kjerneanalyse. Gå og hent data, før dataene tilbake til kjernen, behandle dem, legg til mer data om nødvendig eller hvis det er fordelaktig, og gjør analysene dine og del deretter den informasjonen for handling eller for innsikt.

Og så jeg tror at de absolutt er fra et funksjonsmessig synspunkt, vi er nok alle enige om at, du vet, dette er den nødvendige nødvendigheten, og at alle trenger å gjøre dette. Der det begynner å bli litt interessant er der du har enorme datamengder, du vet, fra forskjellige datakilder, som IoT sensorer, som jeg nevnte, enten det er en bil eller sikkerhetskamera eller en produksjonsprosess, det begynner å bli en fordel å kunne gjøre det analytiske der dataene faktisk blir produsert. Og fordelen for folk flest, tror jeg, når vi begynner å flytte den analytiske fra kjernen ut til kanten, er denne evnen til å spre noen av datautfordringene som skjer, og Dez og Robin vil sannsynligvis kommentere dette på slutten i dag, men jeg tror at du må kunne overvåke og iverksette handlinger for data ute i kanten, slik at det ikke alltid er nødvendig å flytte alle dataene over til nettverket ditt. Robin snakket om dette i sine, arkitektoniske bilder han tegnet, der du har alle disse forskjellige kildene, men det er vanligvis et samlingspunkt. Aggregasjonspunktet vi ser ganske ofte er enten på sensornivå, men enda oftere på et gateway-nivå. Og disse portene eksisterer som en formidler i dataflyten fra datakildene før du kommer tilbake til kjernen.

En av mulighetene som Dell Statistica benyttet seg av, er at vår evne til å eksportere en modell fra vår sentraliserte avanserte analyseplattform for å kunne ta en modell og deretter utføre den modellen i utkanten av en annen plattform, som en gateway eller inne av en database, eller hva har du. Og jeg tror at fleksibiliteten som gir oss er det som virkelig er det interessante poenget med dagens samtale. Har du det i infrastrukturen din i dag? Er du i stand til å flytte en analytiker der dataene bor i motsetning til bare å alltid flytte dataene dit den analytikken din bor? Og det er noe Statistica har fokusert på i ganske lang tid, og når du ser nærmere på lysbildene vil du se at det er litt annen teknologi der inne fra søsterselskapet vårt, Dell Boomi. Dell Boomi er en dataintegrasjons- og applikasjonsintegrasjonsplattform i skyen, og vi bruker faktisk Dell Boomi som et menneskehandel for å flytte modellene våre fra Dell Statistica, gjennom Boomi og til andre enheter. Og vi tror at dette er en smidig tilnærming som selskaper kommer til å bli krevende, så mye som de liker den versjonen jeg viste deg for et minutt siden, som er den slags kjerneidee å flytte data fra sensorene helt tilbake til senter, samtidig vil selskaper ønske å kunne gjøre det på den måten som jeg beskriver her. Og fordelene med å gjøre dette er at noen av poengene som både Robin og Dez tok, som er, kan du ta en beslutning og iverksette tiltak i hastigheten på virksomheten din? Kan du flytte analyser fra et sted til et annet og være i stand til å spare deg tid, penger og energi og kompleksitet ved å hele tiden flytte disse kantdataene tilbake til kjernen.

Nå er jeg den første til å si at noen av kantdataene alltid vil være av høy nok fortjeneste der det ville være fornuftig å lagre disse dataene og oppbevare dem og bringe dem tilbake til nettverket ditt, men hvilken kantanalyse vil tillate deg å gjør er evnen til å ta beslutninger med den hastigheten dataene faktisk kommer til, ikke sant? At du er i stand til å anvende innsikten og handlingen på en hastighet der høyest mulig verdi er. Og jeg tror at det er noe vi alle skal se etter når det gjelder å bruke avansert analyse og IoT-data, er denne muligheten til å bevege seg på hastigheten til virksomheten eller den hastigheten kunden krever. Jeg tror vår posisjon er at jeg tror du trenger å kunne gjøre begge deler. Og jeg tror at ganske snart og veldig raskt etter hvert som flere selskaper ser på mer forskjellige datasett, spesielt de fra IoT-siden, vil de begynne å se på leverandørplassen og kreve hva Statistica er i stand til å gjøre. Hvilket er å distribuere en modell i kjernen, slik vi har gjort tradisjonelt i mange år, eller å distribuere den på plattformer som kanskje er utradisjonelle, som en IoT-gateway, og som faktisk kan score og anvende analyser på dataene i utkanten som dataene er produsert. Og jeg tror at det er her den spennende delen av denne samtalen kommer inn. Fordi ved å kunne bruke en analytisk i kanten på det tidspunktet dataene kommer ut av en sensor, kan vi ta grep så raskt som vi trenger, men lar oss også bestemme, trenger disse dataene å gå helt tilbake til kjernen umiddelbart? Kan vi batch det her og så sende det tilbake i deler og dele og analysere senere? Og det er det vi ser mange av våre ledende kunder gjøre.

Måten Dell Statistica gjør dette på, har vi muligheten til å utnytte, så si for eksempel at du bygger et nevralt nettverk i Statistica og du ønsket å plassere det nevrale nettverket et annet sted i datalandskapet. Vi har muligheten til å gi ut modellene og alle språkene du la merke til i høyre hjørne der - Java, PPML, C og SQL og så videre, vi inkluderer også Python og vi kan eksportere skriptene våre også - og når du flytter den fra vår plattform som er sentralisert, kan du deretter distribuere den modellen eller den algoritmen der du trenger den. Og som jeg nevnte tidligere, bruker vi Dell Boomi for å plassere det og parkere det der vi trenger for å kjøre det, og så kan vi bringe resultatene tilbake, eller vi kan hjelpe til med å bringe data tilbake, eller score dataene og iverksette tiltak ved å bruke våre regler motor . Alle disse tingene blir slags viktige når vi begynner å se på denne typen data, og vi tenker nytt.

Dette er noe de fleste av dere på telefonen vil ha et behov for å gjøre fordi det vil bli veldig dyrt og beskatte på nettverket ditt, som Dez nevnte, å flytte data fra venstre for disse diagrammer til høyre for disse diagrammer over tid. Det høres ikke ut som mye, men vi har sett produsentkunder med ti tusen sensorer i fabrikkene sine. Og hvis du har ti tusen sensorer på fabrikken, selv om du bare gjør denne ene i sekundet tester eller signaler, snakker du om åttifire tusen rader med data fra hver av de individuelle sensorene per dag. Og så dataene definitivt hoper seg opp og Robin slags nevnte det. På forhånd nevnte jeg et par av bransjene der vi ser at folk får gjort noen ganske interessante ting ved å bruke programvaren vår og IoT-data: Å bygge automatisering, energi, verktøy er en veldig viktig plass. Vi ser mye arbeid med systemoptimalisering, til og med kundeservice og selvfølgelig total drift og vedlikehold, innen energifasiliteter og innen bygg for automatisering. Og dette er noen brukssaker som vi ser er ganske kraftige.

Vi har utført kantanalyser før, antar jeg at begrepet ble myntet. Som jeg nevnte, har vi dype røtter hos Statistica. Selskapet ble grunnlagt for nesten 30 år siden, så vi har fått kunder til å gå tilbake en god stund som integrerer IoT-data med analysene sine og har holdt på en stund. Og Alliant Energy er en av våre brukssaker eller referansekunder. Og du kan forestille deg problemet et energiselskap har med et fysisk anlegg. Skalering utover murveggene til et fysisk anlegg er vanskelig, og energiselskaper som Alliant leter etter måter å optimalisere energiproduksjonen, i utgangspunktet forbedre produksjonsprosessen og optimalisere den til det høyeste nivået. Og de bruker Statistica for å administrere ovnene i plantene sine. Og for alle oss som går tilbake til våre tidlige dager i naturfagklasse, vet vi alle at ovnene lager varme, varmen får damp, turbinene snurrer, vi får strøm. Problemet for selskaper som Alliant er faktisk å optimalisere hvordan ting varmes opp og brenner i de store syklonovnene. Og optimalisere produksjonen for å unngå ekstrakostnader ved forurensning, karbonfortrengning og så videre. Og så må du være i stand til å overvåke innsiden av en av disse syklonovnene med alle disse enhetene, sensorene, og deretter ta alle disse sensordataene og gjøre endringer i energiprosessen fortløpende. Og det er akkurat det Statistica har gjort for Alliant siden rundt 2007, før til og med begrepet IoT var super populært.

Til Rebeccas poeng tidlig, er dataene absolutt ikke nye. Evnen til å behandle den og bruke den riktig er virkelig der de spennende tingene skjer. Vi har snakket litt om helsehjelp i forkant av samtalen i dag, og vi ser alle slags applikasjoner for folk til å gjøre ting som bedre pasientbehandling, forebyggende vedlikehold, styring av forsyningskjeder og effektivitet i helsevesenet. Og det er ganske pågående, og det er mange forskjellige brukssaker. En som vi er veldig stolte av her hos Statistica er med kunden vår Shire Biopharmaceuticals. Og Shire lager spesialitetsmedisiner for veldig vanskelige å behandle sykdommer. Og når de lager en mengde medisiner for kundene sine, er det en ekstremt kostbar prosess, og den ekstremt dyre prosessen tar også tid. Når du tenker på en produksjonsprosess når du ser at utfordringene er å forene alle dataene, være fleksible nok på tvers av forskjellige måter å sette data inn i systemet, validere informasjonen og deretter kunne være forutsigbare om hvordan vi hjelper den kunden. Og prosessene som trakk mesteparten av informasjonen fra våre produksjonssystemer og selvfølgelig enhetene og sensorene som driver disse produksjonssystemene. Og det er en flott brukssak for hvordan bedrifter unngår tap og optimaliserer sine produksjonsprosesser ved å bruke en kombinasjon av sensordata, IoT-data og vanlige data fra prosessene sine.

Så du vet, et godt eksempel på hvor industri, og spesielt høyteknologisk produksjon, kommer helsevesenet til gode rundt denne typen arbeid og data. Jeg tror jeg har bare et par andre poeng jeg vil gjøre før jeg pakker det opp og gir det tilbake til Dez og Robin. Men du vet, jeg tror at denne ideen om å kunne skyve den analytiske hvor som helst i miljøet ditt er noe som kommer til å bli ekstremt viktig for de fleste selskaper. Å være bundet til det tradisjonelle formatet av ETL-ing-data fra kilder tilbake til sentrale steder vil alltid ha en plass i strategien din, men bør ikke være din eneste strategi. Du må ta en mye mer fleksibel tilnærming til ting i dag. For å bruke sikkerheten jeg nevnte, unngå å beskatte nettverket ditt, for å kunne administrere og filtrere dataene når det kommer fra kanten, og bestemme hvilke data som er verdt å holde på lang sikt, hvilke data som er verdt å flytte over til vårt nettverk, eller hvilke data som bare trenger å analyseres på det tidspunktet de opprettes, for at vi skal ta de best mulige beslutningene. Dette overalt og hvor som helst analytisk tilnærming er noe vi tar veldig til grunn ved Statistica, og det er noe vi er veldig dyktige på. Og det går tilbake til en av disse lysbildene jeg nevnte tidligere, muligheten til å eksportere modellene dine på en rekke språk, slik at de kan samsvare og samsvare med plattformene der dataene blir laget. Og selvfølgelig å ha et distribusjonsapparat for de modellene, som også er noe vi bringer til bordet, og som vi er veldig glade for. Jeg tror at samtalen i dag er, hvis vi virkelig kommer til å bli seriøse med disse dataene som har vært i systemene våre i lang tid, og vi ønsker å finne et konkurransefortrinn og en innovativ vinkel for å utnytte dem, må du søke litt teknologi for det som lar deg komme vekk fra noen av de restriktive modellene som vi har brukt tidligere.

Igjen, poenget mitt er at hvis du skal gjøre IoT, tror jeg at du må kunne gjøre det i kjernen, og ta dataene inn og matche dem med andre data og gjøre analysene dine. Men også, like viktig eller kanskje enda viktigere, er det at du må ha denne fleksibiliteten til å legge analysen med dataene og flytte den analytiske fra den sentrale siden av arkitekturen din ut til kanten for fordelene som jeg har nevnt før. Det handler litt om hvem vi er og hva vi gjør på markedet. Og vi er veldig begeistret for IoT, vi tror det definitivt kommer til å bli gammel, og det er store muligheter for alle her til å påvirke analysene og kritiske prosessene med denne typen data.

Rebecca Jozwiak: Shawn, tusen takk, det var en virkelig fantastisk presentasjon. Og jeg vet at Dez sannsynligvis dør for å stille deg noen spørsmål, så Dez, jeg lar deg gå først.

Dez Blanchfield: Jeg har en million spørsmål, men jeg skal inneholde meg fordi jeg vet at Robin også vil ha det. En av tingene jeg ser vidt og bredt er et spørsmål som dukker opp, og jeg er virkelig opptatt av å få litt innsikt i opplevelsen din i dette gitt at du er midt i tingenes ting. Organisasjoner sliter med utfordringen, og ser ut til at noen av dem nettopp har lest slike som Klaus Schwabs “Den fjerde industrielle revolusjon” og deretter hatt et panikkanfall. Og de som ikke er kjent med denne boken, det er egentlig et innblikk av herrer, av Klaus Schwab, som jeg tror er professor, som er grunnlegger og utøvende styreleder for World Economic Forum fra hukommelsen, og boken handler egentlig om hele denne allestedsnærværende internett-tingenes eksplosjon og noe av innvirkningen på verden generelt. Organisasjoner jeg snakker med er usikre på om de skal gå og ettermontere dagens miljø eller investere alt i å bygge alt nytt miljø, infrastruktur og plattformer. I Dell Statistica, ser du også mennesker ettermontere nåværende miljøer og distribuere plattformen din ut i eksisterende infrastruktur, eller ser du dem forskyve fokuset for å bygge all ny infrastruktur og forberede seg på denne floden?

Shawn Rogers: Du vet, vi har hatt muligheten til å betjene begge typer kunder og å være i markedet så lenge vi har det, du får de mulighetene til å gå vidt. Vi har kunder som har laget helt nye fab-planter de siste par årene og utstyrt dem med sensordata, IoT, analyse fra kanten, til ende gjennom hele prosessen. Men jeg må si at de fleste av kundene våre er mennesker som har utført denne typen arbeid en stund, men har blitt tvunget til å ignorere disse dataene. Du vet, Rebecca gjorde poenget helt foran - dette er ikke nye data, denne typen informasjon har vært slags tilgjengelig i mange forskjellige formater i veldig lang tid, men hvor problemet hadde vært å koble til den, flytte den, bringe den et sted der du kan få noe smart gjort med det.

Og så vil jeg si at de fleste av kundene våre ser på hva de har i dag, og Dez, du har gjort dette poenget før, at dette er en del av den store datarevolusjonen, og jeg tror det det egentlig handler om, er at det handler om alt datarevolusjon, ikke sant? Vi trenger ikke å ignorere visse systemdata eller produksjonsdata eller bygge automatiseringsdata lenger, vi har nå de rette lekene og verktøyene for å få tak i det og deretter gjøre smarte ting med det. Og jeg tror at det er mange drivere i dette rommet som gjør det til å skje, og noen av dem er teknologiske. Du vet, de store datainfrastrukturløsningene som Hadoop og andre har gjort det litt rimeligere og litt lettere for noen av oss å tenke på å lage en datasjø av den typen informasjon. Og vi ser nå rundt bedriften for å gå, "Hei, vi har analyser i produksjonsprosessen vår, men ville de blitt forbedret hvis vi kunne legge til litt innsikt fra disse prosessene?" Og det er, tror jeg, hva mest av våre kunder gjør det. Det er ikke så mye å lage fra grunnen av, men å forbedre og optimalisere analysen de allerede har med data som er nye for dem.

Dez Blanchfield: Ja, det er noen spennende ting som kommer gjennom noen av de største næringene vi har sett, og du nevnte, kraften og verktøyene. Luftfart er bare å gå gjennom denne bommen der et av favorittapparatene mine hele tiden som jeg snakker om regelmessig, Boeing 787 Dreamliner, og absolutt Airbus-ekvivalent, A330 har gått samme vei. Det var som seks tusen sensorer i 787 da den først ble utgitt, og jeg tror de nå snakker om femten tusen sensorer i den nye versjonen av den. Og det merkelige med å snakke med noen av folket som er i den verdenen var at ideen om å sette sensorer i vingene og så videre, og det fantastiske med 787 i en designplattform, er at du vet at de gjenoppfant alt i flyet. Som vingene, for eksempel når flyet tar av vingene bøyer seg opp til tolv og en halv meter. Men i ytterpunktene kan vingene bøye seg i spissen opp til 25 meter. Denne tingen ser ut som en fugl som klaffer. Men det de ikke hadde tid til å fikse var prosjektering av analysen av alle disse dataene, så de har sensorer som får lysdioder til å blinke grønt og rødt hvis noe dårlig skjer, men de ender faktisk ikke med dyp innsikt i sanntid. Og de løste heller ikke problemet med hvordan man flytter datamengden fordi det i det hjemlige luftrommet i USA til daglig er 87.400 flyreiser. Når hvert fly innhenter sine kjøp av en 787 Dreamliner, er det 43 petabyte om dagen med data, fordi disse flyene for øyeblikket lager omtrent en halv terabyte med data hver. Og når du multipliserer de 87 400 flyreiser om dagen innenlands i USA med punkt fem eller en halv terabyte, ender du opp med 43, 5 petabyte med data. Vi kan fysisk ikke flytte det rundt. Så med design må vi skyve analysene ut i enheten.

Men en av tingene som er interessante når jeg ser på hele denne arkitekturen - og jeg er opptatt av å se hva du synes om dette - er at vi har beveget oss mot master data management, slags første prinsipper for datahåndtering, trekke alt til en sentral beliggenhet. Vi har datasjøer, og så lager vi små datadammer om du vil, utdrag av det som vi gjør analyse på, men ved å distribuere til kanten, er noe av det som fortsetter å komme opp, spesielt fra databasefolk og databehandlere eller hva som driver med å administrere informasjon, er det hva som skjer når jeg har mange distribuerte små miniatyrdatasjøer? Hva slags ting har blitt brukt på denne tankegangen med hensyn til kantanalyse i din løsning, i og med at alt tradisjonelt sett ville komme sentralt med datasjøen, nå ender vi opp med disse små sølepuddene overalt, og selv om vi kan utføre analyser av dem lokalt for å få litt lokal innsikt, hva er noen av utfordringene du har møtt og hvordan du har løst det, har det distribuerte datasettet, og spesielt når du får mikrokosmos av datasjøer og distribuerte områder?

Shawn Rogers: Det tror jeg er en av utfordringene, ikke sant? Når vi går bort fra, vet du, å transportere alle dataene tilbake til sentrumsplassen eller kjerneanalytisk eksempel som jeg ga, og så gjør vi den distribuerte versjonen er at du ender opp med alle disse små siloene, ikke sant? Akkurat som du skildret, ikke sant? De gjør litt arbeid, noen analyser kjører, men hvordan bringer du dem sammen igjen? Og jeg tror at nøkkelen kommer til å være orkestrering på tvers av alt dette, og jeg tror at dere vil være enige med meg, men jeg er glad hvis dere ikke gjør det, at jeg tror at vi har fulgt denne utviklingen ganske lenge litt tid.

Gå tilbake til dagene til våre venner Mr. Inmon og Mr. Kimball som hjalp alle med arkitekturen av de tidlige datavarehusinvesteringene, og poenget var at vi har gått bort fra den sentraliserte modellen i lang tid. Vi har tatt i bruk denne nye ideen om å la dataene vise sin alvorlighetsgrad for hvor de best skal ligge inne i økosystemet ditt og samkjøre dataene med en best mulig plattform for best mulig resultat. Og jeg har begynt å bruke litt på en mer orkestrert tilnærming til økosystemet vårt som en overordnet slags måte å gjøre ting på, og det er der vi prøver å innrette alle disse brikkene på en gang. Hva slags analytisk eller arbeid skal jeg gjøre med dataene, hvilken type data er det, som vil hjelpe til med å diktere hvor de skal bo. Hvor produseres den og hvilken type tyngdekraft har dataene?

Du vet, vi ser mange av disse big data-eksemplene der folk snakker om å ha 10- og 15-petabyte datasjøer. Vel, hvis du har en datasjø som er så stor, er det veldig upraktisk for deg å flytte det, og så må du kunne bringe analyser til det. Men når du gjør det, til kjernen i spørsmålet ditt, tror jeg det gir mange nye utfordringer for alle å orkestrere miljøet og anvende styring og sikkerhet, og forstå hva som må gjøres med disse dataene for å sammenligne dem og få den høyeste verdien ut av det. Og for å være ærlig med deg - vil jeg gjerne høre din mening her - jeg tror vi er tidlige dager der, og jeg synes det er mye bra arbeid ennå. Jeg tror programmer som Statistica fokuserer på å gi flere tilgang til data. Vi er definitivt fokusert på disse nye personlighetene som innbygger dataforsker som ønsker å føre prediktiv analyse til steder i organisasjonen som det kanskje ikke hadde vært før. Og jeg tror at det er noen av de første dagene rundt dette, men jeg tror modenhetsbuen vil måtte demonstrere et høyt nivå eller orkestrering og justering mellom disse plattformene, og en forståelse av hva som er på dem og hvorfor. Og det er et eldgamelt problem for oss alle datafolk.

Dez Blanchfield: Det er faktisk det, og jeg er helt enig med deg i det, og jeg tror at det gode vi hører her i dag, i det minste er frontenden av problemet med å faktisk fange dataene på, antar jeg, gateway-nivå i kanten av nettverket og muligheten til å gjøre analyser på det tidspunktet er i hovedsak løst nå. Og det frigjør oss nå til å faktisk begynne å tenke på neste utfordring, som er distribuerte datasjøer. Tusen takk for det, det var en fantastisk presentasjon. Jeg setter stor pris på sjansen til å chatte med deg om det.

Jeg skal over til Robin nå fordi jeg vet at han har det, og da fikk Rebecca også en lang liste med gode spørsmål fra publikum etter Robin. Robin?

Dr. Robin Bloor: OK. Shawn, jeg vil at du skal si litt mer, og jeg prøver ikke å gi deg sjansen til å annonsere det, men det er faktisk veldig viktig. Jeg er interessert i å vite på hvilket tidspunkt Statistica faktisk genererte modelleksporten. Men jeg vil også at du skal si noe om Boomi fordi alt det du har sagt så langt om Boomi er at det er ETL, og det er faktisk ETL. Men det er faktisk veldig kapabel ETL, og for den type tidspunkter vi snakker om, og noen av situasjonene vi diskuterer her, er det en veldig viktig ting. Kan du snakke med de to tingene for meg?

Shawn Rogers: Ja, det kan jeg absolutt. Du vet, bevegelsen vår i denne retningen var absolutt iterativ, og det var en slags trinnvis prosess. Vi er bare klar til å lansere versjon 13.2 av Statistica. Og den har de nyeste oppdateringene av alle funksjonene vi snakker om i dag. Men tilbake til versjon 13, for et år siden oktober, kunngjorde vi vår evne til å eksportere modeller fra plattformen vår, og vi kalte det NDAA den gangen. Forkortelsen sto for Native Distributed Analytics Architecture. Det vi gjorde er at vi legger mye tid, energi og fokus på å åpne vår plattform med muligheten til å bruke den som et sentralt kommandosenter for avansert analyse, men også å distribuere derfra. Og de første stedene, Robin, som vi distribuerte, gjorde vi et virkelig, virkelig flott tillegg til plattformen rundt maskinlæring. Og derfor hadde vi muligheten til å distribuere fra Statistica til Microsofts Azure Cloud for å bruke kraften fra Azure til å drive maskinlæring, som du vet, er veldig intensiv og det er en flott måte å bruke skyteknologier på. Og så det var den første biten.

Nå eksporterte vi modellene til Azure og brukte Azure til å kjøre dem og deretter sende dataene, eller resultatene, tilbake til Statistica-plattformen. Og så gikk vi videre til andre språk som vi ønsket å kunne eksportere fra, og selvfølgelig et av dem som Java, åpner opp døra for at vi nå kan begynne å eksportere modellene våre ut til andre steder som Hadoop, så da ga det oss et skuespill der også.

Og til slutt fokuserte vi på å kunne produsere modellene våre med den utgaven til databaser. Og så det var den første iterasjonen, og for å være ærlig med deg, var sluttspillet IoT, men vi var ikke helt der ennå med versjon 13 i oktober i fjor. Siden har vi kommet dit, og det har å gjøre med evnen til å gjøre alle tingene jeg nettopp nevnte, men for så å ha et slags transportmiddel. Og går tilbake til Dezs spørsmål om, du vet, hva er utfordringen, og hvordan gjør vi dette når vi har alle disse analysene løpende rundt? Vel, vi bruker Boomi som et slags distribusjonsnav, og fordi det er i skyen og fordi det er så kraftig, som jeg nevnte før, er det en dataintegrasjonsplattform, men det er også en applikasjonsintegrasjonsplattform, og den bruker JVMer for å tillate oss å parkere og jobbe hvor som helst som du kan lande en virtuell Java-maskin. Det er det som virkelig svingte døren for alle disse gatewayene og edge computing-plattformene og kantservere, fordi alle av dem har databehandlingen og plattformen som er tilgjengelig for å kjøre en JVM i. Og fordi vi kan kjøre JVM hvor som helst, har Boomi snudd ut for å være en fantastisk distribusjon og, ved å bruke mitt ord fra tidligere, et orkestreringsapparat.

Og dette blir veldig viktig fordi vi alle vet, jeg tror flyscenariet for et øyeblikk siden var bra, og jeg nevnte, du vet, produsenter som Shire som har ti tusen sensorer i en av fabrikkene sine, du må begynne å ta opp den sentrale tilnærmingen til avansert analyse på et tidspunkt. Å være ad hoc om det, fungerer egentlig ikke lenger. Det pleide når volumet av modeller og algoritmer som vi kjørte var minimalt, men nå er det på det maksimale. Det er tusenvis av dem i en organisasjon. Så det har vi, en del av plattformen vår er serverbasert, og når du har enterprise-programvaren, har du også muligheten til å finpusse og score og administrere modellene dine i miljøet. Og det er også en del av den orkestrasjonstingen. Vi trengte å ha et lag, Robin, på plass som ikke bare tillot deg å få en modell der i utgangspunktet, men også ga deg en kanal til å finjustere modellene og erstatte dem løpende så ofte du trenger, fordi dette er ikke noe du kan gjøre manuelt. Du kan ikke gå rundt et raffineri med en tommelstasjon for å prøve å laste opp modeller til portene. Du må ha et transport- og styringssystem i mellom, og så gir kombinasjonen av Statistica og Boomi det til våre kunder.

Dr. Robin Bloor: Ja. Vel, jeg vil være veldig kort, men du vet, dette utsagnet som ble gitt før om datasjøen og ideen om å samle petabytes på et gitt sted, og det faktum at den har tyngdekraft. Når du begynte å snakke om orkestrering, begynte det bare å få meg til å tenke på det veldig enkle faktum at du vet at å sette en datasjø som er veldig stor på ett sted, sannsynligvis betyr at du faktisk må sikkerhetskopiere den, og det betyr sannsynligvis at du må flytte mye av dataene uansett. Du vet, den virkelige dataarkitekturen er etter min mening uansett mye mer i den retningen du snakker om. Som er å distribuere det til fornuftige steder, er sannsynligvis det jeg vil si. Og det ser ut som om du har en veldig god evne til å gjøre dette. Jeg mener, jeg er godt orientert om Boomi, så det er på en eller annen måte nesten urettferdig at jeg kan se det og kanskje ikke publikum kan gjøre det. Men Boomi er etter mitt syn så viktig med tanke på hva du gjør fordi den har applikasjonsmuligheter. Og også fordi sannheten i saken er at du ikke gjør disse analytiske beregningene uten å ville handle noe sted av en eller annen grunn. Og Boomi spiller en rolle i det, ikke sant?

Shawn Rogers: Ja, absolutt. Og slik du vet fra tidligere samtaler, har Statistica en fullstendig blåst forretningsregler. Og jeg tror at det er veldig viktig når vi får vite hvorfor vi gjør dette. Du vet, jeg spøkte på forhånd at det egentlig ikke er noen grunn til å gjøre IoT i det hele tatt med mindre du skal analysere, bruke dataene for å ta bedre beslutninger eller iverksette tiltak. Og det vi fokuserte på var ikke bare å kunne sette modellen der ute, men å kunne kode sammen med den, et regelverk. Og fordi Boomi er så robust i sine evner til å flytte ting fra et sted til et annet, i et Boomi-atom kan vi også legge inn evnen til å utløse, varsle og iverksette tiltak.

Og det er der vi begynner å få den slags sofistikerte visningen av IoT-data der vi sier: "OK, disse dataene er verdt å lytte til." Men du vet virkelig at "lyset er på, lyset er på, lyset er på, lyset er på ”er ikke så interessant når det gjelder lyset slukkes eller når røykvarsleren slukkes eller når det som skjer med vår produksjonsprosess går ut av spesifikasjoner. Når det skjer vil vi være i stand til å iverksette umiddelbare tiltak. Og dataene blir nesten sekundære her på dette tidspunktet. Fordi det ikke er så viktig at vi reddet alle disse, "det er greit, det er greit, det er greit" -signalene, det som er viktig er at vi legger merke til "Hei, det er dårlig" og vi tok øyeblikkelig tiltak. Enten det er å sende en e-post til noen, eller om vi kan involvere domenekompetanse, eller om vi setter av en rekke andre prosesser for å iverksette øyeblikkelig handling, enten det er korrigerende eller som svar på informasjonen. Og jeg tror at det er grunnen til at du må ha dette orkestrerte synet på det. Du kan ikke bare fokusere på å håndtere algoritmene dine overalt. Du må kunne koordinere og orkestrere dem. Du må kunne se hvordan de presterer. Og egentlig, viktigst av alt, mener jeg, hvorfor pokker ville du gjort dette hvis du ikke kan legge til muligheten til å iverksette umiddelbare tiltak mot dataene?

Dr. Robin Bloor: Ok, Rebecca, jeg tror du har spørsmål fra publikum?

Rebecca Jozwiak: Det gjør jeg. Jeg har massevis av publikumsspørsmål. Shawn, jeg vet at du ikke ville henge på for lenge forbi toppen av timen. Hva tror du?

Shawn Rogers: Jeg er fornøyd. Gå videre. Jeg kan svare på noen få.

Rebecca Jozwiak: La oss se. Jeg vet at en av tingene du nevnte var at IoT er i de første dagene, og det har en modenhetsgrad som må finne sted, og det snakker slags til dette spørsmålet en deltaker spurte. Hvis IPv6-rammeverket skal være robust nok til å imøtekomme veksten av IoT de neste fem eller ti årene?

Shawn Rogers: Å, jeg kommer til å la Dez gjengi svaret mitt, fordi jeg tror han er nærmere denne typen informasjon som jeg er. Men jeg har alltid trodd at vi er på et veldig raskt spor for å bøye og bryte de fleste rammene vi har på plass. Og selv om jeg synes at tillegg av den nye typen spesifikasjoner eller retningen vi går med IPv6-rammer er viktig, og det åpner for at vi kan ha mange flere enheter, og for å kunne gi alt det vi ønsker å oppgi en adresse. Jeg tror at alt jeg leser og ser med kundene mine, og antall adresser som kreves, tror jeg på et tidspunkt vil føre til et nytt skifte i det landskapet. Men jeg er egentlig ikke nettverksekspert, så jeg kan ikke si hundre prosent at vi kommer til å bryte det på et tidspunkt. Men min erfaring forteller meg at vi kommer til å forstyrre den modellen på et tidspunkt.

Rebecca Jozwiak: Jeg ville ikke bli overrasket. Jeg tror rammer er litt for å bryte under tyngden av alle slags ting. Og det er bare logisk, ikke sant? Jeg mener, du kan ikke sende en e-post med en skrivemaskin. En annen deltaker spør: "Kan du bruke et Hadoop-rammeverk?", Men jeg antar at jeg kan endre det for å si, hvordan vil du bruke et Hadoop-rammeverk for distribuert analyse?

Shawn Rogers: Vel, Robin gjorde meg fordel av å stille meg et historisk spørsmål, og siden versjon 13 for omtrent ett år siden for Statistica, har vi hatt muligheten til å drive modeller ut av systemet vårt og inn i Hadoop. Og vi jobber veldig tett med alle de store smakene fra Hadoop. Vi har virkelig gode suksesshistorier rundt muligheten til å jobbe med Cloudera som en av de viktigste Hadoop-distribusjonene som vi jobber med. Men fordi vi kan produsere i Java, gir det oss denne muligheten til å være åpen og plassere analysene våre hvor som helst. Å plassere dem i en Hadoop-klynge er noe vi gjør på en normal og regelmessig og daglig basis for mange av våre kunder. Det korte svaret er ja, absolutt.

Rebecca Jozwiak: Utmerket. Og jeg skal bare kaste en til deg og la deg fortsette med ferien. En annen deltaker spør med IoT analytics pluss maskinlæring, tror du at alle data må lagres for historiske formål, og hvordan vil det påvirke løsningsarkitekturen?

Shawn Rogers: Vel, jeg tror ikke at alle data må lagres. Men jeg synes det er veldig interessant å ha muligheten til å underholde, lytte til hvilken datakilde vi ønsker i organisasjonen vår, uansett hvor den kommer fra. Og jeg tror at endringene vi har sett på markedet i løpet av de siste årene, har gjort det mulig for oss å ta den all-data tilnærmingen til ting, og det ser ut til å være virkelig slags lønnsom. Men det kommer til å være annerledes for hvert selskap og enhver brukssak. Du vet, når vi ser på helsedata, er det nå mange lovgivningsmessige problemer, mange overholdelsesproblemer å være bekymret for, og det gjør at vi lagrer data som andre selskaper kanskje ikke forstår hvorfor det må lagres, ikke sant ? For mange av våre produsentkunder er det en virkelig oppside for å kunne undersøke prosessene dine og kunne se tilbake på store mengder av disse dataene for å lære av den og bygge bedre modeller fra dem.

Jeg tror at mye av dataene må oppbevares, og jeg tror vi har løsninger som gjør det mer økonomisk og skalerbart i dag. Men samtidig tror jeg at hvert selskap vil finne verdi i data som de ikke trenger å holde på et atomnivå, men de vil ønske å analysere på en sanntids måte og ta beslutninger om det for å drive innovasjon innen deres selskap.

Rebecca Jozwiak: OK bra. Nei, publikum, jeg kom ikke til alles spørsmål i dag, men jeg vil sende dem videre til Shawn slik at han kan nå deg direkte og svare på disse spørsmålene. Men takk alle sammen for å delta. Tusen takk til Shawn Rogers fra Dell Statistica og fra alle våre analytikere, Dez Blanchfield og Dr. Robin Bloor. Du kan finne arkivet her på insideanalysis.com, SlideShare, vi har begynt å legge igjen tingene våre der oppe, og vi gjenoppretter vår YouTube, så se etter det også. Takk så mye folkens. Og med det skal jeg ta farvel med deg, så ses vi neste gang.

Edge analytics: iot-økonomien til slutt