Q:
Hvorfor kjøre maskinlæring (ML) på en lokal maskin og deretter kjøre jevnlig utførelse på en server?
EN:Spørsmålet om hvordan man strukturerer et maskinlæringsprosjekt og dets tog- og testfaser har mye å gjøre med hvordan vi beveger oss gjennom ML-livssyklusen og fører programmet fra et treningsmiljø til et produksjonsmiljø.
En av de enkleste grunnene til å bruke ovennevnte modell for å sette ML-opplæring på en lokal maskin og deretter flytte utførelse til et serverbasert system, er fordelen med essensiell arbeidsavdeling. Generelt vil du at treningssettet skal isoleres, slik at du har et klart bilde av hvor trening starter og stopper, og hvor testing begynner. Denne KDNuggets-artikkelen snakker om prinsippet på en grov type måte, mens den også går gjennom noen av de andre grunnene til å isolere treningssett på en lokal maskin. Et annet grunnleggende verdiforslag for denne modellen er at du, med opplærings- og testsett på veldig forskjellige arkitekturer, aldri vil bli forvirret om tildeling av fellestog / test!
En annen interessant fordel har å gjøre med cybersikkerhet. Eksperter påpeker at hvis du har de første togprosessene på en lokal maskin, trenger det ikke å være koblet til internett! Dette utvider sikkerheten på en grunnleggende måte, og "inkuberer" prosessen til den treffer produksjonsverdenen, hvor du da må bygge tilstrekkelig sikkerhet i servermodellen.
I tillegg kan noen av disse “isolerte” modellene hjelpe med problemer som konseptdrift og skjulte kontekster - prinsippet om “ikke-stasjonalitet” advarer utviklere om at data ikke “forblir de samme” over tid (avhengig av hva som måles) og at det kan kreves mye tilpasningsevne for å få en testfase til å matche en togfase. Eller i noen tilfeller smelter tog- og testprosessene sammen og skaper forvirring.
Å distribuere testfasen på en server for første gang kan gjøre det mulig med forskjellige "black box" -modeller der du løser problemet med datatilpasningsevne. I noen tilfeller eliminerer det den overflødige prosessen med å legge endringsordrer på flere plattformer.
Da serverer servermiljøet åpenbart sanntids- eller dynamiske prosesser der ingeniører ønsker å få tilgang til dataoverføringen og kodemodellene som fungerer best for produksjon i ML. For eksempel kan AWS Lambda være et attraktivt alternativ for å håndtere mikrofunksjonene i produksjonen (eller en kombinasjon av Lambda og S3 objektlagring) og uten tilkobling (uten server) som blir umulig.
Dette er noen av problemene utviklerne kan tenke på når de vurderer hvordan de skal dele opp trening ML-faser fra testing og produksjon.