Q:
Hvorfor kjøper selskaper GPU-er til maskinlæring?
EN:Hvis du leser om maskinlæring, hører du sannsynligvis mye om bruken av grafikkbehandlingsenheter eller GPUer i maskinlæringsprosjekter, ofte som et alternativ til sentrale prosesseringsenheter eller CPUer. GPUer brukes til maskinlæring på grunn av spesifikke egenskaper som gjør dem bedre tilpasset maskinlæringsprosjekter, spesielt de som krever mye parallell prosessering, eller med andre ord samtidig behandling av flere tråder.
Gratis nedlasting: Machine Learning og Why It Matters |
Det er mange måter å snakke om hvorfor GPU-er har blitt ønskelig for maskinlæring. En av de enkleste måtene er å kontrastere det lille antall kjerner i en tradisjonell CPU med mye større antall kjerner i en typisk GPU. GPU-er ble utviklet for å forbedre grafikk og animasjon, men er også nyttige for andre typer parallell prosessering - blant dem maskinlæring. Eksperter påpeker at selv om de mange kjernene (noen ganger dusinvis) i en typisk GPU har en tendens til å være enklere enn færre kjerner på en CPU, fører det til et større antall kjerner til bedre parallell prosesseringsevne. Dette stemmer overens med den lignende ideen om “ensemble learning” som diversifiserer den faktiske læringen som foregår i et ML-prosjekt: Den grunnleggende ideen er at større antall svakere operatører vil utkonkurrere mindre antall sterkere operatører.
Noen eksperter vil snakke om hvordan GPU-er forbedrer gjennomstrømning av flytende punkt eller bruker dyseoverflater effektivt, eller hvordan de rommer hundrevis av samtidige tråder i behandlingen. De kan snakke om benchmarks for dataparallalisme og grenavvik og andre typer arbeid som algoritmer gjør støttet av parallelle behandlingsresultater.
En annen måte å se på populær bruk av GPUer i maskinlæring er å se på spesifikke maskinlæringsoppgaver.
I utgangspunktet har bildebehandling blitt en viktig del av dagens maskinlæringsindustri. Det er fordi maskinlæring er godt egnet til å behandle de mange typene funksjoner og pikselkombinasjoner som utgjør bildeklassifiseringsdatasett, og hjelper maskinen å trene opp til å gjenkjenne mennesker eller dyr (dvs. katter) eller gjenstander i et visuelt felt. Det er ikke tilfeldig at CPU-er ble designet for animasjonsbehandling, og nå ofte brukes til bildebehandling. I stedet for å gjengi grafikk og animasjon, brukes de samme flertrådede mikroprocessorene med høy kapasitet for å evaluere grafikken og animasjonen for å få nyttige resultater. Det vil si at i stedet for bare å vise bilder, ser datamaskinen "bilder" - men begge oppgavene fungerer på samme visuelle felt og veldig like datasett.
Med det i bakhodet er det lett å se hvorfor selskaper bruker GPU-er (og verktøy på neste nivå som GPGPU-er) for å gjøre mer med maskinlæring og kunstig intelligens.