Innholdsfortegnelse:
Definisjon - Hva betyr AdaBoost?
AdaBoost er en type algoritme som bruker en ensemble læring tilnærming for å vekt på forskjellige innganger. Det ble designet av Yoav Freund og Robert Schapire på begynnelsen av det 21. århundre. Det har nå blitt noe av en go-to-metode for forskjellige typer boosting i maskinlæringsparadigmer.
Techopedia forklarer AdaBoost
Eksperter snakker om AdaBoost som en av de best vektede kombinasjonene av klassifiserere - og en som er følsom for støy og bidrar til visse maskinlæringsresultater. Noe forvirring resultater fra virkeligheten at AdaBoost kan brukes med flere forekomster av samme klassifiserer med forskjellige parametere - der fagfolk kan snakke om at AdaBoost "bare har en klassifiserer" og blir forvirret om hvordan vekting skjer.
AdaBoost presenterer også en spesiell filosofi innen maskinlæring - som et ensemble-læringsverktøy går det ut fra den grunnleggende ideen at mange svake elever kan få bedre resultater enn en sterkere læringsenhet. Med AdaBoost lager eksperter på maskinlæring ofte systemer som vil ta inn en rekke innganger og kombinere dem for et optimalisert resultat. Noen tar denne ideen i ytterligere grad, og snakker om hvordan AdaBoost kan kommandere "hærer av beslutningsstubber" som i hovedsak er mindre sofistikerte elever som er ansatt i stort antall for å knuse data der denne tilnærmingen er gunstig sett over å bruke en enkelt klassifiserer.
