Q:
Hvordan kan ingeniører bruke gradient boosting for å forbedre maskinlæringssystemene?
EN:Som andre typer boosting, søker gradient boosting å gjøre flere svake elever til en enkelt sterk elev, i en slags digital "crowddsourcing" av læringspotensial. En annen måte som noen forklarer gradient boosting er at ingeniører legger til variabler for å finjustere en vag ligning, for å gi mer presise resultater.
Gradient boosting blir også beskrevet som en "iterativ" tilnærming, med iterasjonene muligens karakterisert som tilskudd av individuelle svake elever til en enkelt sterk elevmodell.
Gratis nedlasting: Machine Learning og Why It Matters |
Her er en overbevisende beskrivelse av hvordan du ser på en type gradient boosting implementering som vil forbedre maskinens læringsresultater:
Systemadministratorene satte først opp et sett med svake elever. Tenk på dem, for eksempel som en rekke enheter AF, der hver satt rundt et virtuelt bord og jobbet med et problem, for eksempel binærbildeklassifisering.
I eksemplet over vil ingeniørene først vekt på hver svake elev, eventuelt vilkårlig, tilordne et innflytelsesnivå til A, B, C, etc.
Deretter kjører programmet et gitt sett med treningsbilder. Når resultatene blir gitt, vil den deretter vekt på rekken av svake elever. Hvis A gjettet mye bedre enn B og C, vil As innflytelse bli økt tilsvarende.
I denne forenklede beskrivelsen av en forbedring av algoritmeforbedring er det relativt enkelt å se hvordan den mer komplekse tilnærmingen vil gi forbedrede resultater. De svake elevene "tenker sammen" og optimaliserer igjen et ML-problem.
Som et resultat kan ingeniører bruke "ensemble" -tilnærmingen for gradient boosting i nesten alle slags ML-prosjekter, fra bildegjenkjenning til klassifisering av brukeranbefalinger, eller analyse av naturlig språk. Det er egentlig en "lagånd" tilnærming til ML, og en som får mye oppmerksomhet fra noen kraftige spillere.
Spesielt gradient boosting fungerer ofte med en differensierbar tapsfunksjon.
I en annen modell som brukes til å forklare gradient boosting, er en annen funksjon av denne typen boosting å være i stand til å isolere klassifiseringer eller variabler som i et større bilde bare er støy. Ved å skille hver variabels regresjonstreet eller datastrukturen i domenet til en svak elev, kan ingeniører bygge modeller som mer nøyaktig vil "lyde ut" støymerker. Med andre ord, signifikanten som dekkes av den uheldige svake eleven, blir marginalisert ettersom den svake eleven vektes nedover og får mindre innflytelse.