Hjem Audio Hva er "presisjon og tilbakekalling" i maskinlæring?

Hva er "presisjon og tilbakekalling" i maskinlæring?

Anonim

Q:

Hva er "presisjon og tilbakekalling" i maskinlæring?

EN:

Det er en rekke måter å forklare og definere "presisjon og tilbakekalling" i maskinlæring. Disse to prinsippene er matematisk viktige i generative systemer, og konseptuelt viktige, på viktige måter som involverer AIs innsats for å etterligne menneskelig tanke. Tross alt bruker folk "presisjon og tilbakekalling" i nevrologisk evaluering, også.

En måte å tenke på presisjon og tilbakekalling i IT er å definere presisjon som sammenslåing av relevante elementer og hentede elementer over antall hentede resultater, mens tilbakekalling representerer forening av relevante elementer og hentede elementer over totalt relevante resultater.

En annen måte å forklare det på er at presisjon måler den delen av positive identifikasjoner i et klassifiseringssett som faktisk var riktig, mens tilbakekalling representerer andelen faktiske positive som ble identifisert riktig.

Disse to beregningene påvirker ofte hverandre i en interaktiv prosess. Eksperter bruker et system for å merke sanne positive, falske positive, sanne negativer og falske negativer i en forvirringsmatrise for å vise presisjon og tilbakekalling. Endring av klassifiseringsgrensen kan også endre utdata når det gjelder presisjon og tilbakekalling.

En annen måte å si det på er at tilbakekalling måler antall riktige resultater, delt på antall resultater som burde vært returnert, mens presisjon måler antall riktige resultater delt på antall alle resultatene som ble returnert. Denne definisjonen er nyttig, fordi du kan forklare tilbakekalling som antall resultater et system kan "huske", mens du kan kjenne presisjon som effektivitet eller målrettet suksess med å identifisere disse resultatene. Her kommer vi tilbake til hva presisjon og tilbakekalling betyr i generell forstand - evnen til å huske gjenstander, kontra evnen til å huske dem riktig.

Den tekniske analysen av sanne positive, falske positive, sanne negativer og falske negativer er ekstremt nyttig i maskinlæringsteknologier og evaluering, for å vise hvordan klassifiseringsmekanismer og maskinlæringsteknologier fungerer. Ved å måle presisjon og huske på en teknisk måte, kan eksperter ikke bare vise resultatene av å kjøre et maskinlæringsprogram, men kan også begynne å forklare hvordan det programmet gir resultater - av hvilket algoritmisk arbeid programmet kommer til å evaluere datasett i en spesiell måte.

Med det i bakhodet, kan mange faglærere innen maskinlæring snakke om presisjon og tilbakekalle i en analyse av returresultater fra testsett, treningssett eller påfølgende ytelsessett med data. Å bruke en matrise eller matrise vil hjelpe til med å bestille denne informasjonen og vise mer transparent hvordan programmet fungerer og hvilke resultater det bringer til bordet.

Hva er "presisjon og tilbakekalling" i maskinlæring?