Innholdsfortegnelse:
- Definisjon - Hva betyr Learning Vector Quantization (LVQ)?
- Techopedia forklarer Learning Vector Quantization (LVQ)
Definisjon - Hva betyr Learning Vector Quantization (LVQ)?
Læringsvektorkvantisering (LVQ) er en algoritme som er en type kunstige nevrale nettverk og bruker nevral beregning. Mer bredt kan det sies å være en type beregningsintelligens. Denne algoritmen tar en konkurransedyktig, vinner-tar-all tilnærming til læring og er også relatert til andre nevrale nettverksalgoritmer som Perceptron og tilbakeformering. LVQ-algoritmen gjør det mulig å velge antall treningsinstanser som skal gjennomgå, og deretter lære om hvordan disse instansene ser ut. LVQ ble oppfunnet av Teuvo Kohonen og er relatert til den nærmeste nabo-algoritmen.
Techopedia forklarer Learning Vector Quantization (LVQ)
Det grunnleggende målet med å lære vektorkvantisering når det gjelder informasjonsprosessering er å forberede et sett kodebokvektorer innen domene til observerte dataprøver. Videre blir disse vektorene deretter brukt for klassifiseringen av vektorer som er usett. Opprinnelig er en tilfeldig samling av vektorer sammensatt og de blir deretter utsatt for treningsprøver. Når du bruker en vinner-tar-all-strategi, velges enten en eller de som er mest lik vektorer til det gitte inputmønsteret. Disse blir deretter justert på en slik måte at de er nærmere inngangsvektoren, eller noen ganger, lenger borte fra oppløperen. Ved gjentagelse av denne prosessen resulterer det i en distribusjon av kodebokvektorer i inngangsrommet som kan tilnærme fordelingen av prøver som ligger til grunn for testdatasettet. Denne algoritmen brukes til prediktiv modellering.
