Innholdsfortegnelse:
Definisjon - Hva betyr Deep Q-Networks?
Deep Q Networks (DQN) er nevrale nettverk (og / eller beslektede verktøy) som benytter dyp Q-læring for å gi modeller som simulering av intelligent videospill. I stedet for å være et spesifikt navn for en spesifikk nevralt nettverksbygging, kan Deep Q Networks være sammensatt av innviklede nevrale nettverk og andre strukturer som bruker spesifikke metoder for å lære om forskjellige prosesser.
Techopedia forklarer Deep Q-Networks
Metoden for dyp Q-læring bruker vanligvis noe som kalles generell policy-iterasjon, beskrevet som sammenhengen med evaluering av policy og policy-iterasjon, for å lære retningslinjer fra sensorisk input med høy dimensjon.
For eksempel tar en vanlig type dyp Q-nettverk dekket i teknologipublikasjoner som Medium sensoriske innspill fra Atari 2600 videospill for å modellere utfall. Dette gjøres på et veldig grunnleggende nivå ved å samle prøver, lagre dem og bruke dem til å spille om erfaringer for å oppdatere Q-nettverket.
Generelt trener dype Q-nettverk på innspill som representerer aktive spillere i områder eller andre erfarne prøver og lærer å matche disse dataene med ønskede utganger. Dette er en kraftig metode i utviklingen av kunstig intelligens som kan spille spill som sjakk på et høyt nivå, eller utføre andre kognitive aktiviteter på høyt nivå - Atari eller sjakk-videospilleksemplet er også et godt eksempel på hvordan AI bruker typer grensesnitt som tradisjonelt ble brukt av menneskelige agenter.
Med dyp Q-læring blir AI-spilleren med andre ord mer som en menneskelig spiller når han lærer å oppnå ønskede resultater.