Q:
Hvorfor vurderer noen selskaper å legge til "menneskelig tilbakemeldingskontroll" til moderne AI-systemer?
EN:Noen selskaper som jobber med avansert AI-teknologi, jobber for å etablere menneskelige kontroller for disse systemene, noe som gir maskinlæring og dyp læringsverktøy noe direkte menneskelig tilsyn. Disse selskapene er heller ikke små aktører - Googles DeepMind og Elon Musks OpenAI er to eksempler på store selskaper som får praktiske fremskritt innen kunstig intelligens. Med det i tankene er resultatene forskjellige - for eksempel har DeepMind vært gjenstand for kontrovers for sin oppfattede manglende vilje til å gi viktige data til publikum, mens OpenAI er mye mer, vel, åpen om sitt arbeid med å kontrollere kunstig intelligens.
Til og med slike notabler som Bill Gates har veid inn i saken, og sier Gates at han er en av mange som er bekymret for fremveksten av en kunstig superintelligens som på noen måter kan bevege seg utenfor menneskelig kontroll. Musk, på sin side, har også satt fram noe alarmerende språk om muligheten for "useriøs AI."
Det er sannsynligvis den mest presserende grunnen til at selskaper jobber med å anvende menneskelige kontroller på AI - ideen om at noe teknologisk singularitet vil resultere i en superkraftig sentient teknologi som mennesker rett og slett ikke kan kontrollere lenger. Helt siden morgenens menneskelige ambisjoner har vi satt på plass verktøy for å sikre at vi kan kontrollere kreftene som vi utøver - enten det er hester med tøyler og seler, elektrisitet i isolerte ledninger, eller noen annen form for kontrollmekanisme, kontroll er en medfødt menneskelig funksjon, og så det gir all mening i verden at når kunstig intelligens kommer nærmere reell funksjonalitet, bruker mennesker sine egne direkte kontroller for å holde den makten i sjakk.
Frykt for superintelligente roboter er imidlertid ikke den eneste grunnen til at selskaper bruker menneskelige kontroller for maskinlæring og AI-prosjekter. En annen vesentlig årsak er maskinskjevhet - dette er ideen om at kunstige intelligenssystemer ofte er begrensede i hvordan de evaluerer de aktuelle dataene - slik at de forsterker alle skjevheter som ligger i systemet. De fleste fagfolk som arbeider med maskinlæring, kan fortelle skrekkhistorier om IT-systemer som ikke var i stand til å behandle menneskelige brukergrupper likt - enten det var kjønn eller etnisk ulikhet, eller om noen annen mislykkethet av systemet virkelig forstår nyansene i våre menneskelige samfunn og hvordan vi samhandler med mennesker.
På en måte kan vi sette menneskelige kontroller på systemer fordi vi er redde for at de kan være for kraftige - eller vekselvis, fordi vi er redde for at de kanskje ikke er kraftige nok. Menneskelige kontroller hjelper deg med å målrette datasett for maskinlæring for å gi mer presisjon. De er med på å forsterke ideer som datamaskinen bare ikke kan lære på egen hånd, enten fordi modellen ikke er sofistikert nok, fordi AI ikke har avansert ganske langt nok, eller fordi noen ting bare ligger i provinsen menneskelig erkjennelse. Kunstig intelligens er flott for noen ting - for eksempel ga et belønning-og-poengbasert system en kunstig intelligens å slå en menneskelig spiller på det uhyre komplekse brettspillet "Go" - men for andre ting er dette insentivbaserte systemet helt utilstrekkelig.
I et nøtteskall er det mange tvingende grunner til å holde menneskelige brukere direkte involvert i hvordan kunstig intelligensprosjekter fungerer. Selv de beste kunstige intelligenssteknologiene kan tenke mye på egen hånd - men uten en faktisk biologisk menneskelig hjerne som kan behandle ting som følelser og sosiale morer, kan de rett og slett ikke se det store bildet på en menneskelig måte.
Et dyktig maskinlæringsfirma kan bidra til å oppnå denne balansen med en blanding av forretningseksperter og fageksperter og maskinlæringsutviklerne med ferdighetene til å løse store forretningsproblemer.