Innholdsfortegnelse:
Falske nyheter forventes å være en stor torn i siden av det kommende presidentvalget, for ikke å snakke om den samlede korrosive effekten på vår offentlige diskurs generelt. I dagens tilkoblede samfunn har kresne fakta fra fiksjon blitt stadig vanskeligere, og det er grunnen til at noen forskere begynner å fokusere på kraften til kunstig intelligens for å løse dette problemet.
Håpet er selvfølgelig at maskiner, eller mer nøyaktig algoritmer, vil være bedre enn mennesker med å oppdage løgner. Men er dette en realistisk forventning, eller bare et annet tilfelle av å kaste teknologi til et tilsynelatende ufravikelig problem?
Å fange en tyv. . .
En av måtene dataforskere planlegger å skjerpe AIs dyktighet på dette området er ved å la den generere falske nyheter. Allen Institute for AI ved University of Washington har utviklet og offentliggjort Grover, en naturlig språkprosesseringsmotor designet for å lage falske historier om et bredt spekter av temaer. Selv om dette kan virke mot sin hensikt i begynnelsen, er dette faktisk en ganske vanlig AI-treningstaktikk der en maskin analyserer resultatet fra en annen. På denne måten kan analysesiden løftes opp mye raskere enn å stole på faktiske falske nyheter. Instituttet hevder at Grover allerede kan operere med en 92% nøyaktighetsvurdering, men det er viktig å merke seg at det bare er dyktig til å skille mellom AI-generert innhold kontra menneskelig generert innhold, noe som betyr at en smart person fremdeles kan snike en falsk historie forbi det. (For å lære mer, sjekk ut The Technologies Around Fighting Fake News.)