De FARI Conference vindt plaats op 18 en 19 november in Brussel, ontdek meer.

Een initiatief van

Ondersteund door

Article tom

Fouten bij kunstmatige afgevaardigden: een beter alternatief in risicovolle dilemma's

AUG. 2024

Abstract

Hoewel wordt aangenomen dat autonome kunstmatige middelen de strategieën waarmee ze zijn geprogrammeerd perfect uitvoeren, kunnen mensen die ze ontwerpen fouten maken. Deze fouten kunnen leiden tot een verkeerde uitlijning tussen de mensen ’ beoogde doelen en hun agenten ’ waargenomen gedrag, een probleem van waarde-uitlijning. Een dergelijk aanpassingsprobleem kan bijzonder sterke gevolgen hebben wanneer deze autonome systemen worden gebruikt in sociale contexten die een vorm van collectief risico met zich meebrengen. Door middel van een evolutionair theoretisch spelmodel onderzoeken we of fouten in de configuratie van kunstmatige middelen de uitkomst van een collectief risicodilemma veranderen, in vergelijking met een scenario zonder delegatie. Delegatie onderscheidt zich hier van geen degradatie door simpelweg het moment waarop een fout optreedt: ofwel bij programmeren/het kiezen van de agent (in geval van delegatie) of bij het uitvoeren van de acties bij elke ronde van het spel (in geval van geen degradatie). We merken dat, hoewel fouten het slagingspercentage verlagen, het beter is om te delegeren en vast te leggen aan een enigszins gebrekkige strategie, perfect uitgevoerd door een autonome agent, dan om direct uitvoeringsfouten te maken. Ons model laat ook zien dat delegatiestrategieën op de lange termijn de voorkeur moeten krijgen boven niet-delegatie, als ze de keuze krijgen.

Auteurs: Inês Terrucha, Elias Fernández Domingos, Pieter Simoens & Tom Lenaerts

Lees het artikel hier.

Bijdragers

Illustration
Tom Lenaerts

Bijdragers

Delen

Andere publicaties

Alle publicaties

Alle publicaties