AUG. 2024
Abstract
Hoewel wordt aangenomen dat autonome kunstmatige middelen de strategieën waarmee ze zijn geprogrammeerd perfect uitvoeren, kunnen mensen die ze ontwerpen fouten maken. Deze fouten kunnen leiden tot een verkeerde uitlijning tussen de mensen ’ beoogde doelen en hun agenten ’ waargenomen gedrag, een probleem van waarde-uitlijning. Een dergelijk aanpassingsprobleem kan bijzonder sterke gevolgen hebben wanneer deze autonome systemen worden gebruikt in sociale contexten die een vorm van collectief risico met zich meebrengen. Door middel van een evolutionair theoretisch spelmodel onderzoeken we of fouten in de configuratie van kunstmatige middelen de uitkomst van een collectief risicodilemma veranderen, in vergelijking met een scenario zonder delegatie. Delegatie onderscheidt zich hier van geen degradatie door simpelweg het moment waarop een fout optreedt: ofwel bij programmeren/het kiezen van de agent (in geval van delegatie) of bij het uitvoeren van de acties bij elke ronde van het spel (in geval van geen degradatie). We merken dat, hoewel fouten het slagingspercentage verlagen, het beter is om te delegeren en vast te leggen aan een enigszins gebrekkige strategie, perfect uitgevoerd door een autonome agent, dan om direct uitvoeringsfouten te maken. Ons model laat ook zien dat delegatiestrategieën op de lange termijn de voorkeur moeten krijgen boven niet-delegatie, als ze de keuze krijgen.
Auteurs: Inês Terrucha, Elias Fernández Domingos, Pieter Simoens & Tom Lenaerts
Bijdragers
Delen
Andere publicaties
Datum
SEP. 2024
Onderzoekers
Journal Article
Poster: A Framework for Developing Legally Aligned Machine Learning Models in Finance
Datum
DEC. 2024
Onderzoekers
Datum
SEP. 2024
Onderzoekers
Datum
OKT. 2024
Onderzoekers