Seks bud fra en forsker: Hvordan sikrer man etisk kunstig intelligens?
Kunstig intelligens har et næsten uudtømmeligt potentiale til at forbedre samfundet, men teknologien er også forbundet med en række utilsigtede konsekvenser. Postdoc Per Rådberg Nagbøl, der er aktuel ved årets Digital Tech Summit, arbejder med kvalitetssikring og evaluering af brug af kunstig intelligens i det offentlige. Her giver han seks bud på, hvordan kunstig intelligens-udvikling kan styre udenom etiske faldgruber.
Institut for Business ITForskningSamarbejderetikkunstig intelligens
Kunstig intelligens (KI) har et stort potentiale til at forbedre vores samfund på mange forskellige måder og kan bruges til at løse komplekse problemer, automatisere opgaver og give os nye muligheder. Men KI er også forbundet med en række utilsigtede konsekvenser. Systemer og værktøjer baseret på KI kan fx forstærke bias og diskrimination – det er der allerede set tilfælde af.
I samarbejde med Erhvervsstyrelsen, der ifølge EU-Kommissionen har den mest avancerede praksis i forhold til etisk data governance i den offentlige sektor i EU relateret til KI, har Per Rådberg Nagbøl udviklet det såkaldte X-RAI framework, der gennem en række nøgleaktiviteter er designet til at minimere risici og utilsigtede negative konsekvenser i udviklingen af KI-værktøjer.
Her er seks punkter, der ifølge forskeren kan hjælpe os med at sikre udvikling af etisk og ansvarlig KI, som minimerer utilsigtede konsekvenser: