Algoritmisk transparens

Algoritmisk transparens är principen att de faktorer som påverkar de beslut som fattas av algoritmer ska vara synliga eller transparenta för de personer som använder, reglerar och påverkas av system som använder dessa algoritmer. Även om frasen myntades 2016 av Nicholas Diakopoulos och Michael Koliska om algoritmernas roll för att bestämma innehållet i digitala journalistiktjänster, går den underliggande principen tillbaka till 1970-talet och framväxten av automatiserade system för att göra konsumentkrediter.

Fraserna "algoritmisk transparens" och "algoritmisk ansvarighet" används ibland omväxlande – särskilt eftersom de myntades av samma personer – men de har subtilt olika betydelser. Specifikt anger "algoritmisk transparens" att indata till algoritmen och själva algoritmens användning måste vara kända, men de behöver inte vara rättvisa. "Algorithmic accountability" innebär att de organisationer som använder algoritmer måste vara ansvariga för de beslut som fattas av dessa algoritmer, även om besluten fattas av en maskin och inte av en människa.

Aktuell forskning kring algoritmisk transparens som är intresserad av både samhälleliga effekter av åtkomst till fjärrtjänster som kör algoritmer, såväl som matematiska och datavetenskapliga tillvägagångssätt som kan användas för att uppnå algoritmisk transparens. I USA studerar Federal Trade Commissions Bureau of Consumer Protection . hur algoritmer används av konsumenter genom att bedriva egen forskning om algoritmisk transparens och genom att finansiera extern forskning. I Europeiska unionen innehåller dataskyddslagarna som trädde i kraft i maj 2018 en "rätt till förklaring" av beslut som fattas av algoritmer, även om det är oklart vad detta betyder. Dessutom grundade Europeiska unionen The European Centre for Algoritmic Transparency (ECAC).

Se även