Ny rapport: Ikke nok viden om kunstig intelligens i Danmark

Microsoft og LEAD Agency lancerer i dag analysen ’Kunstig Intelligens i Danmark – potentialer og barrierer’, hvor 23 førende danske eksperter, politikere og meningsdannere diskuterer rammerne for kunstig intelligens i Danmark.

87 pct. af de adspurgte vurderer effekten, som kunstig intelligens forventes at få i det danske samfund, som positiv eller særdeles positiv, mens 82 pct. mener, at politiske beslutningstagere i mindre grad eller slet ikke har nok viden om potentialer og udfordringer ved kunstig intelligens.

“Den manglende viden blandt politiske beslutningstagere kan på sigt blive en barriere for, at vi kan have en dialog om, hvad kunstig intelligens kan, og hvad vi gerne vil bruge den til. Men det er også op til os som virksomhed at blive bedre til at fortælle samfundet om fordele og ulemper ved kunstig intelligens,” siger Marianne Dahl Steensen, adm. direktør, Microsoft Danmark.

Etiske bekymringer vægter højere end tab af arbejdspladser
Analysen viser også, at frygten for tab af arbejdspladser pga. kunstig intelligens er meget lille.

9 pct. bekymrer sig om tab af job, og blot 13 pct. bekymrer sig om de lovgivningsmæssige rammer. Til gengæld udtrykker 43 pct. bekymring over, at kunstig intelligens medfører manglende gennemsigtighed, og 48 pct. bekymrer sig om risiko for læk af personlige oplysninger. Og når det kommer til de etiske overvejelser ved brugen af kunstig intelligens, så ligger der et stort medansvar hos techvirksomhederne, fortæller Marianne Dahl Steensen.

”Vi har før oplevet teknologiske kvantespring, som har ændret vores samfund, vores arbejdsmarked og måde at leve på. Men vi har ikke tidligere oplevet en udvikling, der sker så hastigt – og som ligefrem flytter beslutningskraft fra menneske til maskine. Hvis vi som samfund skal kunne forholde os til teknologiens potentialer, og ikke lade os hæmme af vores bekymringer, så skal vi have tillid til, at det etiske fundament er i orden – og det ansvar hviler i høj grad på os som techvirksomhed.”

Microsofts seks etiske principper for kunstig intelligens
Microsoft arbejder med seks etiske principper, som vi mener, bør danne rammen for at udvikle og anvende kunstig intelligens. Principperne tager alle udgangspunkt i mennesket – det er os, der skal træffe beslutninger for vores udvikling, ikke maskinerne. Principperne er:

Retfærdighed. Når kunstig intelligens hjælper os med at træffe beslutninger, skal det ske på fair vis og beslutningen må ikke foretages på basis af forudindtagede holdninger eller biases. For at sikre denne retfærdighed er vi nødt til at forstå, hvordan menneskelige fordomme påvirker kunstig intelligens.

Pålidelighed. Kunstig intelligens skal agere inden for klare rammer og på basis af meget grundige tests, så vi kan stole på, at systemet agerer på den ønskede måde – også ved uforudsete situationer, og at den kunstige intelligens ikke udvikler sig på en måde, som afviger fra den oprindelige tanke. Krav til stresstest er her meget vigtige.

Privatliv og sikkerhed. Ligesom andre teknologier skal kunstig intelligens leve op til lovgivningen for beskyttelse af privatlivet, så personlige oplysninger bliver anvendt efter sikkerhedsstandarderne og er beskyttet mod cyberkriminalitet.

Inklusion. Kunstig intelligens skal designes med inklusion for øje, så systemet tager højde for forskellige menneskers behov og forskellige brugsscenarier – herunder utilsigtede barrierer, som kan medføre eksklusion af enkelte mennesker eller grupper eksempelvis grupper med handicap, sprogbarriere og/eller andre særlige forhold.

Gennemsigtighed. Efterhånden som kunstig intelligens får større indvirkning på vores liv, er vi nødt til at forstå konteksten for, hvordan den kunstige intelligens agerer, og hvordan systemet træffer beslutninger. Med denne gennemsigtighed kan vi bedre identificere forudindtagede holdninger, fejl og utilsigtet adfærd i systemet – faktisk også bedre end i dag med menneskelig intelligens.

Ansvarlighed. Mennesker som designer og implementerer kunstig intelligens, er ansvarlige for, hvordan systemerne fungerer. Ansvarlighedsnormerne for kunstig intelligens bør trække på erfaringerne fra andre områder som eksempelvis sundhedsområdet og bør evalueres såvel i designfasen som i den praktiske anvendelse.

Download rapporten ‘Kunstig intelligens i Danmark – potentialer og barrierer’ ved at trykke på billedet nedenfor eller linket her

For mere information
Kontakt pressechef Oliver William Gunner, [email protected], +45 28562322

Måske også noget for dig