Motkjemper deepfakes med mer transparent KI

Illustration of a deepfake

Ikke lenge etter invasjonen av Ukraina i 2022, begynte lokale fotografer å dokumentere ødeleggelsen av kulturelle steder for å bevare landets kulturarv og for å samle bevis for erstatning.

Men spredningen av falske krigsrelaterte bilder var i ferd med å skape et problem: Folk kunne ikke være sikre på om fotografiene var ekte.

Fotografene begynte derfor å ta i bruk et nytt verktøy for å bevise at bildene deres var ekte og ikke «deepfakes» – altså KI-generert innhold som forestiller mennesker, steder eller hendelser på en realistisk, men inautentisk måte.

Prototypen ledet til Microsofts Content Integrity Suite, et sett med verktøy designet for å gjøre digitalt innhold mer transparent.

2024 ser ut til å bli et rekordår for valg verden over, med rundt to milliarder forventede velgere. Verktøyene brukes av politiske organisasjoner, valgarrangører og medier i deres daglige arbeid for å forbedre transparens, styrke tillit og for å motarbeide desinformasjon.

Å støtte et mer pålitelig økosystem for informasjon med verktøy og praksiser for ansvarlig KI, er bare én av måtene Microsoft kjemper mot skadelige deepfakes.

– Konsekvensene av deepfakes kan bli svært alvorlige. Det er en form for kognitiv hacking som endrer ditt forhold til virkeligheten, sier Andrew Jenks, direktør for Media Provenance i Microsoft.

Jenks leder koalisjonen for Content Provenance and Authenticity (C2PA), en organisasjon som Microsoft medstiftet for å utvikle en åpen teknisk standard for å etablere opprinnelsen – eller kilden og historien – bak digitalt innhold. Dette inkluderer KI-generert innhold.

Manipulert innhold er ikke noe nytt, og noen ganger er det åpenbar satire eller komikk. Men fremveksten av generativ KI gjør det enklere for mennesker med dårlige hensikter å spre desinformasjon som kan lede til bedrageri, identitetstyveri, valginnblanding og andre skadelige hendelser.

Detaljer som kreditering, metadata eller bildetekster kan ofte forsvinne når innhold deles. Dette gjør det vanskeligere for folk å vite hva de kan stole på.

Kjennskap til opphav og sporing av historien til innholdet kan hjelpe flere med å bli mer informert og mindre sårbare mot å bli lurt, sier Jenks. Microsoft sine verktøy inkluderer en applikasjon, for tiden tilgjengelig i privat forhåndsvisning, hvor kreatører og redaktører kan legitimere arbeidet sitt, sertifisere metadata og legge til detaljer som hvem som produserte innholdet, når det ble laget og hvorvidt KI ble brukt.

Innholdslegitimering – content credentials – er en del av C2PA sin tekniske standard. Dette kan krypteres og legges ved bilder, video og lyd, slik at redigering eller tukling enklere kan oppdages.

Fordi metadataen er usynlig, kan Microsoft også gi tilgang til et offentlig verktøy for å sjekke integriteten til innhold. Det samme gjelder for en utvidelse for nettleseren hvor brukere kan lete frem informasjon om verifiserbarhet. Man kan også lete etter et ikon for innholdslegitimering i bilder og videoer på plattformer som LinkedIn.

– Innholdslegitimering gir et viktig lag av gjennomsiktighet, enten KI har vært i bruk eller ikke. Det hjelper mennesker med å ta mer informerte avgjørelser om innhold de deler og konsumerer, sier Jenks.

– Når det blir enklere å identifisere kildene og historien bak innholdet, vil muligens folk stille seg mer skeptiske til materiale som mangler spesifikk opphavsinformasjon, legger han til.

Microsoft bruker verktøyene for innholdslegitimering i sine egne bildegenereringsprodukter – Designer, Copilot, Paint og modeller i Azure OpenAI Service – for å informere om KI er brukt, når bildet ble laget, i tillegg til andre detaljer.

Andre tiltak for ansvarlig KI og for å forhindre misbruk av deepfakes, inkluderer å gjøre ansiktene i bilder som lastes opp i Copilot uskarpe.

– KI-generert media, eller innhold som på en eller annen måte er modifisert ved hjelp av kunstig intelligens, kan være til hjelp i mange sammenhenger, fra utdanning til tilgjengelighet, sier Jessica Young, senior program manager for science and technology policy for medieopphavsekspert og Microsofts Chief Scientific Officer, Eric Horvitz

– Men det bør være åpenhet om kildene og innholdets reise, slik at folk kan forstå hvor det kommer fra, i hvilken grad det er endret og om KI er brukt. Vår tilnærming er ikke å fortelle kunder hvilket innhold som er pålitelig, men å gi dem kontekst slik at de kan ta informerte avgjørelser, legger hun til.

Mens Jenks sier at innholdslegitimering kan bidra med å etablere tillit i alt fra markedsføring til datingsider, gir Microsoft den private visningen av opphavsverktøyene i første omgang til kampanjer, valgarrangører og journalister som en del av et løfte om å motkjempe villedende bruk av KI under årets valg.

Selskapet har også laget en side hvor kandidater kan rapportere deepfakes fra valget som dukker opp på LinkedIn, Xbox og andre forbrukertjenester fra Microsoft – samt lansert et fond i samarbeid med OpenAI til en verdi av 2 millioner dollar, øremerket KI-utdanning blant velgere og sårbare samfunn.

Microsoft har jobbet for informasjonsintegritet ved å delta i stiftelsen av C2PA, som nå har nærmere 200 medlemmer, utvikler teknologi for å spore opphav sammen med journalister og støtter demokratiske prosesser.

Selskapet anerkjenner at det er utenfor ett enkelt selskaps evne å adressere disse utfordringene alene. Derfor har de tatt til orde for relevante lovgivninger og forsker på ytterlige metoder for å øke åpenheten.

Dette arbeidet inkluderer ekspertise innen alt fra research, ingeniørarbeid, retningslinjer og trusselintelligens. Alt er rettet mot å styrke informasjonssystemer i et komplekst landskap av ulike medieformater og plattformer.

– Generativ KI utvikles til bruk i stadig nye formater, for eksempel live-video. Vår jobb er å stadig forbedre og iterere for å finne de mest robuste løsningene, sier Young.

– Så deler vi beste praksis og verktøy med hele økosystemet, avslutter hun.

Lær mer om Microsofts arbeid med ansvarlig KI her >

Slik gjenkjenner du deepfakes:

  • Kjenn og forstå kilden: Se etter kreditering, bildetekster og innholdslegitimering. Undersøk bilder ved hjelp av et visuelt søk. Spør deg selv om kilden er anerkjent og vær forsiktig dersom det ikke finnes noen åpenbar kilde.
  • Vurder hensikt: Skal innholdet underholde, informere eller overtale deg? Å analysere meningen bak, kan gi deg en bedre forståelse av hvorvidt noen forsøker å lure deg.
  • Se etter avvik og uregelmessigheter: KI-genererte bilder kan inneholde skrivefeil, uskarpe figurer, rare klær, uregelmessig lys og merkelige teksturer.
  • Test hvor god du er til å avdekke KI: Ta denne «Real or Not»-quizzen for å se om du klarer å skille KI-genererte bilder fra ekte bilder.

Dette innlegget er en del av Microsofts serie om ansvarlig utvikling av kunstig intelligens. Serien utforsker de viktigste utfordringene ved å ta i bruk kunstig intelligens, og hvordan selskapet håndterer disse gjennom sine retningslinjer og verktøy for ansvarlig KI.

Artikkelen er oversatt og opprinnelig skrevet av Vanessa Ho. Hovedillustrasjon: Makeshift Studios / Rocio Galarza. Artikkelen ble først publisert 3. oktober 2024.

Tags: , , ,

Related Posts