Inför en AI-policy

En AI-policy är ett viktigt verktyg för att säkerställa att generativ AI används på ett lagligt, etiskt och effektivt sätt. Den kan främja ansvarsfull användning, stärka arbetsmiljön och skapa trygghet för både erfarna och nya användare.

Utbildning: Rättsliga aspekter på AI för offentlig förvaltning

I höst arrangerar Digg en utbildningsdag i Stockholm för jurister inom offentlig förvaltning. Utbildningen hålls vid tre tillfällen och innehåller både en praktisk och teoretisk genomgång av de juridiska och etiska aspekterna av AI.

Rättsliga aspekter på AI för offentlig förvaltning 13 november

Rättsliga aspekter på AI för offentlig förvaltning 4 december

Sammanfattning

Hur generativa AI-verktyg kan och bör användas inom den offentliga förvaltningen varierar beroende på verksamhetens karaktär. Därför bör du som offentlig aktör ta fram en egen AI-policy som tydligt definierar ramarna för både användningen och användarna.

En AI-policy bör ingå som ett styrdokument i verksamhetens styr- och ledningssystem och behöver inte heta ”AI-policy”. Varje myndighet, kommun eller region följer sin interna struktur för policies, riktlinjer osv.

Vi rekommenderar att du läser igenom informationen nedan för att sedan gå vidare och påbörja arbetet med att skapa en AI-policy för din verksamhet. Till din hjälp har vi tagit fram förslag på innehåll i en AI-policy.

En AI-policy främjar transparens och ansvarsfull användning av generativ AI

En policy eller annat styrdokument är en avsiktsförklaring som ska styra ett handlande i en viss riktning. Generativ AI kan användas på många sätt inom offentlig förvaltning, men vad som är lagligt och lämpligt beror på flera faktorer. Dels kan det handla om vilken information som hanteras inom verksamheten, dels om vilken information det generativa AI-verktyget får, eller kommer att få, tillgång till.

Hur generativ AI får och bör användas behöver fastställas i förväg, ytterst av ledningen. En AI-policy kan stödja, och besvara många av de frågor som kommer att uppstå vid användning av generativ AI. Den bör säkerställa att användningen följer lagkrav, och kan också bidra till en bättre arbetsmiljö genom tydliga riktlinjer för medarbetarna. Det sker genom att den både kan begränsa de mer erfarna användarna och samtidigt ge stöd och uppmuntran för de som är nya inom området. Med en AI-policy främjas ett ansvarsfullt och etiskt användande av generativ AI, och om det är möjligt och relevant, även andra AI-verktyg.

En AI-policy kan med fördel kompletteras med en AI-strategi som beskriver ledningens ambitioner och mål för användningen i den specifika verksamheten. Arbetet att ta fram en policy är också en väg att sätta sig in i vad AI innebär, vilket motiverar ytterligare att ta fram den.

En AI-policy och en AI-strategi bör ingå som styrdokument i verksamhetens styr- och ledningssystem. Varje myndighet, kommun eller region följer sin interna struktur för nomenklatur av policies, riktlinje, strategi och liknande. Det finns inget behov av att använda just ”AI-policy” utan det väsentliga är att verksamheten analyserar och fattar medvetna beslut om hur användning av generativ AI ska ske och att detta formuleras i styrdokument.

Innehåll i en AI-policy

Även om en AI-policy måste anpassas efter verksamhetens specifika behov finns det några viktiga frågor som varje AI-policy bör besvara. Genom att besvara dessa kan policyn skapa tydliga ramar för ett säkert, etiskt och effektivt användande av generativ AI inom verksamheten.

Syfte och omfattning

  • Vad är målet med AI-policyn?
  • Vilka AI-teknologier täcker den?

Tillämplighet

  • Vilka delar av verksamheten omfattas av policyn?
  • Hur ska policyn tillämpas i respektive verksamhetsdel?

Etiska principer

  • Vilka förhållningsregler/riktlinjer ska styra och gälla för användningen?
  • Vilka etiska principer ska gälla för att säkerställa rättvisa, transparens, ansvar, integritet och hållbarhet samt för att motverka partiskhet och diskriminering?

Dataskydd och säkerhet

  • Vilka säkerhetsåtgärder har vidtagits för att skydda personuppgifter och undvika olagliga överföringar till tredje land?
  • Hur säkerställs skydd mot läckage, intrång eller obehörig åtkomst?
  • Vilka ytterligare säkerhetsåtgärder ska användare följa?
  • Vem ska användare kontakta om något oönskat inträffar vid användningen av generativ AI?

Användning och begränsningar

  • Vilka AI-verktyg får användas, och vilka är förbjudna?
  • Vilken typ av data får och får inte användas?
  • Ge exempel på förbjuden data, som personligt identifierbar information och känslig affärsinformation.
  • Vem ansvarar för att kvalitetsgranska det som verktyget genererar?

Ansvar

  • Vem ansvarar för att policyn följs, utvärderas och uppdateras?
  • Vem kontaktas vid problem med användningen?

Utbildning

  • Vilken utbildning om generativ AI behöver användarna ha?
  • Hur lång inlärningsperiod behöver användarna?

Exempel: Diggs policy för AI

Transparens är en viktig del av en AI-policy. Därför publicerar vi Diggs policy för AI öppet för alla att ta del av och inspireras av.

Bakgrund

AI (artificiell intelligens), utvecklas, etableras och används brett i samhället och påverkar offentliga verksamheter, dess utövare och de som åtnjuter offentlig service på många, i flera avseenden fortfarande okända, sätt. Digg har tillsammans med Integritetsskyddsmyndigheten tagit fram Riktlinjer för användning av generativ AI i offentlig förvaltning. Där rekommenderar myndigheterna alla offentliga organisationer att ta fram en AI-policy eftersom det är ett viktigt verktyg för att säkerställa att AI används på ett lagligt, etiskt och effektivt sätt.

Denna policy för AI och andra styrdokument på området är ett led för Digg att skapa förutsättningar för att nå myndighetens vision och målbild.

Syfte och målgrupp

Syftet med denna policy är att ge alla på Digg vägledning i beslut och handlande på området AI för att Digg ska vara en myndighet som står för ansvarsfull och etisk användning av AI. Policyn ska skapa trygghet för både erfarna och nya AI-användare. I syftet ingår att stimulera en öppenhet och nyfikenhet att lära om AI och använda AI för att förbättra Diggs arbete.

Policyn är ett internt styrdokument för Digg och omfattar alla på Digg som använder eller utvecklar AI för att genomföra sitt arbete och verksamhet på Digg.

Förutom denna policy gäller, för AI på Digg, Riktlinjer för generativ AI inom offentlig förvaltning (digg.se/ai). AI är inget isolerat område och andra styrdokument måste också iakttas.

Användning av AI kan vara

  • utveckling av och med AI
  • stöd med AI i verksamheten
  • tillhandahållande av tjänster som stöds av AI.

Definitioner

AI definieras i denna policy som AI-system och AI för allmänna ändamål enligt EU:s AI-förordning [1]. Inledande texten lyder enligt följande, på svenska:

"AI är ett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi, som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, på grundval av de indata det tar emot, drar slutsatser om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras" [2].

Definitionen för AI för allmänna ändamål är det vi benämner ”generativ AI”, alltså AI som genererar exempelvis texter och bilder (stilla och rörliga) utifrån språkmodeller. I olika sammanhang används också AI-system, AI-verktyg och AI-stöd som alla är exempel på begrepp för AI som vi kan komma att utveckla och använda på Digg. Begrepp och standarder för AI är under utveckling i världen, i Europa och i Sverige, så mer precisa definitioner kan komma.

Tillämplighet

Policyn gäller för hela Diggs verksamhet.

Policyn gäller för alla som arbetar för Diggs räkning, såsom tillsvidare- och tidsbegränsat anställda, konsulter, praktikanter eller personer och aktörer som på annat sätt arbetar på Diggs uppdrag och som använder både befintliga och framtida lösningar och tillämpningar med AI.

Mål

AI som utvecklas och används inom Digg ska följa tillämplig lagstiftning och praxis, den statliga värdegrunden och främja delning av öppna data och kod samt tillgänglighet med människan i centrum.

Digg bedömer att AI är komplext och betydelsefullt och att användning av AI inom myndigheten behöver styras och ledas på ett medvetet och proaktivt sätt motsvarande det sätt som Digg styr och leder verksamhet i stort samt mänsklig och teknisk förmåga med strategier, planer och agilt förhållningssätt.

Policyn ska ge Digg stöd att använda AI för att uppnå Diggs målbild för 2030.

Användning av AI hos Digg och i offentlig förvaltning är nödvändigt för att nå den potential AI har att öka och omfördela kapacitet för att uppväga brist på personresurser och kompetens [3].

Diggs användning av AI ska öka nyfikenhet, kunskap om AI och användning av AI där det finns behov och möjlighet. AI lockar människor att jobba på Digg och med AI kan verksamhet vara relevant och utvecklas på ett hållbart och långsiktigt sätt.

Etiska principer

Användningen av AI ska följa de värderingar och regler som gäller för Digg utan begränsningar eller undantag. Följande tydliggöranden kan vara viktiga när anställda och konsulter använder AI. De ska vara vägledande vid utveckling av AI inom Digg.

Transparens

När AI-verktyg används i lösningar som riktas externt, exempelvis till allmänhet och medborgare, sökande i ärenden och parter i olika sammanhang, ska det tydligt anges att AI har använts. Där det är lämpligt ska det framgå hur en person kan göra för att överklaga beslut som skett med stöd av AI eller få mer information om hur AI använts i myndighetens service eller tjänster.

Förtroendemodellen (dataportal.se) Länk till annan webbplats.. ska användas när tjänster med AI används i tjänster eller service externt enligt ovan.

I handläggning, beredning och annan dokumentation internt på Digg bör källhänvisningar, referenser och fotnoter informera om när AI använts som källa för det som produceras. Det är du som anställd eller konsult på Digg som är ansvarig att informera om när du använt AI.

Som ett exempel på transparens publiceras denna policy och riktlinjer för användning av AI öppet på digg.se.

Ansvar

AI har aldrig ett ansvar. Samma ansvarsregler som annars gäller i organisationen, exempelvis delegation i författning och regleringsbrev, enligt arbetsordning eller i delegationsbeslut gäller även vid användning av AI.

Som anställd eller konsult är du ansvarig för de resultat som genereras eller skapas och för de beslut som bereds eller tas med stöd av AI på samma sätt som när du utför ditt övriga arbete. Du ska kontrollera att det som AI genererar eller skapar är rimligt och något som myndigheten kan stå för.

Vid beslut som påverkar enskilda, där AI har använts som stöd, ska det alltid vara en människa med delegerat ansvar på Digg som kontrollerar och fattar det slutliga beslutet.

Rättvisa och rättssäkerhet

AI ska användas utan att äventyra rättvisa, enskildas fri- och rättigheter eller organisationers möjligheter att tillvarata sin rätt. Risker för att diskriminering eller kränkning av personer sker ska alltid beaktas vid utveckling och användning av AI.

Alla som vill ska kunna inkluderas i det digitala samhället. Därför ska tillgänglighetskrav och ett proaktivt iakttagande av att inkludera till det digitala samhället alltid följas vid utveckling och anskaffning av AI.

Ekologisk hållbarhet

Alla perspektiv av hållbarhet ska beaktas vid AI-användning. I denna policy tydliggörs det ekologiska perspektivet av hållbarhet.

Vid anskaffning, utveckling och användning av AI ska det ekologiska hållbarhetsperspektivet alltid beaktas. Alla på Digg ska vara medvetna om vilka klimatpåverkande aspekter AI har och i övrigt beakta detta hållbarhetsperspektiv när AI anskaffas och används. Kunskapen om klimatpåverkan ska styra hur användningen sker och policy och riktlinjer ska uppdateras kontinuerligt för att se till att användningen av AI är rimlig i förhållande till avtrycket den ger.

Öppenhet

I linje med Diggs ambition och mål att dela data och kod öppet så ska även AI-modeller, algoritmer och kod för AI på Digg delas öppet såvida det inte finns skäl att begränsa.

Implementering och efterlevnad

Digg säkerställer en bra användning av AI och efterlevnaden av denna policy genom bland annat följande.

Utbildning

Adekvat utbildning ska ges till anställda och konsulter på Digg för att de ska kunna använda och utveckla AI i sitt arbete.

Kontroll och uppföljning

Digg utvärderar kontinuerligt verksamheten ur olika perspektiv och användningen av AI ska beaktas i detta för att identifiera och hantera potentiella risker, förbättra verksamheter och stödja anställda och konsulter i kunskap och förmåga om att använda AI.

Revision

Alla på Digg ser till att det finns underlag och dokumentation om både användningen, utvecklingen och livscykelhanteringen av AI-lösningar. Vid behov genomför Digg även granskningar av AI-policyn och riktlinjer och hur de tillämpas.

Fotnoter

  1. Europaparlamentets och rådets förordning (EU) 2024/1689 av den 13 juni 2024 om harmoniserade regler för artificiell intelligens och om ändring av förordningarna (EG) nr 300/2008, (EU) nr 167/2013, (EU) nr 168/2013, (EU) 2018/858, (EU) 2018/1139 och (EU) 2019/2144 samt direktiven 2014/90/EU, (EU) 2016/797 och (EU) 2020/1828 (förordning om artificiell intelligens), AI-förordningen.
  2. Artikel 3.1 i AI-förordningen.
  3. Delrapport Främja den offentliga förvaltningens förmåga att använda AI, i regeringsuppdraget I2019/01416/DF, I2019/01020/DF (delvis)

Exempel: Diggs riktlinje för användning av AI

Denna riktlinje förtydligar och konkretiserar hur vi på Digg omsätter AI-policyn till verklighet. Vi publicerar båda styrdokumenten öppet för alla att ta del av och inspireras av.

Bakgrund

AI (artificiell intelligens), utvecklas, etableras och används brett i samhället och påverkar offentliga verksamheter, dess utövare och de som får offentlig service på många, i flera avseenden fortfarande okända, sätt. Digg har tillsammans med Integritetsskyddsmyndigheten, IMY, tagit fram Riktlinjer för generativ AI inom offentlig förvaltning. Där rekommenderar myndigheterna alla offentliga organisationer att ta fram en AI-policy eftersom det är ett viktigt verktyg för att säkerställa att AI används på ett lagligt, etiskt, säkert och effektivt sätt. Digg har sedan den 1 juli 2025 en Policy för AI. Denna riktlinje förtydligar och konkretiserar hur vi omsätter policyn till verklighet.

Syfte och målgrupp

Syftet med denna riktlinje är att tydliggöra förutsättningarna för användning av AI på Digg. Myndigheten vill stimulera en öppenhet och nyfikenhet att lära om AI och använda AI för att förbättra och effektivisera Diggs arbete samtidigt som det ska finnas ramar som säkerställer att användning sker på ett ansvarsfullt sätt utifrån gällande regler.

Riktlinjen är ett internt styrdokument som omfattar samtliga medarbetare och konsulter som använder eller utvecklar AI för att utföra arbete och uppdrag på Digg.

Definitioner

Användning av AI kan vara

  • utveckling av och med AI
  • att använda AI-verktyg som stöd i verksamheten
  • tillhandahållande av tjänster som stöds av AI.

AI-system och andra begrepp som används i denna riktlinje har samma betydelse som anges i artikel 3 i EU:s AI-förordning (EU 2024/1689). Med AI-system avses, ett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras.

Tillämplighet

Riktlinjen gäller för hela Diggs verksamhet. I riktlinjen förutsätts att AI används på myndigheten i huvudsak som stöd i verksamheten exempelvis för bearbetning av text och bild samt effektivisering av olika moment i arbetet och att användningen är motiverad utifrån Diggs syfte och mål.

Riktlinjen gäller för alla som arbetar för Diggs räkning det vill säga alla medarbetare, konsulter, praktikanter eller personer och aktörer som på annat sätt arbetar på Diggs uppdrag och som använder både befintliga och framtida lösningar och tillämpningar med AI.

Dataskydd och informationssäkerhet

Genom informationsklassificering av Diggs information läggs en grund för hur vi ska hantera vår information på ett säkert sätt. Vi har ansvar för att hantera information och data i enlighet med gällande författningar och interna styrdokument.

Vid användande av AI inom Digg, särskilt generativ AI, använd inte personuppgifter, sekretessbelagda uppgifter, säkerhetskänsliga uppgifter och sådana uppgifter som kan vara känsliga för myndigheten om de kommer ut.

Användningen av AI ska följa gällande rättslig reglering, interna styrdokument samt de värderingar som gäller för Digg.

Personuppgifter

Behandling av personuppgifter i AI-verktyg ska ske i enlighet med tillämplig dataskyddsförfattning såsom EU:s dataskyddsförordning, GDPR, och utifrån riktlinjer och uttalanden från Integritetsskyddsmyndigheten, IMY, och Europeiska dataskyddsstyrelsen, EDPB. Bedömning av rättslig grund för behandling av personuppgifter ska genomföras inför användning av AI och i samråd med dataskyddsombudet. Tänk på att i vissa fall ska en konsekvensbedömning enligt GDPR göras. Det rekommenderas att alltid genomföra en konsekvensbedömning, även i de fall en skyldighet inte föreligger.

Sekretess och verksamhetskritisk information

Information och data som kan omfattas av sekretess får aldrig matas in eller överföras till AI-verktyg om det inte gäller ett AI-verktyg som är godkänt för sådan information. En bedömning av informationen behöver göras i varje enskilt fall. Om det finns tveksamheter kring om informationen omfattas av sekretess, kontakta enheten för juridik för stöd innan du matar in eller överför informationen. Samma grundregel gäller för verksamhetskritisk information och sådan information som Digg inte skulle kunna publicera på en öppen webbplats.

Observera att den omständigheten att Försäkringskassan levererar ett AI-verktyg till Digg, inte per automatik innebär att AI-verktyget har en högre nivå av informationssäkerhet. Det behöver i varje enskilt fall göras en bedömning av vilken typ av information som ett AI-verktyg får innehålla.

Läs mer under rubriken Använd godkända AI-verktyg.

Informationssäkerhet

Som anställd och konsult ska du säkerställa att ingen skyddsvärd eller känslig information, exempelvis sekretessklassad information, delas eller ingår i träningsdata vid

  • utveckling av AI
  • konfigurering av inköpta system
  • användning av AI i övrigt, exempelvis i promptar.

Då AI kan generera information som är missvisande, felaktig och utan grund bör en bedömning alltid göras av riktigheten i genererad information. Detta gäller särskilt sådan information som ska publiceras av Digg. Beroende på detta och på den genererade informationens skyddsvärde kan riktighet vara en viktig aspekt att beakta, särskilt inom generativ AI.

Etiskt användande

Etisk AI är lika med ansvarsfull AI och Digg ska genomgående i verksamheten sträva efter att använda AI på ett ansvarsfullt sätt. Det innebär att i varje led säkerställa att anskaffning av nya AI-verktyg och användning av AI sker på ett sätt som är regelbaserat, transparent och följer principer från den statliga värdegrunden om rättvisa, tillförlitlighet, säkerhet, sekretess, transparens och är inkluderande samt ansvarstagande. Att följa principerna innebär att risken för diskriminering minskar, bygger förtroende för verksamheten och skapar förutsättningar för att beslut är förståeliga och rättssäkra.

Ett exempel på hur principerna kan följas är att stärka medborgares delaktighet genom att skapa lättförståelig och korrekt information om hur Digg använder AI, vilket upprätthåller principen om demokrati. Ett annat sätt kan vara att, när det är lämpligt, utforma AI-användningen utifrån demokratisk dialog och medborgarengagemang, genom att t.ex. etablera kontakter med representanter för olika intressegrupper som påverkas av AI-användningen.

Att de etiska principerna genomsyrar Diggs användning av AI kan dessutom säkerställas genom att myndigheten använder metoder för att identifiera och minimera bias i datamängder och modeller samt har metoder och rutiner för granskning så att AI-genererade resultat är rättvisa och neutrala.

Användning av AI

För användningen av AI gäller följande:

Digg ser positivt på användningen av AI

Digg anser att användningen av AI är positivt för kompetensutvecklingen och för att stödja effektivitet och kvalitet i Diggs arbete. Det öppnar upp för nyfikenhet och utforskande samtidigt som ansvar ska tas. Med utgångspunkt i den interna styrning som denna riktlinje och Diggs Policy för AI utgör, bör en dialog och öppenhet gälla som grund för att hitta vägar att använda snarare än att se begränsningar. Då Digg har i uppdrag att stödja den offentliga förvaltningens digitalisering och dataanvändning är det angeläget att vi bygger upp en kompetens på området och bevakar den tekniska utvecklingen på området.

Använd godkända AI-verktyg

Som medarbetare och konsult på Digg ska du använda godkända AI-stöd, programvaror med AI och AI-verktyg som finns i Diggs digitala arbetsplats. Det är det som tillhandahålls inom ramen för Försäkringskassans leverans till Digg samt det som anskaffas in enligt Diggs inköpsprocess med godkännande av närmaste chef, eller annan chef med sådant ansvar.

Konsulter som i sitt uppdrag inte arbetar direkt med data, information eller kod från Digg, kan använda egna AI-verktyg. Om arbetet ger ett resultat som ska överlämnas till Digg ska det anges att AI har använts och vilket verktyg. När konsulter arbetar direkt med Diggs data, information, kodning ska av Digg godkända AI-verktyg användas. Vid avsteg från denna regel ska ansvarig chef fatta beslut och dokumentera detta.

Använd inte privata licenser

Privata licenser, eller leverantörers och konsulters licenser inklusive erbjudanden och kampanjer riktade till offentligt anställda eller medarbetare på Digg, för AI-stöd och verktyg får, som utgångspunkt, inte användas av medarbetare i Diggs verksamheter.

Det finns möjlighet att i begränsad omfattning testa privata AI-verktyg för arbetet, men den som vill göra det måste då säkerställa att användningen inte medför att detaljer om Diggs verksamhet, data, eller information, även arbetsmaterial, avslöjas. AI-verktyg som ska användas för att genomföra arbetsuppgifter och som det finns behov av att använda mer återkommande ska anskaffas enligt myndighetens rutin så att företagslicens används istället för privat licens.

Använd inte AI till automatiserat beslutsfattande

På Digg får vi inte använda AI för automatiserat beslutsfattande utan att mänsklig kontroll sker av det som AI genererat eller bidragit till. Med automatiserat beslutsfattande avses hela processen som leder till ett beslut som har rättsliga följder för en individ eller på liknande sätt i betydande grad påverkar individen. Det kan t.ex. innebära hela handläggningen från en anmälan eller en ansökan till dess Digg fattar ett beslut.

Risker med AI-agenter

AI-agenter kan vara kraftfulla verktyg för att effektivisera arbetet, men de medför också särskilda risker. Det kan exempelvis vara när en AI-agent agerar i självständigt i en myndighets namn. När en AI-agent agerar självständigt ökar risken för att du som användare tappar kontrollen över hur information används, sprids eller förändras. Detta gäller särskilt om agenten är kopplad till externa system eller får utföra åtgärder på internet. Därför ska användning av AI-agenter alltid föregås av en riskbedömning med fokus på rättssäkerhet, kontrollförlust och informationshantering. Grundprincipen är att agenter endast får användas när nyttan tydligt överstiger risken och när spårbarhet, ansvar och mänsklig kontroll kan säkerställas.

Transparens

Digg ska arbeta för att användning av AI i verksamheten sker på ett transparent sätt, inom och gentemot externa parter. Det ska finnas en dokumentation som gör det möjligt att se hur och när AI har använts.

När AI-verktyg används i lösningar som riktas externt, exempelvis till allmänhet och medborgare, sökande i ärenden och parter i olika sammanhang, ska det tydligt anges att AI har använts. Där det är lämpligt ska det framgå hur en person kan göra för att överklaga beslut som skett med stöd av AI eller få mer information om hur AI använts i myndighetens service eller tjänster.

Förtroendemodellen (dataportal.se) Länk till annan webbplats.. ska användas som stöd för bedömning inför användning av AI i tjänster eller service externt enligt ovan.

I handläggning, beredning och annan dokumentation internt på Digg ska källhänvisningar, referenser och fotnoter informera om när AI använts som källa för det som produceras. Det är du som medarbetare eller konsult på Digg som är ansvarig att informera om när du använt AI.

Som ett exempel på transparens publiceras Diggs policy för AI och riktlinjer för användning av AI öppet på digg.se.

Ansvar

AI har aldrig ett ansvar. Som medarbetare är du ansvarig för de resultat som genereras eller skapas och för de beslut som bereds eller tas med stöd av AI på samma sätt som när du utför ditt övriga arbete. Du ska kontrollera att det som AI genererar eller skapar är rimligt och något som myndigheten kan stå för.

Samma ansvarsregler som annars gäller i organisationen, exempelvis delegation i författning och bemyndiganden i regleringsbrev, enligt arbetsordning eller i delegationsbeslut gäller även vid användning av AI.

Vid beslut som påverkar enskilda, där AI har använts som stöd, ska det alltid vara en människa med delegerat ansvar på Digg som kontrollerar och fattar det slutliga beslutet.

När kontroll av resultaten av AI-stödet genomförs och resultatet ska användas för att tillföra ett ärende en sakuppgift, som underlag för beslutsfattande eller liknande, ska handläggaren dokumentera sin kontroll genom signatur eller motsvarande. Om användningen av AI enbart används som stöd för bearbetning, sammanställningar eller liknande redigeringsarbete behöver sådan signatur inte göras.

Ekologisk hållbarhet

Vid anskaffning, utveckling och användning av AI ska det ekologiska hållbarhetsperspektivet alltid beaktas. Alla på Digg ska vara medvetna om att AI-användning har en klimatpåverkan och i övrigt beakta detta hållbarhetsperspektiv när AI anskaffas och används. AI-användning som är mer resurskrävande, som till exempel bild- eller videogenerering, ska bara genomföras när det är motiverat.

Öppenhet

I linje med Diggs ambition och mål att dela data och kod öppet så ska även AI-modeller, algoritmer och kod för AI på Digg delas öppet såvida det inte finns skäl att begränsa. Se Diggs riktlinjer för utveckling och publicering av öppen programvara.

Rapportera problem och incidenter

Om du upptäcker brister eller risker i hanteringen av data eller säkerhet anmälan detta enligt Diggs rutiner för incidenter.

Revision av styrdokument

Denna riktlinjen gäller ett år från beslutsdatum och kan vid behov revideras oftare utifrån utvecklingen inom AI-området.

Hjälpte denna information dig?

Ditt svar hjälper oss att förbättra sidan

Senast uppdaterad: