Institutets logotyp
Institutets logotyp

Ett datalyft mot fel, fusk och frånvaro

Institutet för mänskliga rättigheter inkommer härmed med remissvar över betänkandet Ett datalyft mot fel, fusk och frånvaro (SOU 2025:108).

Sammanfattning

I ett alltmer digitaliserat samhälle finns det fördelar med att använda data och AI för att minska felaktiga utbetalningar. Rätt använt kan individer få tillgång till sina ekonomiska och sociala rättigheter. Samtidigt medföljer risker med en sådan användning såsom bristande transparens, rättsosäkerhet och diskriminerande utfall.

  • Institutet för mänskliga rättigheter tycker det är positivt att utredningen föreslår att Försäkringskassan utvecklar sin datahantering eftersom myndigheternas förmåga att hantera sin data är grundläggande för att kunna fatta korrekta och rättssäkra beslut.
  • Vi vill däremot lyfta riskerna med att arbetet med att hantera data görs samtidigt som möjligheter ges för att utöka behandlingen av personuppgifter för att arbeta med dataanalys och urval för att förhindra, förebygga och upptäcka fel i verksamheten.
  • I förhållande till behandlingen av känsliga personuppgifter i den föreslagna lydelsen i 114 kap. 11 § socialförsäkringsbalken och hänvisningen till artikel 9.1 i EU:s dataskyddsförordningen anser institutet att hänvisningen till undantagen i artikel 9.2 (g) även bör finnas med för att skapa tydlighet i lagstiftningen.
  • Institutet avstyrker utredningens förslag om användningen av dataanalys och urval för att förebygga, förhindra och upptäcka fel i verksamheten. Vi anser inte att utredningen på ett tillfredsställande sätt har analyserat de risker som följer med användningen av AI modeller och hur de ska hanteras.

Övergripande synpunkter

Utredningen presenteras i en tid där flera initiativ pågår inom digitaliseringens område, såsom den nyligen antagna digitaliseringsstrategin (2025-2030), regeringens AI strategi, och förberedelserna inför AI-förordningens implementering i Sverige. Ett par myndigheter har även fått i uppdrag att skapa förutsättningar för utveckling och användning av AI.[1]

I ett samhälle som mer och mer digitaliseras, finns det fördelar med att använda sig av tillgängliga data och att ha AI system för att underlätta handläggning och motverka fel och fusk i bidragsgivningen. Rätt hanterat innebär det att förmåner och bidrag faktiskt går till dem som behöver det och individer får sina ekonomiska och sociala rättigheter tillgodosedda, såsom rätten till social trygghet och tillfredsställande levnadsstandard. Men det finns också flera risker som kan leda till exempelvis bristande transparens och rättsosäkerhet.[2] Och risker för diskriminerande utfall.[3]

Med förslagen följer även en ökad personuppgiftsbehandling, vilket får konsekvenser för mänskliga rättigheter så som skyddet för den personliga integriteten och rätten till privat- och familjeliv så som de skyddas i regeringsformen, europeiska konventionen om skydd för de mänskliga rättigheterna och de grundläggande friheterna (Europakonventionen) och FN:s konvention om medborgerliga och politiska rättigheter.[4] Utredningens förslag innebär att en större mängd av integritetskänsliga uppgifter kan komma att behandlas, vilket i sin tur medför en ökad risk för kränkningar och inskränkningar i enskildas personliga integritet.

Synpunkter på specifika förslag

7 Utvecklad förmåga till dataanvändning

Av utredningen framkommer att båda myndigheterna, men främst Försäkringskassan, redan idag står inför utmaningar med sin datahantering bland annat utifrån att det är svårt att använda nya system och tillämpningar.

Institutet tycker det är positivt att utredningen föreslår att Försäkringskassan utvecklar sin datahantering. Detta också eftersom utredningen konstaterar att myndigheternas förmåga att hantera sin data är grundläggande för att kunna fatta korrekta och rättssäkra beslut.[5] Försäkringskassan nämner själv att förutsättningen för AI är en god tillgång till data som är kvalitetssäkrad, strukturerad och standardiserad.[6]

Med detta sagt, vill vi peka på att det finns risker med att utveckla hanteringen av data samtidigt som en utökad behandling av personuppgifter föreslås framför allt i förhållande till användningen av dataanalys och urval. Vi hänvisar här till den senaste rapporten från Inspektionen för socialförsäkringen som kom i januari i år.[7] Enligt rapporten finns det ett begränsat utrymme för en ökad digitalisering och automatisering hos Försäkringskassan och Pensionsmyndigheten.[8] Rapporten visar bland annat att myndigheterna ser att AI har potentialen att hantera en ökad mängd data samt överblicka och se mönster i denna, men att automatisera förmånshandläggningsprocesser som innefattar ett bedömningsutrymme möter utmaningar.[9] Rapporten betonar också risken att regeringens ambitioner om ökad digitalisering inte matchas av de förutsättningar som myndigheterna har. Inspektionen för socialförsäkringen betonar att digitalisering och automatisering av myndighetshandläggning och beslutsfattande är komplexa processer, och bör inte vara ett mål i sig.[10]

Det faktum att myndigheter nu kan få tillgång till fler personuppgifter enligt den sekretessbrytande bestämmelsen som trädde i kraft i december 2025 bidrar också till att det blir än viktigare att det finns system på plats för att hantera data.[11]

8.8 Utökade möjligheter att behandla känsliga personuppgifter

Utredningen föreslår att känsliga personuppgifter ska få behandlas om det är nödvändigt med hänsyn till ändamålet för behandlingen. Lagförslaget hänvisar till artikel 9.1 i EU:s dataskyddsförordning. Enligt denna artikel är behandling av känsliga personuppgifter som utgångspunkt förbjuden, men undantag finns i artikel 9.2. Den grund som är mest relevant är 9.2 (g) om att behandling kan vara nödvändig med hänsyn till ett viktigt allmänt intresse, står i proportion till syftet med behandlingen och att lämpliga skyddsåtgärder ska finnas som säkerställer den registrerades rättigheter och intressen.

Känsliga personuppgifter är särskilt skyddsvärda och har därför ett starkare skydd. Även om det framkommer i utredningen att målet för behandlingen inte är de känsliga personuppgifterna i sig, utan snarare att de kan komma upp indirekt när andra personuppgifter behandlas, är de känsliga personuppgifternas skyddsvärde viktigt att komma ihåg. Liksom att artikel 9.1 i EU:s dataskyddsförordning nämns i lagförslaget, anser därför institutet att undantaget i artikel 9.2 (g) även bör skrivas ut eftersom den är utgångspunkten för den utökade behandlingen av känsliga personuppgifter. Detta skulle skapa en större tydlighet och förutsebarhet i lagstiftningen.

12.4 Behandling av personuppgifter med anledning av ändringar i 114 kap. socialförsäkringsbalken

I utredningen framkommer att användningen av dataanalys och urval bedöms vara en särskilt integritetskänslig verksamhet. Genom sådan användning kan uppgifter om enskilda komma att läggas samman vilket även kan leda till nya uppgifter om enskilda. För att hantera den utökade användningen föreslås olika skyddsåtgärder såsom dokumentationskrav och utökad sekretess.[12]

Institutet noterar de behov av dataanalyser och urval som utredningen föreslår, men vi ser samtidigt stora risker med sådan användning. Dessa bekräftas av att de föreslagna systemen kan komma att klassas som hög risk enligt EU:s förordning om artificiell intelligens (AI-förordningen), vilket kräver ytterligare åtgärder.[13]

Vi anser inte att utredningen på ett tillfredsställande sätt har analyserat de risker som följer med användningen av AI modeller och hur de ska hanteras. Eftersom analysen brister ser vi att det finns risker för att mänskliga rättigheter kränks. Vi avstyrker därför utredningens förslag om användningen av dataanalys och urval för att förebygga, förhindra och upptäcka fel i verksamheten. Detta grundar vi dels på de risker som vi presenterar nedan, dels på vad vi skriver ovan om att det finns utmaningar för Försäkringskassan och Pensionsmyndigheten utifrån de förutsättningar de har idag för en ökad digitalisering och automatisering.

Risker med användning av AI modeller för dataanalys och urval.

  • Risker för diskriminering

Utredningen brister i sin analys kring hur riskerna för diskriminering ska undvikas i användningen av AI modellerna. Det handlar dels om hur AI modellerna ska tränas, dels om hur de ska användas. Detta lämnas i stället till de båda myndigheterna att hantera. Flera exempel finns från andra länder där AI modeller lett till diskriminerande utfall. I ett danskt exempel granskades den danska utbetalningsmyndighetens AI-system som används för att upptäcka felaktigheter inom socialförsäkringssystemet. Granskningen identifierade såväl direkt som indirekt diskriminering mot ett flertal grupper, så som äldre, personer med funktionsnedsättningar, flyktingar och låginkomsttagare. Algoritmerna som användes för att upptäcka bidragsfusk slog hårdare mot redan marginaliserade grupper. Rapporten visade att den data som användes för att skapa, träna och använda AI-system riskerade att reproducera historisk och systematisk diskriminering, vilket i sin tur ökade risken för diskriminerande utfall.[14] Även Försäkringskassan har kritiserats för sin användning av AI vid urval för riktade vab-kontroller (en AI modell som nu tagits ur bruk[15] ).[16]

Vi anser därför att det är anmärkningsvärt att utredningen inte hänvisar till tidigare erfarenheter av användning av AI modeller inom socialförsäkringen för att också resonera hur sådana risker ska undvikas.

  • Transparens, tillsyn och ansvarstagande

Enligt utredningen ska sekretess gälla för uppgifter om metoder, modeller och riskfaktorer som används för dataanalys och urval när dessa används för att förebygga, förhindra och upptäcka felaktiga utbetalningar om det finns risk att syftet med verksamheten skadas om uppgifterna blir kända.

Utmaningen ligger dock i att bristande transparens kan göra det svårare för tillsyn av användningen av AI modellerna. Dessutom kan det hindra den offentliga debatten om användningen av AI inom offentlig förvaltning.[17] Försäkringskassan har själva tagit upp risken för att allmänhetens förtroende för myndigheter påverkas negativt om systemen inte är transparenta och förklarbara.[18]

OECD betonar i sin senaste rapport att myndigheter behöver stärka sina skyddsåtgärder för att tillgodose transparens, opartiskhet och tillsyn särskilt när det kommer till socialförsäkringen. De understryker att detta är särskilt relevant när det handlar om högrisksystem enligt AI-förordningen.[19]

OECD lyfter även vikten av en meningsfull involvering av andra aktörer i användningen av AI. Till exempel kan publika konsultationer hållas med de som använder systemen men också med forskare och civilsamhälle kring användning och design. [20] Även AI-förordningen (regel 96) lyfter behovet av att involvera berörda parter, inklusive företrädare för grupper av personer som kan komma att påverkas av AI systemet. Detta lyfts särskilt i förhållande till AI system med hög risk och när sådan används i den offentliga sektorn.

Institutet hade därför välkomnat om utredningen föreslagit meningsfulla former för sådan konsultation. Vi vill även betona vikten av att personer med funktionsnedsättning aktivt involveras i den fortsatta beredningen. Vidare ser vi en särskild risk för att användningen av automatiserade urval ogrundat kan direkt eller indirekt peka ut eller missgynna personer med funktionsnedsättning.

  • Avsaknad av analys utifrån AI-förordningen

Utredningen nämner AI-förordningen, men det saknas en analys av hur den är tillämplig på lagförslagen utifrån att modellerna för dataanalys och urval kan utgöra högrisksystem enligt AI-förordningen. Som exempel saknas en analys kring behovet av att göra en heltäckande konsekvensbedömning avseende grundläggande rättigheter enligt artikel 27. Sådana bedömningar kan innefatta frågor om skydd för personuppgifter och diskriminering men även konsekvenserna för andra rättigheter såsom rätten till social trygghet, äldres rättigheter och inkludering av personer med funktionsnedsättning.[21] På så vis är en sådan konsekvensbedömning bredare än den som krävs enligt EU:s dataskyddsförordning.

Som vi påtalat i vårt remissvar om implementeringen av AI-förordningen hade vi även gärna sett att möjligheter till sanktioner införs för överträdelser av skyldigheten att genomföra en konsekvensbedömning avseende grundläggande rättigheter innan AI-system med hög risk tas i bruk. Om tillhandahållare av AI system inte genomför dessa konsekvensbedömningar kan det leda till att risker upptäcks för sent och människors grundläggande rättigheter kränks.[22]

En ytterligare aspekt i AI-förordningen som utredningen inte behandlar handlar om risken för social poängsättning, så kallad ”social scoring”. Detta regleras i artikel 5 c) i AI-förordningen. Där framgår att användning av AI-system för ”utvärdering eller klassificering av fysiska personer eller grupper av personer under en viss tidsperiod på grundval av deras sociala beteende eller kända, uttydda eller förutsedda personliga eller personlighetsrelaterade egenskaper, med en social poängsättning” utgör förbjuden användning om den leder till skadlig eller ogynnsam behandling av vissa fysiska personer eller grupper:

  • i sociala sammanhang som saknar koppling till de sammanhang i vilka berörda data ursprungligen genererades eller samlades in.
  • som är omotiverad eller oproportionerlig i förhållande till personernas sociala beteende eller till hur allvarligt beteendet är.

Genom förbudet om social poängsättning skyddas rättigheter såsom frihet från diskriminering, rätten till privat- och familjeliv samt flera ekonomiska och sociala rättigheter.[23]

Ett resonemang om social poängsättning i AI-förordningen och hur detta relaterar till utredningens förslag saknas. Vi tycker att detta är anmärkningsvärt särskilt mot bakgrund av att myndigheter nu kan dela mer information med varandra utifrån den sekretessbrytande bestämmelsen som trädde i kraft i december 2025.

Ärendets handläggning

Detta remissvar har beslutats av direktör Fredrik Malmberg och föredragits av utredaren/juristen Amelie Sällfors. I den slutliga beredningen har även enhetschefen / ställföreträdande direktör Charlotte Palmstierna deltagit.

Fredrik Malmberg, direktör

Noter

[1] Uppdrag till Försäkringskassan och Skatteverket att utreda förutsättningarna för en AI-verkstad för den offentliga förvaltningen, Fi2025/01523, 10 juli 2025.

[2] Statskontoret, Myndigheterna och AI – En studie om möjligheter och risker med att använda AI i statsförvaltningen, 2024 s. 20–23 och 29.

[3] Diskrimineringsombudsmannen, remissyttrande över betänkandet Framtidens dataskydd Vid Skatteverket, Tullverket och Kronofogden (SOU 2023:100).

[4] 2 kap. 6 § 2 p regeringsformen, 2 kap. 20 § regeringsformen, artikel 8 Europakonventionen, artikel 17 FN:s konvention om medborgerliga och politiska rättigheter.

[5] SOU 2025:108, s. 215.

[6] Försäkringskassan och Skatteverket, Svar på regeringsuppdraget att utreda förutsättningarna för en AI-verkstad för den offentliga förvaltningen (Fi 2025/01523), 12 januari 2026, s. 13 ff.

[7] Inspektionen för socialförsäkringen, Automatisering och AI i socialförsäkringen - En granskning av Försäkringskassans och Pensionsmyndighetens förutsättningar för en automatiserad handläggning, 2026:1.

[8] ISF, 2026, s. 115.

[9] ISF, 2026, s. 97-102, 116.

[10] ISF, 2026, s. 116.

[11] Konstitutionsutskottets betänkande (2025/26:KU6), Ökat informationsutbyte mellan myndigheter – en ny sekretessbrytande bestämmelse.

[12] SOU 2025:108, s. 282 f, och s. 294.

[13] Europaparlamentets och Rådets förordning (EU) 2024/1689 om artificiell intelligens, 13 juni 2024, bilaga III - AI-system med hög risk som avses i artikel 6.2.

[14] Amnesty International, Coded Injustice – Surveillance and Discrimination in Denmark’s Automated Welfare System, 2024.

[15] Avslutad tillsyn efter att Försäkringskassan tagit AI-system ur bruk, 18 november 2025, Webkälla IMY, senast besökt 16 februari 2026.

[16] Svenska Dagbladet, Hemlig AI såg oskyldiga kvinnor som vab-fuskare, 27 november 2024.

[17] Amnesty International, Coded Injustice – Surveillance and Discrimination in Denmark’s Automated Welfare System, 2024, s. 39.

[18] Försäkringskassan, Svar på regeringsuppdrag. Försäkringskassans arbete med artificiell intelligens, dnr FK 2025/000547, s. 14.

[19] OECD (2025), Harnessing Artificial Intelligence in Social Security: Use Cases, Governance and Workforce Readiness, OECD, Digital Government Studies, OECD Publishing, Paris, s. 38.

[20] Ibid.

[21] EU:s byrå för grundläggande rättigheter (FRA ), Assessing High-risk Artificial Intelligence – Fundamental rights risks, 2025 och Digitalising Justice – a fundamental rights-based approach.

[22] Institutet för mänskliga rättigheter, remissvar över betänkandet Anpassningar till AI-förordningen —Säker användning, effektiv kontroll och stöd för innovation (SOU 2025:101), dnr 3.2.1-776/2025.

[23] Commission Guidelines on prohibited artificial intelligence practices established by

Regulation (EU) 2024/1689 (AI Act), C (2025) 5052 final, 29 juli 2025, p. 148.

Datum:
25 februari 2026
Svar på:
SOU 2025:108

Sidan uppdaterad: