NYHETER

Förbud och krav följer med ny EU-lag om AI

AI som känner in känslor på en arbetsplats kommer att förbjudas, om det inte handlar om säkerhet. Det är en del av innehållet i EU:s AI-förordning som börjar gälla efter sommaren.

AI som har känsloigenkänning blir förbjuden på arbetsplatser, med vissa undantag. Anställning och arbetsledning betraktas som högriskområden, vilket ställer krav. Det är några exempel på hur den nya AI-förordningen påverkar arbetsmarknaden.

Publicerad Uppdaterad

AI-förordningen

 I april 2021 kom EU-kommissionen med ett lagförslag om AI. I december 2023 kommer ministerrådet och parlamentet överens om förordningen. Under våren har ministerrådet och parlamentet antagit den. Den 13 juni skrevs den under. 20 dagar efter att den har publicerats börjar den gälla.

 Ett AI-system, enligt förordningen, är system som kan lära sig och anpassa sig utan mänsklig inblandning, och kunna generera resultat i form av exempelvis förutsägelser, innehåll, rekommendationer eller beslut. För att omfattas av de regleringar som finns i förordningen krävs att systemet bedöms innehålla någon form av risk.

 De nya reglerna förbjuder vissa AI-tillämpningar. På AI-system med hög risk ställs det tydliga krav på vad de ska uppfylla för att få användas. Det kommer också att ställas vissa krav på AI-system för allmänna ändamål och fler krav på kraftfullare modellerna som skulle kunna utgöra systemrisker. Det måste också framgå om bild-, ljud- eller videoinnehåll är fabricerad eller manipulerad.

 Förbjudna AI-tillämpningar börjar gälla sex månader efter att förordningen träder i kraft. Övriga regler börjar gälla om två år, med vissa undantag.

Förmånligare regler för skydd av arbetstagare i lag och kollektivavtal är tillåtna.

Bakgrund

Chat GPT lanserades den 30 november 2022 och plötsligt var fenomenet AI, artificiell intelligens, på allas läppar. Nu är AI inget nytt, utan något vi använt länge. Men de flesta var troligen omedvetna om att sökningen på nätet eller automatiska översättningar var AI.

Med Chat GPT kom begreppet generativ AI. Det är artificiell intelligens som använder system och modeller som skapar nytt innehåll som till exempel text, bild, film och ljud. Det här ses som första steget mot allt kraftfullare system som kommer att kunna göra ännu mer.

Strax börjar AI-förordningen gälla. Den antogs under våren, kommer troligen publiceras i juli och börja gälla i augusti. Viss AI-användning kommer att förbjudas helt, exempelvis AI som manipulerar mänskligt beteende eller utnyttjar människors sårbarheter. AI som känner in känslor på en arbetsplats kommer att förbjudas, om det inte handlar om säkerhet, exempelvis då systemet känner av att någon blir trött.

AI förknippat med hög risk blir fortsatt tillåten, men det kommer att ställas krav. Anställning och arbetsledning är högriskområden, enligt förordningen. Exempel på andra områden som har hög risk är kritisk infrastruktur och utbildning. 

Använder en arbetsgivare ett AI-system vid sin rekrytering eller sitt urval av fysiska personer, ställer förordningen upp vissa regler. Dessa gäller särskilt när det gäller riktade platsannonser, analyser och filtrerade platsansökningar och utvärdering av kandidater. Arbetsgivaren måste till exempel spara loggar och följa bruksanvisningen. Men även ha AI-kompetens och informera den som får ett AI-genererat beslut, att det är ett sådant beslut.

Dessutom finns ett krav i förordningen om att informera berörda medarbetare och de fackliga organisationerna. Den här skrivningen ville svenska fackliga organisationer inte ha in i förordningen, eftersom det är oklart om det kan påverka den svenska modellen. Linda Larsson, utredare på LO, menar att det exempelvis redan finns en informationsskyldighet I mbl.

– Det har kommit in ett antal skrivningar under förhandlingsresans gång som väcker frågor om dubbelreglering och vad som bör regleras inom ramen för den rättsliga grunden. Vår nuvarande bedömning är att skrivningarna är okej, men det finns alltid risker när det kommer in dubbelrättigheter, säger hon.

AI-system som användas för beslut som påverkar villkoren i arbetsrelaterade förhållanden som befordring och uppsägning är också högrisksystem och måste följa de särskilda kraven ovan för att miniminera risker. Det gäller även fördelning av uppgifter som grundar sig på individuellt beteende eller personlighetsdrag eller egenskaper. Samma sak gäller vid övervakning och utvärdering av personers prestationer och beteende.

– Det är många som tror att AI på arbetsplatsen ligger långt fram i tiden och mest berör tjänstemän och rekrytering. Men framtiden är redan här på LO-arbetsplatser i form av exempelvis mer eller mindre avancerade algoritmbaserade arbetsledningssystemen som till exempel pick by voice, säger Linda Larsson.

Den höga risken handlar om att det finns en potentiell risk för skada på hälsa, säkerhet, grundläggande rättigheter, miljö, demokrati och rättsstatlighet.

Enligt Susanne Stenberg, senior forskare och rättslig expert på RISE som är ett oberoende statligt forskningsinstitut, handlar AI-förordningen till stor del om produktsäkerhet. Den som erbjuder eller använder ett AI-system på den inre marknaden ansvarar för att det är tillräckligt säkert.

–  Vi ska kunna lita på att AI-systemet som produkt går att använda, att det är säkert och tillförlitligt för dess användningsområde. Att dess modeller är tränade på rätt data på rätt sätt, testade och validerade, så att systemet till exempel inte bygger på modeller som är felaktigt tränade och ger resultat som är diskriminerande.

– Som anställd har du rätt att veta om din arbetsgivare använder ett AI-system vid befordran, säger Håkan Burden, också senior forskare på RISE.

Därför kommer den nya förordningen innebära att det tar lite längre tid för vissa produkter att komma ut på marknaden. Men när de släpps så vet vi att de är säkra, de är testade och transparanta, menar Håkan Burden.

– Man kan få ökad effektivitet genom att använda AI i sin verksamhet. Men då ska man också se till att medarbetarna har rätt förutsättningar för att använda systemen, avslutar Håkan Burden.

 Den som väljer att investera en del arbete i att förstå både hur reglerna och tekniken kan användas har möjligheter, enligt Susanne Stenberg. AI-förordningen kräver arbete, och kan också fungera som ett kvalitetsledningssystem. 

 Både Håkan Burden och Susanne Stenberg uppmuntrar aktörer att ta aktiv del i standardiseringen och att dela med sig om hur olika AI-verktyg kan utvecklas och användas på ett sätt som möter EUs marknadskrav på säkra och tillförlitliga produkter. Det är en möjlighet att påverka utvecklingen, att hur AI-system fungerar på europeisk marknad blir standard.