AI är en integrerad del av handelsbranschen. Forskare har utvecklat en modell stöder systematiskt arbetsmiljöarbete i AI-frågor. Bild: iStock/gorodenkoff.

Modell ger trygghet i arbetsmiljöer med AI

En ny modell ska hjälpa handelsföretag att följa upp och förbättra arbetsmiljöer där artificiell intelligens används. Den kompletterar föreskriften om systematiskt arbetsmiljöarbete.

Artificiell intelligens är redan en integrerad del av handelsbranschen. Smarta produktrekommendationer, effektiv lagerhantering, personaliserad marknadsföring och verktyg för att minska klimatpåverkan är bara några exempel. Handeln står mitt i ett digitalt skifte som i grunden kommer att förändra handelns arbetsmiljö och arbetsvillkor för dem som jobbar i branschen.

Stefan Cronholm är professor i informationsteknologi vid Högskolan i Borås och har studerat hur de som jobbar inom handeln påverkas av AI. Tillsammans med kolleger har han utvecklat en ny forskningsbaserad modell som ska hjälpa handelsföretag att hantera de organisatoriska och sociala arbetsmiljörisker som kan uppstå. Forskningen, som Handelsrådet finansierade, presenterades i september 2025 i rapporten Arbetsmiljö i en digital värld – populärvetenskaplig slutrapport.

AI-användning kommer att leda till ett större oberoende men minskad kontroll”
Citat av deltagare i studien.

Stefan Cronholm och hans kolleger identifierade i sin forskning åtta utmaningar för anställda: kontroll, ansvar, meningsfullhet, delaktighet, AI-strategi, formell utbildning och kontinuerligt lärande, människa–AI-beslutsfattande samt välbefinnande och arbetstillfredsställelse.

Stefan Cronholm,
Högskolan i Borås.
Bild: Pressbild.

Flera av utmaningarna hänger nära samman. Upplevelsen av minskad kontroll påverkar både stressnivåer och tillit till tekniken.

– Flera deltagare i studien upplevde att de inte får kontroll på alla detaljer, utan de får förlita sig på det som AI-verktygen gör, säger Stefan Cronholm.

Det kallas för black box-effekten, när det inte finns förståelse fullt ut för alla algoritmer som ligger bakom.

Ansvarsfrågan är särskilt komplex, i synnerhet då det blir fel:

– Det är alltid människan som är ansvarig om man fattar ett felaktigt beslut, oavsett om det leder till sämre lönsamhet för företaget eller om det är ett etiskt felaktigt beslut.

Samtidigt råder osäkerhet kring var ansvaret faktiskt ligger i praktiken – hos utvecklaren, ledningen eller den som använder verktyget i vardagen. Stefan Cronholms uppfattning är att många spontant skulle säga att det är datorn som gjort fel.

– En maskin kan inte ställas inför rätta. Det måste vara en människa som är ansvarig, säger han.

En gråzon uppstår mellan människa och teknik som kan skapa både etisk osäkerhet och arbetsmiljörisker.

Ledningen vill att vi ska använda AI men vi har inte fått någon formell utbildning, vilket skulle göra att vi blir mer effektiva.”
Citat från deltagare i studien.

En annan iakttagelse forskarna gjorde är bristen på utbildning. I studien frågade forskarna de anställda om de fått någon formell utbildning i AI-verktygen. Men svaren blev nekande. De som använde AI-verktyg visade sig vara självlärda. Men att interagera med generativa AI-verktyg kräver dock kompetens, konstaterar Stefan Cronholm.

– Då finns en risk att medarbetare missar viktiga funktioner och att det uppstår kompetensskillnader som skapar klyftor i arbetsgruppen. Det kan i sig bli en arbetsmiljöfråga.

Människor är viktigare än AI
Citat från deltagare.

Forskarna beskriver utvecklingen som en socioteknisk omställning. För tio år sedan handlade automatisering främst om att ersätta farliga, monotona och repetitiva arbetsuppgifter. Nu ser man en annan tendens:

– Det som håller på att hända nu och som är mer riskfyllt, är att AI håller på att ta över våra kreativa arbetsuppgifter, alltså det vi tycker är roligt och därför vi går till jobbet.

Utvecklingen väcker frågor om meningsfullhet och motivation. Om AI inte bara effektiviserar utan också standardiserar och tar över kreativa moment kan det påverka arbetsglädjen.

Forskarna menar att vi befinner oss i ett skede där reflektion är nödvändig: vilken framtid vill vi ha, och hur ska AI integreras i arbetslivet?

För att möta de identifierade utmaningarna har forskargruppen utvecklat en modell som de kallar AI Proaktiv Arbetsmiljö, AI-PROAM. Den är framtagen för att komplettera föreskriften om systematiskt arbetsmiljöarbete, SAM, men är specifikt inriktad på arbetsmiljöer där AI förekommer.

Modellen är uppbyggd i fem faser: förberedelser, risk- och problemanalys, åtgärder, uppföljning samt reflektion och lärande. Den centrala idén är att arbetsmiljöarbetet ska vara kontinuerligt och integrerat i verksamheten – inte något som görs i efterhand när problem redan uppstått.

– Vi utgår från ett sociotekniskt perspektiv, och sätter människan i förgrunden, säger Stefan Cronholm.

Samtidigt betonar forskarna att graden av AI-inslag kan variera och att ambitionen bör vara att AI fungerar som förstärkning.

I risk- och problemanalysen används en struktur baserad på förutsättningar, handlingar och konsekvenser. Det gör det möjligt att analysera hur exempelvis avsaknad av AI-strategi leder till ad hoc-användning av AI och i förlängningen till otydligt ansvar eller ökade kompetensskillnader.

Forskarna har även testat att använda generativ AI som stöd i arbetsmiljöarbetet – exempelvis för att ta fram utkast till AI-strategier eller förslag på riskreducerande åtgärder.

– Förslagen är förvånansvärt bra att utgå ifrån och anpassa till den egna organisationen, säger Stefan Cronholm.

Om vi ska använda AI på vår arbetsplats måste vi få klara direktiv”
Citat av deltagare.

En viktig slutsats är att AI-frågan inte kan lämnas helt till enskilda medarbetare.

– Jag trodde att ledningen skulle styra mer i ai-frågan, men det har tagit längre tid att få på plats en genomtänkt strategi. Efter en period av prövande behöver ledningen gå in med en strategi som skapar trygghet för personalen.

Stefan Cronholm och kolleger anser att modellen kan komma till nytta i flera branscher.

– När vi tittar på resultaten så tycker vi att de har en större generell giltighet än bara inom handelssektorn.

Jonna Söderqvist

AI PROAM

AI-PROAM – Proaktiv Modell för utvärdering av AI-förstärkta arbetsmiljöer
Syfte:
AI-PROAM är en systematisk och proaktiv modell som syftar till att utvärdera och förbättra arbetsmiljöer där AI-teknologi används. Modellen hjälper organisationer att identifiera risker, problem och förbättringsområden samt att vidta åtgärder för att säkerställa en hållbar och positiv arbetsmiljö.

Faser:
1. Förberedelser: Säkerställ goda förutsättningar för uppföljning genom att samla in relevant information om lagar, styrdokument och tidigare uppföljningar.
2. Risk- och problemanalys: Identifiera och analysera potentiella risker och problem som kan påverka medarbetarnas arbetsmiljö när AI används.
3. Åtgärder: Vidta konkreta och anpassade åtgärder för att förbättra arbetsmiljön baserat på den genomförda analysen.
4. Uppföljning: Utvärdera om de vidtagna åtgärderna har haft önskad effekt och om nya risker eller problem har uppstått.
5. Reflektion och lärande: Skapa utrymme för att reflektera över och dra lärdom från arbetet för att kontinuerligt förbättra och anpassa arbetsmiljöarbetet.

Fokusområden:
• Kontroll och ansvar
• Strategi och delaktighet
• Utbildning och meningsfullhet
• Beslutsfattande och välbefinnande

Metodik:
AI-PROAM använder en rad verktyg som enkäter, intervjuer, riskanalyser och metodiker som Root-Cause Analysis och SWOT-analys för att identifiera, bedöma och åtgärda problem inom AI-förstärkta arbetsmiljöer.

Mål:
Att säkerställa en trygg, inkluderande och hållbar arbetsmiljö där AI bidrar till ökad produktivitet utan att skapa ojämlikheter eller social ohälsa.

Källa: Arbetsmiljö i en digital värld.