AI-verktyg är också leverantörskedjor: en checklista för säkrare automation

Adam Olofsson HammareAdam Olofsson Hammare
AI-verktyg är också leverantörskedjor: en checklista för säkrare automation

Det är lätt att tänka på AI som en knapp i webbläsaren: öppna verktyget, skriv en fråga, få ett svar. Men så fort AI börjar kopplas till mejl, dokument, kundsystem, kod, automationsflöden utan kod eller skolplattformar blir AI inte bara ett verktyg. Det blir en liten leverantörskedja.

En leverantörskedja för AI betyder alla delar som måste vara friska för att arbetsflödet ska vara tryggt: modellen, appen, programvarupaketet, webbläsartillägget, inloggningen, automationskontot, åtkomstnyckeln, den låsta versionslistan, byggmiljön och personen som godkänner resultatet. Mistrals färska incident med utvecklarpaket visar varför även mindre organisationer behöver en enkel kontrollista innan AI-agenter får röra riktiga konton.

Källa: Mistral Security Advisories

Varför detta är relevant för företag som inte är utvecklarbolag

Det här är inte bara en fråga för utvecklarteam. Det berör er om ni använder AI för att:

  • Svara på kundmejl eller supportärenden där ett felaktigt svar kan påverka förtroende eller avtal.
  • Sammanfatta dokument, avtal eller elevunderlag där källor och behörigheter måste vara tydliga.
  • Köra automation i webbläsaren med inloggade konton, portaler eller interna instrumentpaneler.
  • Bygga flöden utan kod där ett tillägg, en koppling eller en åtkomstnyckel kan få stor åtkomst.
  • Ta fram rapporter, offerter, policyer eller lektionsmaterial som någon annan kan råka behandla som färdigt beslutsunderlag.

För Hammer Automations läsare är målet inte att skapa ett tungt säkerhetsprogram. Målet är att ha tillräckligt tydliga spärrar för att våga använda AI i vardagen.

Vad Mistral-incidenten faktiskt visar

Den 12 maj publicerade Mistral en säkerhetsrådgivning om en attack mot leverantörskedjan kopplad till TanStack-incidenten. Mistral skriver att nuvarande utredning pekar på en påverkad utvecklarenhet och att de inte har någon indikation på att Mistrals infrastruktur komprometterades.

Det viktiga för vardagliga AI-flöden är ändå konkret: vissa NPM-paket och PyPI-versionen mistralai==2.4.6 publicerades under en kort tidsperiod. GitHub-rådgivningen för Python-paketet klassar den versionen som kritisk och beskriver skadlig kod för Linux som kan köras när berörda moduler importeras. Rådgivningen för NPM bedömer de berörda JavaScript-paketen som låg risk eftersom den skadliga laddaren var trasig, men rekommenderar fortfarande borttagning om versionerna finns i miljöer, låsta versionslistor, cacheminnen eller byggartefakter.

Källa: Mistral MAI-2026-002

Källa: GitHub-rådgivning för Python SDK

Källa: GitHub-rådgivning för TypeScript SDK

Det här betyder inte att ni ska sluta använda AI-verktyg. Det betyder att AI-verktyg ska behandlas som annan affärskritisk mjukvara: versioner ska kunna kontrolleras, uppdateringar ska ha en ägare och det ska finnas en plan om något behöver stängas av snabbt.

Den enkla kontrollistan: sju frågor innan AI får åtkomst

Använd den här listan när ett nytt AI-verktyg, webbläsartillägg, utvecklarpaket eller koppling utan kod ska in i ett riktigt arbetsflöde.

1. Vilka AI-delar använder vi faktiskt?

Skriv upp de delar som är aktiva, inte bara de ni minns från inköpsmötet:

  • AI-appar och chattverktyg.
  • Webbläsartillägg och agenttillägg.
  • Kopplingar till Google Workspace, Microsoft 365, CRM, lärplattformar, ekonomisystem eller ärendehantering.
  • Utvecklarpaket i egna skript, webbplatser eller interna appar.
  • Flöden utan kod i verktyg som Zapier, Make, n8n eller liknande.
  • Åtkomstnycklar och delade inloggningar.

Om listan inte finns, går det inte heller att veta vad som ska kontrolleras vid en incident.

2. Finns versionskontrollen på rätt ställe?

En låst versionslista anger exakta paketversioner så att samma miljö kan byggas igen. För AI-flöden är sådana listor viktiga eftersom ett problem kan finnas i en specifik version, inte i hela verktyget.

För de flesta organisationer räcker ofta en praktisk regel: om ett AI-flöde är viktigt nog att köras varje vecka, ska någon kunna svara på vilken app, koppling, modell, paketversion och webbläsarprofil som används.

3. Kan vi hitta riskversioner efteråt?

Mistrals rådgivning nämner inte bara installerade paket. Den pekar också på låsta versionslistor, byggartefakter, containerbilder, paketcache och privata kopior. Översatt till vardagsspråk: en riskversion kan ligga kvar även om den inte syns i det verktyg ni öppnar dagligen.

För ett icke-tekniskt team kan uppgiften formuleras enkelt: vem kan söka igenom projektmappen, automationsservern eller leverantörens loggar om en säkerhetsrådgivning säger “leta efter version X”?

4. Kör agenten med rätt konto?

Om AI använder webbläsaren eller en koppling ska den inte automatiskt ärva en ägares fulla åtkomst. Använd helst separata automationskonton, minsta möjliga behörighet och tydliga regler för vad kontot får läsa, skapa, ändra och radera.

Det här blir extra viktigt när fler verktyg rör sig mot AI-agenters användning av webben, webbläsaren och datorn. När AI kan klicka, hämta filer och agera i inloggade system blir kontot en säkerhetsgräns, inte bara en bekvämlighet.

5. Vilka webbläsartillägg får vara påslagna?

Ett webbläsartillägg kan se eller påverka mer än teamet tänker på. Skapa därför en enkel policy:

  • Installera bara tillägg som har en tydlig ägare.
  • Ta bort tillägg som inte används.
  • Kontrollera vilka sidor och data tillägget får åtkomst till.
  • Separera gärna privat surfning, administratörsarbete och AI-automation i olika profiler.

6. Vad gör vi om ett verktyg blir misstänkt?

Ha en kort åtgärdsplan innan något händer:

  • Pausa berörda automationsflöden.
  • Byt eller rotera åtkomstnycklar, lösenord och tokens som kan ha exponerats.
  • Kontrollera om riskversioner finns i cache, containerbilder eller gamla driftsättningar.
  • Dokumentera vad som var kopplat till verktyget.
  • Bestäm vem som informerar kunder, personal eller elever om det behövs.

Det är bättre att ha en enkel lista på en sida än en perfekt policy som ingen hittar.

7. Hur granskar vi AI-resultatet innan det blir beslut?

OpenAI:s Parameter Golf-utvärdering pekar på en större trend: AI-agenter kan kraftigt öka mängden experiment, kod och förslag, men de skapar också nya problem för granskning, attribution och poängsättning. Samma sak gäller i små företag. Om AI skriver ett kundsvar, en offert, en policy eller en rapport behöver ni veta vad som räknas som godkänt.

Källa: OpenAI — What Parameter Golf taught us

En enkel intern poängsättning kan fråga:

  • Är uppgiften rätt förstådd?
  • Finns källor eller underlag?
  • Kan resultatet skada kund, elev, ekonomi eller varumärke om det är fel?
  • Vem granskar innan det skickas, publiceras eller automatiseras?
  • Hur rullar vi tillbaka om något blev fel?

Lägg till driftmognad, inte rädsla

Claude-statussidan från de senaste veckorna visar också en vardaglig sanning: även starka AI-tjänster kan ha incidenter, förhöjda fel, integrationsproblem eller komponenter som tillfälligt störs. Det är normalt i digital drift. Skillnaden mellan stress och kontroll är om ni vet vilka arbetsflöden som kan vänta, vilka som behöver reservrutin och vilka som måste stoppas säkert.

Källa: Claude Status incident history

Rätt nivå är ofta:

  • En ägare för varje viktigt AI-flöde.
  • En versions- och åtkomstlista som uppdateras när verktyg byts.
  • En godkännanderegel för kundpåverkande åtgärder.
  • En reservrutin när modellen, kopplingen eller webbläsaren inte fungerar.
  • En kvartalsvis städning av tillägg, nycklar och gamla automationsflöden.

Ett praktiskt nästa steg

Välj ett enda AI-flöde som redan används eller är nära att användas: kanske kundmejl, mötesanteckningar, rapportutkast, skolkommunikation eller webbläsarautomation. Rita upp kedjan från källa till beslut:

  • Vilka system läser AI?
  • Vilket konto kör flödet?
  • Vilka paket, tillägg eller kopplingar ingår?
  • Vad får AI ändra utan mänskligt godkännande?
  • Var loggas resultatet?
  • Vad är manuell reservrutin?

Om ni inte kan svara på de frågorna ännu är det inte ett misslyckande. Det är precis där ett lättviktigt Verktygssmide kan börja: gör ett flöde säkert nog att använda, innan ni kopierar det till tio andra arbetsuppgifter.