SubQ: 12 miljoner tokens kan ändra hur AI-agenter arbetar

Adam Olofsson HammareAdam Olofsson Hammare
SubQ: 12 miljoner tokens kan ändra hur AI-agenter arbetar

Subquadratic har lämnat dolt utvecklingsläge med SubQ, en modell som företaget beskriver som den första fullt subkvadratiska LLM:en för långkontextarbete. Den stora rubriken är enkel att förstå: upp till 12 miljoner tokens i kontextfönster. Om löftet håller i praktiken kan AI-agenter få läsa hela kodbaser, långa projekttrådar, kontraktsarkiv och månader av arbetsminne utan att allt först måste hackas upp i små bitar.

Det här är inte bara ännu en modell med större siffra i specifikationen. SubQ riktar in sig på en av de dyraste flaskhalsarna i dagens AI-system: att lång kontext ofta kräver RAG, chunkning, promptkedjor, agentorkestrering och mycket handbyggd logik innan modellen ens får börja resonera.

Källa: Subquadratic – Introducing SubQ

Vad är SubQ?

SubQ är en långkontext-LLM från Subquadratic. Företaget säger att modellen är byggd på Subquadratic Sparse Attention, förkortat SSA. Enkelt uttryckt försöker SSA undvika att modellen jämför varje token med varje annan token när textmängden blir enorm.

I klassiska transformer-modeller växer attention-arbetet ungefär kvadratiskt. Dubblar du mängden kontext kan kostnaden för attention växa ungefär fyra gånger. Det är en viktig anledning till att riktigt långa prompts blir dyra, långsamma och ibland mindre pålitliga.

Subquadratics påstående är att SubQ i stället kan skala närmare linjärt: modellen ska fokusera på de relationer som faktiskt spelar roll och hoppa över stora mängder onödiga jämförelser.

Källa: Subquadratic – How SSA Makes Long Context Practical

Vad gör SubQ?

SubQ är byggd för uppgifter där svaret inte ligger i ett enskilt kort dokument, utan är utspritt över mycket material.

Exempel på arbetsflöden där 12 miljoner tokens kan spela roll:

  • Hela kodbaser: läsa källkod, tester, historik och beroenden i ett sammanhang.
  • Långt projektminne: låta en agent förstå tidigare beslut, ändringar, buggar och kundkrav.
  • Kontrakt och policy: resonera över definitioner, undantag, bilagor och korsreferenser.
  • Forskning och analys: jämföra många rapporter utan att tappa struktur och ursprung.
  • Kundservice och operations: hålla ihop kunskapsbas, ärendehistorik och interna rutiner.

Subquadratic marknadsför två centrala produkter: SubQ API, ett OpenAI-kompatibelt API för långkontextanrop, och SubQ Code, ett lager för kodagenter som ska kunna kopplas till verktyg som Claude Code, Codex och Cursor.

Källa: Subquadratic – Efficiency is Intelligence

Varför 12 miljoner tokens är mer än en imponerande siffra

Ett stort kontextfönster betyder inte automatiskt att modellen fungerar bra. Det viktiga är skillnaden mellan ett nominellt kontextfönster och ett funktionellt kontextfönster.

  • Nominellt kontextfönster: hur mycket text modellen tekniskt kan ta emot.
  • Funktionellt kontextfönster: hur mycket text modellen faktiskt kan använda pålitligt när den ska hitta, väga och resonera över information.

Det är därför SubQ-nyheten är intressant. Företaget säger inte bara “vi kan stoppa in mer text”. Det säger att arkitekturen gör lång kontext billigare, snabbare och mer användbar för riktiga arbetsflöden.

Subquadratic uppger bland annat:

  • 12M-token reasoning i forskningsresultat.
  • 150 tokens per sekund enligt företagets produktsida.
  • Cirka en femtedel av kostnaden jämfört med andra ledande LLM:er enligt företagets egna påståenden.
  • Nästan 1 000 gånger lägre attention compute vid 12M tokens jämfört med traditionella frontier-modeller.

De siffrorna ska behandlas som leverantörspåståenden tills fler oberoende tester finns. Men om ens en del av dem håller kan det påverka hur företag bygger AI-system.

Källa: Subquadratic – Efficiency is Intelligence

Varför detta spelar roll för företag, skolor och små team

För små företag, skolor och icke-tekniska team är RAG och agentorkestrering ofta mer komplicerat än själva AI-idén. Man vill inte börja med vektordatabaser, chunkningsstrategier, re-ranking, evals och felhantering. Man vill att AI:n ska förstå verksamhetens material och hjälpa till.

Om långkontextmodeller blir billigare och mer pålitliga kan fler AI-projekt börja enklare:

  • Lägg in hela policydokumentet, inte bara fem chunks.
  • Låt en agent läsa hela kursplanen, inte bara en sökträff.
  • Ge en supportagent ärendehistorik och interna rutiner samtidigt.
  • Låt en kodagent se relationer över hela repo:t innan den ändrar något.

Det betyder inte att RAG försvinner. För stora organisationer behövs fortfarande behörigheter, versionskontroll, spårbarhet och datastyrning. Men balansen kan ändras: mindre handbyggd infrastruktur, mer direkt resonemang över sammanhang.

För Hammer Automations målgrupp är den praktiska frågan: vilka återkommande arbetsflöden skulle bli enklare om AI:n kunde läsa hela sammanhanget från början? Det är där värdet finns, inte i tokenrekordet i sig.

Benchmarks: lovande, men inte färdigdömt

Subquadratic visar resultat på bland annat RULER 128K, MRCR v2 och SWE-Bench Verified. Företagets produktsida anger att SubQ 1M-Preview når 81,8 procent på SWE-Bench Verified, 95,0 procent på RULER 128K och 65,9 procent på MRCR v2 vid 1M tokens.

Det är starka signaler, särskilt eftersom långkontextkvalitet ofta faller när modellen måste hålla ihop mycket utspridd information. Samtidigt finns viktiga reservationer:

  • Den fullständiga tekniska rapporten är ännu inte publicerad.
  • Tillgången är privat beta, inte brett produktionsbevis.
  • Vissa sekundära analyser betonar att oberoende reproduktion fortfarande saknas.
  • Benchmarks säger inte alltid hur modellen beter sig i röriga verkliga processer.

Det mest seriösa sättet att läsa nyheten är därför: potentiellt stort arkitekturskifte, men ännu inte bevisat som ny standard.

Källa: Subquadratic – Efficiency is Intelligence

Källa: Fello AI – SubQ Review

Finansiering och marknadssignal

SiliconANGLE rapporterar att Subquadratic lanseras med 29 miljoner dollar i seed-finansiering. Det är viktigt eftersom långkontextmodeller inte bara är en forskningsfråga; de kräver dyr infrastruktur, benchmarkarbete, API-produkt, utvecklarrelationer och företagsförsäljning.

Marknadssignalen är tydlig: investerare tror att nästa steg i AI inte bara handlar om smartare korta svar, utan om modeller som kan arbeta över hela arbetsytor.

Källa: SiliconANGLE – Subquadratic launches with $29M

Vad bör du bevaka härnäst?

För organisationer som vill använda AI praktiskt är det för tidigt att bygga allt på SubQ. Men det är helt rätt tid att följa utvecklingen.

Bevaka särskilt:

  • Teknisk rapport: hur SSA faktiskt fungerar och vilka kompromisser som finns.
  • Oberoende benchmarks: särskilt på verkliga kodbaser, dokumentarkiv och multi-hop-frågor.
  • Prissättning: om kostnadsfördelen håller i kommersiell API-användning.
  • Dataskydd och åtkomstkontroll: lång kontext gör fel behörighet farligare.
  • Agentintegrationer: om SubQ Code faktiskt förbättrar vardagliga coding-agent-flöden.

Slutsats: mindre sök, mer sammanhang

SubQ är intressant eftersom den pekar mot en annan AI-designfilosofi. I stället för att bygga allt runt sök, chunkning och komprimering försöker modellen bära mer av sammanhanget själv.

Om Subquadratics påståenden håller kan långkontext-LLM:er göra AI-agenter mer praktiska: färre trasiga mellanled, mindre manuell promptlogik och bättre förståelse för hela arbetsflöden.

För små företag och skolor är lärdomen enkel: börja kartlägga de processer där informationen redan finns, men är utspridd. När modeller kan läsa mer på en gång blir just de processerna först att automatiseras bättre.