Populære LLM-er

Denne siden inkluderer både modellfamilier og en konkret modellkatalog med mange navngitte modeller som team aktivt evaluerer våren 2026. Sist oppdatert: 8. april 2026.

📢 Oppdateringer april 2026

Norske språkmodeller er i aktiv utvikling: NbAiLab har lansert NB-Llama-3.2 modeller, NorMistral nå med extended context, og NorwAI-modellene fra NTNU er i produksjon. Se full oppdatering om norske modeller.

⚖️ Hvorfor Apache 2.0-lisensen for modeller er viktig

Apache 2.0 er en kritisk åpen kildekode-lisens for åpne språkmodeller. Her er hvorfor det betyr noe:

OpenAI GPT-familien

Hvorfor den er god: svært sterk generell resonnering, høy kodekvalitet, bredt økosystem og stabil API-drift.

Mulige ulemper: høyere kostnad ved store volumer, og mindre kontroll enn egenhostede alternativer.

Passer best for: produksjonsassistenter, utviklerverktøy og høykvalitets chat- og analysearbeidsflyter.

Anthropic Claude-familien

Hvorfor den er god: svært god bruk av lang kontekst, sterk skrivekvalitet og forsiktig stil for policyfølsomme scenarioer.

Mulige ulemper: kan være mer konservativ enn ønsket i enkelte produktopplevelser.

Passer best for: kunnskapsassistenter i bedrift, juridisk/operativ skriving og gjennomgang av lange dokumenter.

Google Gemini-familien

Hvorfor den er god: sterk multimodal støtte, svært kapabel i syn + tekst-pipelines, og godt egnet for brukere av Google Cloud.

Mulige ulemper: konsistensen kan variere på tvers av prompt-stiler og smale kodeoppgaver.

Passer best for: multimodale apper, søkeforsterkede arbeidsflyter og Google-baserte stakker.

Meta Llama-familien

Hvorfor den er god: fleksibilitet med åpne vekter, sterkt fellesskapsstøtte og enklere alternativer for egenhosting.

Mulige ulemper: krever mer intern ML-/plattforminnsats for topp kvalitet og driftssikkerhet.

Passer best for: kostnadsbevisste produkter, private utrullinger og tilpassede finjusteringsløp.

Mistral-modeller

Hvorfor den er god: effektive modeller med sterk balanse mellom hastighet og kvalitet, og bred europeisk adopsjon.

Mulige ulemper: økosystem og verktøystøtte kan være smalere enn hos hyperskaler-plattformer.

Passer best for: latenstidssensitive assistenter, kompakte modellutrullinger og regionale etterlevelseskrav.

Qwen- og DeepSeek-familiene

Hvorfor de er gode: ofte sterk ytelse i koding og resonnering sett opp mot kostnad, og populære i ytelsestester av åpne modeller. Qwen3.6-35B-A3B er en MoE-modell (35B totalt, 3B aktive) med hybrid tenk-modus, 262K tokens native kontekst, multimodal støtte (tekst, bilde, video) og agentisk koding med resonnering på repo-nivå. AIME 2026: 92,7 — GPQA Diamond: 86,0 — SWE-bench Verified: 73,4.

Mulige ulemper: utrullings- og etterlevelsesvurdering kreves i regulerte bedriftsmiljøer; tenk-modus øker latens for enkle oppgaver.

Passer best for: agentisk koding, private utrullinger, verdifokuserte inferenslag og team som trenger kontrollerbar resonneringsdybde uten API-avhengighet.

Konkret modellkatalog (2026)

Denne listen er bevisst bred, slik at du kan lage en kortliste med eksakte modellnavn før du kjører egne ytelsestester.

Direktelenker til modeller

Rask tilgang til de mest etterspurte modelsidene: GPT models, Claude models, Gemini models, Llama 3.1 8B, Llama 3.1 70B, Mixtral 8x7B, Qwen2.5 7B, Qwen2.5 32B, DeepSeek V3, DeepSeek R1, Phi-3 Medium.

Modell Leverandør Kategori Passer for Vær obs på Nedlasting / Tilgang
GPT-4.1 OpenAI Lukket Generell resonnering og koding Premiumkostnad API-tilgang
GPT-4o OpenAI Lukket multimodal Rask assistentopplevelse og multimodale oppgaver Kostnad ved høy skala API-tilgang
GPT-4o mini OpenAI Lukket liten Kostnadssensitiv høyvolum-automatisering Lavere tak på krevende resonnering API-tilgang
o1 OpenAI Resonnering-først Kompleks flertrinnslogikk Latenstid og kostnad per krevende forespørsel API-tilgang
o3-mini OpenAI Resonnering-effektiv Teknisk spørsmål/svar og kodearbeidsflyter Kan kreve prompt-justering API-tilgang
Claude 3.7 Sonnet Anthropic Lukket Skriving og analyse med lang kontekst Konservativ tone i noen flyter API-tilgang
Claude 3.5 Sonnet Anthropic Lukket Balansert kvalitet og stabilitet Kostnad ved svært store trafikk-topper API-tilgang
Claude 3.5 Haiku Anthropic Lukket liten Raske svar og triagering Mindre robust på de mest krevende oppgavene API-tilgang
Claude 3 Opus Anthropic Lukket flaggskip Syntese i høy-risiko scenarioer Gjennomstrømmingsøkonomi API-tilgang
Gemini 2.0 Pro Google Lukket Resonnering og multimodale bedriftsapper Oppgavevariasjon på tvers av prompt-stiler API-tilgang
Gemini 2.0 Flash Google Lukket rask Lav-latens assistent-endepunkter Lavere kvalitet enn premiumnivå API-tilgang
Gemini 1.5 Pro Google Lukket lang-kontekst Arbeidsflyter med svært lange dokumenter Pris/ytelse avhenger av belastning API-tilgang
Gemini 1.5 Flash Google Lukket rask Effektiv oppsummering og ekstraksjon Resonneringsdybde kan være begrenset API-tilgang
Llama 3.1 405B Instruct Meta Åpen vekt Toppnivå kvalitet i åpen utrulling Krever tung infrastruktur Download · 70B · 8B
Llama 3.1 70B Instruct Meta Åpen vekt Sterk balanse mellom kvalitet og kost ved egenhosting Krever god inferensstack Download · 405B · 8B
Llama 3.1 8B Instruct Meta Åpen vekt liten Edge- og lavkost-utrullinger Lavere ytelse på komplekse oppgaver Download · 70B · 405B
Llama 3.2 11B Vision Meta Åpen multimodal Private syn-tekst-pipelines Krever evalueringer for OCR-tunge tilfeller Download · 90B
Llama 3.2 90B Vision Meta Åpen multimodal Høykapasitets multimodal inferens Infrastrukturkompleksitet Download · 11B
Mistral Large Mistral AI Lukket Høykvalitets bedriftsassistenter Mindre økosystem enn hyperskalere API-tilgang
Mistral Medium Mistral AI Lukket Balansert produksjonsbruk Benchmark nøye mot alternativer API-tilgang
Mistral Small Mistral AI Lukket liten Rask og kostnadseffektiv chat Begrenset dybde i avansert resonnering API-tilgang
Mixtral 8x22B Mistral AI Åpen MoE Sterk genereringskvalitet med åpne vekter Operasjonell kompleksitet Download · 8x7B
Mixtral 8x7B Mistral AI Åpen MoE Effektiv egenhosting Kan ligge bak de nyeste lukkede modellene Download · 8x22B
Codestral Mistral AI Kode-spesialisert Kodegenerering og fullføring Smalere generell språkstyrke Download
Gemma 4 27B Google Åpen vekt Høykvalitets åpen modell med svær ytelse Krever god inferensinfrastruktur Download · 9B
Gemma 4 9B Google Åpen vekt liten Effektiv åpen modell for edge og offline Lavere resonneringsdybde Download · 27B
Gemma 2 27B Google Åpen vekt Solid ytelse for åpen utrulling Eldre enn Gemma 4 Download · 9B · 2B
Gemma 2 9B Google Åpen vekt liten Testet og stabil for egenhosting Apache 2.0 lisensert - viktig for åpen bruk Download · 27B
Qwen2.5 72B Instruct Alibaba Åpen vekt Resonnering og flerspråklige oppgaver Etterlevelsessjekker for enkelte regioner Download · 32B · 14B · 7B
Qwen2.5 32B Instruct Alibaba Åpen vekt Sterk kvalitet med lavere infrastrukturkost Prompt-justering er ofte nødvendig Download · 72B · 14B · 7B
Qwen2.5 14B Instruct Alibaba Åpen vekt Balansert privat utrulling Less robust on hardest tasks Download · 72B · 32B · 7B
Qwen2.5 7B Instruct Alibaba Åpen vekt liten Høy gjennomstrømming med lav kost i inferens Lavere resonneringsdybde Download · 14B · 32B · 72B
Qwen3.6-35B-A3B Alibaba Åpen vekt MoE multimodal MoE (35B totalt, 3B aktive); hybrid tenk-modus; 262K tokens native kontekst (opptil ~1M med YaRN); multimodal (tekst, bilde, video); agentisk koding på repo-nivå. AIME 2026: 92,7 — SWE-bench: 73,4 Etterlevelsesvurdering kreves; tenk-modus øker latens for enkle oppgaver Download · FP8
QwQ-32B Alibaba Åpen resonnering Privat bruk med resonneringsfokus Evalueringer kreves for stabilitet Download
DeepSeek V3 DeepSeek Åpen/tilgjengelig God verdi for generell resonnering og koding Styringsgjennomgang i bedrift Download
DeepSeek R1 DeepSeek Resonneringsfokusert Krevende flertrinns resonneringsoppgaver Latenstid på komplekse svar Download
DeepSeek Coder V2 DeepSeek Kode-spesialisert Utviklerassistenter og kodegjennomgang Generell skriving er mindre sterk Download
Command R+ Cohere Lukket bedrift RAG og bruk av bedriftskunnskap Sammenlign mot ledende generelle modeller API-tilgang
Command R Cohere Lukket Raske svar forankret i gjenfinning Ikke alltid best for dyp koding API-tilgang
DBRX Instruct Databricks Åpen vekt Arbeidslaster integrert med dataplattform Krever moden plattform Download
Phi-3 Medium Microsoft Liten modell Kompakte utrullinger og edge-bruk Begrenset på svært komplekse oppgaver Download · Mini
Phi-3 Mini Microsoft Liten modell Inference på enhet og i begrensede miljøer Lavere nøyaktighetstak Download · Medium
Yi-34B Chat 01.AI Åpen vekt Flerspråklig eksperimentering Krever grundig evaluering før produksjon Download

Merk: lukkede modeller tilbyr vanligvis API-tilgang fremfor direkte nedlasting av vekter.

Slik velger du fra listen

Ikke velg kun etter ytelsestest-rangering. Valider med egne arbeidslaster: prompt-kompleksitet, svarlatenstid, feiltoleranse og månedlig tokenbudsjett.

Fortsett med sammenligningsmatrisen, og les deretter tydelige anbefalinger.

Siste modellnyheter

Sist oppdatert: 8. april 2026. Disse sidene gir raskest signal om nye lanseringer, avviklinger og prisendringer.

Norsk kontekst

Følg norske modellinitiativer for oppdateringer som påvirker språkdekning og lokal etterlevelse.

NORA.LLM og NbAiLab.