AI ordlista - Allt du behöver veta om artificiell intelligens
Din kompletta guide till AI-termer, verktyg och tekniker på svenska.
A
AGI (Artificial General Intelligence)
Artificiell generell intelligens – ett hypotetiskt AI-system som kan utföra vilken intellektuell uppgift som helst på samma nivå som en människa. Till skillnad från dagens smala AI-system (som bara gör en sak bra) skulle AGI kunna lära sig och anpassa sig till helt nya situationer. Vi är ännu inte där.
AI Agent
Ett AI-system som självständigt kan utföra uppgifter åt dig utan konstant vägledning. Tänk en digital assistent som kan boka möten, researcha information, skriva rapporter och ta beslut baserat på dina mål. Exempel: AutoGPT, AgentGPT.
→ Utforska AI-agenter
API (Application Programming Interface)
En teknisk koppling som låter olika program "prata" med varandra. När du använder ChatGPT via en app istället för webbsidan, använder appen OpenAI:s API. För utvecklare som vill integrera AI i sina egna tjänster.
Attention Mechanism
Den tekniska kärnan i moderna språkmodeller som låter AI "fokusera" på relevanta delar av texten. Det är därför ChatGPT förstår att "den" i meningen "Bilen kraschade i trädet, den blev totalförstörd" refererar till bilen, inte trädet.
B
Bias (Fördom)
När AI-system återspeglar eller förstärker mänskliga fördomar från träningsdata. Exempel: En rekryterings-AI som favoriserar manliga kandidater eftersom den tränats på historisk data där mest män anställdes. Kritiskt att förstå och motverka.
BERT (Bidirectional Encoder Representations from Transformers)
Googles språkmodell som revolutionerade hur AI förstår kontext. Till skillnad från äldre modeller läser BERT meningar åt båda hållen samtidigt, vilket ger bättre förståelse. Används bakom kulisserna i Google Sök.
C
ChatGPT
OpenAI:s populära konversations-AI som kan skriva texter, svara på frågor, koda, analysera och mycket mer. Använder GPT-modeller (Generative Pre-trained Transformer) och har blivit synonymt med "prata med AI".
→ Testa ChatGPT
Claude
Anthropics AI-assistent känd för längre konversationer, bättre säkerhet och förmåga att hantera stora textmängder. Ofta föredragen av utvecklare och företag som vill ha mer kontrollerbar AI.
→ Testa Claude
Computer Vision
AI som kan "se" och tolka bilder och video. Används för ansiktsigenkänning, självkörande bilar, medicinska diagnoser från röntgenbilder, och kvalitetskontroll i fabriker.
→ Se bildanalys-verktyg
Context Window
Hur mycket text en AI kan "komma ihåg" samtidigt. GPT-4 kan hantera ~128 000 tokens (cirka 300 sidor), medan äldre modeller bara klarade några meningar. Större context = bättre förståelse av långa dokument.
D
DALL-E
OpenAI:s AI för bildgenerering från textbeskrivningar. Skriv "en katt i rymddräkt som målar akvarell på Mars" och få en fotorealistisk bild på sekunder. Senaste versionen (DALL-E 3) är integrerad i ChatGPT Plus.
→ Se bildgenereringsverktyg
Dataset
Den samling av data som AI tränas på. En språkmodell kan tränas på miljarder webbsidor, böcker och konversationer. Kvaliteten på datasetet avgör hur bra AI:n blir – "garbage in, garbage out".
Deep Learning
En typ av maskininlärning som använder neurala nätverk med många lager (därav "deep"). Detta är tekniken bakom nästan all modern AI – från språkmodeller till bildgenerering till självkörande bilar.
Diffusion Models
Den tekniska metoden bakom moderna bildgenereringsverktyg som Midjourney och Stable Diffusion. Fungerar genom att börja med brus och steg för steg "rensa" fram en bild som matchar din prompt.
E
Embeddings
Ett sätt att omvandla ord och meningar till matematiska representationer (vektorer) som AI kan förstå. Ord med liknande betydelse får liknande tal. Därför förstår AI att "hund" och "valp" är relaterade.
Emergent Behavior
När AI-system plötsligt visar förmågor de inte specifikt tränats för. Exempel: GPT-3 lärde sig översätta språk trots att det inte var ett explicit träningsmål. Både fascinerande och lite oförutsägbart.
F
Few-Shot Learning
När AI kan lära sig nya uppgifter från bara några få exempel. Ge ChatGPT 3 exempel på hur du vill formatera texter, så kan den fortsätta i samma stil. Gör AI mycket mer flexibel.
Fine-tuning
Att träna en befintlig AI-modell vidare på specifik data för att göra den bättre på något speciellt. Du kan fine-tuna GPT-4 på dina företagsdokument för att få en AI som "pratar som er".
→ Se verktyg för fine-tuning
Foundation Model
Stora, generella AI-modeller (som GPT-4, Claude, Gemini) som tränats på enorma mängder data och kan anpassas för tusentals olika uppgifter. Grunden som andra AI-applikationer byggs på.
G
Generative AI
AI som skapar nytt innehåll – text, bilder, video, musik, kod. Till skillnad från traditionell AI som bara analyserar, kan generativ AI faktiskt producera originellt material. ChatGPT, Midjourney och Runway är exempel.
→ Utforska generativa verktyg
Gemini
Googles avancerade AI-modell (tidigare kallad Bard). Multimodal, vilket betyder att den kan hantera text, bild, video och ljud samtidigt. Konkurrent till GPT-4 och Claude.
→ Testa Gemini
GPT (Generative Pre-trained Transformer)
OpenAI:s familj av språkmodeller. GPT-4 är senaste versionen och driver ChatGPT Plus. "Pre-trained" betyder att den först tränas på massiv data innan den fine-tunas för specifika uppgifter.
Guardrails
Säkerhetsregler och begränsningar som hindrar AI från att generera skadligt, olagligt eller oetiskt innehåll. Därför vägrar ChatGPT att hjälpa till med vissa saker även om den tekniskt skulle kunna.
H
Hallucination
När AI hittar på fakta eller svarar med självsäkerhet trots att informationen är felaktig. Ett känt problem med språkmodeller – de är tränade att låta övertygande, inte nödvändigtvis att vara korrekta. Alltid dubbelkolla viktig information.
I
Image-to-Image
AI som transformerar en bild till en annan stil eller form. Ladda upp en skiss och få en fotorealistisk bild, eller omvandla en sommarfoto till vinter. Används i verktyg som Stable Diffusion och Midjourney.
→ Se image-to-image verktyg
Inference
När en tränad AI-modell faktiskt används för att göra förutsägelser eller generera innehåll. Träning sker en gång (dyrt och långsamt), inference sker varje gång du använder verktyget (snabbt och billigt).
In-Context Learning
AI:s förmåga att lära sig nya mönster bara genom att se exempel i prompten, utan att behöva tränas om. Du kan "lära" ChatGPT en ny skrivstiil mitt i konversationen.
J
Jasper AI
Ett populärt AI-skrivverktyg specialiserat på marknadsföring och innehållsproduktion. Skapar blogginlägg, annonstexter, email-kampanjer och sociala medie-inlägg baserat på dina instruktioner.
→ Testa Jasper AI
K
Knowledge Cutoff
Datumet när en AI-modells träning slutade. GPT-4:s kunskap slutar t.ex. i april 2023 – den vet ingenting om händelser efter det (om den inte har web search). Viktigt att förstå när du frågar om aktuella händelser.
L
Large Language Model (LLM)
Stora språkmodeller tränade på miljontals texter som kan förstå och generera mänskligt språk. ChatGPT, Claude och Gemini är alla LLM:er. "Large" refererar till miljardtals parametrar som styr modellens beteende.
LoRA (Low-Rank Adaptation)
En effektiv metod för att fine-tuna stora AI-modeller utan att behöva träna om hela modellen. Gör det möjligt att anpassa AI till specifika uppgifter även med begränsad datorkraft.
M
Machine Learning
Den bredare kategorin som AI tillhör – system som lär sig från data istället för att vara explicit programmerade. Deep learning är en underkategori av machine learning.
Midjourney
Ett av de mest populära verktygen för AI-genererad konst. Känt för sin konstnärliga stil och förmåga att skapa fantastiska, dreamlike bilder. Fungerar via Discord.
→ Testa Midjourney
Multimodal AI
AI som kan hantera flera typer av input samtidigt – text, bild, ljud, video. GPT-4V (vision) och Gemini är multimodala. Framtidens AI kommer vara ännu mer multimodal.
N
Natural Language Processing (NLP)
Teknikområdet som fokuserar på att få datorer att förstå, tolka och generera mänskligt språk. Används för översättning, sentiment-analys, chatbots och språkmodeller.
Neural Network
En matematisk modell inspirerad av hur hjärnan fungerar – sammankopplade "neuroner" som tillsammans kan lära sig komplexa mönster. Grunden för deep learning och modern AI.
Notion AI
AI-funktioner inbyggda i produktivitetsverktyget Notion. Kan skriva, sammanfatta, översätta och omorganisera dina dokument direkt i din arbetsyta.
→ Testa Notion AI
O
Open Source AI
AI-modeller vars kod och ibland vikter är fritt tillgängliga. Låter utvecklare använda, modifiera och förbättra modellerna. Exempel: Llama (Meta), Stable Diffusion, Mistral.
→ Utforska open source-modeller
OpenAI
Företaget bakom ChatGPT, GPT-4, DALL-E och Whisper. Grundat 2015 med målet att utveckla säker AGI. Startade som non-profit men är nu "capped-profit" efter Microsofts investering.
Overfitting
När en AI-modell blir så bra på sin träningsdata att den inte längre kan generalisera till ny data. Som att plugga gamla tentor utan att förstå koncepten – du klarar inte nya frågor.
P
Parameters
De justerbara "knappar" som styr en AI-modells beteende. GPT-4 har över 1 trillion parametrar. Fler parametrar = mer komplext resonemang, men också dyrare att träna och använda.
Perplexity
En AI-sökmotor som kombinerar språkmodeller med realtidssökning. Istället för en lista med länkar får du ett sammanhänget svar med källor. Konkurrent till Google Search.
→ Testa Perplexity
Prompt
Instruktionen eller frågan du ger till en AI. En bra prompt är tydlig, specifik och ger kontext. "Skriv en text" är dålig prompt. "Skriv en 300-ord bloggpost om AI för småföretag, professionell ton, inkludera 3 konkreta exempel" är bra prompt.
Prompt Engineering
Konsten att formulera prompts för att få bästa möjliga resultat från AI-system. En egen färdighet som blir allt viktigare. Inkluderar tekniker som few-shot learning, chain-of-thought och role prompting.
→ Lär dig prompt engineering
R
RAG (Retrieval-Augmented Generation)
En teknik som låter AI hämta relevant information från externa källor innan den svarar. Gör AI mer faktakorrekt och uppdaterad. Används när du vill att AI ska svara baserat på dina egna dokument.
Reinforcement Learning from Human Feedback (RLHF)
Träningsmetoden som gör ChatGPT "hjälpsam och säker". Människor bedömer AI:ns svar, och modellen lär sig vilka beteenden som är önskvärda. Därför känns ChatGPT mer som en assistent än en sökmotor.
Runway
En kraftfull AI-plattform för videoredigering och generering. Kan ta bort bakgrunder, generera video från text, och skapa effekter som tidigare krävde Hollywood-budget.
→ Testa Runway
S
Semantic Search
Sökning baserad på betydelse snarare än exakta ord. Traditionell sökning matchar nyckelord, semantisk sökning förstår kontext. Därför kan AI-search hitta rätt svar även om du inte använder exakt rätta termerna.
Sentiment Analysis
AI som analyserar känslor i text – positiv, negativ eller neutral. Används för att övervaka varumärken på sociala medier, analysera kundrecensioner, eller förstå marknadstrender.
Stable Diffusion
En open source-modell för bildgenerering. Till skillnad från DALL-E och Midjourney kan du köra Stable Diffusion på din egen dator (om du har bra grafikkort). Populär bland developers och tinkerers.
Synthetic Data
AI-genererad data som används för att träna andra AI-system. När riktig data är begränsad eller känslig (medicinska journaler, personuppgifter) kan syntetisk data fylla luckan.
T
Temperature
En parameter som styr hur "kreativ" eller "random" en AI-modell är. Låg temperature (0.1-0.3) = förutsägbara, konsekventa svar. Hög temperature (0.8-1.0) = kreativa, varierande svar. Justera efter behov.
Token
Grundenheten som AI läser och genererar text i. Ungefär 1 token = ¾ ord. "Hej på dig" är ~4 tokens. Viktig för att förstå kostnader (betalas per token) och begränsningar (max tokens per request).
Training Data
All data som används för att träna en AI-modell. För språkmodeller är det böcker, webbsidor, artiklar, kod. Kvaliteten och mångfalden av träningsdata avgör hur bra modellen blir.
Transfer Learning
Att ta en AI-modell tränad på en uppgift och använda den för något annat. T.ex. en bildklassificeringsmodell tränad på djur kan enkelt anpassas för att känna igen bilar. Sparar massvis med tid och resurser.
Transformer
Den revolutionerande AI-arkitekturen från 2017 som ligger bakom alla moderna språkmodeller. Namnet kommer från forskningspappret "Attention Is All You Need". GPT står för "Generative Pre-trained Transformer".
U
Unsupervised Learning
När AI lär sig hitta mönster i data utan att få exempel på "rätt svar". Till skillnad från supervised learning (där varje datapunkt är märkt) måste modellen själv räkna ut strukturen. Används för clustering och anomaly detection.
V
Vector Database
En specialiserad databas för att lagra och söka i embeddings (vektorrepresentationer av text, bilder etc). Kritisk komponent i RAG-system och semantisk sökning. Exempel: Pinecone, Weaviate.
Vision Transformer
En AI-arkitektur som applicerar transformer-tekniken (från språkmodeller) på bilder. Har revolutionerat computer vision på samma sätt som transformers revolutionerade NLP.
W
Whisper
OpenAI:s AI för tal-till-text (speech recognition). Kan transkribera och översätta tal på 99+ språk med häpnadsväckande noggrannhet. Open source och gratis att använda.
Z
Zero-Shot Learning
När AI kan utföra uppgifter den aldrig sett exempel på tidigare, bara baserat på instruktioner. "Översätt denna text till swahili" fungerar även om modellen aldrig specifikt tränats på swahili-översättning. Visar verklig "intelligens".
Kom igång med AI
Nu när du förstår terminologin – utforska våra 250+ granskade AI-verktyg och hitta de som passar dig bäst.
→ Utforska AI-katalogen
→ Se de mest populära verktygen
Ordlistan uppdateras kontinuerligt med nya termer. Saknar du något? Kontakta oss.
Skriven av: aival.se
Läs mer:




