Artificiell Intelligens Ordlista (AI-termer)

Artificiell intelligens är ett väldigt brett och samtidigt avancerat område som därmed innefattar en mängd olika termer som kan vara svåra att förstå. På denna sida har vi därför skapat ett lexikon med en ordlista över vanliga termer kopplat till artificiell intelligens (AI) och deras förklaringar.

A

Aktiveringsfunktion (Activation Function)

Aktiveringsfunktionen i ett neuralt nätverk bestämmer om en neuron ska aktiveras eller inte. Detta innebär att den bestämmer om informationen som en neuron behandlar ska gå vidare i nätverket eller inte. Det finns olika typer av aktiveringsfunktioner såsom ReLU, sigmoid och tanh och var och en har olika matematiska egenskaper vilket gör att de används på olika sätt beroende på problemets krav och nätverkets arkitektur.

Algoritm

En algoritm är en procedur som tillhandahåller en lösning på ett problem eller utför en uppgift genom en serie av instruktioner. Algoritmer används i alla områden av datavetenskap och är grunden för programvarudesign och bearbetning. Inom artificiell intelligens är algoritmer helt centrala för att skapa modeller som kan lära sig och göra förutsägelser och veta hur de ska agera utifrån instruktioner och information som algoritmen får ta del av.

Anpassad inlärning (Adaptive Learning)

Anpassad inlärning är en utbildningsteknik som använder artificiell intelligens för att skräddarsy inlärningsupplevelser till individens behov. Anpassad inlärning innebär till exempel att AI:n kan justera svårighetsgraden på ett visst material baserat på användarens prestationer i realtid. Syftet med detta är att anpassa och därmed optimera inlärningsprocessen. Denna teknik blir allt vanligare inom digitala utbildningsplattformar och diverse utbildningsteknik.

Anomalidetektering (Anomaly Detection)

Anomalidetektering är processen att identifiera ovanliga mönster eller observationer i data som avviker från förväntat beteende. Denna teknik är särskilt viktig inom områden såsom nätverkssäkerhet, bedrägeribekämpning och övervakning av maskiner i realtid för att upptäcka eventuella problem. Genom att upptäcka anomalier kan system tidigt varna om potentiella problem så att de kan åtgärdas.

Artificiell generell intelligens (Artificial General Intelligence, AGI)

Artificiell generell intelligens (AGI) är en typ av artificiell intelligens som har förmågan att förstå eller lära sig vilken intellektuell uppgift som helst som en människa kan. AGI är fortfarande i teoretiskt stadium och mycket forskning pågår inom detta område. AGI skiljer sig från nuvarande AI (narrow AI) som är specialiserad på specifika uppgifter (narrow AI).

Artificiellt medvetande

Artificiellt medvetande är den hypotetiska förmågan hos en maskin eller ett datorsystem att uppleva en medveten tillstånd som liknar människors subjektiva upplevelser och medvetande. Idén om artificiellt medvetande är väldigt debatterad och det pågår diskussioner kring vad medvetande egentligen är och huruvida detta faktiskt är någonting som går att replikera i en maskin.

Artificiell intelligens (Artificial Intelligence, AI)

Artificiell intelligens, förkortat AI är ett ganska brett tekniskt fält inom datavetenskap där fokus ligger på att skapa system som kan utföra uppgifter som normalt kräver mänsklig intelligens. De viktigaste förmågorna som krävs för detta inkluderar problemlösning, lärande, språkförståelse, och perception.

AI som forskningsfält är otroligt brett och kan variera från enkla automatiserade system till mer komplexa system som kan utföra avancerade beräkningar eller ta beslut.

Artificial super intelligence (ASI)

ASI, på svenska artificiell superintelligens är en hypotetisk form av AI som överträffar mänsklig förmåga och intelligens inom alla områden. Detta inkluderar kreativitet, allmän kunskap, social intelligens, och mer.

Om utveckligen inom detta område lyckas innebär det att vi skapar maskiner som kan hantera komplexa problem bättre och effektivare än människor. Naturligtvis finns det en stor debatt huruvida detta skulle utgöra ett hot för mänskligheten med resonemanget ”om datorer gör allting bättre än människor, varför behövs människor?”.Eftersom att konceptet inom ASI inte är färdigutvecklat och det ännu inte finns en AI som möter denna definition är det fortfarande osäkert om vilken påverkan en sådan typ av AI skulle ha på mänskligheten.

Artificiella neurala nätverk (Artificial Neural Network, ANN)

Artificiella neurala nätverk är datorsystem som är inspirerade av strukturen av den mänskliga hjärnan. Artificiella neurala nätverk består av lager av noder, också kallade neuroner. Dessa är sedan sammankopplade vilket gör att d kan bearbeta information genom att justera sambanden mellan noderna baserat på så kallad ”indata”. ANN används idag väldigt brett för en mängd olika användningsområden såsom taligenkänning, beslutsfattande, och mer. Detta gör ANN till en grundläggande teknik inom djupinlärning.

Associativt minne (Associative Memory)

Associativt minne är en typ av minnesstruktur inom datavetenskap och artificiell intelligens vars syfte är att koppla ”nycklar” ch värden på ett sätt som liknar mänskligt minne. Syftet med detta är att systemet kan hämta hela minnesinnehållet genom en del av nyckeln vilket gör denna teknik idealisk för uppgifter som involverar mönsterigenkänning. Idag används associativt minne inom flera olika områden inom AI, däribland mönster- och ansiktsigenkänning.

Autokodare (Autoencoder)

En autokodare är en typ av neuralt nätverk som används för att lära sig kodningar av osorterade data. Detta görs vanligtvis för så kallad dimensionell reduktion eller funktionsextraktion. En autoencoder består av en kodare som komprimerar ingångsdatan till en kortare kodad representation samt en avkodare som rekonstruerar datan från den kodade formen.

Automatiserat resonemang (Automated Reasoning)

Automatiserat resonemang innebär att man använder datorprogram för att utföra logiska resonemang. Detta görs framförallt inom områden såsom matematik och datavetenskap. 

Automatiserade resonemang kan användas för att automatiskt generera bevis, lösa pussel, eller för att bevisa ett teorem. System som använder sig av automated reasoning kan bland annat användas för att till upptäcka fel i mjukvarukod eller automatiskt lösa komplexa matematiska problem.

B

Bakåtpropagation (backpropagation

Backpropagation är en metod använd för att träna artificiella neurala nätverk. Tekniken justerar vikterna i ett neuralt nätverk genom att minimera skillnaden mellan nätverkets faktiska utgång och den önskade utgången. Man gör detta genom att sprida felet tillbaka genom nätverket från utgångslagret till ingångslagret. Detta optimerar nätverkets prestanda för specifika uppgifter som klassificering eller förutsägelser.

Bayesianska nätverk (Bayesian Network)

Bayesianska nätverk är även kända som bayesianska sannolikhetsmodeller. Dessa nätverk är grafiska modeller som används för att representera samband mellan olika händelser eller variabler och använder sannolikhetsinferens för att beräkna sannolikheter.

Batsianska nätverk är användbara för att göra förutsägelser i osäkra situationer och är framförallt populära inom områden som diagnostik, riskanalys och maskininlärning.

Beslutsfattande (Decision Making)

Inom artificiell intelligens syftar termen beslutsfattande på processen är en AI-modell gör val mellan olika alternativ baserat på indata (datan den matas med) samt de förutbestämda algoritmer som den är programmerad med. Utifrån denna information och instruktioner tar AI:n sedan ett beslut. Denna funktion är väldigt viktig inom AI då systemen måste ha förmågan att ta välgrundade beslut baserat på datan den tränas på. Ett viktigt mål med beslutsfattande inom AI är att utveckla system vars beslutsprocesser liknar mänskliga. Det slutliga målet med beslutsfattande är att utveckla system som därmed kan hjälpa till att förbättra beslutsprocesser, förbättra automatisering och stödja komplexa beslut.

Beslutsträd (Decision Tree)

Beslutsträd är en term som används inom maskininlärning och som syftar på att fatta beslut baserat på en serie frågor och svar. 

Ett beslutsträd består av noder som representerar frågor eller tester och grenar som representerar möjliga svar på dessa frågor. Detta leder till nya noder tills ett slutresultat (bladnod) nås. Beslutsträd används ofta i klassificering och regressionsuppgifter.

Bias

Bias är en allmänt utbredd term som innebär att en människa eller ett system inte är helt neutral. Även AI-system kan ha bias beroende på hur de utvecklas och datan de tränas på.

Inom AI används denna term framförallt inom maskininlärning och dataanalys för att tala om felaktigheter som kan uppstå med en AI när den har tränats på icke-representativ eller snedvriden data. Bias inom AI kan till exempel leda till onyanserad eller felaktig information eller slutsatser vilket gör systemet icke-neutralt och ej tillförlitligt.

Bildigenkänning (Image Recognition)

Bildigenkänning är en teknik som innebär att datorer analyserar och klassificerar olika objekt i digitala bilder. Bildigenkänning har blivit alltmer utbrett på senare år i takt med att stora framsteg har gjorts inom detta område. Idag används bildigenkänning i en mängd olika områden för allt från säkerhetssystem, självkörande fordon, medicinsk bildbehandling, och mycket mer.

Bildigenkänning bygger ofta på djupinlärningsmodeller som konvolutionella neurala nätverk för att skapa system som kan lära sig känna igen mönster och analysera bilder.

Biometrisk identifiering (Biometric Identification)

Biometrisk identifiering är en teknik som har förmågan att identifiera individer utifrån deras unika fysiska eller beteendemässiga egenskaper.  

Detta kan inkludera allt från ansiktsigenkänning, gå-mönster, ögonignkänning, eller röst.

Biometrisk identifiering har blivit allt vanligare på senare år, framförallt inom säkerhetssystem där till exempel analys av iris och handflata krävs för att låsa upp en dörr. Inom säkerhet ses detta som ett sätt att öka säkerheten då man till exempel kan stjäla en nyckel men inte kringgå en ögonscanner eller fingeravtrycksläsare. Med denna teknik kan man därför säkerställa att endast auktoriserade användare får tillgång.

Bot (Chatbot)

Inom AI refererar termen bot ofta till chattbot (även kallad chattrobot eller chatbot på engelska) vilket är ett programvarusystem som har utvecklats för att simulera en konversation med en mänsklig användare. Chattbotar har blivit särskilt vanliga inom kundtjänst på senare år då kunder kan chatta med robotar istället för en riktig person för att få svar på sina frågor. Chattrobotar kan utvecklas på en mängd olika sätt och för en mängd olika syften. De kan vara enklare och baserade på förutbestämda manus, eller så kan de vara mer avancerade och tränade på stora mängder data från ett specifikt företag för att ge mer personliga och anpassade svar.

AI-tekniken grundar sig i systemens förmåga att förstå en användares fråga och ge ett relevant svar på en fråga baserat på den information och data som den tränats på.

C

Centraltänkande AI (Centralized AI)

Centraltänkande AI, på engelska kallad centralized AI är en form av AI där all informationsbearbering, beslutsfattande, och datahantering, sker centralt i ett enda system eller server. 

Denna form av AI är vanligast där man behöver central kontroll och övervakning. Ett exempel kan till exempel vara i stora företagsnätverk. Fördelen med centraltänkande AI är att det är en modell som tillåter enklare uppdateringar och underhåll och ger en mer omfattande överblick över hela systemet. Nackdelen är dock att det finns risker för systemfel och andra säkerhetsrisker om det centrala systemet skulle kompromissas.

Chattbot

(se bot)

D

Dataanalys

Dataanalys inom AI är helt enkelt förmågan att analysera data. I praktiken innebär detta att AI:n analyserar, rensar, ändrar, eller modellerar datan med syftet attupptäcka användbar information, ta beslut, eller utföra en uppgift.

Dataanalys spelar en viktig roll inom många olika områden inom AI och en viktig förmåga hos AI är just dess förmåga att behandla stora mängder data avsevärt mycket snabbare än vad människor kan, bearbeta denna data, och sedan ta ett beslut eller utföra en uppgift. Förmågan att analysera data är särskilt viktigt för att förstå trender, mönster och relationer i stora datamängder.

Datasäkerhet (Data Security)

Datasäkerhet är en central aspekt inom all teknik, inklusive artificiell intelligens. Konkret involverar det alla de tekniker och metoder som används för att skydda system och data från obehörig åtkomst. 

Datasäkerhet är viktigt för att skydda känslig information och för att undvika eventuella problem eller risker.

Datavetenskap (Data Science)

Datavetenskap är ett tvärvetenskapligt område som använder statistiska metoder, maskininlärning, och dataanalys för att få kunskap och förståelse från strukturerade och ostrukturerade datamängder. 

Datavetenskap är otroligt viktigt inom en mängd olika områden där den bidrar till att driva beslutsfattande och innovation såsom affärsanalys, hälsosjukvård, finans, och mer.

Datamängd

Datamängd är en samling data som oftast är strukturerad i tabellform. Inom kontexten av artificiell intelligens används ofta datamängder för att träna och testa maskininlärningsmodeller eller utföra statistiska analyser. Storleken på datamängden kan variera mycket beroende på syfte och användningsområde. Generellt sett är en större datamängd bättre för att utveckla ett mer avancerat och kompetent system.

Deep Learning (Djupinlärning)

Djupinlärning klassificeras som en underkategori av maskininlärning och använder komplexa flerlagers-neurala nätverk för att modellera komplicerade mönster i stora mängder data.

Enklare förklarat kan djupinlärning bäst beskrivas som en metod där datorer lär sig att utföra uppgifter genom att studera stora mängder exempel, ungefär som människor lär sig genom erfarenhet. Datorn använder denna form av inlärning för att förbättra sin förmåga att känna igen mönster, såsom bilder, tal eller text.

Tekniken bakom djupinlärning baseras på en princip som är inspirerad av den strukturella och funktionella arkitekturen hos människans hjärna med fokus specifikt på hur neuroner kommunicerar med varandra. 

På en mer teknisk nivå kallas nätverken i djupinlärning djupa neurala nätverk och involverar många lager av neuroner som bearbetar indata, extraherar funktioner och utför klassificering. Djupinlärning är särskilt effektivt för mer komplexa uppgifter såsom bild-och taligenkänning, autonoma system, och språkbehandling. Eftersom att denna teknik använder stora mängder träningsdata är det ett väldigt kraftfullt system som med denna data kan lära sig identifiera mönster och ta beslut utifrån datan som den matas med, utan att uttryckligen vara instruerad och programmerad för detta.

Deepfake

Deepfake-teknologi är en teknik som både blivit vanligare och mer avancerad på senare år. Denna teknik kombinerar maskininlärning och djupinlärning för att skapa realistiska falska bilder, ljud, och videoklipp som kan uppfattas som verkliga. På senare år har vi sett flera exempel på alltmer avancerade och bättre deepfakes som kan förvirra och lura, till exempel videor på världsledare och andra kända individer som gör olika saker som sedan visat sig vara falska och skapats med deepfake-teknik.

Deepfake har således blivit ett mycket diskuterat och debatterat ämne som väckt frågor om hur det kommer att påverka politik, medier, privatliv, och inte minst bevismaterial i rätten.

Djup förstärkningsinlärning (Deep Reinforcement Learning)

Djup försärkningsinlärning är en teknik som kombinerar djupinlärning med förstärkningsinlärning där program lär sig att fatta de mest optimala besluten genom att interagera med en omgivning. Till exempel, en robot som använder sig av djupa neurala nätverk med djup förstärkningsinlärning kan behandla komplex data som den stöter på för att därmed tränas på en mängd olika uppgifter såsom robotnavigering och autonoma fordon.

Dimensionalitetsreduktion (Dimensionality Reduction)

Detta är en process inom statistik och maskininlärning där man minskar antalet slumpmässiga variabler som systemet måste ta hänsyn till. Man gör detta genom att endast behålla de mest relevanta variablerna och kan därmed förenkla modellen, förbättra dess prestanda, och minska resursanvändningen.

Discriminative Model

En discriminative model är en modell inom maskininlärning som vanligtvis används för att förutsäga en variabel baserat på andra variabler. Ett exempel på detta är i klassificeringsproblem där målet är att särskilja mellan olika typer av objekt. På så sätt kan modellen lära sig gränsen mellan olika klasser istället för att behöva modellera distributionen av varje klass.

Distribuerad AI (Distributed AI)

Distribuerad AI är AI-system där an har flera ”agenter” eller system som antingen samarbetar eller tävlar mot varandra för att lösa olika problem.

Dessa system arbetar mot ett gemensamt mål samtidigt vilket kan bira till att öka systemets robusthet och skalbarhet.

Driftsadaption (Domain Adaptation)

Detta är en term inom maskininlärning som innebär att en modell som har tränats på en specifik uppsättning data anpassas för att prestera bra på ett annat men relaterat område. Denna metod är särskilt användbar när datan som systemet tränats på skiljer sig från den data som behövs för att prestera inom det andra, relaterade området. 

E

Edge computing

Edge computing är en så kallad distribuerad databehandlingsteknik där an bearbetar data näta själva datakällan istället för att den skickas till ett centralt datacenter. Fördelen med denna metod är att det minskar laddtid, latens, sparar bandbredd, och gör systemet snabbare. Detta är särskilt viktigt inom användningsområden som kräver snabb reaktionsförmåga och prestanda såsom i IoT-enheter och mobila applikationer.

Egenskapsextraktion (Feature Extraction)

Egenskapsextraktion innebär att man omvandlar rådata till ett mer användbart format för de specifika analys-och inlärningsuppgifterna. Specifikt inom maskininlärning innebär detta att man identifierar de mest relevanta attributen i datan som man ska använda för att bygga sin AI-modell.

Egenskapsselektion (Feature Selection)

Feature selection är precis som det låter, processen att välja ut de mest relevanta egenskaperna (vilket är variabler eller attribut) i en datamängd som mest bidrar till prestandan av en modell.

Feature selection är viktigt för att förbättra effektiviteten av en modell och förbättra dess förståelse av datan.

Ensemblering (Ensembling)

Ensemblering är en teknik inom maskininlärning där flera modeller kombineras för att göra bättre förutsägelser än vad varje enskild modell kan göra ensam. Detta görs ofta genom metoder såsom boosting och stacking som  använder olika strategier för att skapa en starkare och mer robust modell.

Evolutionär algoritm (Evolutionary Algorithm)

Evolutionära algoritmer är en klass av optimeringsalgoritmer som simulerar evolutionära processer som naturligt urval och genetisk variation. Dessa algoritmer används för att hitta lösningar på optimerings- och sökproblem genom att iterativt förbättra en population av lösningar.

Exempeldriven inlärning (Instance-based Learning)

Exempeldriven inlärning kallas också lazy learning och är en metod inom maskininlärning där modellen inte generaliserar från träningsdata utan använder själva datan för att göra förutsägelser. K-nearest neighbor (KNN) är en vanlig algoritm inom denna kategori.

Expertsystem

Expertsystem är datorsystem som efterliknar beslutsfattandet hos en mänsklig expert. De är programmerade med regler som hjälper till att dra slutsatser och ge råd inom specifika domäner, ofta baserade på en kunskapsbas och en inferensmotor.

F

Förstärkningsinlärning (Reinforcement Learning)

Förstärkningsinlärning är en typ av maskininlärning där en agent lär sig att fatta beslut genom att interagera med en miljö. Agenten utför handlingar och får feedback i form av belöningar eller bestraffningar. Detta styr dess inlärningsprocess mot optimala beteenden.

Förutsägelser (Predictions)

Inom datavetenskap och statistik är förutsägelser resultaten av en modell som försöker förutsäga utfallet baserat på indata. Modeller som används för förutsägelser kan vara så enkla som linjära regressioner eller så komplexa som djupa neurala nätverk.

G

Generativ AI

Generativ AI är alla typer av modeller eller algoritmer som kan generera nytt innehåll (därav termen generativ). Detta inkluderar allt från text, bilder, musik, med mera, som kan jämställas med mänskligt skapat innehåll.

De vanligaste typerna av innehåll som skapas av generativ AI är naturligtvis text (däribland med verktyg såsom Tolio), samt bilder.  

Generativ AI använder sig av djupinlärningstekniker och är en teknik som gjort enorma framsteg under de senaste åren, inte minst tack vare stora förbättringar inom förbättrade kapacitet kopplat till maskininlärning och datorkraft.

Genetisk algoritm (Genetic Algorithm)

En genetisk algoritmer är en typ av evolutionär algoritm som simulerar processen av naturligt urval och används för att lösa svåra sök- och optimeringsproblem.

Genetiska algoritmer använder olika typer av tekniker för att iterera och förbättra lösningar, däribland teknikerna mutation, selektion, och korsning.

Gränssnitt (Interface)

Gränssnitt är interaktionen mellan komponenter av en programvara och mjukvara. När du till exempel loggar in på Tolio möts du av ett gränssnitt där du får tillgång till verktygen som drivs av mjukvaran (AI). Gränssnittet är därför där mjukvara och användare möts, där användaren får tillgång till mjukvaran som driver själva programmet.  

Gränssnittet bestämmer hur programvarukomponenter kommunicerar med varandra eller hur användare interagerar med systemet. Avdenna anledning är gränssnittet därför otroligt viktigt för att skapa användarvänliga och funktionella system.

GPT (Generative Pre-trained Transformer)

De flesta är antagligen bekant med termen GPT från ”ChatGPT”. GPT står för generative pre-trained transformer och är en typ av AI-modell som utvecklades av OpenAI för att kunna generera människoliknande text utifrån en användares instruktioner. GPT tränas på en enorm mängd data för att få kunskap om olika ämnen och omvärlden och använder en transformerarkitektur för att förstå denna data och generera text baserat på den.

GPT fick enormt genomslag när den lanserades då det blev den första och möjligen mest avancerade generativa AI-modellen som var tillgänglig för den bred massan. Idag används GPT för en mängd olika syften och områden kopplat till textgenerering, däribland för chattbottar, skrivandet av texter, och mycket mer.

H

Hallucination

Inom AI kan man ibland säga att en generativ AI ”hallicunerar”. Detta är fenomenet när en AI genererar falsk eller irrelevant information som inte stöds av indata. Hallucinationer är inte helt ovanliga hos språkmodeller då de ibland kan generera text eller detaljer som är irrelevanta eller inkonsekventa.

Heuristik

Heuristik innebär att man använder praktiska metoder eller ”genvägar” som är designade för att lösa problem snabbare än traditionella metoder även om lösningen kanske inte är ideal. Man använder heuristik inom datavetenskap för att komma fram till lösningar på komplexa problemställningar som är tillräckligt bra. Denna metod kan vara särskilt praktisk för komplexa problem där en exakt lösning antingen är omöjlig eller opraktisk.

Hybridmodell

En hybridmodell inom AI är en modell som kombinerar flera modeller eller tekniker för att utnyttja varje enskilds modell styrkor och kompensera för deras svagheter.

Som ett exempel kan en hybridmodell kombinera maskininlärning och regelbaserad logik för att bättre göra olika förutsägelser eller genomföra bättre beslutsprocesser. 

Hyperparametertuning (Hyperparameter Tuning)

Hyperparametertuning innebär att man justerar de så kallade hyperparametrarna i en maskininlärningsmodell med syfte att optimera dess prestanda. Hyperparametrar skiljer sig från modellparametrar genom att de inte ställs in automatiskt under träningsprocessen.

I

Inbäddade system (Embedded Systems)

Inbäddade system finns i massor av olika apparater och maskiner i vårt samhälle i allt från hushållsapparater till fordon. Inbäddade system är datorer som är integrerade inom andra system med syftet av att utföra specifika kontrollfunktioner. Systemens syfte är ofta fokuserade på att minimera storlek och energiförbrukning. De finns i allt från hushållsapparater till industriella maskiner och fordon.

Induktiv logikprogrammering (Inductive Logic Programming)

Induktiv logikprogrammering är en gren av maskininlärning som innebär att modeller genereras från exempel och bakgrundskunskap, baserat på logiska regler. Denna typ av programmering är särskilt användbar när man utvecklar programs kan förklara alla sina beslut och slutsatser på ett logiskt sätt.

Inkrementell inlärning (Incremental Learning)

Inkrementell inlärning är en metod inom maskininlärning som innebär att AI-modellen kontinuerligt uppdateras i takt med att ny data blir tillgänglig men utan att behöva tränas om från början. Med andra ord är det en form av maskininlärning som innebär att den nya datan som blir tillgänglig ”staplas ovanpå” den data som modellen redan har. Denna typ av maskininlärning är särskilt viktigt för modeller som behöver hålla sig uppdaterade med ny information och data, till exempel för ett program som ska kunna fungera även för information kopplat till nutid.

Interaktiv AI (Interactive AI)

Interaktiv AI fokuserar på utveckling av AI-system som kan interagera med människor på ett meningsfullt sätt. Detta kan inkludera tekniker för naturligt språk, robotik eller virtuella assistenter, där systemet kan svara på användarens input på ett sätt som efterliknar mänsklig interaktion.

K

Klassificering (Classification)

Klassificering är en metod inom maskininlärning som har målet att förutsäga vilken kategori en viss datapunkt tillhör baserat på tidigare data. Ett exempel på klassificering är e-postfiltrering där olika typer av e-postmeddelanden klassificeras som ’spam’ eller ’icke-spam’ baserat på datan och feedbacken som systemet lärt sig sedan tidigare.

Klusterteknik (Clustering)

Klusterteknik är en typ av övervakad maskininlärning som man använder för att gruppera flera objekt i så kallade kluster så att objekt som är inom samma kluster liknar varandra mer än de som är i andra kluster. Denna teknik har många olika användningsområden såsom marknadssegmentering och organisationsanalys.

Kognitiv datavetenskap (Cognitive Science)

Kognitiv datavetenskap är en så kallad interdisciplinär studie av sinnet och dess processer (därav ”kognitiv). Detta inkluderar perception, tänkande, minne, och språk.

Kognitiv datavetenskap kombinerar kunskap och lärdomar från psykologi, neurovetenskap, filosofi och datavetenskap, med flera, för att förstå hur intelligens fungerar. Detta forskningsområde har blivit allt viktigare inom AI och specifikt utveckligen av alltmer avancerade AI modeller som mer och mer efterliknar mänsklig kognitiv förmåga.

Kognitiv robotik (Cognitive Robotics)

Kognitiv robotik använder AI-metoder för att ge robotar förmågan att förstå och bearbeta information på ett sätt som efterliknar mänsklig kognitiv förmåga. Det är ett forskningsområde som syftar till att utveckla robotar som kan utföra komplexa uppgifter autonomt och anpassa sig till nya situationer istället för att vara begränsade till de specifika uppgifter som de har programmerats för.

Konvolutionella neurala nätverk (Convolutional Neural Network, CNN)

Konvolutionella neurala nätverk (CNN) är en typ av djupt neuralt nätverk som är särskilt effektivt för bildanalys och bildigenkänning. I minst ett av sina lager använder den en matematiskt metod som kallas konvolution. Detta hjälper den att identifiera och isolera särdrag i bilder såsom kanter och former.

Korsspråklig modellering (Cross-Lingual Modeling)

Korsspråklig modellering innebär att man utvecklar AI-modeller som har förmågan att bearbeta information över flera olika språk. Denna förmåga har blivit allt viktigare med olika AI-drivna textgeneratorer (inklusive Tolio) då det finns ett växande behov att modellen har förmågan att hantera språkliga variationer och nyanser över olika språk.

Kvantdator (Quantum Computing)

Kvantdatorer är otroligt avancerade och kraftfulla datorer som använder kvantmekaniska fenomen såsom överlagring och sammanflätning för att utföra beräkningar.  Dessa datorer använder kvantmekanikens principer för att bearbeta information på sätt som klassiska datorer inte kan. De gör detta genom att använda kvantbitar, eller qubits istället för traditionella bitar som representerar 0 eller 1. kvantbitar, eller qubits kan representera både 0 och 1 samtidigt genom ett fenomen som kallas superposition.

Allt detta gör att kvantdatorer kan utföra enormt komplicerade beräkningar vilket gör att de är särskilt användbara för uppgifter som kryptering och materialvetenskaplig simulering.

L

Lärande från demonstrationer (Learning from Demonstration)

Lärande från demonstrationer är en teknik inom robotik och maskininlärning där ett system lär sig att utföra en uppgift helt enkelt genom att observera och sedan imitera mänskliga användare. Detta är därmed ett sätt att programmera och lära upp AI-system utan att behöva utveckla komplexa regler eller algoritmer för varje specifik uppgift.

Lågdimensionell inlärning (Low-Dimensional Learning)

Syftet med lågdimensionell inlärning är att reducera antalet variabler som används i datamodeller. Detta görs då det kan bidra till att förbättra modellers prestanda genom att minska komplexiteten och risken för överanpassning, särskilt i situationer med begränsade data.

M

Maskinöversättning

Maskinöversättning är precis som det låter, processen att använda datorprogram (en maskin) för att översätta antingen text eller tal från ett språk till ett annat. Tekniken att översätta språk har blivit alltmer avancerad på senare år och många maskinöversättningsysstem använder idag ofta avancerade AI-tekniker såsom neurala nätverk för att förbättra kvaliteten på översättningarna.

Maskininlärning (Machine Learning)

Maskininlärning är ett av de mest viktigaste områden för artificiell intelligens och är en helt central komponent i AI-system och det bredare vetenskapliga fältet som är AI. Maskininlärning och AI blandas ibland ihop i tron om att de är samma sak men de är det inte. Relationen kan bäst beskrivas som att maskininlärning är en del av det bredare fältet som är AI.

Mer specifikt är maskininlärning ett forskningsområde inom datavetenskap och artificiell intelligens med fokus på att utveckla algoritmer som kan lära sig från data – och därmed kunna göra förutsägelser eller beslut baserat på den data som systemet tränas på.

Viktigast av allt är algoritmernas förmåga att inte bara lära sig av data utan att också ständigt förbättra sin prestation över tid i takt med att de får utföra uppgifter, få feedback från användare, med mera.

Maskininlärning är en otroligt viktig del inom AI som används inom en mängd olika områden för allt från självkörande bilar, rekommendationssystem, bildigenkänning, och mycket mer.

Maskininlärning kan i sin tur delas in i flera olika grenar beroende på metoden som används för att träna AI:n. Detta inkluderar bland annat övervakad inlärning, oävervakad inlärning, förstärkningsinlärning, med flera.

På senare år har många viktiga framsteg gjorts inom maskininlärning vilket har inneburit nya metoder och teknik för att på ett effektivare sätt hantera komplexa och stora datamängder.

Maskinseende (Computer Vision)

Maskinseende, mest känt som computer vision är en gren inom artificiell intelligens med mål att göra det möjligt för maskiner att förstå och tolka visuell information från omvärlden. Denna metod liknar det sätt som människor använder synen. Maskinseende har mängder av olika användningsområden, från ansiktsigenkänning till autonoma fordon, och mycket mer.

Meta-lärande (Meta-Learning)

Meta-lärande involverar tekniker där maskininlärningsmodeller tränas för att förbättra sitt eget inlärande. Detta involverar till exempel att justera inlärningsmetoder eller att anpassa sig till nya uppgifter på ett effektivare sätt baserat på tidigare erfarenheter som systemet har.

Minnesbaserat resonemang (Memory-based Reasoning)

Minnesbaserat resonemang är en specifik metod inom artificiell intelligens som innebär att systemet använder tidigare erfarenheter eller exempeldata för att lösa nya problem. I praktiken innebär detta att man sparar och återanvänder tidigare interaktioner för att kunna dra slutsatser om nya situationer. Detta är på många sätt likt hur människans minne fungerar och en metod för att förbättra ett AI-systems förmåga att lösa problem.

Minnesnätverk (Memory Network)

Ett minnesnätverk är en typ av neuralt nätverk som har utrustats med en integrerad minneskomponent. Detta gör det möjligt för systemet att lagra och komma ihåg information. Minnesnätverket är särskilt användbart för användningsområden där systemet behöver komma ihåg tidigare händelser eller fakta för att bättre förstå och bearbeta ny data. Grundkonceptet är dock att skapa en mer avancerad och kapabel modell som kan förbättra sin prestanda över tid med hjälp av data.

Modellgenerering (Model Generation)

Modellgenerering innebär att man skapar matematiska eller simulativa modeller som är baserade på uppgivna data och förutsättningar.

Specifikt inom AI och maskininlärning innebär modellgenerering att man utvecklar algoritmer som kan generera antingen förutsägelser eller klassifikationer baserade på inlärda datamönster.

Modellintegration (Model Integration)

Modellintegration är som det låter en integration mellan flera olika maskininlärningsmodeller eller datamodeller med syfte att skapa ett enhetligt system som sedan kan dra nytta av styrkorna hos varje enskild modell.

Fördelen med modellintegration är att det kan öka systemets noggrannhet och effektivitet genom att kombinera olika perspektiv eller tekniker.

Modellvalidering (Model Validation)

Modellvalidering innebär att man verifierar en modells korrekthet och tillfällighet genom att man testar den mot oberoende data. Inom maskininlärning innebär det att man använder olika tekniker för att säkerställa att modellen presterar väl och att dens förutsägelser är korrekta.

Multimodal inlärning (Multimodal Learning)

Multimodal inlärning är en form av maskininlärning som innebär att man integrerar och analyserar information från flera olika datakällor. Detta kan inkludera text, bild, ljud, och video. Detta är ett tillvägagångssätt som kan bidra till att skapa bättre och mer robusta system genom att man använder olika typer av information från olika källor.

Multimodala modeller

Multimodala modeller är AI-modeller som använder multimodal inlärning, med andra ord har förmågan att bearbeta och integrera data från flera olika modaliteter. Denna förmåga är särskilt viktig för användningsområden där man behöver en djupare förståelse för multimediainnehåll.

Mönsterigenkänning (Pattern Recognition)

Mönsterigenkänning är precis som det låter, förmågan att identifiera och känna igen mönster och strukturer data.

Mönsterigenkänning används inom datavetenskap för att kategorisera data. Denna teknik spara en viktig roll i många AI-applikationer, inklusive bild- och taligenkänning.

N

Natural Language Processing (NLP)

NLP är en mycket vanlig term inom AI och som mer specifikt är en gren inom artificiell intelligens. NLP fokuserar på interaktionen mellan datorer och mänskligt språk (översatt till svenska, naturlig språkbehandling).

NLP innefattar tekniker som har förmåga att tolka, generera och förstå naturligt språk. NLP spelar därför en central roll särskilt inom generativ AI och funktioner såsom AI-drivna skrivverktyg, talsyntes, med mera, där AI:ns förmåga att behandla språk är helt central.

Neuronnätverk (neural network)

Neuronnätverk är en maskininlärningsmodell som är inspirerad av den mänskliga hjärnan – särskilt hur hjärnans neuroner kommunicerar med varandra. Neuronnätverk är modeller som är särskilt vanliga inom bild- och taligenkänning.

O

Objektdetektering (Object Detection)

Precis som det låter är objektdetektering en teknik inom datorseende vars syfte är att detektera och identifiera specifika objekt i en bild eller video. Objektdetektering används till exempel i hemövervakningskameror för att till exempel skilja mellan om det är en katt eller en inkräktare.

Onlinelärande (Online Learning)

Inom datavetenskap är onlinelärande algoritmer som har förmåga att ta emot och lära sig av data sekventiellt i takt med att den blir tillgänglig snarare än att tränas på all data på en och samma gång. Detta är en väldigt fördelaktig förmåga som innebär att algoritmerna kan kontinuerligt förbättras och lära sig i takt med att ny data blir tillgänglig. Detta är särskilt viktigt för system som är beroende av ny och uppdaterad information.

Övervakad maskininlärning

Övervakad maskininlärning är en typ av maskininlärning som innebär att modellen tränas på indata och tillgörande svar. Syftet med övervakad maskininlärning är att modellen ska kunna förutsäga svaret på nya, osedda indata. Denna typ av lärande är användbar för en mängd olika syften och tillämpningar, till exempel bildklassificering, spamdetektering, med mera.

P

Parallellbearbetning (Parallel Processing)

Detta är en datateknik som innebär att flera beräkningsprocesser utförs samtidigt. Detta görs ofta genom att använda flera processorer eller datorer. Fördelen med parallellbearbetning är att det kan avsevärt öka hastigheten och effektiviteten hos komplexa beräkningsuppgifter, till exempel stora maskininlärningsmodeller eller dataintensiva simuleringar.

Perceptron

Percetron är ett artificiellt neuralt nätverk och en av de tidigaste formerna av en neuronmodell som introducerades. Det är en relativt enkel modell som kan användas för binär klassificering. Den fungerar genom att kombinera en grupp av viktad ingångar för att producera en utgång. Om utgången överskrider en viss tröskel aktiveras ett svar. 

Prediktiv analys (Predictive Analytics)

Prediktiv analys är en for av avancerad analys som använder historisk data, maskininlärningstekniker, och statistiska algoritmer för att sedan identifiera sannolikheten för framtida utfall baserat på tidigare data.

Syftet med prediktiv analys är att kunna förutsäga på bästa möjliga sätt vad som kommer att hända i framtiden. Detta är en förmåga som naturligtvis kan tillämpas inom en mängd olika områden såsom finans, marknadsföring, väderprognoser, och mycket mer. Förmågan att förutse framtiden är någonting som människor strävat efter i många århundraden och med hjälp av data och prediktiv analys blir det många gånger både enklare och mer precist. Det kan till exempel hjälpa organisationer att fatta mer välgrundade beslut, till exempel för att förutsäga trender och beteenden.

Prediktiv modellering (Predictive Modeling)

Prediktiv modellering är en teknik inom maskininlärning och statistik. Denna modelleringsmetod används för att testa och validera en modell med syfte att förutsäga sannolikheten för ett visst resultat. 

Prediktiva modeller byggs genom att använda historisk data för att skapa sig en god förståelse för mönster och relationer. Dessa mönster kan sedan appliceras på ny data för att kunna förutse framtiden. 

Prompt

Termen prompt har blivit väldigt vanlig sedan framväxten av AI-drivna verktyg. Ett prompt kan bäst beskrivas som en instruktion som ges till en AI.

Till exempel, om du skriver ”Skriv en text på 100 ord” till ett AI-program är detta ett prompt, en instruktion. Termen används framförallt inom NLP-modeller såsom GPT för att instruera eller ”prompta” AI:n att utgöra en uppgift.

Q

Q-learning

Q-learning är en form av förstärkningsinlärning där en AI-modell lär sig att bestämma den optimala handlingen att ta i varje given situation. Konceptet bygger på att maximera den totala framtida belöningen genom att uppdatera en Q-värdestabell som uppskattar värdet av varje handling i varje given situation. Detta ska få modellen att utföra den handling som ger mest värde.

R

Realtidsbearbetning (Real-time Processing)

Precis som det låter är realtidsbearbetning omedelbar bearbetning av data så fort den kommer in. Realtidsbearbetning är särskilt viktigt för program och applikationer där tidsfördröjningar inte är önskvärda. Exempel på detta skulle till exempel vara autonoma fordon, finanssystem, med mera. Områden som kräver snabba och effektiva algoritmer som kan hantera data i realtid har stor fördel av just realtidsbearbetning.

Rekommendationssystem (Recommendation Systems)

Rekommendationssystem är algoritmer som används för att rekommendera olika saker. På senare år har AI börjat integreras i rekommendationssystem för att anpassa rekommendationer för varje användare. Rekommendationssystem används ofta på hemsidor eller i appar för att rekommendera produkter, tjänster, eller information som användaren kan vara intresserad av. AI är ovärderlig för detta då den har förmåga att analysera stora mängder data såsom tidigare beteenden, köphistorik, likheter med andra användare, och så vidare, och sedan rekommendera de mest relevanta resultaten. 

Representation Learning

Representation learning är en metod inom maskininlärning som innebär att modellen lär sig att automatiskt identifiera och använda de mest informativa och relevanta egenskaperna av rådata. I praktiken är detta särskilt viktigt inom områden såsom djupinlärning där representation av data är viktig för att på ett effektivt utföra analyser och förutse olika händelser.

Responsiv AI (Responsive AI)

Responsiv AI är AI-system som har utvecklas för att vara responsiva – därav namnet. I praktiken innebär detta att systemen är utvecklade för att vara känsliga och reagera på antingen användarens input eller miljöförändringar på ett relevant sätt.

Responsiv AI är utvecklad för att vara kapabel at hantera dynamiska och komplexa scenarier och att kunna anpassa sig efter olika situationer. Detta är särskilt viktigt för saker såsom smarta hem och personliga assistenter.

Robotik

Robotik är en term som beskriver vetenskapen bakom utvecklandet, konstruerandet, och användandet av robotar. Robotik kombinerar många olika områden och komponenter såsom elektronik, mekanik och datavetenskap för att skapa effektiva maskiner (robotar) som kan utföra olika typer av uppgifter som traditionellt kräver mänsklig intervention. Användningen av robotar har exploderat under senare år och de har framförallt blivit vanliga inom lagerhantering och inte minst tillverkningsindustrin där robotar kan dramatiskt effektivisera tillverkningsprocessen, öka produktiviteten, och minska produktionskostnader.

Röststyrning

Röststyrning är precis som dt låter, en teknik som gör det möjligt att interagera med och styra enheter eller system med rösten. System som har röststyrning använder sig ofta av naturlig språkbehandling (NLP) för att kunna förstå och agera på instruktioner och information som användaren ger den. Röststyrning blir mer och mer vanligt med enheter såsom Google home, Amazon Alexa, iPhone Siri, och många fler, som enkelt och sidigt kan styras med hjälp av rösten. Röststyrning har blivit särskilt vanligt i bilar då det möjliggör en hands-free användning.

Robotstyrd processautomatisering (Robotic Process Automation, RPA)

Robotstyrd processautomatisering, förkortat RPA på engelska, är mjukvarurobotar som är utvecklade för att automatisera repetitiva och regelbaserade uppgifter som normalt har utförts av människor. RPA är otroligt värdefullt för allt från datainmatning, transaktionsbehandling, och mycket mer. RPA kan bidra dramatiskt till ökad effektivitet men också minska eller eliminera potentiella fel som kan begås av människor.

S

Semantisk segmentering (Semantic Segmentation)

Semantisk segmentering är en term som används inom dataseende och bildanalys och innebär att en bild delas in i olika segment beroende på vad olika delar av bilden representerar. Detta innebär att varje pixel i en bild klassificeras i en specifik kategori beroende på objektet den tillhör. Detta gör det möjligt för datorsystem att tolka och förstå visuellt innehåll på en mer detaljerad nivå vilket gör att denna teknik ofta används inom områden såsom självkörande bilar, robotik, och medicinsk bildanalys.

Serieinlärning (Sequential Learning)

Serieinlärning kallas ofta sekventiellt lärande och är en form av maskininlärning där en modell tränas på data som anländer i en sekvens och där varje ny datapunkt beror på tidigare data. Detta är en inlärningsmetod som är särskilt viktig för områden där data strömmar kontinuerligt eller där själva ordningen av datan är viktig. Detta kan till exempel inkludera språkmodellering eller beslutsfattande i realtid.

Självövervakad inlärning (Self-Supervised Learning)

Mest känt som self-supervised learning, detta är en underkategori av maskininlärning som innebär att modeller lär sig att förstå och representera data genom att skapa egna etiketter för den obehandlade datan. I praktiken innebär detta att modellen använder egenskaper i data för att skapa egna ”etiketter” för att sedan lära sig från datan utan uttryckliga instruktioner från människor. Denna metod för inlärning är effektiv för att förbättra modellers prestanda för en mängd olika uppgifter såsom bildigenkänning och naturlig språkbehandling.

Stödvektormaskiner (Support Vector Machines, SVM)

Stödvektormaskiner är en typ av klassificeringsmetod inom maskininlärning. Support vector machines fungerar genom att skapa en så kallad hyperplan som delar in datapunkterna i olika klasser. Metoden är särskilt användbar för att hantera så kallad högdimensionell data. Tack vare olika kernel-funktioner som gör det möjligt att hantera mer komplexa datamönster är den effektiv i både linjära och icke-linjära klassificeringsproblem.

Stora språkmodeller (large language models, LLM)

Termen LLM är en term som man ofta stöter på i AI-sammanhang. Översatt till stora språkmodeller på svenska, dessa är precis som termen antyder avancerade AI-modeller som tränas på stora mängder textdata med syfte att generera och förstå text.

ChatGPT är kanske den mest kända LLM:en men de flesta AI-drivna skrivverktyg är en form av LLM då det krävs enorma mängder data för att skapa en avancerad och kompetent språkmodell. Stora språkmodeller använder sig av djupa neurala nätverksstrukturer vilka är otroligt effektiva för att skapa system som är kapabla att förstå nyanser och kontext i mänskligt språk.

Snäv AI (svag AI, narrow AI, weak AI, applied AI)

Snäv AI kallas också svag AI och är alla typer av AI-system som är utvecklade för att utföra en specifik uppgift. Snäv AI är motsatsen till generell AI som är utvecklad för att så mycket som möjligt likna bred mänsklig intelligens och därmed kan utföra en mängd olika uppgifter. I kontrast till detta fokuserar snäv AI på att lösa specifika problem och har därför begränsad kapacitet. Ett exempel påsen snäv AI är till exempel ansiktsigenkänningsprogram som enbart har förmågan att utföra uppgifter kopplat till ansiktsigenkänning och ingenting annat.

Supervised learning (Övervakad inlärning)

Supervised learning, på svenska övervakad inlärning, är en av de vanligaste metoderna när det kommer till maskininlärning. Denna metod innebär att en modell tränas på en specifik grupp data som inkluderar både indata och önskad utdata (etiketter). Genom att använda dessa etiketter lär sig modellen att göra förutsägelser eller klassificeringar på ny data utan etiketter. 

Övervakad inlärning används väldigt utbrett för en mängd olika områden, framförallt inom områden där noggranna etiketter är tillgängliga för att guida inlärningsprocessen.

Suddig logik (Fuzzy Logic)

Suddig logik, på engelska fuzzy logic, kan bäst beskrivas som en form av mångvärdeslogik. Denna skiljer sig från traditionell binär logik genom att den tillåter värden att vara delvis sanna och delvis falska.

Istället för att enbart tillåta värdena 0 (falskt) och 1 (sant), använder suddig logik värdel mellan 0 och 1 för att representera osäkerhet och oprecision. Detta är en metod som är användbar i system där information antingen är ofullständig eller osäker, till exempel styrning av maskiner. I detta område kan suddig logik kan hjälpa till att tolka vaga eller överlappande data vilket kan vara väldigt värdefullt. Exempelvis kan suddig logik användas för att kontrollera hastigheten på en motor där den kan hantera den kontinuerliga variationen och osäkerheten i ingångsdata på ett mer mänskligt sätt.

T

Transfer Learning

Transfer learning är en teknik inom maskininlärning som innebär att en modell som har tränats på en uppgift återanvänds som startpunkt för en annan relaterad uppgift. Denna teknik är framförallt värdefull när man har begränsad data för den nya uppgiften då modeller som redan är förtjänade kan ”dela med sig” av kunskap och insikter från stora och mer generella dataset.

Ett exempel på detta är en modell som är tränad på allmän bildigenkänning som finjusteras för att känna igen specifika medicinska bilder.

Transformativ AI (Transformative AI)

Transformativ AI är en term som används för att beskriva alla aI-teknologier som har möjlighet att radikalt förändra (transformera) samhällen och ekonomier på ett eller annat sätt tack vare dess innovationer. Ett exempel på en transformator AI är teknik kopplat till autonoma bilar som radikalt kan förändra hur vi transporterar oss.

V

Variational Autoencoder (VAE)

En variational autoencoder (VAE) är en typ av neural nätverksarkitektur inom djupinlärning. VAE används för att generera komplexa modeller från indata.

Traditionella autoencoders lär sig enbart att komprimera och dekomprimera data men VAE implementerar en så kallad probalistisk strategi för att skapa en distribution av indata. Detta gör det möjligt att generera nya data som liknar träningsexemplen.

Z

Zero-shot learning

Zero-shot learning är en inlärningsteknik där en AI-modell lär sig att klassificera nya objekt eller uppgifter som den inte tidigare har sett under tidigare träning. Zero-shot learning använder semantiska relationer mellan kända och okända kategorier. Detta gör generalisering till nya scenarion möjligt utan direkt erfarenhet.

Är du redo att ta ditt innehållsskapande till nästa nivå med hjälp av AI? Testa Tolios AI-drivna skrivverktyg helt gratis idag här!