Wir erklären wichtige KI Begriffe

ki-begriffe-erklaert

Beim Thema KI ist es gar nicht so leicht, den Überblick zu behalten – erst recht, wenn Begriffe unklar sind, die in dem Kontext immer wieder auftauchen. Wir wollen helfen, grundlegende Begriffe zu verstehen und erklären ihre Bedeutung.

Welche verschiedenen KI-Ansätze gibt es?

Reactive AI

Reactive AI ist die „schwächste“ Form von KI und begegnet uns zum Beispiel in Form eines einfachen Roboters, der Pakete im Lager einräumt. Dessen Ziel ist es, Aufgaben auf Grundlage von Informationen zu erledigen – ohne den Kontext zu verstehen, frühere Erfahrungen einzubeziehen oder Erfahrungen zu sammeln, da es keinen Speicher gibt. Die Systeme sind also auch nicht lernfähig.

Generative AI

Ob bewusst oder nicht – mit dem Thema Generative AI sind die meisten von uns wohl schon in Berührung gekommen. Denn das prominenteste Tool, bei dem Generative AI genutzt wird, ist ChatGPT. Doch es ist längst nicht das einzige: Ob Google Gemini, Anyword, Runway oder Suno – die Tools haben alle eines gemeinsam: Es geht – wie der Name es bereits verspricht – um das Generieren, also das Erstellen, von Dingen: von Texten, Bildern, Audio-Dateien, Videos oder ähnlichem. So können z.B. Texte auf Webseiten, Antworten auf Kundenanfragen oder Programmcodes entstehen. Grundlage sind hierbei Inhalte, die bereits verfügbar sind – gut trainiert von der KI.

Predictive AI

Auch hier hilft uns der Name bereits weiter: Bei Predictive AI geht es um Vorhersagen über die Zukunft – bei denen z.B. Geschäftszahlen, der Zustand von Maschinen, Gesundheitsrisiken oder Logistikketten im Fokus stehen. So erfahren Vertriebsleiter:innen, welche Kunden kündigen könnten, Ingenieur:innen, welche Bauteile möglicherweise Probleme verursachen, Logistik-Chefs, wie lange verschiedene Lieferrouten dauern, und Ärtz:innen, welche Patient:innen gefährdet sind, eine bestimmte Krankheit zu bekommen. Diese Informationen sollen ihnen helfen, Entscheidungen zu treffen.

Die Idee der Predictive AI ist nicht neu. Neu sind allerdings die verfügbaren Rechenkapazitäten, die Predictive AI zugänglich machen und den Mehrwert erhöhen. Bei der Berechnung können sowohl Vergangenheitswerte als auch Echtzeitdaten einfließen.

Prescriptive AI

Einen Schritt weiter geht die Prescriptive AI. Hierbei erhalten Nutzer:innen einen Vorschlag für die beste Vorgehensweise. So würden die Vertriebsleiter:innen auch erfahren, wie sie Kunden halten können, die Ingenieur:innen, wie eine Maschine am besten repariert werden kann, die Logistik-Chefs, welche Route die beste und sicherste ist, und Ärtz:innen, welche Behandlungsmethode Genesung verspricht.

Während Predictive AI „nur“ Wahrscheinlichkeiten ermittelt, spricht Prescriptive AI also auch Empfehlungen aus und bezieht dabei die Anforderungen eines Unternehmens ein.

Self-learning AI

Self-learning AI verrät ebenfalls im Namen, was sie kann – und das ist nicht wenig: Hier soll das KI-System mit der Zeit dazulernen, sich Wissen aneignen und sich anpassen – ohne, dass hierfür eine explizite Programmierung notwendig ist.

Dies soll durch „Try and Error“ bzw. „Learning by doing“ passieren. Die KI soll beobachten, welche Auswirkungen bestimmte Aktionen haben, und Lücken füllen, indem sie Muster erkennt und daraus Schlussfolgerungen zieht. Die KI lernt also nicht 10 Jahre lang in der Schule Englisch, sondern wird durch einen Umzug in die USA ins kalte Wasser geschmissen und zum Lernen bewegt.

Welche KI-Sprachmodelle gibt es?

Large Language Models

Large Language Models (LLM) sind leistungsstarke Modelle, die unzählige Daten verarbeiten und verbinden, unsere Sprache verstehen und wiedergeben. Sie können mit komplexen Anweisungen umgehen und generieren Inhalte, indem sie die Wahrscheinlichkeit berücksichtigen, mit der einzelne Satzbausteine/Sätze hintereinander folgen. So können sie auch Aufgaben erledigen, für die sie nicht explizit trainiert wurden. Ein Beispiel für ein solches LLM-Modell ist erneut ChatGPT.

Bei den LLMs sind unter anderem zwei Dinge wichtig: Zum einen ist der Wahrheitsgehalt der Ergebnisse immer zu überprüfen. Denn bei Large Language Modellen werden wir auch mit Halluzinationen konfrontiert, also unwahren Aussagen. Zum anderen sollte bei der Entscheidung für ein Modell stets geprüft werden, ob ein LLM-Modell – und damit große Rechenkapazitäten – tatsächlich notwendig sind.

Und damit kommen wir zu der nächsten Art von Sprachmodellen.

Small Language Models / Short Language Models

Wie schon der letzte Satz und auch der Name es vermuten lässt: Bei den Small bzw. Short Language Models (SLM) geht es um kleinere Modelle. Sie beziehen viel weniger Daten ein und brauchen dadurch deutlich weniger Rechenleistung, sind günstiger, können einfacher trainiert und schneller bereitgestellt werden. Außerdem können sie ganz spezifische Anwendungsfälle abbilden, für diese ein Finetunig erfahren und bessere Ergebnisse liefern. Um beim Chatbot-Beispiel zu bleiben: Ein KI-Assistent auf der Webseite eines Forschungslabors muss keine Gedichte über die Natur schreiben können. Er muss jedoch über die Forschungsergebnisse zu einem Thema genaue Aussagen treffen können.

KI-Sprachmodelle

Sprechen Sie uns an

Wir können Ihnen nicht nur helfen, die verschiedenen KI-Begriffe zu verstehen, sondern haben auch das Wissen, wie Künstliche Intelligenz angewendet werden und einen Mehrwert stiften kann.

Erfahren Sie Neues rund um den Digital Workplace!

Wir informieren Sie regelmäßig über spannende Themen rund um den Digital Workplace und laden Sie zu unseren Webinaren ein.
captcha
Enter the characters shown in the image:
Reload

This CAPTCHA helps ensure that you are human. Please enter the requested characters.

Das könnte Sie auch interessieren

Vom KI-Hype zur echten Anwendung: Smarte Fragen, bessere Antworten

Es gibt unzählige Artikel darüber, wie KI den Arbeitsplatz verändert – aber nur wenige Berichte, die sich damit befassen, was nötig ist, um eine KI-Idee zum Leben zu erwecken. Das wollen wir hiermit ändern.
Mehr Lesen

Die unsichtbare Angriffsfläche – Warum klassische Cybersecurity heute nicht mehr reicht

Klassische Security-Ansätze stoßen an ihre Grenzen. Gemeinsam mit Armis bietet EBF eine moderne Lösung für volle Transparenz, intelligente Risikoanalyse und den Schutz aller vernetzten Assets.
Mehr Lesen

Vier Erfolgsfaktoren für eine gelungene UEM-Migration

Ein Wechsel des UEM-Systems kann zur Herausforderung werden – vor allem bei tausenden Geräten und unterschiedlichen Nutzungsszenarien. In diesem Artikel zeigen wir wie der EBF Onboarder Unternehmen dabei unterstützt, Aufwand und Frust deutlich zu reduzieren.
Mehr Lesen

Acht Jahre EBF Onboarder – das Migrationswunder made in Cologne

Erfahren Sie, was den EBF Onboarder so besonders macht und wie er die UEM Migration erleichtert hat.
Mehr Lesen

UEM-Wechsel: Ein Vergleich vom EBF Onboarder und der neuen Migrations-Option von Apple

Erfahren Sie, welche Lösung beim UEM-Wechsel mehr Flexibilität, Transparenz und Nutzerfreundlichkeit bietet.
Mehr Lesen

WWDC 2025: Was für IT-Admins relevant wird

Die WWDC 2025 bringt viele Neuerungen für IT-Admins und UEM-Verantwortliche: Single Sign-On direkt im Setup-Assistent, granular steuerbare Updates mit Declarative Device Management und mehr Kontrolle über Apple Business Manager.
Mehr Lesen
WHITEPAPER

EBF Sicherheitskompass

Ein umfassender Leitfaden zur IT-Sicherheit.

Whitepaper_Sicherheitskompass