KI-Assistenten im Unternehmen: Copilot & ChatGPT Schulung

1

Lernziele & Fokus des Vortrags
1
Moderne KI verstehen
Erwerben Sie ein grundlegendes Verständnis für die Funktionsweise und Kernkonzepte moderner KI-Systeme.
2
Grenzen erkennen
Entwickeln Sie ein Bewusstsein für die aktuellen Limitationen und Herausforderungen von KI, um realistische Erwartungen zu setzen und Fehlanwendungen zu vermeiden.
3
Einsatzpotenziale bewerten
Lernen Sie, wie Sie KI-Technologien wie Copilot und einfache Agenten sinnvoll in Ihrem beruflichen Umfeld identifizieren und einsetzen können.
Dieser Vortrag bietet Ihnen eine konzeptionelle Einführung, jedoch keine detaillierten Hands-on-Trainings.

2

Chatbots: Private Begeisterung vs. Geschäftliche Realität
Im privaten Kontext
Privat nutzen wir Chatbots oft für Themen, in denen wir selbst keine Experten sind. Die 80% "Beherrschung" des Themas durch den Chatbot übertrifft hier oft unser eigenes Wissen bei Weitem. Wir empfangen einen großen Mehrwert, und die fehlenden 20% fallen kaum ins Gewicht.
Im geschäftlichen Kontext
Im Unternehmen arbeiten wir oft auf Expertenniveau und verdienen unser Geld mit tiefem Fachwissen. Der Chatbot erreicht hier vielleicht nur 50% des Themas und liegt nur knapp über oder sogar unter unserer eigenen Expertise. Der Mehrwert ist geringer, und Fehler sind sofort offensichtlich.

Was ist zu tun?
Um den Chatbot im geschäftlichen Umfeld effektiv zu nutzen, sind zwei Strategien entscheidend:
  • Konzentrieren Sie sich auf Aufgaben, die kein Spezialwissen erfordern, aber mühsam sind, z.B. E-Mails formulieren, Excel-Formeln erstellen oder Dokumente durchsuchen.
  • Das Unternehmen muss den Chatbot auf relevante, interne Daten und Prozesse "schulen" (Feinjustierung).

3

Agenda
Diese Schulung bietet Ihnen einen umfassenden Überblick über den Einsatz von KI-Assistenten wie Copilot und ChatGPT in Unternehmen. Wir beleuchten die Funktionsweise, praktische Anwendungen und Best Practices für effektive Nutzung.
1
Grundlagen & Geschichte der KI
Eine kurze Reise durch die Entwicklung der KI bis zu modernen Foundation Models.
2
Das Innenleben der KI: Token & Kontext
Wie Sprachmodelle "denken", Token verarbeiten und mit Kontext umgehen.
3
Die Kunst des Prompting: Von der Frage zur Antwort
Strategien für effektives Prompting, um präzise und nützliche Ergebnisse zu erzielen.
4
Chatbots & System Prompts: KI-Persönlichkeit verstehen
Der Einfluss von System Prompts und Herstelleranpassungen auf das Chatbot-Verhalten.
5
Wissensintegration & Tools (RAG)
Wie externes Wissen in KI-Modelle integriert und durch Tools erweitert wird.
6
Copilot & ChatGPT: Einsatz & Vergleich
Praktische Anwendungsfälle, Unterschiede und synergetische Nutzung in Unternehmen.
7
Agenten & Copilot Studio: KI-Workflows automatisieren
Effiziente Verwaltung von Prompts und Aufbau erweiterter KI-Workflows.

4

Grundlagen und Geschichte der KI

5

1950-1980: Symbolische KI
Regelbasierte Systeme mit explizit programmierten Entscheidungsbäumen
Regelbasiertes Wissen
Das Kernprinzip bestand darin, Wissen und Schlussfolgerungen durch eine Vielzahl von manuell erstellten Wenn-Dann-Regeln abzubilden.
Der IBM Watson Erfolg
Ein Highlight war IBM Watson, der das Quizspiel Jeopardy gegen menschliche Champions gewann. Dafür waren 90 Server, 16TB RAM und über 1.000 spezialisierte Softwareagenten nötig.
Skalierung ?
Trotz des großen Medienhypes konnte diese Technologie aufgrund des hohen Wartungsaufwands und der fehlenden Anpassungsfähigkeit nicht skaliert werden und blieb eine teure Nischenanwendung.

6

1980-2010: Machine Learning
In dieser Ära verschob sich der Fokus von explizit programmierten Regeln hin zu Systemen, die Muster aus umfangreichen Trainingsdaten lernen. Statistische Modelle bildeten die Grundlage für diese neue Generation der künstlichen Intelligenz.
Datengetriebenes Lernen
Anstatt jeden Schritt vorzugeben, wurden KI-Systeme darauf trainiert, selbstständig aus großen Datensätzen zu lernen und komplexe Beziehungen zu erkennen.
Algorithmen im Fokus
Die Entwicklung und Verfeinerung von Algorithmen wie Support Vector Machines (SVMs), Entscheidungsbäumen und ersten neuronalen Netzen prägten diese Periode.
Praktische Anwendungen
ML-Techniken führten zu Fortschritten in Bereichen wie Spam-Filterung, Spracherkennung und einfachen Bilderkennungssystemen, die den Alltag erleichterten.

7

2010-2017: Deep Learning
Neuronale Netze imitieren die Funktionsweise des menschlichen Gehirns. Statt starrer Regeln lernen sie aus Millionen von Beispielen - ähnlich wie ein Kind sprechen lernt.
  • Bilderkennung: Übertrifft menschliche Genauigkeit bei Objekterkennung
  • Spracherkennung: Alexa, Siri und Google Assistant verstehen natürliche Sprache
  • Autonomes Fahren: Autopilot analysiert Verkehrssituationen in Echtzeit

Skalierung:
Neuronale Netze brauchen massive, von Hand annotierte, Datenmengen.
Diese müssen für jedes Problem einzeln erstellt werden

8

2017: Transformer-Revolution
Die Einführung der Transformer-Architektur im Jahr 2017 markierte einen Wendepunkt in der KI, insbesondere im Bereich der Sprachmodelle. Mit dem "Attention"-Mechanismus revolutionierten sie die Art und Weise, wie KI Sprache versteht und verarbeitet.
Attention-Mechanismus
Dieser bahnbrechende Mechanismus ermöglicht es Modellen, sich auf die wichtigsten Teile der Eingabe zu konzentrieren, anstatt sequenziell zu arbeiten.
Parallele Verarbeitung
Im Gegensatz zu früheren Architekturen können Transformer Eingaben gleichzeitig verarbeiten, was Trainingszeiten drastisch verkürzt und die Skalierbarkeit verbessert.
Erweitertes Kontextverständnis
Diese Fähigkeit führt zu einem wesentlich tieferen Verständnis von Beziehungen und Abhängigkeiten in langen Texten, entscheidend für komplexe Sprachaufgaben.
Grundlage für LLMs
Die Transformer-Architektur ist die Basis für alle modernen Large Language Models (LLMs) wie ChatGPT und Copilot und hat die Ära der generativen KI eingeläutet.

9

2020: Transfer Learning - Foundation Models
Der Durchbruch moderner KI liegt im Transfer Learning: Statt für jede Aufgabe von null zu beginnen, werden universelle "Foundation Models" entwickelt, die grundlegendes Sprachverständnis besitzen.
Pretraining
Modelle lernen aus riesigen Textmengen (Wikipedia, Bücher, Websites) grundlegende Sprachstrukturen und Weltwissen durch Ausfüllen von Lückentexten
Feinjustierung
Training auf qualitativ hochwertigen Anweisungs-Antwort-Paaren. Das Modell lernt, Befehlen zu folgen.
Sicherheit
Das Modell lernt sich an Master-Anwesiungen zu halten

Trainingsdaten aus "Lückentexten" sind fast umsonst - ein einziges Modell kann Hunderte verschiedener Aufgaben übernehmen - früher brauchte man für jede Aufgabe ein separates System.

10

Token & Kontext

11

Das Prinzip der Token-Vorhersage
Grundmechanismus
  • Tokenisierung: Text wird in Wortteile zerlegt
  • Wahrscheinlichkeiten: Modell berechnet nächstes Token
  • Sequenzielle Textgenerierung: Das Modell verarbeitet immer alle vorherigen Tokens um das nächste zu bestimmen, "das Modell hört sich selber zu"
  • Kontext: Da immer alles nocheinmal verarbeitet werden muss ist das Model begrenzt. Es kann nur eine begrenzte Menge an Tokens aufnehmen
Praktisches Beispiel
Eingabe: "Der Vertrag läuft am"
Top-Token:
  1. 31. (42% Wahrscheinlichkeit)
  1. Ende (28% Wahrscheinlichkeit)
  1. kommenden (15% Wahrscheinlichkeit)
LLMs sind hochentwickelte Vervollständigungssysteme, die durch Training auf riesigen Textmengen menschenähnliche Sprachmuster gelernt haben.

12

Der Kontext: Das Arbeitsgedächtnis des Modells
Jedes Sprachmodell hat eine begrenzte Kapazität, um Informationen gleichzeitig zu verarbeiten. Diese Kapazität wird als Kontextfenster bezeichnet und in Tokens gemessen.
1
Limitierte Kapazität
Das Modell kann eine bestimmte, feste Anzahl von Tokens miteinander in Beziehung setzen und verarbeiten. Dies ist sein "Arbeitsgedächtnis".
2
Frage füllt den Kontext
Wenn Sie eine Anfrage stellen, belegt diese Frage einen Teil des verfügbaren Kontextfensters mit ihren Tokens.
3
Schrittweise Generierung
Das Modell generiert dann Wort für Wort (Token für Token) seine Antwort. Jedes neu generierte Token wird Teil des Kontextes.
4
Kontextende
Wird das Kontextfenster voll, bricht das Modell ab.

Der Kontext ist wie ein Kurzzeitgedächtnis: Nur was im aktuellen Fenster ist, wird "verstanden" und kann für die nächste Vorhersage genutzt werden.

13

In den Kontext müssen Frage und Antwort passen.
Prompt
Die aktuelle Eingabe des Nutzers, der Auslöser der Antwort.
Output
Antwort des Modells an den Endbenutzer

14

Prompting

15

Prompting-Exzellenz: Von vage zu präzise
1
Rolle definieren
Kontext und Perspektive vorgeben
2
Aufgabe spezifizieren
Klare Anweisungen mit Parametern
3
Format strukturieren
Ausgabeschema und Beispiele
4
Constraints setzen
Grenzen und Qualitätskriterien
Schlechter Prompt
"Fasse das zusammen"
Vage, ohne Kontext oder Struktur
Optimierter Prompt
"Rolle: Compliance-Officer.
Kontext: Interne Unternehmensrichtlinie zur IT-Sicherheit, adressiert an Geschäftsführung und Bereichsleiter.
Aufgabe: Erstelle eine prägnante Executive Summary mit Fokus auf Risiken und Verantwortlichkeiten.
Format:
• Titel | Version | Gültig ab | Verantwortlich
• 3–5 Kernpunkte à max. 25 Wörter, ohne Fachjargon.
Sprache: Deutsch, Ton: sachlich, Zielgruppe: Management.
Beispiel:
• Titel: IT-Sicherheitsrichtlinie v3.0 | Gültig ab: 01.03.2025 | Verantwortlich: CISO
• Zugriff nur über VPN (Schutz vor externen Angriffen).
• Jährliche Schulungspflicht (Erhöhung der Awareness).
Qualitätskriterium: max. 120 Wörter, vollständig, klar, management-tauglich."

16

Prompting-Grundlagen für bessere Ergebnisse
Die Optimierung von Prompts ist ein kontinuierlicher Prozess, der sich auszahlt. Verfeinern Sie Ihre Strategien, um das volle Potenzial Ihrer KI-Tools zu nutzen.
Stetige Weiterentwicklung
Prompt-Richtlinien sind dynamisch und modellabhängig. Investieren Sie Zeit in Prompts für wiederkehrende Aufgaben und speichern Sie diese für zukünftige Nutzung.
Ergebnisorientierte Verfeinerung
Fokus auf die Ergebnisse, nicht nur auf die Logik. Ein effektiver Prompt ist nicht zwingend der, der sich am besten anhört, sondern der, der funktioniert.
KI als Prompt-Assistent
Starten Sie nicht bei Null! Erklären Sie ChatGPT oder Copilot ihre Aufgaben und lassen Sie mehrere "erstelle drei unterschiedliche Prompts" Vorschläge für ihren Prompt generieren und verfeinern Sie diese iterativ.

17

Prompt-Checkliste (vor dem Absenden)
1
Ziel klar?
– Ziel, Output-Form, Länge, Zielgruppe, Sprache.
2
Rolle definiert?
– Rolle/Perspektive, Ton, Verantwortungsbereich.
3
Kontext vorhanden?
– Geschäftsfall, Restriktionen, vorhandene Artefakte, Annahmen.
4
Aufgabe präzise?
– Verb + Objekt + Kriterien. Keine Mehrfachaufgabe.
5
Struktur vorgegeben?
– Abschnittsüberschriften, Tabellenfelder, JSON-Schema oder Bullet-Format.
6
Beispiele beigefügt?
– 1 gutes Beispiel, 1 Negativbeispiel.
7
Constraints gesetzt?
– Wortzahl, Verbotene Inhalte, Domain-Terminologie, Referenzdatum/Version.
8
Rückfragen erlaubt?
– Bitte bei Unklarheit x Rückfragen stellen. Sonst Default y.
9
Iterationen vorgesehen?
– „Gib 2 Varianten“ oder „Erst Gliederung, dann Ausarbeitung nach Freigabe“.
10
Evaluationshinweis drin?
Am Ende deiner Antwort liefere eine Selbstprüfung gemäß:
– Korrektheit: alle Aussagen belegt, keine Widersprüche.
– Vollständigkeit: alle geforderten Punkte enthalten.
– Nachvollziehbarkeit: 2–4 Schritte, wie du zum Ergebnis kamst.
– Quellenpflicht: ≥90% Fakten mit Quelle inkl. genauer Fundstelle.
– Stilregeln: Format und Wortzahl wie vorgegeben (±10%).

18

KI als Prompt Ersteller Offizielle Prompting Guides
1
Prompting Guides
Laden Sie diese als Datei für das Modell hoch, um präzisere Ergebnisse zu erzielen.
2
Prompt Optimizer
ACHTUNG: Hauptsächlich für die Optimierung von Prompts für Agenten gedacht
3
Metaprompting (aus OpenAI Prompting Guide)
Wenn Du aufgefordert wirst, Prompts zu optimieren, antworte aus Deiner eigenen Perspektive. Erkläre, welche konkreten Formulierungen in diesem Prompt hinzugefügt oder gelöscht werden könnten, um das gewünschte Verhalten konsistenter hervorzurufen oder das unerwünschte Verhalten zu verhindern.
Hier ist ein Prompt: [PROMPT]
Das gewünschte Verhalten dieses Prompts ist, dass das Modell [GEWÜNSCHTES VERHALTEN AUSFÜHRT], aber stattdessen [NICHT GEWÜNSCHTES VERHALTEN AUSFÜHRT].
Während so viel wie möglich vom bestehenden Prompt unverändert bleibt: Welche minimalen Änderungen oder Ergänzungen würdest Du vornehmen, um das Modell dazu zu bringen, diese Schwächen künftig konsistenter zu vermeiden?

19

Beispiel: Prompt Nebenkostenabrechung
Guideline recherierchen
Auf Basis der Guideline aus einem einfachen Prompt "Analysiere die Nebenkostenabrechung" einen professionelleren Prompt generieren

20

10 min Pause

21

Kontext & Chain-of-Thought
Die "Chain-of-Thought" (Gedankenkette) ist eine Technik, bei der das Sprachmodell dazu angeregt wird, seine Lösungsschritte explizit zu formulieren. Es "hört" sich dabei selbst beim Denken zu und kommt so oft zu besseren Ergebnissen - es "verbraucht" aber auch viel mehr Token
Schritt-für-Schritt-Denken
Durch die Aufforderung "Gehe Schritt für Schritt vor" oder "Denke laut" wird das Modell gezwungen, seine internen Überlegungen zu externalisieren. Dies strukturiert den Denkprozess.
Verbesserte Ergebnisse
Die explizite Schrittfolge führt zu einer höheren Genauigkeit und Logik, besonders bei komplexen Problemen. Allerdings benötigt dies deutlich mehr Rechenleistung und Ausgabe.
Soll man noch Chain-of-Thought prompten?
  • GPT-4o: Ja, explizites CoT steigert Struktur und Genauigkeit.
  • GPT-5: Teilweise automatisch. CoT-Prompts nützlich, wenn Nachvollziehbarkeit oder mehr Tiefe gefordert ist.
  • o-Modelle (o1/o3): Nicht nötig, Reasoning ist integriert.
Einstellungen in Tools
Funktionen wie "Schnelle Antwort" vs. "Think deeper" in Copilot/ChatGPT spiegeln dies wieder.

Die Nutzung der Einstellung in GPT-5 ist besser als die Vorgabe im Prompt. GPT-5 schaltet automatisch um.

22

Wie KI "denkt" (und wo sie stolpert)
Sprachmodelle sind primär darauf trainiert, Muster in Texten zu erkennen und Lückentexte auszufüllen. Dies führt zu einem tiefen Verständnis von Sprache und Konzepten, aber zu überraschenden Schwächen in der Mathematik, Zählen und ähnlichem.
Die KI-Perspektive:
Stark in Sprache & Kontext
Kann komplexe Texte zusammenfassen, übersetzen und kreative Inhalte generieren. Sie "versteht" Zusammenhänge und Konzepte sehr gut.
Schwach in Mathematik & Zählen
Fällt es schwer, präzise arithmetische Operationen durchzuführen oder korrekte Mengen zu zählen. Oft werden "halluzinierte" Zahlen oder Rechenfehler ausgegeben.

Beispiel: Wieviele "r" sind in Erdbeere
Die menschliche Analogie:
Auswendiglernen
Das kleine Einmaleins ist auswendig gelernt (wie Mustererkennung bei der KI).
Konzeptuelles Verständnis
Man kann erklären, wie man große Zahlen schriftlich multipliziert (wie die KI Textkonzepte erklären kann).
Schwierige Kopfrechnung
Eine Multiplikation großer Zahlen im Kopf durchzuführen, gelingt nicht jedem (wie die KI mit komplexer Mathematik ringt).

Wichtige Erkenntnis: KI-Sprachmodelle sind beeindruckende Sprachkünstler, keine Rechen-Genies. Ihre Stärke liegt im Umgang mit Informationen un Konzepten.

23

24

Woran liegt es das Du Dich verzählt hast? Beschreibe für Kinder wie Du Token verarbeitest
Copilot
Stell dir vor, ich lese Wörter nicht wie ein Mensch, sondern wie ein Roboter, der mit kleinen Bausteinen arbeitet. Diese Bausteine heißen Tokens. Ein Token kann ein Buchstabe sein, ein Teil eines Wortes oder manchmal sogar ein ganzes Wort.
Zum Beispiel:
  • Das Wort „Erdbeere“ kann in mehrere Tokens zerlegt werden, etwa so: ["E", "rd", "bee", "re"] (Das ist nur ein Beispiel – wie genau es zerlegt wird, hängt von meiner inneren „Sprache“ ab.)
Wenn ich dann zählen soll, wie oft ein Buchstabe vorkommt, muss ich diese Tokens erst wieder zusammensetzen und genau hinschauen. Manchmal mache ich dabei einen Fehler, weil ich mich zu sehr auf die Tokenstruktur verlasse und nicht wie ein Mensch einfach jeden Buchstaben einzeln anschaue.

Leider stimmt das überhaupt nicht. Für das Modell hat jedes Token nur eine Nummer ['E': 36, 'rd': 6634, 'be':1395, 'ere':486], es hat keine Ahnung wie viele "r" in einem Token sind, es kennt nur Beziehungen zwischen Token. Tatsächlich wissen wir nicht was das Modell macht - und das Modell weiß es auch nicht.

25

26

Nicht alles aus dem Kontext wird angezeigt
Prompt
Die aktuelle Eingabe des Nutzers, der Auslöser der Antwort.
Output
Manche Token, z.b. interne Chain-of-Thought Token werden generiert aber nicht angezeigt.
(in manchen Systemen kann man das ein- und ausschalten)
Output
Antwort des Modells an den Endbenutzer

27

Chatbots

28

Chatbots: Unterhaltungen mit der KI
Im Gegensatz zu einem reinen Sprachmodell kann man sich mit einem Chatbot unterhalten. Doch wie funktioniert diese vermeintliche Konversation eigentlich?
1
Die Rolle des Chatbot-Systems
Das Chatbot-System agiert als Vermittler. Es empfängt die Nutzereingabe und fügt automatisch die gesamte bisherige Unterhaltung (Kontext) hinzu, um den Anschein einer fortlaufenden Konversation zu erwecken.
2
Limitierter Kontext
Jedes Sprachmodell hat eine maximale Kontextgröße. Wenn die Unterhaltung zu lang wird, beginnt das Chatbot-System, ältere Teile der Konversation zu "vergessen", um neue Informationen aufzunehmen.
3
Verwirrung durch Themenwechsel
Wenn eine Unterhaltung viele unterschiedliche Themen oder Gedankenstränge enthält, kann das Sprachmodell verwirrt werden. Es fällt ihm schwerer, den roten Faden zu behalten und kohärente Antworten zu generieren.

29

Die gesamte Unterhaltung muss auch in den Kontext!
Short Term Memory (Conversation State)
Verlauf der aktuellen Unterhaltung, begrenzt auf den Prompt-Kontext.
Prompt
Die aktuelle Eingabe des Nutzers, der Auslöser der Antwort.
Output
Manche Token, z.b. interne Chain-of-Thought Token werden generiert aber nicht angezeigt.
(in manchen Systemen kann man das ein- und ausschalten)
Output
Antwort des Modells an den Endbenutzer

30

Der Kontext ist teuer und daher begrenzt!
1
Sprachmodelle können nur eine begrenzte Menge an Daten gleichzeitig verarbeiten.
Dies umfasst stets Ihren aktuellen Prompt und die Antwort !
2
Kein Gedächtnis
Das Modell selbst besitzt kein Gedächtnis.
Für fortlaufende Dialoge wird der gesamte Chatverlauf dem aktuellen Prompt vorangestellt.
3
Qualität & Relevanz
Wird der Dialog zu lang, können irrelevante Informationen die Antwortqualität mindern.
4
Vergessen
Oft passt nicht der gesamte vorherige Dialog in den Kontext. Das System versucht dann den Dialog sinnvoll zu kürzen. In der Folge gehen Informationen verloren

31

Effektive Chatbot-Nutzung: Tipps für den Dialog
Um die besten Ergebnisse aus Ihren Interaktionen mit KI-Chatbots herauszuholen, ist es entscheidend, den Dialog bewusst zu steuern. Hier sind bewährte Praktiken:
Dialoge prägnant halten
Beschränken Sie sich auf das Wesentliche, um den Kontext des Modells nicht zu überladen und die Relevanz der Antworten zu sichern.
Fokus auf ein Thema pro Dialog
Vermeiden Sie es, verschiedene Themen in einem Chat zu behandeln. Dies verhindert Verwirrung und verbessert die Kohärenz der KI-Antworten.
Dialoge bei Themenwechsel aufteilen
Wenn Sie unterschiedliche Gedankengänge verfolgen möchten, starten Sie einen neuen Chat. Eine Zusammenfassung des alten Dialogs kann in den neuen kopiert werden.
ChatGPT bietet dazu eine Funktion "Splitten" an.
ChatGPT: Alte Eingaben editieren
Korrigieren Sie Fehler oder ändern Sie Anfragen in alten Prompts. Das Modell startet ab diesem Punkt neu und ignoriert nachfolgende Verläufe.
Nutzen Sie dies nach Rückfragen um wieder zur Hauptdiskussion zu kommen
Die ChatGPT Funktionen werden meist zeitnah auch in Copilot-Umgebungen übernommen.

32

KI-Halluzinationen: Wenn die KI erfindet
Es ist bekannt, dass Sprachnetzwerke Informationen erfinden, die sich absolut plausibel anhören. Aber warum passiert das eigentlich?
Sprachnetzwerke werden darauf trainiert, Lückentexte zu vervollständigen. Das heißt, sie füllen Lücken immer mit "etwas" aus. Die Antwort "das weiß ich nicht" kommt in echten Texten sehr selten vor und kann daher nur schwer trainiert werden. Dies führt dazu, dass Halluzinationen wahrscheinlicher in Bereichen auftreten, in denen sich das Netzwerk schlechter auskennt – leider oft genau dort, wo berufliche Fachkenntnisse gefragt sind.
Quellen prüfen und Rückfragen stellen
Prüfen Sie im Zweifel die Quellen oder stellen Sie Rückfragen. Sogar ein einfaches "Stimmt das wirklich?" kann Halluzinationen aufdecken.
Lassen Sie sich nicht täuschen
Lassen Sie sich nicht täuschen, wenn das Netzwerk sehr sicher wirkt. Auch wenn es eine Antwort mit z.B. "Verstanden, ich habe eine Liste, die die wichtigsten 3 Punkte erstellt:", hat es sich zu diesem Zeitpunkt die Liste noch gar nicht ausgedacht. Es generiert immer nur ein Token nach dem anderen.

33

Halluzinationen aufdecken: Die richtigen Fragen stellen
Dieses Set von Rückfragen hilft, KI-Halluzinationen zu identifizieren. Ziel ist, dass die KI selbst ihre Aussagen auf Fundiertheit prüft, bevor sie Ihnen eine Antwort gibt.
Quellen / Belege
  • Auf welche konkreten Quellen stützt sich diese Aussage?
  • Kannst Du mir die Originalquelle nennen oder verlinken?
  • Wurde diese Information aus Trainingsdaten oder einer aktuellen Abfrage gewonnen?
Unsicherheiten
  • Wie sicher bist Du Dir dabei in Prozent?
  • Welche alternativen Sichtweisen oder Werte gibt es dazu?
  • Ist das eine belegte Tatsache oder eine Modellvermutung?
Nachvollziehbarkeit
  • Kannst Du Schritt für Schritt zeigen, wie Du zu dieser Schlussfolgerung kommst?
  • Welche Annahmen liegen dieser Aussage zugrunde?
  • Kannst Du dieselbe Frage anders formuliert beantworten und prüfen, ob das Ergebnis konsistent bleibt?
Prüfbare Details
  • Kannst Du die Daten, Zahlen oder Zitate konkret wiedergeben?
  • Kannst Du einen Primärtext dazu wörtlich zitieren?
  • Wenn ich das überprüfen möchte: wo genau finde ich das?

34

SYSTEM PROMPT: Bei gleichen Modell können sich Chatbots sehr unterschiedlich verhalten

35

Die unsichtbare Kraft hinter der KI-Persönlichkeit
Rolle & Identität
Das Systemprompt definiert, wer die KI ist – ein hilfsreicher Assistent, ein Produktivitätstool oder ein kreativer Partner
Ton & Stil
Bestimmt die Kommunikationsweise – von sachlich-präzise bis freundlich-ausführlich
Grenzen & Regeln
Legt fest, was erlaubt ist und welche Sicherheitsvorkehrungen greifen
Kleine Unterschiede im Systemprompt erzeugen spürbar unterschiedliches Verhalten. Daher wirken ChatGPT und Copilot fundamental anders, obwohl beide auf denselben Large Language Modellen basieren. Das Systemprompt ist die unsichtbare Hand, die jede Interaktion formt.

36

Das Modell ist nur der Motor, der Systemprompt macht das Auto
Systemprompt = UX-Architektur
Das Systemprompt ist die heimliche UX-Architektur jeder KI-Anwendung. Es formt Erwartungen, Interaktionsmuster und die wahrgenommene „Persönlichkeit" des Systems.
Unterschiede haben eine Quelle
Variationen in Gefühl, Tempo, Zitierverhalten und Aktionsvorschlägen zwischen KI-Systemen stammen primär aus den Systemprompts, nicht aus der zugrundeliegenden Modelltechnologie.
Prompt-Kontrolle = Produktkontrolle
Wer das Prompt-Framework kontrolliert, kontrolliert die Produktpersönlichkeit. Dies macht Prompt-Design zu einer strategischen Kernkompetenz für KI-Produkte.

37

Die Herstelleranpassung muss auch in den Kontext!
Systemprompt
Definiert Rolle, Regeln und Grenzen des Modells.
Developerprompt
Zusätzliche Instruktionen für Arbeitsweise oder Stil.
Kontextdaten
Metadaten wie Datum, Uhrzeit und Spracheinstellungen.
Short Term Memory (Conversation State)
Verlauf der aktuellen Unterhaltung, begrenzt auf den Prompt-Kontext.
Prompt
Die aktuelle Eingabe des Nutzers, der Auslöser der Antwort.
Output
Manche Token, z.b. interne Chain-of-Thought Token werden generiert aber nicht angezeigt.
(in manchen Systemen kann man das ein- und ausschalten)
Output
Antwort des Modells an den Endbenutzer

38

10 min Pause

39

Wissensintegration
Aktuelle Daten
Proprietäre (Unternehmens-) Daten

40

Einbringen von Wissen über den Kontext
(In-Context Learning)
Das sogenannte "In-Context Learning" ermöglicht es KI-Modellen, sich temporär neues Wissen anzueignen, indem relevante Informationen direkt in den Prompt eingegeben werden. Dies ist eine effektive Methode, um die KI für spezifische Aufgaben oder mit aktuellen Daten zu versorgen, die nicht Teil ihres ursprünglichen Trainingsdatensatzes waren.
Direkte Eingabe im Prompt
Texte, Daten oder Anweisungen können direkt in das Eingabefeld kopiert und vor der eigentlichen Frage platziert werden. Die KI nutzt diese Informationen dann als temporäre Wissensbasis für die aktuelle Anfrage.
Dokumentenupload
Einige KI-Plattformen erlauben das Hochladen von Dokumenten (z.B. PDFs, Word-Dateien), deren Inhalt dann als erweiterter Kontext für die folgenden Interaktionen dient. So kann die KI auf unternehmensspezifische Richtlinien oder aktuelle Berichte zugreifen.
Allerdings stößt dieser Ansatz schnell an seine Grenzen, da die Länge des Kontextfensters der KI stark begrenzt ist. Nur eine bestimmte Menge an Informationen kann gleichzeitig verarbeitet werden. Bei umfangreichem oder hochaktuellem Wissen sind andere Integrationsmethoden effizienter.

41

Wissensintegration: Fine-Tuning vs. RAG
Die Integration von spezifischem Unternehmenswissen in KI-Modelle ist entscheidend. Zwei Hauptansätze stehen zur Verfügung, doch sie unterscheiden sich stark in ihren Mechanismen und Herausforderungen.
Herausforderungen beim Fine-Tuning
Beim Fine-Tuning wird das Modell mit zusätzlichen Daten trainiert, um sein Verhalten an spezifische Aufgaben oder Wissensbereiche anzupassen.
  • Hohe Kosten & Zeitaufwand: Jede Aktualisierung oder Anpassung erfordert ein erneutes, ressourcenintensives Training.
  • Gefahr des "katastrophalen Vergessens": Das Modell kann dabei allgemeines Wissen verlieren oder unerwünschtes Verhalten lernen.
  • Fehlende Transparenz: Das Wissen ist tief in den Modellgewichten verankert, die Herkunft von Informationen ist nicht direkt nachvollziehbar.
  • Schwierige Aktualisierung: Schnelle Einarbeitung neuer Informationen ist komplex und teuer, da immer das ganze Modell neu trainiert werden muss.
Vorteile von In-Context Learning mit RAG
Retrieval-Augmented Generation (RAG) ergänzt das Sprachmodell dynamisch mit relevanten Informationen aus externen Quellen, bevor es eine Antwort generiert.
  • Kosteneffizienz: Keine Modell-Neutrainings erforderlich, da externe Wissensdatenbanken genutzt werden.
  • Schnelle Aktualisierung: Neue Informationen können durch einfaches Aktualisieren der Wissensdatenbank sofort verfügbar gemacht werden.
  • Erhöhte Transparenz: Das Modell kann Quellen zitieren, da es auf spezifische Dokumente zugreift.
  • Reduzierte Halluzinationen: Antworten basieren auf faktisch belegten Informationen, was die Genauigkeit erhöht.
  • Flexibilität: Einfache Integration verschiedenster Datenformate und Quellen.
Aus diesen Gründen hat sich In-Context Learning mittels RAG als präferierter Ansatz für die dynamische Integration von aktuellem Unternehmenswissen etabliert.

42

Retrieval-Augmented Generation: Externes Wissen integrieren
RAG erweitert KI-Modelle um externe Datenquellen. Statt nur auf Trainingsdaten zurückzugreifen, können aktuelle Informationen aus Datenbanken, Intranets oder Dokumentensammlungen abgerufen werden.
Anfrage analysieren
Das System analysiert Ihre Frage und identifiziert relevante Suchbegriffe.
Relevante Daten abrufen
Durchsucht das Web, Ihr Firmen-Intranet, Dokumentensammlungen oder Datenbanken nach passenden Informationen.
Kontext kombinieren
Fügt die gefundenen Informationen dem Kontext hinzu.
Antwort generieren
Das Modell erstellt eine Antwort basierend auf aktuellen, unternehmensinternen Daten.

43

Die Herausforderung der Kontextfragmentierung bei RAG
Während RAG spezifische Details effizient aus externen Quellen abruft, erhält das Sprachmodell oft nur isolierte "Schnipsel". Diese Fragmente allein können die tiefere Bedeutung oder komplexere Zusammenhänge, die über ein Dokument hinausgehen, nur schwer erkennen. Es fehlt der übergeordnete Blick, um das Gesamtbild zu verstehen und umfassende Antworten zu synthetisieren.

RAG hat Schwierigkeiten mit einer umfassenden "Gesamtsicht", das über die Aggregation von Dokumentenschnipseln hinausgeht.

44

Einbringen von Wissen über den Kontext!
Systemprompt
Definiert Rolle, Regeln und Grenzen des Modells.
Developerprompt
Zusätzliche Instruktionen für Arbeitsweise und Stil
Kontextdaten
Metadaten wie Datum, Uhrzeit und Spracheinstellungen.
Short Term Memory (Conversation State)
Verlauf der aktuellen Unterhaltung, begrenzt auf den Prompt-Kontext.
WEB/RAG Kontext
Ergebnisse aus externen Retrieval-Systemen (z.B. Dokumentenabruf).
Prompt
Die aktuelle Eingabe des Nutzers, der Auslöser der Antwort.
Output
Manche Token, z.b. interne Chain-of-Thought Token werden generiert aber nicht angezeigt.
(in manchen Systemen kann man das ein- und ausschalten)
Output
Antwort des Modells an den Endbenutzer

45

Allgemeiner: "Tools"
Tools im Kontext
Dem Sprachmodell wird eine Liste verfügbarer Werkzeuge (z.B. Rechner, Kalender, API-Zugriffe) im Kontext präsentiert.
Modell wählt Tool
Basierend auf dem Nutzer-Prompt wählt das Modell das passende Tool und generiert einen Tool-Aufruf.
System führt Tool aus
Das externe System führt den generierten Tool-Aufruf aus und erzeugt ein Ergebnis.
Ergebnis zurück im Kontext
Das Ergebnis der Tool-Ausführung wird als neuer Text in den Kontext des Sprachmodells zurückgespeist.
Finale Antwortgenerierung
Das Modell wird erneut aufgerufen und generiert unter Berücksichtigung des Tool-Ergebnisses die finale Antwort an den Nutzer.
Die Werkzeugnutzung ermöglicht es Sprachmodellen, über ihr ursprüngliches Wissen hinauszugehen und dynamisch mit externen Systemen zu interagieren. So können sie aktuelle Daten abrufen, Berechnungen durchführen oder Aktionen auslösen – ein entscheidender Schritt hin zu noch nützlicheren und leistungsfähigeren KI-Assistenten.

46

Gängige Tools, die KI-Modelle nutzen
Rechner
Führt präzise mathematische Operationen durch, um genaue numerische Ergebnisse zu liefern.
Web-Suche
Ermöglicht den Zugriff auf aktuelle Informationen aus dem Internet, um Wissen dynamisch zu erweitern.
Python-Interpreter
Führt Code aus, um Daten zu analysieren, Skripte zu automatisieren oder komplexe Logik anzuwenden.
API-Zugriff
Interagiert mit externen Diensten und Datenbanken, um spezifische Funktionen oder Daten abzurufen.
Diese Tools ermöglichen es KI-Modellen, Aufgaben zu übernehmen, die über ihr reines Sprachverständnis hinausgehen – von der Echtzeitdatenbeschaffung bis zur komplexen Datenanalyse.

47

48

MCP: Der Standard für KI-Tools
Was ist MCP?
Das Machine Connecting Protocol (MCP) ist ein offener Standard, der die nahtlose Kommunikation zwischen KI-Modellen und beliebigen externen Systemen ermöglicht.
Einfache Anbindung
Um ein System an die KI anzuschließen, ist lediglich ein passender MCP Server erforderlich, der als universelle Schnittstelle dient.
Breite Verfügbarkeit
Für die meisten gängigen Unternehmenssysteme sind bereits fertige MCP Server verfügbar, was die Integration erheblich vereinfacht und beschleunigt.
MCP eliminiert die Komplexität proprietärer Schnittstellen und ebnet den Weg für eine standardisierte, effiziente und skalierbare KI-Integration in Ihre bestehende IT-Infrastruktur.

49

Der Kontext!
Systemprompt
Definiert Rolle, Regeln und Grenzen des Modells.
Developerprompt
Zusätzliche Instruktionen für Arbeitsweise oder Stil.
Kontextdaten
Metadaten wie Datum, Uhrzeit und Spracheinstellungen.
Short Term Memory (Conversation State)
Verlauf der aktuellen Unterhaltung, begrenzt auf den Prompt-Kontext.
Long Term Memory
Persistente, gespeicherte Informationen über den Nutzer.
Available Tools
Liste integrierter Werkzeuge (z.B. Browser, Code-Interpreter).
Tool / RAG Kontext
Ergebnisse aus externen Retrieval-Systemen (z.B. Dokumentenabruf).
User Prompt
Die aktuelle Eingabe des Nutzers, der Auslöser der Antwort.
Output
Interner Monolog des Modells der dem Endnutzer nicht angezeigt wird.
Output
Antwort des Modells an den Endbenutzer

50

CoPilot und ChatGPT

51

52

Copilot ?

53

M365 Copilot
Word
  • Texte und Formate entwerfen
  • Dokumente zusammenfassen und Fragen stellen
  • Dokumentdateien als Grundlage nutzen
PowerPoint
  • Präsentationen aus Prompts oder Word-Dateien erstellen
  • Folien, Bilder hinzufügen, Formatierungen anpassen
  • Zusammenfassungen und Q&A zu Präsentationen
Excel
  • Vorschläge für Formeln und Diagrammtypen erhalten
  • Einblicke in Daten in Tabellenkalkulationen gewinnen
Outlook
  • Coaching-Tipps für Klarheit, Stimmung und Ton
  • E-Mail-Threads zusammenfassen
  • E-Mails auf Basis anderer Inhalte entwerfen
Teams
  • Chat-Inhalte zusammenfassen (bis zu 30 Tage)
  • Fragen in Echtzeit in Meetings beantworten
  • Wichtige Besprechungs- und Anrufdetails automatisieren
Whiteboard
  • Ideen generieren und in Themen organisieren
  • Designs erstellen und Whiteboard-Inhalte zusammenfassen
OneNote
  • Pläne, Ideen, Listen entwerfen
  • Informationen organisieren und auffindbar machen
Forms
  • Fragen und Vorschläge für Umfragen und Abstimmungen entwerfen
Loop
  • Kollaborative Inhaltserstellung ermöglichen
  • Inhalte gemeinsam bearbeiten und verbessern

54

Wie macht es Nadya Satella? Prompting vom Chef
Satya Nadella, CEO vom Microsoft, teilt seine Top-Prompts. Hier auf Deutsch übersetzt.
1
Meeting-Vorbereitung, die funktioniert
"Basierend auf meinen früheren Interaktionen mit [Person], gib mir 5 Dinge, die wahrscheinlich für unser nächstes Meeting ganz oben auf der Agenda stehen."
Diese Methode ist genial, weil sie Ihre Gesprächshistorie nutzt, um vorherzusagen, worüber jemand im nächsten Meeting sprechen möchte. Nie mehr unangenehme "Also... worüber wollten Sie sprechen?"-Momente.
2
Projektstatus ohne Schönfärberei
"Entwirf ein Projekt-Update basierend auf E-Mails, Chats und allen Meetings in [Serie]: KPIs vs. Ziele, Erfolge/Misserfolge, Risiken, Wettbewerberaktionen, plus wahrscheinliche schwierige Fragen und Antworten."
Anstatt sich auf geschönte Updates zu verlassen, zieht die KI Informationen aus der tatsächlichen Kommunikation, um Ihnen ein realistisches Bild zu vermitteln.
3
Realitätscheck für Deadlines
"Sind wir auf Kurs für den [Produkt]-Launch im November? Prüfe den Fortschritt der Entwicklung, die Ergebnisse des Pilotprogramms und die Risiken. Gib mir eine Wahrscheinlichkeit."
Dieser Prompt fordert eine konkrete Wahrscheinlichkeit und nicht nur ein vages "Ja, wir sind auf Kurs", was oft "wahrscheinlich nicht" bedeutet.
4
Zeitaudit
"Überprüfe meinen Kalender und meine E-Mails vom letzten Monat und erstelle 5 bis 7 Kategorien für Projekte, für die ich die meiste Zeit aufwende, mit Zeitanteil in Prozent und kurzen Beschreibungen."
Dies kann aufschlussreich sein für jeden, der sich ständig beschäftigt fühlt, aber nicht genau weiß, was er eigentlich erreicht.
5
Nie wieder überrascht werden
"Überprüfe [ausgewählte E-Mail] + bereite mich auf das nächste Meeting in [Serie] vor, basierend auf früheren Diskussionen mit dem Manager und dem Team."
Verwandelt Ihre KI in einen Briefing-Assistenten, der den vollständigen Kontext laufender Gespräche kennt.

55

56

ChatGPT - Versionen im Überblick (Details ändern sich laufend)

57

ChatGPT: DeepResearch & Agent Mode
Diese erweiterten Funktionen transformieren ChatGPT von einem reinen Chatbot zu einem mächtigen Werkzeug für Informationsbeschaffung und Aufgabenautomatisierung.
DeepResearch (Web-Suche)
Ermöglicht den Zugriff auf aktuelle Informationen aus dem Internet. ChatGPT kann aktiv online recherchieren, um Fragen zu beantworten oder Inhalte zu generieren, die über das ursprüngliche Trainingsdaten hinausgehen. Dies ist entscheidend für Genauigkeit und Relevanz bei dynamischen Themen.
Agent Mode (Aufgabenautomatisierung)
Verwandelt ChatGPT in einen autonomen Agenten, der komplexe Aufgaben durch eine Abfolge von Schritten löst. Es plant, führt aus und passt sich an, um Ziele zu erreichen – von der Datenanalyse bis zur Steuerung externer Tools.
Während DeepResearch die Informationsbasis verbreitert, ermöglicht der Agent Mode die proaktive Ausführung und Verwaltung von Prozessen.

58

Copilot vs. ChatGPT - Der direkte Vergleich
Kernbotschaft: Copilot für internes Wissen und sichere Zusammenarbeit, ChatGPT für externes Wissen und kreative Exploration.

59

Prompts Sammeln und im Team nutzen und weiterentwickeln
Eine gemeinsame Wissensdatenbank für effektive Prompts schafft Konsistenz und beschleunigt die Anwendung von KI im Unternehmen.
Wissen zentralisieren
Erfolgreiche Prompts an einem Ort sammeln, um Best Practices zugänglich zu machen und Doppelarbeit zu vermeiden.
Gemeinsam entwickeln
Im Team Prompts optimieren und an spezifische Anwendungsfälle anpassen, um maximale Ergebnisse zu erzielen.
Kuratierung durch Key User
Eine engagierte Person oder Gruppe übernimmt die Pflege und Qualitätssicherung der Prompt-Bibliothek.
Kontinuierliche Optimierung
Durch Feedback und neue Erkenntnisse wird die Sammlung stetig verbessert und erweitert.

60

Einfache Agenten machen Prompts verwaltbar
Agenten und Custom GPTs transformieren die Prompt-Kuration und den Wissenstransfer im Team zu einem zentralen und skalierbaren Prozess.
Prompts kapseln & vereinfachen
Komplexe Prompt-Ketten werden in wiederverwendbaren Agenten gebündelt, was die Anwendung für das Team deutlich vereinfacht und konsistent macht.
Internes Wissen anbinden
Agenten können mit unternehmensspezifischen Dokumenten und internen Richtlinien angereichert werden, um präzise und konforme Ergebnisse zu gewährleisten.
Zentralisierte Expertise
Einmal erstellte Agenten werden zentral verwaltet und skalierbar allen Teammitgliedern zur Verfügung gestellt, was die Adoption von Best Practices fördert.

61

Beispiel: Erstellung eines Agenten für Nebenkostenabrechung

62

Wie Copilot Studio mit „Wissen“ arbeitet
Copilot Studio nutzt angebundenes Wissen (z. B. SharePoint, Dateien, Websites) über eine einmalige Suche pro Nutzerfrage.
1
Wissen abrufen
Copilot Studio greift auf konfigurierte Wissensquellen zu und führt eine einzelne Suchabfrage für jede Nutzeranfrage durch.
2
Antwort formulieren
Das Ergebnis dieser einmaligen Suche wird direkt in die generierte Antwort integriert, vergleichbar mit dem Entnehmen einer Information aus einem Ordner.
3
Fokus auf Einzelsuche
Copilot sucht nicht selbstständig mehrfach nach. Es stellt keine zusätzlichen Rückfragen an seine Wissensquelle, sondern antwortet nur mit dem, was aus der ersten Suche kommt.
4
Neue Suchanfragen
Jede nachfolgende Frage eines Nutzers, auch eine Folgefrage, löst erneut eine neue, einzelne Suche in den angebundenen Wissensquellen aus.

Merksatz: Copilot Studio beantwortet jede Frage mit einer einzigen Wissenssuche. Es kann nicht selbstständig tiefer nachforschen oder mehrere Rechercheschritte kombinieren.

63

Copilot Studio kann "Wissen" nicht komplex nutzen
Copilot Studio ist darauf ausgelegt, Fragen direkt zu beantworten, stößt jedoch an seine Grenzen, wenn es um mehrstufige Analysen und gezielte Dokumentenprüfung geht.
Direkte Suche, keine Analyse
Copilot Studio sucht im Wissen ausschließlich auf Basis der initialen Nutzerfrage (z. B. „prüfe meine Abrechnung“), ohne eigenständig eine tiefere Analyse vorzunehmen.
Ignorierte Dokumentenkontexte
Das hochgeladene Dokument wird (im Gegensatz zur Nutzereingabe) nicht genutzt, um gezielt innerhalb des Wissens nachzuschlagen. Stattdessen wird es einfach dem Kontext hinzugefügt.
Unspezifische Ergebnisse
Das Ergebnis sind oft allgemeine Hinweise aus dem Wissensspeicher, aber keine gezielte Prüfung oder Validierung einzelner Kostenpositionen im Kontext des bereitgestellten Dokuments.
Fehlende mehrstufige Logik
Für eine echte Prüfung wären mehrere Schritte nötig (Positionen erkennen → passende Regeln suchen → vergleichen). Diese agentische Fähigkeit fehlt Copilot Studio in seiner aktuellen Form.

Copilot Studio Agenten beantwortet Fragen, kann "Wissen" aber nicht in logischen Abläufe einbauen – dafür braucht es mehrstufige, agentische Abläufe.

64

Multihop-RAG / Agentische Abläufe
Im Gegensatz zur einmaligen Wissenssuche von Copilot Studio operieren agentische Abläufe in mehreren, intelligent miteinander verknüpften Schritten, um komplexere Aufgaben zu lösen.
Beispiel: Nebenkostenabrechnung prüfen
1
Positionen extrahieren
Die KI identifiziert und isoliert alle relevanten Kostenpositionen aus der vorliegenden Abrechnung.
2
Regeln suchen
Für jede extrahierte Position werden im hinterlegten Unternehmenswissen die passenden Prüfungsregeln und Richtlinien gesucht.
3
Ergebnisse vergleichen & prüfen
Die extrahierten Daten werden mit den gefundenen Regeln verglichen und auf Korrektheit und Konformität überprüft.
Das Ergebnis ist eine zielgerichtete und detaillierte Analyse, die dem Nutzer konkrete Antworten und Handlungsempfehlungen liefert, anstatt nur allgemeiner Hinweise.
Für den Endnutzer bleibt die Anwendung einfach und intuitiv. Die Entwicklung solcher agentischen Systeme erfordert jedoch Spezialisten, da sie auf komplexere Frameworks wie LangChain, Semantic Kernel oder CrewAI aufbauen.

Merksatz: Agentische Systeme ermöglichen echte Prüfungen und tiefergehende Analysen – die Erstellung ist komplexer, die Nutzung bleibt einfach.

65

Vom Assistenten zum Co-Worker im Prozess
Agenten, die mit intelligenten Protokollierungs- und Schutzmechanismen ausgestattet sind, können weit über die reine Assistenz hinausgehen und sich als echte Co-Worker nahtlos in Geschäftsprozesse integrieren.
Protokollierung & Nachvollziehbarkeit
Jeder Schritt und jede Entscheidung des Agenten wird lückenlos protokolliert. Dies schafft Transparenz, ermöglicht eine einfache Fehleranalyse und gewährleistet die Auditierbarkeit aller Aktionen.
Guardrails & Regelkonformität
Festgelegte Schutzmechanismen und Richtlinien stellen sicher, dass der Agent stets innerhalb definierter Grenzen operiert. Dies verhindert unerwünschte Aktionen und gewährleistet die Einhaltung unternehmensinterner Regeln und externer Vorschriften.
Nahtlose Prozessintegration
Dank ihrer Fähigkeit, Logs zu generieren und Guardrails zu beachten, können Agenten direkt in bestehende Arbeitsabläufe eingebunden werden. Sie übernehmen automatisierte Teilprozesse und interagieren autonom mit anderen Systemen.
Aktiver Co-Worker statt Assistent
Im Gegensatz zu einem Chatbot, der primär assistiert, agiert ein echter Agent als proaktiver Co-Worker. Er führt eigenverantwortlich Aufgaben aus, trifft basierend auf Kontext Entscheidungen und entlastet menschliche Mitarbeiter.

Fazit: Mit Protokollierung und Schutzmechanismen werden KI-Agenten zu zuverlässigen, prozessfähigen Co-Workern, die nicht nur assistieren, sondern auch aktiv mitarbeiten.

66

Chatbots: Private Begeisterung vs. Geschäftliche Realität
Im privaten Kontext
Privat nutzen wir Chatbots oft für Themen, in denen wir selbst keine Experten sind. Die 80% "Beherrschung" des Themas durch den Chatbot übertrifft hier oft unser eigenes Wissen bei Weitem. Wir empfangen einen großen Mehrwert, und die fehlenden 20% fallen kaum ins Gewicht.
Im geschäftlichen Kontext
Im Unternehmen arbeiten wir oft auf Expertenniveau und verdienen unser Geld mit tiefem Fachwissen. Der Chatbot erreicht hier vielleicht nur 50% des Themas und liegt nur knapp über oder sogar unter unserer eigenen Expertise. Der Mehrwert ist geringer, und Fehler sind sofort offensichtlich.

Was ist zu tun?
Um den Chatbot im geschäftlichen Umfeld effektiv zu nutzen, sind zwei Strategien entscheidend:
  • Konzentrieren Sie sich auf Aufgaben, die kein Spezialwissen erfordern, aber mühsam sind, z.B. E-Mails formulieren, Excel-Formeln erstellen oder Dokumente durchsuchen.
  • Das Unternehmen muss den Chatbot auf relevante, interne Daten und Prozesse "schulen" (Feinjustierung).

67

1
Konzentrieren Sie sich auf Aufgaben, die kein Spezialwissen erfordern
  • KI-First: Nutzen Sie den Chatbot für alle Aufgaben die datenschutztechnisch möglich sind
  • Überprüfen Sie die Ergebnisse! - wie bei einen Berufsanfänger der Ihnen zuarbeitet
  • KI-First: Nutzen Sie den Chatbot auch zur Erstellung von Prompts, Gliederungen, Aufgabenlisten, etc.
  • Zusammenarbeit: Teilen Sie funktionierende Prompts, Erstellen sie ggf. einfache Agenten
  • Prüfen Sie Kosten/Nutzen für M365 Copilot
  • Kriterium: Wie relevant ist die Integration der Daten in M365 (Kalender, Sharepoint, Mail)
2
Das Unternehmen muss den Chatbot auf relevante, interne Daten und Prozesse "schulen"
  • Prüfen Sie Kosten/Nutzen für M365 Copilot
  • Prüfen Sie ob die Anbieter datenhaltender System bereits Lösungen haben (z.B. eAkte)
  • Identifizieren Sie einfache, häufig wiederkehrende Vorgänge die viel Zeit sparen und starten sie dort
  • Zusammenfassungen, Vollständigkeitsprüfungen, Erkennung von Anomalien
  • Arbeiten Sie mit einem guten Berater zusammen

68

Vielen Dank!
Wir freuen uns auf Ihre Fragen und eine angeregte Diskussion.
Diskussion & Fragen
Feedback & Anregungen
Nächste Schritte

69