Dieser Thread Dient zum Austausch während unserer Seminarreihe "KI verstehen und clever nutzen" und darüber hinaus. Hier könnt ihr eure Erfahrungen und Fragen teilen.
Detaillierte Übersicht der Seminarinhalte:
Modul 1: Was ist KI? – Grundlagen & Überblick
Inhalte
• Was ist KI? Kurze Geschichte, Begriffe sortieren (ML, Deep Learning, LLM, etc.)
• Wie lernt eine KI? Datensätze, Training, Modelle – anschaulich erklärt
• Klassische Anwendungsfälle: Object Detection (“Was sieht die Kamera?”), Spracherkennung, Übersetzung
• Sprachmodelle (LLMs): Wie funktionieren ChatGPT & Co.? Was passiert, wenn ich etwas eintippe?
• Erste Schritte Prompting: Was ist ein Prompt? Warum ist die Formulierung wichtig? – Klarheit, Ziel, was soll die KI für mich tun?
• Chancen und Risiken der KI: Effizienz, Produktivität vs. Halluzinationen, Probleme
Praxis
• Gemeinsam einen Chatbot ausprobieren (ChatGPT, Gemini)
• Vergleich: gleiche Frage, verschiedene Formulierungen → unterschiedliche Ergebnisse
Takeaway
Grundverständnis: Was KI kann, was sie nicht kann, wie man mit ihr redet, wo Chancen und Risiken liegen.
Modul 2: KI-Tools für blinde und sehbehinderte Menschen
Inhalte
• Be My Eyes / Be My AI: Bildbeschreibung per KI – wie gut ist das wirklich? Wo liegen die großen Chancen für Blinde und was kann schiefgehen?
• Seeing AI / Envision / Google Lookout Vergleich der Apps; welche KI-Funktionen bieten sie? Unterschied zu Be My AI
• KI in Screenreadern: NVDA + Add-ons, JAWS, VoiceOver-Integration, TalkBack-Bildbeschreibung: kurze Einführung, Erfahrungen
• Dokumentenerkennung: klassische OCR vs. KI (z.B. handschriftliche Notizen, Briefe, Verpackungen)
• Mainstream KI-Tools als Hilfsmittel: Live-Erkennung in ChatGPT, Gemini oder Copilot
Praxis
• Vergleich: Foto mit 3 verschiedenen Apps beschreiben lassen
• Use-Case-Runde: Teilnehmende teilen ihre Erfahrungen & Lieblingstools
• Gemeinsam neue Szenarien durchsprechen
• Teilnehmende testen bis zum folgenden Termin und tauschen sich im offSight-Forum aus
Takeaway
Persönliche Tool-Empfehlung: Was passt zu meinem Alltag? Verständnis, was die Tools können und was nicht + wie sie arbeiten. Verständnis, wie man diese Tools mit KI-Wissen effektiver einsetzen kann.
Modul 3: KI-Chatbots bedienen + Datenschutz & Offline-KI
Inhalte
Chatbots blind bedienen - ChatGPT, Gemini, Copilot: Bedienbarkeit mit Screenreader (Web & App) - Welcher Chatbot funktioniert für wen am besten? Ehrlicher Vergleich. - Tastaturnavigation, APIs, alternative Interfaces wie BasiliskLLM - Tipps: Custom Instructions, Systemanweisungen, Memory, Voice Mode * Europäische Alternativenmit mehr Datenschutz: z. B. Mistral Le Chat
Datenschutz & Offline-KI - Was passiert mit meinen Daten? Cloud vs. lokal, Trainings-Opt-out - Offline-KI auf dem eigenen Rechner: Ja, das geht – auch ohne Programmierkenntnisse! - Ollama als Tool kurz vorgestellt: Hier können Technikbegeisterte ohne Programmierkenntnisse experimentieren - Demo: Lokales Modell installieren und nutzen (Schritt für Schritt) - Vor-/Nachteile: Geschwindigkeit, Qualität, Privatsphäre
Praxis
• Gemeinsam ein lokales Modell starten (wer mag)
• Chatbot-Vergleich: gleiche Aufgabe in ChatGPT, Mistral Le Chat, Gemini → Ergebnis vergleichen
Takeaway
Wissen, welcher Chatbot für einen funktioniert – und wie man KI auch offline nutzen kann. Wissen, wie die ChatBots Datenschutz handhaben (Opt-in, Opt.out) und was es mit Modelltraining auf sich hat. Grob wissen, was Custom Instructions und Memory sind.
Modul 4: Eigenen Chatbot bauen + Prompting-Meisterklasse
Inhalte
Prompting für Fortgeschrittene - Prompting-Techniken: Klarheit, Rollen, Kontext, Few-Shot, Chain-of-Thought - System-Prompts: Wie man einer KI eine Persönlichkeit gibt - Prompt-Bibliotheken: Vorlagen für wiederkehrende Aufgaben - Typische Fehler und wie man sie vermeidet – KI-Agenten und der Unterschied zu Chatbots
Eigenen Chatbot bauen - Custom GPTs (OpenAI) oder Gemini Gems: Schritt-für-Schritt-Anleitung - Praxisbeispiel 1: Alternativtext-Generator – Bilder beschreiben nach WCAG-Standards - Praxisbeispiel 2: Alltagstricks-Berater – ein Bot, der sich mit Blindenalltagstipps auskennt - Wissensdatenbank einbinden (Dateien hochladen, die der Bot kennen soll) - Testen, iterieren, verbessern
Praxis
• Wir bauen einen eigenen Mini-Chatbot (mit Anleitung)
• Jeder baut einen eigenen Mini-Chatbot (unterschiedliche Anwendungsfälle) im Nachgang; Austausch in der folgenden Session oder im offSight Forum
Takeaway
Ein eigener, funktionierender Chatbot – und das Know-how, weitere zu bauen.
Modul 5: Kreativ mit KI – Musik, Stimmen, Audio & Bilder
Inhalte
Musikgenerierung - Tools: Suno, Gemini - Musik aus Text erzeugen - Demo: Song erstellen mit eigenem Text (DBSV, Jugendclub, KI-Seminar o. anderes Thema) - Bedienbarkeit & Qualität
KI-Stimmen & Stimmklonen - Text-to-Speech: ElevenLabs, OpenAI TTS, Google Gemini TTS - Eigene Stimme klonen – und in anderen Sprachen sprechen lassen - Wichtiger Kontext: Ethik: Deepfakes, Consent, Kennzeichnung - Demo: Stimmklon live erstellen * Demo bei Interesse: Live-Simultanübersetzung im Google Meet ausprobieren
Audioschnitt & Nachbearbeitung - Auphonic: Automatisches Mastering für Podcasts & Aufnahmen - Bedienbarkeit mit Screenreader - Workflow: Aufnehmen → Auphonic → fertig
Bildgenerierung - Wie funktioniert Bilderstellung? - Klassischere KI-Tools: DALL-E, Midjourney, Stable Diffusion – Überblick - Sinnvolle Anwendungsfälle für blinde Menschen (z.B. Social Media) - Alt-Text für KI-generierte Bilder
Praxis
• Song erzeugen (Suno)
• Stimme klonen (ElevenLabs – wer mag)
• Audio nachbearbeiten (Auphonic)
Takeaway
Kreative KI-Tools kennen und einsetzen können. Spaß gehabt.
KI verstehen und clever nutzen
- Robbie Sandberg
- Site Admin
- Beiträge: 195
- Registriert: 18.06.2019, 11:37
- Benjamin Hofer
- Beiträge: 23
- Registriert: 26.09.2019, 08:14
- Wohnort: Bamberg, Bayern
Housekeeping und ein paar Infos vorab
Willkommen zum Workshop "KI verstehen und clever nutzen"
Ich bin Ben und werde den Workshop leiten.
Heute, am 08.04.2026, starten wir mit dem Workshop.
Wie in Robbie's Beitrag beschrieben, besteht der Workshop aus fünf Modulen.
Da sehr viele Teilnehmer angemeldet sind, wird der Austausch hauptsächlich im Forum bzw. im Chat in der Zoom-Konferenz stattfinden.
Für alle Teilnehmenden und alle, die sonst noch mitlesen: Der Thread hier im Forum wird eine Sammlung aller Handouts inkl. Diskussion unf Fragen sein.
Er dient also als zentrale Anlaufstelle für alle Infos, Fragen und Kommentare.
Ich werde zu jedem der Module einen ausführlichen Post veröffentlichen.
Die Posts erkennt ihr an der Überschrift "Modul 1, Modul 2", etc.
Eine Bitte: Nutzt am besten den Chat in der Zoom-Konferenz (während des Workshops) und das Forum nachher für Fragen. Wir werden aufgrund der hohen Teilnehmerzahl währnd der Konferenz vielleicht nicht auf alle Fragen eingehen können.
Ich bin Ben und werde den Workshop leiten.
Heute, am 08.04.2026, starten wir mit dem Workshop.
Wie in Robbie's Beitrag beschrieben, besteht der Workshop aus fünf Modulen.
Da sehr viele Teilnehmer angemeldet sind, wird der Austausch hauptsächlich im Forum bzw. im Chat in der Zoom-Konferenz stattfinden.
Für alle Teilnehmenden und alle, die sonst noch mitlesen: Der Thread hier im Forum wird eine Sammlung aller Handouts inkl. Diskussion unf Fragen sein.
Er dient also als zentrale Anlaufstelle für alle Infos, Fragen und Kommentare.
Ich werde zu jedem der Module einen ausführlichen Post veröffentlichen.
Die Posts erkennt ihr an der Überschrift "Modul 1, Modul 2", etc.
Eine Bitte: Nutzt am besten den Chat in der Zoom-Konferenz (während des Workshops) und das Forum nachher für Fragen. Wir werden aufgrund der hohen Teilnehmerzahl währnd der Konferenz vielleicht nicht auf alle Fragen eingehen können.
- Benjamin Hofer
- Beiträge: 23
- Registriert: 26.09.2019, 08:14
- Wohnort: Bamberg, Bayern
Modul 1 - Was ist KI? Definition, erste Schritte
Modul 1 – Was ist KI? Grundlagen & Überblick
Willkommen zum ersten Modul unseres KI-Workshops! Bevor wir in den nächsten Wochen richtig einsteigen, klären wir erstmal die Basics: Was ist KI eigentlich, wie funktioniert sie?
Was kann sie wirklich? Und was nicht?
Was ist Künstliche Intelligenz?
Künstliche Intelligenz (KI) ist ein Überbegriff für Software, die Aufgaben erledigt, für die man normalerweise menschliches Denken braucht: Sprache verstehen, Bilder erkennen, Texte schreiben, Entscheidungen treffen.
Wichtig: KI "denkt" nicht wie wir. Sie erkennt Muster in riesigen Datenmengen und wendet diese Muster an.
Das Ganze passiert oft anhand von Wahrscheinlichkeiten bzw. Vorhersagen.
Damit das funktioniert, braucht man zwei Dinge: große Mengen an Daten und leistungsstarke Rechner, auf denen die KI trainiert wird. Diesen Vorgang nennt man Training: Die KI bekommt Beispiele gezeigt und lernt daraus selbstständig Muster zu erkennen.
Ein anschauliches Beispiel: Man zeigt der KI tausende Bilder von Hunden – aus verschiedenen Blickwinkeln, bei unterschiedlichem Licht, mit Schatten. Irgendwann erkennt sie auf jedem neuen Bild zuverlässig, ob ein Hund zu sehen ist. Dabei ist die Qualität der Daten entscheidend: Wenn man der KI nie Bilder von anderen Vierbeinern wie Katzen zeigt, hält sie am Ende womöglich auch eine Katze für einen Hund.
Ein paar Begriffe, die man einordnen sollte:
Stark vereinfacht:
Klassische Anwendungsfälle
KI begegnet uns überall, auch wenn wir es nicht immer merken:
KI-Forschung gibt es seit den 1950er-Jahren, aber lange war sie eher ein Nischenthema. Der große Durchbruch für die breite Öffentlichkeit kam Ende November 2022, als OpenAI ChatGPT veröffentlichte. Plötzlich konnte jeder mit einer KI chatten, die erstaunlich flüssig und hilfreich antwortete – und das kostenlos im Browser.
Innerhalb weniger Tage nutzten Millionen Menschen ChatGPT. Google zog mit Bard nach, das später dann zu Gemini nach, Anthropic brachte Claude heraus, und Meta veröffentlichte offene Modelle und die Meta AI, die wir auch auf den Ray-Ban Meta haben.
Seitdem entwickelt sich das Feld rasant weiter: Die Modelle werden besser, schneller und vielseitiger.
Wir sehen Live-Interaktion mit KI, KI-Agenten, die ganze Aufgaben ausführen etc. - alles basierend auf den Large Language Models.
Sprachmodelle: Wie funktioniert ChatGPT & Co.?
Wenn du ChatGPT etwas schreibst, passiert Folgendes:
KI und Kontext
Das Modell hat kein echtes Wissen und nativ keinen Internetzugang. Es arbeitet mit dem, was es im Training gelernt hat. Solche Modelle haben quasi das ganze Internet gelesen und sind auf einem bestimmten Stand eingefroren.
Beispiel: Die Frage "Wer ist der deutsche Bundeskanzler?" beantwortet ein reines Modell falsch, wenn es nicht aktuell ist, wenn also seine Trainingsdaten seit 2023 nicht mehr aktualisiert wurden.
2023 war Olaf Scholz Bundeskanzler, was damals im Internet (News-Artikel, offizielle Infos der Regierung, Blogs, Zeitungen) auftauchte. Das ist, was das Modell weiß.
Das gilt auch für Fragen nach dem aktuellen Datum, der Zeit oder dem Wetter.
Die Chatbots, die wir nutzen (ChatGPT, Gemini) haben daher die Internetsuche und andere Tools schon integriert: Sie wissen, wenn sie ein Tool nutzen müssen, suchen also z. B. im Internet, wenn du nach dem Wetter fragst.
Das nennt sich dann Kontext. Und es macht KI erst richtig nützlich.
Kontext kann übrigens auch eine Datei sein, wie ein PDF, PowerPoint, etc. das du im ChatGPT-Interface hochlädst oder irgendwie anders der KI zur Verfügung stellst.
Das ganze geht auch noch weiter: ChatGPT hat z. B. eine Kooperation mit Komoot, Gemini sucht automatisch bei Google Maps usw.
Erste Schritte: Was ist ein Prompt?
Ein Prompt ist einfach das, was du der KI schreibst oder sagst. Die Qualität deiner Eingabe bestimmt die Qualität der Antwort. Ein paar Grundregeln:
Wo sind die Grenzen?
Sprachmodelle wissen nur das, was in ihren Trainingsdaten steckt – und das Training hat irgendwann einen Stichtag. Danach passierte Dinge kennen sie nicht. Deshalb sind Fragen nach dem aktuellen Wetter, der Uhrzeit, dem heutigen Datum oder aktuellen Nachrichten für ein reines Sprachmodell eine echte Herausforderung bis unmöglich.
Genau deshalb können moderne KI-Assistenten wie ChatGPT oder Gemini inzwischen Tools nutzen: Sie erkennen, dass sie für bestimmte Aufgaben Hilfe brauchen, und greifen dann z. B. auf eine Suchmaschine, einen Taschenrechner oder eine Wetter-API zu. Die KI weiß also: "Das kann ich nicht allein – ich brauche ein Werkzeug dafür."
Dieses Prinzip macht auch Dienste wie Perplexity so beliebt: Perplexity kombiniert ein Sprachmodell mit einer Live-Internetsuche und gibt Antworten mit Quellenangaben. So bekommt man aktuelle Informationen, ohne selbst verschiedene Websites durchforsten zu müssen.
Chancen und Risiken
Chancen:
Für Anfänger
Willkommen zum ersten Modul unseres KI-Workshops! Bevor wir in den nächsten Wochen richtig einsteigen, klären wir erstmal die Basics: Was ist KI eigentlich, wie funktioniert sie?
Was kann sie wirklich? Und was nicht?
Was ist Künstliche Intelligenz?
Künstliche Intelligenz (KI) ist ein Überbegriff für Software, die Aufgaben erledigt, für die man normalerweise menschliches Denken braucht: Sprache verstehen, Bilder erkennen, Texte schreiben, Entscheidungen treffen.
Wichtig: KI "denkt" nicht wie wir. Sie erkennt Muster in riesigen Datenmengen und wendet diese Muster an.
Das Ganze passiert oft anhand von Wahrscheinlichkeiten bzw. Vorhersagen.
Damit das funktioniert, braucht man zwei Dinge: große Mengen an Daten und leistungsstarke Rechner, auf denen die KI trainiert wird. Diesen Vorgang nennt man Training: Die KI bekommt Beispiele gezeigt und lernt daraus selbstständig Muster zu erkennen.
Ein anschauliches Beispiel: Man zeigt der KI tausende Bilder von Hunden – aus verschiedenen Blickwinkeln, bei unterschiedlichem Licht, mit Schatten. Irgendwann erkennt sie auf jedem neuen Bild zuverlässig, ob ein Hund zu sehen ist. Dabei ist die Qualität der Daten entscheidend: Wenn man der KI nie Bilder von anderen Vierbeinern wie Katzen zeigt, hält sie am Ende womöglich auch eine Katze für einen Hund.
Ein paar Begriffe, die man einordnen sollte:
- Machine Learning (ML): Die KI lernt selbst aus Daten, statt fest programmiert zu werden.
- Deep Learning: Eine spezielle Form von ML mit vielen Schichten – sogenannten neuronalen Netzen. Die sind vom menschlichen Gehirn inspiriert: Viele kleine Einheiten (Neuronen) sind miteinander verbunden und verarbeiten Informationen in mehreren Schichten. Je mehr Schichten, desto komplexere Zusammenhänge kann das Netz lernen. Deep Learning ist besonders stark bei Bildern und Sprache.
- Large Language Models (LLMs): Sprachmodelle wie ChatGPT oder Gemini. Sie wurden mit gigantischen Textmengen trainiert und können Texte verstehen und erzeugen.
Stark vereinfacht:
- Man füttert die KI mit riesigen Datenmengen (Texte, Bilder, Audiodaten).
- Die KI erkennt darin Muster und Zusammenhänge.
- Nach dem Training kann sie dieses Wissen auf neue Eingaben anwenden.
Klassische Anwendungsfälle
KI begegnet uns überall, auch wenn wir es nicht immer merken:
- Bilderkennung: "Was sieht die Kamera?" – Objekte, Personen, Szenen erkennen. Genau das machen auch Apps wie Be My Eyes oder Seeing AI.
- Spracherkennung: Sprache in Text umwandeln – z. B. Siri, Google Assistant oder jede andere Diktierfunktion.
- Übersetzung: DeepL, Google Translate – alles KI-basiert.
- Textgenerierung: ChatGPT, Gemini, Claude, Copilot – Chatbots, die auf Fragen antworten, Texte schreiben, zusammenfassen, übersetzen.
- Empfehlungssysteme: Wenn Amazon dir Produkte vorschlägt oder Netflix Serien empfiehlt – dahinter steckt KI, die dein Verhalten analysiert und vorhersagt, was dich interessieren könnte.
- Textvervollständigung: Wenn dein Handy beim Tippen das nächste Wort vorschlägt, ist das ein kleines Sprachmodell, das Wahrscheinlichkeiten berechnet.
- Wettervorhersagen: Auch hier kommt zunehmend KI zum Einsatz, um aus riesigen Datenmengen bessere Vorhersagen zu berechnen.
KI-Forschung gibt es seit den 1950er-Jahren, aber lange war sie eher ein Nischenthema. Der große Durchbruch für die breite Öffentlichkeit kam Ende November 2022, als OpenAI ChatGPT veröffentlichte. Plötzlich konnte jeder mit einer KI chatten, die erstaunlich flüssig und hilfreich antwortete – und das kostenlos im Browser.
Innerhalb weniger Tage nutzten Millionen Menschen ChatGPT. Google zog mit Bard nach, das später dann zu Gemini nach, Anthropic brachte Claude heraus, und Meta veröffentlichte offene Modelle und die Meta AI, die wir auch auf den Ray-Ban Meta haben.
Seitdem entwickelt sich das Feld rasant weiter: Die Modelle werden besser, schneller und vielseitiger.
Wir sehen Live-Interaktion mit KI, KI-Agenten, die ganze Aufgaben ausführen etc. - alles basierend auf den Large Language Models.
Sprachmodelle: Wie funktioniert ChatGPT & Co.?
Wenn du ChatGPT etwas schreibst, passiert Folgendes:
- Dein Text (der "Prompt") wird in Zahlen umgewandelt, die das Modell verarbeiten kann.
- Das Modell berechnet, welche Antwort am wahrscheinlichsten passt.
- Es gibt die Antwort Stück für Stück aus.
KI und Kontext
Das Modell hat kein echtes Wissen und nativ keinen Internetzugang. Es arbeitet mit dem, was es im Training gelernt hat. Solche Modelle haben quasi das ganze Internet gelesen und sind auf einem bestimmten Stand eingefroren.
Beispiel: Die Frage "Wer ist der deutsche Bundeskanzler?" beantwortet ein reines Modell falsch, wenn es nicht aktuell ist, wenn also seine Trainingsdaten seit 2023 nicht mehr aktualisiert wurden.
2023 war Olaf Scholz Bundeskanzler, was damals im Internet (News-Artikel, offizielle Infos der Regierung, Blogs, Zeitungen) auftauchte. Das ist, was das Modell weiß.
Das gilt auch für Fragen nach dem aktuellen Datum, der Zeit oder dem Wetter.
Die Chatbots, die wir nutzen (ChatGPT, Gemini) haben daher die Internetsuche und andere Tools schon integriert: Sie wissen, wenn sie ein Tool nutzen müssen, suchen also z. B. im Internet, wenn du nach dem Wetter fragst.
Das nennt sich dann Kontext. Und es macht KI erst richtig nützlich.
Kontext kann übrigens auch eine Datei sein, wie ein PDF, PowerPoint, etc. das du im ChatGPT-Interface hochlädst oder irgendwie anders der KI zur Verfügung stellst.
Das ganze geht auch noch weiter: ChatGPT hat z. B. eine Kooperation mit Komoot, Gemini sucht automatisch bei Google Maps usw.
Erste Schritte: Was ist ein Prompt?
Ein Prompt ist einfach das, was du der KI schreibst oder sagst. Die Qualität deiner Eingabe bestimmt die Qualität der Antwort. Ein paar Grundregeln:
- Sei klar: Was genau soll die KI tun? Was willst du erreichen?
- Gib Kontext: Wofür brauchst du das Ergebnis?
- Definiere das Ziel: Soll die Antwort kurz, ausführlich, in Stichpunkten, in Gedichtform sein? In welchem Stil?
Wo sind die Grenzen?
Sprachmodelle wissen nur das, was in ihren Trainingsdaten steckt – und das Training hat irgendwann einen Stichtag. Danach passierte Dinge kennen sie nicht. Deshalb sind Fragen nach dem aktuellen Wetter, der Uhrzeit, dem heutigen Datum oder aktuellen Nachrichten für ein reines Sprachmodell eine echte Herausforderung bis unmöglich.
Genau deshalb können moderne KI-Assistenten wie ChatGPT oder Gemini inzwischen Tools nutzen: Sie erkennen, dass sie für bestimmte Aufgaben Hilfe brauchen, und greifen dann z. B. auf eine Suchmaschine, einen Taschenrechner oder eine Wetter-API zu. Die KI weiß also: "Das kann ich nicht allein – ich brauche ein Werkzeug dafür."
Dieses Prinzip macht auch Dienste wie Perplexity so beliebt: Perplexity kombiniert ein Sprachmodell mit einer Live-Internetsuche und gibt Antworten mit Quellenangaben. So bekommt man aktuelle Informationen, ohne selbst verschiedene Websites durchforsten zu müssen.
Chancen und Risiken
Chancen:
- Mehr Effizienz und Produktivität im Alltag
- Neue Möglichkeiten der Barrierefreiheit (Bildbeschreibung, Sprachsteuerung, Live-Erkennung, Umwandlung von Texten in leichte Sprache, Videobeschreibung, automatische Untertitelung für Gehörlose)
- Zugang zu Informationen, die vorher schwer erreichbar waren
- KI hilft Menschen, ihre Ideen umzusetzen: Ob Musik generieren, Texte schreiben oder mit KI Software entwickeln – der Mensch gibt die Idee möglichst präzise vor, die KI ist gut darin, sie wirklich umzusetzen. Das spart oft so viel Zeit, dass Projekte überhaupt erst möglich werden.
- Halluzinationen: KI erfindet manchmal Dinge, die sich plausibel anhören, aber falsch sind. Immer kritisch prüfen!
- Voreingenommenheit (Bias): KI spiegelt die Daten wider, mit denen sie trainiert wurde – inklusive Fehlern und Vorurteilen. Das können Vorurteile sein, die sowieso in der Gesellschaft existieren, aber auch solche, die aus dem politischen System stammen, in dem das Modell entstanden ist. Ein Beispiel: Das chinesische Sprachmodell DeepSeek weicht bei politisch sensiblen Themen wie Taiwan oder dem Tiananmen-Platz erkennbar aus oder gibt die offizielle Linie der chinesischen Regierung wieder.
- Datenschutz: Was du in einen Chatbot eingibst, kann gespeichert und verarbeitet werden. Dazu mehr in Modul 3.
- Umwelt: Das Training und der Betrieb von KI-Modellen verbrauchen enorme Mengen an Energie und Wasser. KI ist aktuell nicht ressourcenschonend.
- Soziale Folgen: Mit KI lassen sich sogenannte Deepfakes erzeugen – täuschend echte, aber gefälschte Bilder, Videos oder Audiodateien von realen Personen. Darauf kommen wir später noch genauer zu sprechen. Außerdem besteht die Gefahr, dass Menschen eine emotionale Bindung zu KI-Chatbots aufbauen und sie als "Freund" oder Vertrauensperson sehen – obwohl hinter den Antworten kein echtes Verständnis oder Mitgefühl steckt.
Für Anfänger
- Öffne ChatGPT (https://chat.openai.com) oder Google Gemini (https://gemini.google.com) und stelle eine Frage.
- Probiere verschiedene Formulierungen für die gleiche Frage aus. Merkst du Unterschiede in den Antworten?
- Bring die KI dazu, dir die Antwort in verschiedenen Stilen auszugeben: Als Fließtext, in Stichpunkten, in einfacher Sprache.
- Lass dir etwas erklären, das du schon gut kennst – und prüfe, ob die KI Fehler macht.
- Probiere verschiedene Chatbots aus: ChatGPT, Gemini, Claude, Mistral und schau, welcher sich für dich am besten bedienen lässt.
- Probiere Tools wie Internetsuche aus.
- Alternativtexte generieren:
- Ich habe in ChatGPT einen Alternativtext Generator gebaut: https://t1p.de/alttext
- Lade ein Bild hoch und sende es ohne weitere Eingabe an ChatGPT.
- Du erhältst eine lange und eine kurze Beschreibung.
- Jetzt öffne ein neues Fenster in ChatGPT: https://chatgpt.com
- Lade exakt dasselbe Bild hoch.
- Jetzt bring ChatGPT durch deine Eingabe (Prompting) dazu, dass sich die Beschreibung des Bildes mit der aus dem Alternativtext Generator möglichst ähnlich ist: Aufbau, Stil, Ausführlichkeit der Beschreibung.
