Große Sprachmodelle sind leistungsstarke künstliche Intelligenzsysteme, die darauf trainiert sind, menschenähnliche Texte zu verstehen und zu generieren. Sie können vielseitige Aufgaben im Zusammenhang mit Sprache bearbeiten, wie Textverständnis, Übersetzung und Texterstellung.
ChatGPT ist ein Beispiel für ein großes Sprachmodell. Es ist darauf spezialisiert, mit Benutzern in natürlicher Sprache zu kommunizieren. Es kann Fragen beantworten, Konversationen führen und Texte auf Anfrage generieren.
Künstliche Intelligenz bezieht sich auf Computerprogramme oder Systeme, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern. Das Ziel ist, Maschinen so zu gestalten, dass sie lernen, Probleme zu lösen, Muster zu erkennen und selbstständig Entscheidungen zu treffen.
Regeln der EU
Der CREATE AI Act ist eine Gesetzesinitiative in den USA, die vier Hauptziele verfolgt:
Generative KI bezieht sich auf KI-Modelle, die in der Lage sind, neue Inhalte, wie Texte, Bilder oder Musik, zu erstellen. Diese Modelle können auf Basis von Trainingsdaten eigenständig neue und originelle Inhalte generieren.
Ein Prompt ist eine Anweisung oder Aufforderung, die einem KI-Modell gegeben wird, um es zu veranlassen, eine bestimmte Aufgabe zu erfüllen oder eine Antwort zu generieren. Im Kontext von ChatGPT könnte ein Prompt eine Frage oder ein Satz sein, mit dem der Benutzer die Konversation beginnt.
In der Informatik ist ein Token die kleinste analysierte Einheit in einem Text. In natürlicher Sprache kann ein Token ein Wort oder ein Zeichen sein. Bei der Verwendung von KI-Modellen wie GPT-3 werden Texte in Tokens aufgeteilt, um vom Modell verarbeitet zu werden.
Ein Chatbot ist ein Computerprogramm, das darauf ausgelegt ist, mit Benutzern über textbasierte Schnittstellen wie Chats zu interagieren. Chatbots können einfache bis komplexe Aufgaben ausführen, von der Beantwortung von Fragen bis zur Unterstützung bei Online-Bestellungen.
Maschinelles Lernen bezieht sich auf Techniken, bei denen Computer Algorithmen verwenden, um aus Daten zu lernen und ihre Leistung in einer bestimmten Aufgabe zu verbessern, ohne explizit programmiert zu werden. Es ist eine Unterdisziplin der künstlichen Intelligenz.
Halluzinationen sind im eigentlichen Sinne Wahrnehmungen von etwas, das es nicht gibt. Als KI-Halluzination bezeichnet man die Reaktion einer KI, die unsinnig zu sein scheint bzw. augenscheinlich nichts mit wahren Aussagen oder Fakten zu tun hat. KI-Halluzinationen wurden mit dem Aufkommen großer KI-Modelle wie GPT-3 erstmals im Jahr 2022 beobachtet.
Der Begriff wird kritisch gesehen: "KI halluziniert nicht, sondern sie bastelt Sätze zusammen, die gut klingen, aber aus Lügen bestehen." Aus: Rachel Metz, Bloomberg-Text
"custom" = angepasst oder benutzerdefiniert
Beschreibt die Möglichkeit, ein GPT-Sprachmodell um benutzerspezifische Anforderungen zu ergänzen.
Beispiele:
Eine gute Beschreibung findet man hier.