75 Begriffe zum Blenden mit KI
75 Begriffe zum Einstreuen den Smalltalk mit Kollegen. Nicht mehr lateinische Phrasen helfen zu glänzen, sondern Begrifflichkeiten aus der Welt der Künstlichen Intelligenz. Was ist zum Beispiel ein GPT? Jeder nutzt die Abkürzung. Aber was meint das eigentlich?
- Active Learning: Ein Verfahren, bei dem ein Modell gezielt Beispiele anfordert, um seine Leistung zu verbessern.
- Adversarial Attack: Ein gezielter Angriff, der Schwachstellen in einem KI-System ausnutzt, um es in die Irre zu führen.
- Algorithmus: Eine Reihe von Anweisungen, die von einem Computer zur Lösung eines Problems ausgeführt werden.
- Algorithmic Accountability: Die Verantwortung für die Auswirkungen von Entscheidungen, die durch Algorithmen getroffen werden.
- Autoencoder: Ein neuronales Netzwerk, das versucht, Eingaben in einer komprimierten Form zu repräsentieren.
- Bayes’sches Netz: Ein probabilistisches Modell, das Beziehungen zwischen Variablen durch bedingte Abhängigkeiten darstellt.
- Bias (Voreingenommenheit): Verzerrungen oder Ungleichheiten in Daten oder Algorithmen, die zu unfairen Ergebnissen führen.
- Big Data: Große und komplexe Datensätze, die herkömmliche Datenverarbeitungsmethoden überfordern.
- Clustering: Eine unüberwachte Lernmethode zur Gruppierung ähnlicher Datenpunkte.
- Computer Vision: Ein Bereich der KI, der sich mit dem Verstehen und Interpretieren visueller Informationen befasst.
- Cross-Validation: Eine Technik zur Bewertung eines ML-Modells, bei der das Daten-Set in mehrere Teile aufgeteilt wird.
- Cognitive Bias: Systematische Fehler in der Art und Weise, wie Menschen Informationen verarbeiten und Entscheidungen treffen.
- Cognitive Computing: Ein Ansatz, der versucht, menschliche Denkprozesse durch eine Kombination aus KI und Machine Learning zu simulieren.
- Convolutional Neural Network (CNN): Ein tiefes neuronales Netzwerk, das für die Verarbeitung von Gitterdaten, wie Bildern, verwendet wird.
- Datenaugmentation: Techniken zur Erweiterung eines Datensatzes, um die Trainingsmengen zu erhöhen.
- Datenbereinigung: Der Prozess der Entfernung oder Korrektur von ungenauen Daten in einem Datensatz.
- Datenpipeline: Eine Serie von Datenverarbeitungsschritten, die Rohdaten in ein Format umwandelt, das für Analysen geeignet ist.
- Data Mining: Der Prozess der Entdeckung von Mustern, Beziehungen und Anomalien in großen Datensätzen.
- Datenschutz (Privacy): Schutz personenbezogener Daten vor unbefugtem Zugriff und Missbrauch.
- Deep Learning: Ein maschinelles Lernen-Ansatz, der tiefe neuronale Netzwerke verwendet, um komplexe Muster zu lernen.
- Digitaler Zwilling (Digital Twin): Ein digitales Abbild eines physischen Systems, das dessen Verhalten simulieren kann.
- Dropout: Eine Regularisierungstechnik zur Reduzierung von Overfitting in neuronalen Netzen.
- Edge Computing: Die Verarbeitung von Daten in der Nähe des Ortes, an dem sie erzeugt werden, um Latenzzeiten zu minimieren.
- Erklärbarkeit (Explainability): Die Fähigkeit, die Entscheidungen eines KI-Systems für Menschen verständlich zu machen.
- Ethical AI: Die Entwicklung und Nutzung von KI-Systemen unter Berücksichtigung ethischer Prinzipien.
- Ethik in der KI: Überlegungen zu moralischen Fragen im Zusammenhang mit der Entwicklung und Nutzung von KI.
- Explainable AI (XAI): KI-Modelle, deren Entscheidungsprozesse transparent und nachvollziehbar sind.
- Expertensystem: Ein Computersystem, das das Entscheidungsverhalten eines menschlichen Experten nachahmt.
- Exploration vs. Exploitation: Ein Konzept im Reinforcement Learning, das den Trade-off zwischen dem Ausprobieren neuer Strategien (Exploration) und dem Nutzen bekannter, erfolgreicher Strategien (Exploitation) beschreibt.
- Feature Engineering: Der Prozess der Erstellung neuer Merkmale aus vorhandenen Daten, um die Leistung eines Modells zu verbessern.
- Feature Extraction: Der Prozess, relevante Merkmale aus Rohdaten zu extrahieren.
- Fairness: Das Bemühen, KI-Systeme so zu gestalten, dass sie keine diskriminierenden Ergebnisse liefern.
- Fog Computing: Ein verteiltes Netzwerkparadigma, das Rechenressourcen am Netzwerk-Rand nutzt, um Datenverarbeitung näher an der Datenquelle zu ermöglichen.
- Fuzzy Logic: Ein logisches System, das mit unscharfen, vagen Daten arbeitet, im Gegensatz zu klar definierten binären Werten.
- GAN (Generative Adversarial Network): Ein neuronales Netzwerk, das zwei Netze verwendet, um realistische Daten zu generieren.
- GPT (Generative Pre-trained Transformer): Ein Sprachmodell, das auf der Transformer-Architektur basiert und für die Textgenerierung verwendet wird.
- Heuristik: Ein Verfahren zur Problemlösung, das eine einfache und schnelle, aber nicht unbedingt optimale Lösung bietet.
- Hierarchisches Clustering: Ein Clustering-Algorithmus, der eine hierarchische Struktur der Gruppen erzeugt.
- Hyperparameter: Parameter, die vor dem Training eines ML-Modells festgelegt werden und nicht aus den Daten gelernt werden.
- Hyperparameter-Tuning: Der Prozess der Auswahl der optimalen Hyperparameter für ein ML-Modell.
- IoT (Internet der Dinge): Ein Netzwerk von physischen Geräten, die über das Internet miteinander verbunden sind und Daten austauschen.
- K-Means: Ein Clustering-Algorithmus, der Datenpunkte in k Gruppen unterteilt.
- Knowledge Graph: Eine Datenbank, die Beziehungen zwischen verschiedenen Entitäten in einem Netzwerk darstellt.
- Künstliche Intelligenz (KI): Computerwissenschaft, die Systeme entwickelt, die menschliche Intelligenz simulieren können.
- Künstliches neuronales Netz (KNN): Eine Computermodellstruktur, die Schichten von Neuronen verwendet, um Daten zu verarbeiten.
- Latent Space: Ein abstrakter Raum, in dem Autoencoder Eingaben darstellen, um verborgene Merkmale zu extrahieren.
- LSTM (Long Short-Term Memory): Eine Art von RNN, die sich für das Lernen von Langzeitabhängigkeiten eignet.
- Machine Bias: Voreingenommenheit, die durch Algorithmen aufgrund verzerrter Trainingsdaten oder Designentscheidungen entsteht.
- Maschinelles Lernen (ML): Ein Teilgebiet der KI, das Algorithmen und statistische Modelle verwendet, um Maschinen zu trainieren, aus Daten zu lernen.
- Meta-Learning: Das Lernen von Lernstrategien, um neue Aufgaben effizient zu bewältigen.
- Natural Language Generation (NLG): Ein Bereich der NLP, der sich auf die Erstellung von Text in natürlicher Sprache konzentriert.
- Natural Language Processing (NLP): Ein Bereich der KI, der sich mit der Verarbeitung und Analyse natürlicher Sprache befasst.
- Natural Language Understanding (NLU): Ein Teilbereich des NLP, der sich auf das Verstehen der Bedeutung und Intention in Sprache konzentriert.
- Naiver Bayes-Klassifikator: Ein einfacher probabilistischer Klassifikator, der auf dem Bayes’schen Theorem basiert.
- Objekterkennung: Die Fähigkeit eines Systems, Objekte in Bildern oder Videos zu identifizieren und zu klassifizieren.
- Ontology: Eine formale Darstellung von Wissen durch Begriffe und die Beziehungen zwischen ihnen.
- Overfitting: Ein Zustand, in dem ein Modell zu spezifisch auf Trainingsdaten abgestimmt ist und schlecht auf neue Daten generalisiert.
- Prescriptive Analytics: Ein Bereich der Analyse, der Empfehlungen gibt, wie ein Problem basierend auf Daten gelöst werden kann.
- Predictive Analytics: Der Einsatz statistischer Modelle und maschinellen Lernens, um zukünftige Ereignisse auf Basis historischer Daten vorherzusagen.
- Random Forest: Ein Ensemble-Lernverfahren, das aus vielen Entscheidungsbäumen besteht und zur Klassifikation und Regression verwendet wird.
- Recurrent Neural Network (RNN): Ein neuronales Netzwerk, das für die Verarbeitung sequentieller Daten geeignet ist.
- Regularisierung: Techniken zur Vermeidung von Overfitting durch Hinzufügen von Straftermen zu den Trainingskosten.
- Reinforcement Learning (Verstärkungslernen): Ein Lernprozess, bei dem ein Agent lernt, durch Belohnung und Bestrafung zu optimieren.
- Robotics: Ein Bereich der Technik, der sich mit der Konstruktion, dem Betrieb und der Anwendung von Robotern befasst.
- Rule-Based System: Ein System, das Entscheidungen basierend auf einer Reihe von festgelegten Regeln trifft.
- Scalability: Die Fähigkeit eines Systems, bei wachsendem Datenvolumen oder Benutzeranforderungen effizient zu arbeiten.
- Sentimentanalyse: Die Analyse von Texten, um die zugrunde liegenden Emotionen oder Stimmungen zu identifizieren.
- Sigmoidfunktion: Eine S-Kurven-förmige Aktivierungsfunktion in neuronalen Netzwerken.
- Swarm Intelligence: Ein Kollektivverhalten von dezentralen, selbstorganisierenden Systemen, das durch natürliche Schwärme inspiriert ist.
- Support Vector Machine (SVM): Ein überwacht lernendes Modell, das Daten in verschiedene Klassen trennt
- Transformer: Eine neuronale Netzwerkarchitektur, die auf der Selbstaufmerksamkeit basiert und in Modellen wie GPT verwendet wird.
- Transfer Learning: Eine Technik, bei der Wissen, das aus einem Trainingsprozess gewonnen wurde, auf andere Aufgaben angewendet wird.
- Variational Autoencoder (VAE): Ein generatives Modell, das Eingaben in eine latente Raumdarstellung überführt und aus dieser neue Datenpunkte erzeugt.
- Word Embedding: Eine Technik zur Darstellung von Wörtern als Vektoren in einem kontinuierlichen Raum, um semantische Beziehungen zu erfassen.
- Zero-Shot Learning: Die Fähigkeit eines Modells, Aufgaben zu lösen, die es während des Trainings nicht gesehen hat.