Glossar.
Die wichtigsten Data Science, Personalentwicklung
und IT-Fachbegriffe und Definitionen
Algorithmus
Ein Algorithmus ist eine formale Handlungsvorschrift, um ein bestimmtes Ergebnis zu erzielen. Diese muss so formuliert werden, dass sie auch ungesehen funktioniert und sich nach einem klaren Schema wiederholen lässt. Für einen Computer funktioniert der Algorithmus wie ein Kochrezept, an das er sich halten soll.
Artificial Intelligence
Das Fachgebiet der Artificial Intelligence oder auch AI (deutsch: Künstliche Intelligenz oder KI) beschäftigt sich mit der Automatisierung von intelligentem Verhalten und steht in engem Zusammenhang mit maschinellem Lernen. Artificial Intelligence ist ein interdisziplinäres Feld und wird unterschieden in schwache künstliche Intelligenz, die ihren Weg bereits in unseren Alltag gefunden hat und starke künstliche Intelligenz, die aktuell noch ein Konstrukt des Science-Fiction-Genres ist.
AI Literacy
AI Literacy ist die Fähigkeit, zu verstehen, was künstliche Intelligenz ist und was dafür nötig ist, damit sie funktioniert. Diese Fähigkeiten ermöglichen es, KI-Technologien kritisch zu bewerten, effektiv mit einer KI zu kommunizieren, mit ihr zu arbeiten und sie als praktisches Werkzeug für die eigene Arbeit zu nutzen.
Backend
Das Backend einer Webanwendung oder App stellt die eigentliche Logik und Funktionsweise der Anwendung bereit. Dazu gehört das Entgegennehmen, Bearbeiten und Beantworten der Anfragen vom Frontend. Die Aufgabe von Backend-Entwicklern ist es, die Anwendung aktuell und leistungsfähig zu halten sowie neue Funktionen umzusetzen.
Big Data
Als Big Data werden Datenmengen beschrieben, die die folgenden Merkmale aufweisen:
- eine hohe Geschwindigkeit der Generierung ihrer Daten
- eine große Datenvielfalt (Heterogenität) und eine hohe Datenqualität
- ein großes Volumen
Big Data bietet deshalb auch einen großen, unternehmerischen Mehrwert und hilft dabei Trends messbar zu machen und aus diesen Vorhersagen und Handlungsempfehlungen abzuleiten.
Business Analytics
Business Analytics beschreibt spezifische Fähigkeiten, Technologien und Prozesse für eine fortlaufende Untersuchung von Geschäftsentwicklungen, aus der wertvolle Erkenntnisse abgeleitet werden können, um Geschäftsentscheidungen zu verbessern.
Business Intelligence (BI)
Als Business Intelligence wird der Ablauf der Aufbereitung von gesammelten Daten zu aussagefähigen Erkenntnissen bezeichnet. Business Intelligence ist eine Disziplin aus der Wirtschaftsinformatik und beschreibt das systematische Analysieren eines Unternehmens.
Business Intelligence Analyst (BI Analyst)
Ein Business Intelligence (BI) Analyst, gewinnt Erkenntnisse aus Unternehmensdaten und leitet aus diesen Handlungsempfehlungen ab. Dafür nutzt er spezialisierte Software und IT-Systeme wie Power BI, Tableau oder Microsoft Excel.
Clustering
Der IT-Fachbegriff Clustering (auch Clusteranalyse oder Ballungsanalyse) bezeichnet eine Methode zur Entdeckung von Ähnlichkeiten und Mustern in Datensätzen. Diese Gruppen aus ähnlichen oder gleichen Daten und Elementen werden Cluster genannt.
Convolutional Neural Networks (CNNs)
Bei CNNs handelt es sich um ein spezielles künstliches, neuronales Netz. CNN steht für Convolutional Neural Network (deutsch: neuronale Netzwerke). Diese kommen vor allem bei unstrukturierten Daten, speziell bei Bild- und Videomaterial, zum Einsatz.
Customer Analytics
Unter Customer Analytics (deutsch: Kundenanalyse) versteht man die datengetriebene Begutachtung eines bestimmten Kundenstamms. Das ermöglicht die Identifikation von profitablen Kundenbeziehungen und Käuferinteressen, um passende, individuelle Angebote zu erstellen.
Daten
Daten enthalten Informationen. In der Informatik sind Daten digitale und binäre Werte und Angaben, die durch Beobachtung, Messungen und statistische Erhebungen sowie formulierbare Befunde erhoben werden.
Datenanalyse
Bei der Datenanalyse werden statistische Methoden angewendet, um Erkenntnisse aus gesammelten Rohdaten zu gewinnen. Diese Methoden umfassen die Sammlung, Untersuchung, Bereinigung, Verarbeitung und Modellierung von Daten.
Data Analyst
Ein Data Analyst sammelt und verarbeitet Daten und Informationen aller Art, die einen Mehrwert für ein Unternehmen bedeuten. Ein Data Analyst visualisiert und präsentiert die Erkenntnisse aus der Datenanalyse, um Entscheidungsträger mithilfe dieser Erkenntnisse zu unterstützen.
Data Awareness
Siehe Data Literacy
Datenbank
Bezeichnet ein System für die elektronische Datenverwaltung. Hier werden Daten gesammelt und gespeichert.
Data Driven Management
Data Driven Management (auch datengetriebenes Management) bedeutet Geschäftsentscheidungen auf Basis von Daten und Fakten zu treffen.
Data Engineer
Der Data Engineer ist eine wichtige Jobrolle im Datenumfeld. Data Engineers sind vornehmlich damit betraut, Data Pipelines zu installieren und instand zu halten. Data Pipelines kann man hier als den automatisierten Transfer und die automatisierte Verarbeitung von Daten verstehen. Dabei sorgen Data Engineers dafür, dass die Datenqualität konstant hoch bleibt und die Datenverarbeitung performant ist.
Datafizierung
Beschreibt die Digitalisierung alltäglicher Aktivitäten und Lebensbereiche und die damit einhergehende Erzeugung von Daten.
Data Lake
Ein Data Lake ist ein Aufbewahrungsort, an dem Daten in ihrer ursprünglichen Form gespeichert werden können. Anders als das Data Warehouse, sind die im Data Lake gespeicherten Daten nicht analysebereit, sondern unsortiert bzw. heterogen. Dies erlaubt einerseits eine größere Flexibilität im Umgang mit diesen Daten, stellt aber andererseits eine höhere Schwelle für Anwender:innen dar. Das macht den Data Lake besonders nützlich für die Anforderungen von Data Scientists und Data Analysts.
Data Literacy
Data Literacy (auch als Data Awareness bezeichnet) kann mit grundlegender Datenkompetenz übersetzt werden. Dies beschreibt die Fähigkeit, Daten einzuschätzen und mit ihnen umzugehen. Dazu gehört es, zu verstehen, warum und wie Daten gesammelt werden, welchen Mehrwert sie bieten und wie ihre Auswertung funktioniert.
Datenmanagement
Unter Datenmanagement (auch Datenverwaltung genannt) werden alle Aspekte zusammengefasst, die die Voraussetzung erfolgreicher Datenstrategien bilden. Das Ziel des Datenmanagements ist es, Daten optimal für eine Verarbeitung vorzubereiten und bereitzustellen.
Data Science
Data Science vereint wissenschaftliche und statistische Anwendungen zur Extraktion von Wissen aus Daten. Dabei kommen Methoden der Statistik, höheren Mathematik, Programmierung und der künstlichen Intelligenz zum Einsatz.
Data Scientist
Data Scientist ist einer der gefragtesten Berufe und Jobrollen des neuen Jahrzehnts. Data Scientists wenden wissenschaftliche Methoden, sowie Methoden des maschinellen Lernens und der künstlichen Intelligenz an, um komplexe Problemstellungen rund um Daten zu bearbeiten oder auch Datenprodukte zu entwickeln. Neben dem Programmieren bedienen sie sich dabei ebenfalls den Methoden der höheren Mathematik und Statistik.
Daten, strukturiert und unstrukturiert
Digitale Informationen (Daten) weisen i.d.R. unterschiedlichen Strukturen auf. Man unterscheidet zwischen strukturierten, semi-strukturierten und unstrukturierten Daten. Je nach vorliegender Form ist es mehr oder weniger aufwendig die Daten für eine Verarbeitung aufzubereiten.
Data Thinking
Data Thinking kombiniert die Methoden der Data Science und des Design Thinkings, um erfolgreich Datenprodukte und Datenstrategien zu entwickeln. Data Thinking betrachtet und löst Probleme, indem die Sicht von Anwender:innen eingenommen wird.
Data Warehouse
Ein Data Warehouse ist eine für die Datenanalyse optimierte zentrale Datenbank. Die Daten sind aufbereitet und folgen einer festgelegten Struktur. Die Struktur des Data Warehouse vereinfacht standardisierte Abfragen, z. B. für die Erstellung von Reports. Durch den hohen Grad an Aufbereitung und Standardisierung der Daten besteht eine geringere Schwelle für die Benutzung, dafür sind die Einsatzmöglichkeiten allerdings weniger flexibel als die eines Data Lakes.
Datenvisualisierung
Die Datenvisualisierung (auch Data Visualization oder Visualisierung von Daten) ist die grafische Darstellung von Daten mit dem Ziel, einen schnellen Einblick in die aus den Daten resultierenden Informationen zu erhalten und zu kommunizieren.
DAX-Sprache
DAX steht für Data Analysis Expressions und ist eine Formelsprache, die es ermöglicht, Daten in Tabellenform abzurufen und zu analysieren. DAX kann in Power BI, und anderen Analysis Services verwendet werden, um einfache und fortgeschrittene Berechnungen und Datenanalysen umzusetzen.
Deep Learning
Deep Learning ist einer der fortgeschrittensten und komplexesten Ansätze des Machine Learnings. Die so genannten neuronalen Netze bestehen aus Algorithmen, die von der Struktur und Funktion des Gehirns inspiriert sind, aber deutlich über die menschlichen Möglichkeiten hinausgehen. Deep Learning-Modelle können ihre eigenen Vorhersagen völlig unabhängig vom Menschen treffen. Dafür analysieren sie Daten einer logischen Struktur folgend, um aus den Resultaten die wahrscheinlichste Vorhersage zu treffen.
Design Thinking
Mithilfe von Design Thinking sollen Lösungsansätze für Probleme und Ansätze für neue Ideen geschaffen werden. Es handelt sich um einen Ansatz der Lösungen für Benutzerfreundliche Anwendungen schaffen soll.
Digitalisierung
Unter der Digitalisierung versteht man, vereinfacht gesagt, die Umwandlung analoger Inhalte zu digitalen Inhalten. Dies erfüllt darüber hinaus den Mehrwert, dass in diesem Prozess digitale Daten entstehen, die eine Sammlung und Verarbeitung erleichtern.
Full Stack Developer
Der Full Stack Developer gilt als Allrounder unter den Webentwickler:innen . Weil ein Full Stack Developer ist sowohl im Frontend als auch im Backend tätig ist muss diese:r viele Programmiersprachen und Frameworks beherrschen. Full Stack Developer entwickeln nicht nur selbst Programme oder Webanwendungen, sondern übernehmen häufig auch Projektmanagementaufgaben oder andere unterstützende Tätigkeiten im IT-Bereich.
Framework
Ein Framework ist in der Softwareentwicklung ein Grundgerüst, welches die Grundstrukturen eines zukünftigen Softwareprodukts angibt und die Arbeit eine:r Programmierer:in erleichtert. Frameworks treten häufig in Form von Klassenbibliotheken auf, welche bereits vorgefertigte Funktionen und Klassen enthalten.
Frontend
Das Frontend stellt die Daten und Prozesse des Backends z.B. von Webanwendungen oder Apps in einer grafischen Benutzeroberfläche dar. Das Frontend ist das, was man sieht, wenn man auf einer Webseite navigiert. Die Aufgabe von Webentwickler:innen ist es, die Benutzeroberfläche so anwenderfreundlich wie möglich zu gestalten.
Keras
Es handelt sich bei Keras um eine Open-Source Bibliothek. Keras wird verwendet, um eine schnelle Implementierung von neuronalen Netzwerken durchzuführen. Entsprechend ist Keras häufig ein wichtiger Baustein bei der Anwendung von Deep Learning.
Key Performance Indicator (KPI)
KPI ist eine Abkürzung für Key Performance Indicator und bezeichnet Kennzahlen, die festgelegt werden, um den Erfolg einer Aktivität oder die Leistung einer Person oder einer Abteilung zu messen. Sie dienen in Unternehmensprozessen dazu, Leistungen messbar zu machen und zu bewerten.
Machine Learning
Machine Learning ist ein Bereich der künstlichen Intelligenz, mit dem Ziel, dem Computer zu ermöglichen, automatisch aus seiner Umwelt Daten heranzuziehen und Bewertungen vorzunehmen, um bessere Entscheidungen zu treffen. Dabei erlernt der Algorithmus, auch nicht explizit vorgegebene Regeln aus Daten selbstständig . Wie gut eine künstliche Intelligenz lernt, hängt von der Qualität und Quantität der Daten ab, die ihr zum Lernen zur Verfügung gestellt wird. (Prinzip „Garbage in, garbage out“).
Matplotlib
Matplotlib ist eine Bibliothek der Programmiersprache Python. Sie ist besonders geeignet für die Visualisierung von Daten.
Microcredentials
Microcredentials weisen die Lernerfolge von kurzen, zertifizierten Kursen nach. Egal ob in einem Onlinekurs erworbenes Wissen oder in einem Präsenzlehrgang, Microcredentials werden als nützliche Qualifikationsnachweise anerkannt und fördern den gezielten Erwerb von neuen Fähigkeiten und Kompetenzen.
OOP – Objektorientierte Programmierung
OOP ist ein Programmierstil, der sich z. B. gut zur Produktion von Software eignet, die sowohl komplex ist, als auch laufend aktualisiert werden muss. Dabei wird der Code um bzw. durch sogenannte Objekte organisiert, die dann später miteinander in Beziehung gesetzt werden. Alles was innerhalb eines Programms existiert, ist ein eigenes Objekt, das seine einzigartigen Attribute und Verhalten enthält. Die Objektorientierte Programmierung ist deshalb ein besonders effizienter Ansatz, da sich der Programmcode wiederverwenden und skalieren lässt.
Regressionsanalyse
Die Regressionsanalyse ist der Name eines statistischen Analyseverfahrens, das oft im Machine-Learning-Bereich angewendet wird. Hierbei geht es um die Vorhersage einer kontinuierlichen Zielvariable aus einer oder mehreren sog. erklärenden Variablen. Im Zuge einer Regressionsanalyse können neben Vorhersagen auch Ursache-Wirkungsbeziehungen untersucht werden.
R
R ist eine Programmiersprache, die besonders bei der Erstellung von statistischen Berechnungen und Grafiken zum Einsatz kommt.
Self-Service BI
Self-Service BI (Business Intelligence) ermöglicht es Fachabteilungen auf Unternehmensdaten zuzugreifen und selbstständig Analysen durchzuführen. Durch Self-Service-BI-Lösungen können Mitarbeitende ihren Informationsbedarf für die tägliche Arbeit selbstständig decken, ohne bei jedem Schritt auf die IT-Abteilung angewiesen zu sein.
Structured Query Language (SQL)
SQL steht für Structured Query Language (deutsch „Strukturierte Abfrage-Sprache“) und ist eine Sprache, die zur Kommunikation zwischen relationalen Datenbanken zu Einsatz kommt. Sie wird verwendet, um Daten aus Datenbanken abzufragen, zu bearbeiten oder zu entfernen.
Framework
Ein Framework ist in der Softwareentwicklung ein Grundgerüst, welches die Grundstrukturen eines zukünftigen Softwareprodukts angibt und die Arbeit eine:r Programmierer:in erleichtert. Frameworks treten häufig in Form von Klassenbibliotheken auf, welche bereits vorgefertigte Funktionen und Klassen enthalten.
TensorFlow
TensorFlow ist ähnlich wie Keras ein Framework zur Implementierung von neuronalen Netzwerken. Keras fungiert dabei als Schnittstelle und macht den Umgang mit TensorFlow einfacher.
Trendanalyse
Mittels einer Trendanalyse können Trends beobachtet und ihre Ursachen ergründet werden. Durch eine Trendanalyse kann man den Einfluss eines Trends auf ein Unternehmen und relevante Märkte vorhersagen.
Lass Dich unverbindlich
von uns beraten.
Vereinbare jetzt einen Beratungstermin mit unserer Expertin Maria Schwenke! Wir finden gemeinsam mit Dir geeignete Weiterbildungen und beantworten alle offenen Fragen. Wir freuen uns auf Dich.