die wichtigsten Data Science, Personalentwicklung und IT-Fachbegriffe und Definitionen 

Glossar

Algorithmus 

Ein Algorithmus ist eine formale Handlungsvorschrift, um ein bestimmtes Ergebnis zu erzielen. Diese muss so formuliert werden, dass sie auch ungesehen funktioniert und sich nach einem klaren Schema wiederholen lässt. Für einen Computer funktioniert der Algorithmus wie ein Kochrezept, an das er sich halten soll. 

Artificial Intelligence 

Das Fachgebiet der Artificial Intelligence oder auch AI (deutsch: Künstliche Intelligenz oder KI) beschäftigt sich mit der Automatisierung von intelligentem Verhalten und steht in engem Zusammenhang mit maschinellem Lernen. Artificial Intelligence ist ein interdisziplinäres Feld und wird unterschieden in schwache künstliche Intelligenz, die ihren Weg bereits in unseren Alltag gefunden hat und starke künstliche Intelligenz, die aktuell noch ein Konstrukt des Science-Fiction-Genres ist.  

AI Literacy 

AI Literacy ist die Fähigkeit, zu verstehen, was künstliche Intelligenz ist und was dafür nötig ist, damit sie funktioniert. Diese Fähigkeiten ermöglichen es, KI-Technologien kritisch zu bewerten, effektiv mit einer KI zu kommunizieren, mit ihr zu arbeiten und sie als praktisches Werkzeug für die eigene Arbeit zu nutzen. 

Big Data

Als Big Data werden Datenmengen beschrieben, die die folgenden Merkmale aufweisen:  

  • eine hohe Geschwindigkeit der Generierung ihrer Daten 
  • eine große Datenvielfalt (Heterogenität) und eine hohe Datenqualität
  • ein großes Volumen 

Big Data bietet deshalb auch einen großen, unternehmerischen Mehrwert und hilft dabei Trends messbar zu machen und aus diesen Vorhersagen und Handlungsempfehlungen abzuleiten. 

Business Analytics 

Business Analytics beschreibt spezifische Fähigkeiten, Technologien und Prozesse für eine fortlaufende Untersuchung von Geschäftsentwicklungen, aus der wertvolle Erkenntnisse abgeleitet werden können, um Geschäftsentscheidungen zu verbessern. 

Business Intelligence (BI) 

Als Business Intelligence wird der Ablauf der Aufbereitung von gesammelten Daten zu aussagefähigen Erkenntnissen bezeichnet. Business Intelligence ist eine Disziplin aus der Wirtschaftsinformatik und beschreibt das systematische Analysieren eines Unternehmens. 

Business Intelligence Analyst (BI Analyst) 

Ein Business Intelligence (BI) Analyst, gewinnt Erkenntnisse aus Unternehmensdaten und leitet aus diesen Handlungsempfehlungen ab. Dafür nutzt er spezialisierte Software und IT-Systeme wie Power BI, Tableau oder Microsoft Excel. 

Clustering 

Der IT-Fachbegriff Clustering (auch Clusteranalyse oder Ballungsanalyse) bezeichnet eine Methode zur Entdeckung von Ähnlichkeiten und Mustern in Datensätzen. Diese Gruppen aus ähnlichen oder gleichen Daten und Elementen werden Cluster genannt. 

Convolutional Neural Networks (CNNs) 

Bei CNNs handelt es sich um ein spezielles künstliches, neuronales Netz. CNN steht für Convolutional Neural Network (deutsch: neuronale Netzwerke). Diese kommen vor allem bei unstrukturierten Daten, speziell bei Bild- und Videomaterial, zum Einsatz.  

Customer Analytics 

Unter Customer Analytics (deutsch: Kundenanalyse) versteht man die datengetriebene Begutachtung eines bestimmten Kundenstamms. Das ermöglicht die Identifikation von profitablen Kundenbeziehungen und Käuferinteressen, um passende, individuelle Angebote zu erstellen. 

Daten 

Daten enthalten Informationen. In der Informatik sind Daten digitale und binäre Werte und Angaben, die durch Beobachtung, Messungen und statistische Erhebungen sowie formulierbare Befunde erhoben werden. 

Datenanalyse 

Bei der Datenanalyse werden statistische Methoden angewendet, um Erkenntnisse aus gesammelten Rohdaten zu gewinnen. Diese Methoden umfassen die Sammlung, Untersuchung, Bereinigung, Verarbeitung und Modellierung von Daten. 

Data Analyst 

Ein Data Analyst sammelt und verarbeitet Daten und Informationen aller Art, die einen Mehrwert für ein Unternehmen bedeuten. Ein Data Analyst visualisiert und präsentiert die Erkenntnisse aus der Datenanalyse, um Entscheidungsträger mithilfe dieser Erkenntnisse zu unterstützen.  

Data Awareness 

Siehe Data Literacy 

Datenbank 

Bezeichnet ein System für die elektronische Datenverwaltung. Hier werden Daten gesammelt und gespeichert. 

Data Driven Management  

Data Driven Management (auch datengetriebenes Management) bedeutet Geschäftsentscheidungen auf Basis von Daten und Fakten zu treffen. 

Data Engineer 

Der Data Engineer ist eine wichtige Jobrolle im Datenumfeld. Data Engineers sind vornehmlich damit betraut, Data Pipelines zu installieren und instand zu halten. Data Pipelines kann man hier als den automatisierten Transfer und die automatisierte Verarbeitung von Daten verstehen. Dabei sorgen Data Engineers dafür, dass die Datenqualität konstant hoch bleibt und die Datenverarbeitung performant ist. 

Datafizierung 

Beschreibt die Digitalisierung alltäglicher Aktivitäten und Lebensbereiche und die damit einhergehende Erzeugung von Daten. 

Data Lake 

Ein Data Lake ist ein Aufbewahrungsort, an dem Daten in ihrer ursprünglichen Form gespeichert werden können. Anders als das Data Warehouse, sind die im Data Lake gespeicherten Daten nicht analysebereit, sondern unsortiert bzw. heterogen. Dies erlaubt einerseits eine größere Flexibilität im Umgang mit diesen Daten, stellt aber andererseits eine höhere Schwelle für Anwender:innen dar. Das macht den Data Lake besonders nützlich für die Anforderungen von Data Scientists und Data Analysts.  

Data Literacy  

Data Literacy (auch als Data Awareness bezeichnet) kann mit grundlegender Datenkompetenz übersetzt werden. Dies beschreibt die Fähigkeit, Daten einzuschätzen und mit ihnen umzugehen. Dazu gehört es, zu verstehen, warum und wie Daten gesammelt werden, welchen Mehrwert sie bieten und wie ihre Auswertung funktioniert. 

Datenmanagement 

Unter Datenmanagement (auch Datenverwaltung genannt) werden alle Aspekte zusammengefasst, die die Voraussetzung erfolgreicher Datenstrategien bilden. Das Ziel des Datenmanagements ist es, Daten optimal für eine Verarbeitung vorzubereiten und bereitzustellen. 

Data Science 

Data Science vereint wissenschaftliche und statistische Anwendungen zur Extraktion von Wissen aus Daten. Dabei kommen Methoden der Statistik, höheren Mathematik, Programmierung und der künstlichen Intelligenz zum Einsatz. 

Data Scientist 

Data Scientist ist einer der gefragtesten Berufe und Jobrollen des neuen Jahrzehnts. Data Scientists wenden wissenschaftliche Methoden, sowie Methoden des maschinellen Lernens und der künstlichen Intelligenz an, um komplexe Problemstellungen rund um Daten zu bearbeiten oder auch Datenprodukte zu entwickeln. Neben dem Programmieren bedienen sie sich dabei ebenfalls den Methoden der höheren Mathematik und Statistik. 

Daten, strukturiert und unstrukturiert  

Digitale Informationen (Daten) weisen i.d.R. unterschiedlichen Strukturen auf. Man unterscheidet zwischen strukturierten, semi-strukturierten und unstrukturierten Daten. Je nach vorliegender Form ist es mehr oder weniger aufwendig die Daten für eine Verarbeitung aufzubereiten.  

Data Thinking 

Data Thinking kombiniert die Methoden der Data Science und des Design Thinkings, um erfolgreich Datenprodukte und Datenstrategien zu entwickeln. Data Thinking betrachtet und löst Probleme, indem die Sicht von Anwender:innen eingenommen wird. 

Data Warehouse 

Ein Data Warehouse ist eine für die Datenanalyse optimierte zentrale Datenbank. Die Daten sind aufbereitet und folgen einer festgelegten Struktur. Die Struktur des Data Warehouse vereinfacht standardisierte Abfragen, z. B. für die Erstellung von Reports. Durch den hohen Grad an Aufbereitung und Standardisierung der Daten besteht eine geringere Schwelle für die Benutzung, dafür sind die Einsatzmöglichkeiten allerdings weniger flexibel als die eines Data Lakes.  

Datenvisualisierung 

Die Datenvisualisierung (auch Data Visualization oder Visualisierung von Daten) ist die grafische Darstellung von Daten mit dem Ziel, einen schnellen Einblick in die aus den Daten resultierenden Informationen zu erhalten und zu kommunizieren. 

Deep Learning 

Deep Learning ist einer der fortgeschrittensten und komplexesten Ansätze des Machine Learnings. Die so genannten neuronalen Netze bestehen aus Algorithmen, die von der Struktur und Funktion des Gehirns inspiriert sind, aber deutlich über die menschlichen Möglichkeiten hinausgehen. Deep Learning-Modelle können ihre eigenen Vorhersagen völlig unabhängig vom Menschen treffen. Dafür analysieren sie Daten einer logischen Struktur folgend, um aus den Resultaten die wahrscheinlichste Vorhersage zu treffen.  

Design Thinking 

Mithilfe von Design Thinking sollen Lösungsansätze für Probleme und Ansätze für neue Ideen geschaffen werden. Es handelt sich um einen Ansatz der Lösungen für Benutzerfreundliche Anwendungen schaffen soll. 

Digitalisierung 

Unter der Digitalisierung versteht man, vereinfacht gesagt, die Umwandlung analoger Inhalte zu digitalen Inhalten. Dies erfüllt darüber hinaus den Mehrwert, dass in diesem Prozess digitale Daten entstehen, die eine Sammlung und Verarbeitung erleichtern. 

Keras 

Es handelt sich bei Keras um eine Open-Source Bibliothek. Keras wird verwendet, um eine schnelle Implementierung von neuronalen Netzwerken durchzuführen. Entsprechend ist Keras häufig ein wichtiger Baustein bei der Anwendung von Deep Learning.  

Key Performance Indicator (KPI) 

KPI ist eine Abkürzung für Key Performance Indicator und bezeichnet Kennzahlen, die festgelegt werden, um den Erfolg einer Aktivität oder die Leistung einer Person oder einer Abteilung zu messen. Sie dienen in Unternehmensprozessen dazu, Leistungen messbar zu machen und zu bewerten. 

Machine Learning 

Machine Learning ist ein Bereich der künstlichen Intelligenz, mit dem Ziel, dem Computer zu ermöglichen, automatisch aus seiner Umwelt Daten heranzuziehen und Bewertungen vorzunehmen, um bessere Entscheidungen zu treffen. Dabei erlernt der Algorithmus, auch nicht explizit vorgegebene Regeln aus Daten selbstständig . Wie gut eine künstliche Intelligenz lernt, hängt von der Qualität und Quantität der Daten ab, die ihr zum Lernen zur Verfügung gestellt wird. (Prinzip „Garbage in, garbage out“). 

Matplotlib 

Matplotlib ist eine Bibliothek der Programmiersprache Python. Sie ist besonders geeignet für die Visualisierung von Daten. 

OOP – Objektorientierte Programmierung

OOP ist ein Programmierstil, der sich z. B. gut zur Produktion von Software eignet, die sowohl komplex ist, als auch laufend aktualisiert werden muss. Dabei wird der Code um bzw. durch sogenannte Objekte organisiert, die dann später miteinander in Beziehung gesetzt werden. Alles was innerhalb eines Programms existiert, ist ein eigenes Objekt, das seine einzigartigen Attribute und Verhalten enthält. Die Objektorientierte Programmierung ist deshalb ein besonders effizienter Ansatz, da sich der Programmcode wiederverwenden und skalieren lässt.

Pandas 

Pandas ist eine Programmbibliothek der Programmiersprache Python, welche die Bereinigung, Verwaltung und Analyse von Daten ermöglicht. Das zentrale Element von Pandas sind Data Frames, die Daten in einer aus Spalten und Reihen bestehenden Tabelle darstellen.  

Predictive Maintenance 

Predictive Maintenance ist ein Wartungsprozess zur Minimierung der „Downtime“ von Maschinen und Fertigungsanlagen. Sie verfolgt das Ziel Instandhaltungszyklen zu optimieren, indem die Wahrscheinlichkeit von Systemausfällen berechnet wird. Die Wartungen können besser geplant und vorhersagbare Ausfälle verhindert werden. Dazu werden in der Predictive Maintenance Daten über die zu überwachende Maschine in Echtzeit gesammelt, um Abweichungen frühzeitig festzustellen.  

Python 

Python ist eine Open-Source-Programmiersprache, die zur Entwicklung von Softwareanwendungen genutzt werden kann und ein gängiger IT-Fachbegriff. Python ist im Vergleich zu anderen Programmiersprachen einfach zu erlernen und deshalb sehr beliebt. Python bietet den Zugang zu vielen besonders im Datenumfeld beliebten Bibliotheken, wie Pandas, Matplotlib, und Keras.  

PySpark 

Bei PySpark handelt es sich um ein Interface von Adobe Spark in Python. Durch dieses Interface werden die Funktionen von Adobe Spark in Python zur Verfügung gestellt und nutzbar gemacht. Spark und PySpark kommen bei sogenannten verteilten Systemen zum Einsatz. So können Daten und Anwendungen bearbeitet werden, die die Kapazitäten eines einzelnen, normalen Computers übersteigen würden. 

Regressionsanalyse 

Die Regressionsanalyse ist der Name eines statistischen Analyseverfahrens, das oft im Machine-Learning-Bereich angewendet wird. Hierbei geht es um die Vorhersage einer kontinuierlichen Zielvariable aus einer oder mehreren sog. erklärenden Variablen. Im Zuge einer Regressionsanalyse können neben Vorhersagen auch Ursache-Wirkungsbeziehungen untersucht werden.  

R 

R ist eine Programmiersprache, die besonders bei der Erstellung von statistischen Berechnungen und Grafiken zum Einsatz kommt. 

Structured Query Language (SQL)  

SQL steht für Structured Query Language (deutsch „Strukturierte Abfrage-Sprache“) und ist eine Sprache, die zur Kommunikation zwischen relationalen Datenbanken zu Einsatz kommt. Sie wird verwendet, um Daten aus Datenbanken abzufragen, zu bearbeiten oder zu entfernen.

TensorFlow 

TensorFlow ist ähnlich wie Keras ein Framework zur Implementierung von neuronalen Netzwerken. Keras fungiert dabei als Schnittstelle und macht den Umgang mit TensorFlow einfacher.  

Trendanalyse 

Mittels einer Trendanalyse können Trends beobachtet und ihre Ursachen ergründet werden. Durch eine Trendanalyse kann man den Einfluss eines Trends auf ein Unternehmen und relevante Märkte vorhersagen. 

Data Science, Personalentwicklung und IT-Fachbegriffe auf einen Klick

Folge StackFuel auf

Unverbindlche Beratung

Dein nächster Karriereschritt ist schon in Reichweite.

Mach Dich datensicher und fit für die Zukunft. Ob Weiterbildung im bestehenden Job oder auf der Suche nach einem Karrierewechsel – wir beraten Dich gerne kostenlos und unverbindlich zu Deinen Trainingsoptionen und besprechen mit Dir Deine Fördermöglichkeiten.

IT-Fachbegriffe lernen mit stackfuel.com