100 % förderbar mit Bildungsgutschein
100% Förderung möglich.

Data Analyst – Grundlagen und Fachwissen für Quereinsteiger

Weiterbildung zur Fachkraft für Datenanalyse

Abschlusszertifikat
(Quer-)Einsteigende
Vollzeit
Deutsch, Englisch
Kostenlos mit Bildungsgutschein
Kursbeschreibung

Der Zertifikatslehrgang Data Analyst – Grundlagen und Fachwissen für Quereinsteiger befähigt Dich dazu, im Rahmen von Arbeiten 4.0 und Industrie 4.0 Datenanalysen eigenständig durchzuführen. Du erlangst stark nachgefragte Fähigkeiten in der Programmiersprache Python sowie Fachkenntnisse in SQL und Machine Learning.

Mit erfolgreichem Abschluss des Trainings qualifizierst Du Dich für die Jobrolle als (Junior) Data Analyst oder eine andere analytische Rolle wie dem (Junior) Business Intelligence Analyst oder (Junior) Financial Analyst. Die Data Analyst Zertifizierung belegt Deine neuen Kenntnisse und Fähigkeiten und ermöglicht Dir so einen erfolgreichen Quereinstieg.

In diesem Training lernst Du
Data Analytics Skills
Python Skills
AI Skills
  • Grundlagen zur Industrie 4.0 und Arbeiten 4.0
  • Auffrischung grundlegender Mathematik-und-Statistikkenntnisse
  • Erfolgreiches Projektmanagement
  • Grundlegende Daten- und KI-Kompetenzen
  • Tools zur Datenanalyse und Datenvisualisierung mit Fokus auf SQL und Google Data Studio
  • Grundlagen für Datenanalysen mit Python
  • Grundlagen für Machine Learning
  • Best Practices für Kommunikation und Präsentation

Zielgruppe

Zielgruppe des Zertifikatlehrgangs Data Analyst – Grundlagen und Fachwissen für Quereinsteiger sind Sachbearbeitende, Bürokaufleute und Verwaltungsfachangestellte in Arbeitslosigkeit, Kurzarbeit oder mit einem bevorstehenden Jobverlust, die sich die Weiterbildung mit einem Bildungsgutschein über die Agentur für Arbeit oder dem Jobcenter fördern lassen möchten. Die Weiterbildung ist für Quereinsteigende geeignet und der ideale Einstieg in eine datengetriebene Jobrolle als Data Analyst oder Business Analyst.

Vorraussetzungen für die Teilnahme

Diese Weiterbildung ist ausschließlich mit einem Bildungsgutschein von der Agentur für Arbeit oder dem Jobcenter finanzierbar. Für die Weiterbildung zum Data Analyst werden keine Programmierkenntnisse oder ein abgeschlossenes Hochschulstudium vorausgesetzt. Du solltest eine Motivation für Zahlen, logisches Denken sowie eine Routine im täglichen Gebrauch mit Computern mitbringen. Du musst zudem Deutschkenntnisse auf B2-Niveau und Englischkenntnisse auf A2-Niveau vorweisen.

Module

1
Einführung – Veränderte Arbeitswelt durch Industrie 4.0
toggle

Einführung – Veränderte Arbeitswelt durch Industrie 4.0

Im ersten Modul befasst Du Dich mit wichtigen Grundbegriffen der Digitalisierung wie Industrie 4.0 und Arbeiten 4.0. Hierbei erfährst Du, wie die Industrie 4.0 die Arbeitswelt verändert und was diese Veränderungen für Dich bedeuten. Das zweite Kapitel dieses Moduls befasst sich mit dem Thema Arbeiten 4.0 und vermittelt Dir wertvolle Kompetenzen für die Digitalisierung im kaufmännischen Bereich. Im letzten Kapitel wird das Thema Arbeit 4.0 weiter konkretisiert und Du lernst wertvolle Soft Skills, um die immer digitaler werdende Arbeitswelt zu meistern.

Kapitel 1: Industrie 4.0 – Wie verändert Industrie 4.0 das Arbeiten von morgen und was bedeutet es für mich?

Industrie 4.0 ist der Oberbegriff für die Digitalisierung der gesamten Produktion. Die digitale Vernetzung von Maschinen und Prozessen ist ein wesentlicher Faktor für die Sicherung und Weiterentwicklung der Wertschöpfung in allen produzierenden Branchen. In diesem Einführungskapitel stehen die technologischen Grundlagen im Vordergrund. Dabei richtest Du Deinen Blick von der Entwicklungsgeschichte her auf die Systematik, erfasst einzelne technische Ansätze und bringst sie in den Gesamtzusammenhang. Unabhängig, ob Führungskraft oder Fachspezialist: Damit rüstest Du Dich für die Herausforderungen, denen sich die gesamte Industrie gerade stellen muss.

  • Begrifflichkeiten, Bedeutung und Geschichte:
    • Industrie 4.0
    • Internet of Things (IoT)
    • Digitale Zwillinge
    • Künstliche Intelligenz (KI)
  • Industrielle Prozesse verstehen und steuern
  • Industrie 4.0 in der Anwendung
  • IoT in der Arbeitswelt und im Alltag
  • Kybernetik und Mensch-Maschine-Interaktion in der Industrie 4.0

Kapitel 2: Arbeiten 4.0 – Kompetenzen für die Digitalisierung im kaufmännischen Bereich?

Dieses Kapitel hilft Dir dabei, aktuelle und zukünftige Herausforderungen der digitalen Arbeitswelt zu reflektieren, sodass Du konkrete Chancen und Risiken einordnen kannst. Des Weiteren vermittelt Dir dieses Kapitel die Kompetenz, Dein Know-how auf dem Feld der Digitalisierung selbstständig zu erwerben und zu erweitern. So verlierst Du in der sich schnell wandelnden Arbeitswelt 4.0 nie den Anschluss.

  • Grundlagen der Digitalisierung
    • Sprache der digitalen Welt
    • Digitale Megatrends
  • Digitalisierung in Industrie, Handwerk, Handel und Dienstleistung
  • Herausforderungen und Anforderungen
  • Erfolgsrelevante Kompetenzen der digitalen Zukunft
    • DigComp – der europäische Kompetenzrahmen für die Digitalisierung
    • Kompetenzbereiche
  • Wie sieht mein aktuelles digitales Kompetenzprofil aus?
    • Kompetenzstufen – Kompetenzniveaus
    • Die Digital Competence Check (DCC)-Methodik
    • Selbsteinschätzung und Lernzielbestimmung
  • Digitale Kompetenzen ausbauen und erweitern

Kapitel 3: Arbeiten 4.0 – Arbeiten in neuen Arbeitsformen

In diesem Kapitel richtest Du Dein Augenmerk auf wichtige Problematiken und Soft Skills der Arbeitswelt 4.0. Du lernst, wie Du Dich in einer schnelllebigen Zeit organisierst und bei häufigen Themenwechseln sinnvoll arbeitest. Zudem erhältst Du bewährte Tipps, wie Du im Homeoffice Abstand zur Arbeit für einen echten Feierabend aufbauen kannst. Dieses Kapitel befähigt Dich, die Potentiale und Strategien der Arbeitswelt 4.0 zu erweitern und zu managen, um mit Deinen persönlichen Ressourcen erfolgreich zu sein.

  • Merkmale der neuen digitalen Arbeitswelt und ihre Anforderungen an die Soft Skills der Arbeitnehmende
  • Selbstführung, Selbstmotivation und -organisation als zentrale Soft Skills der digitalen Arbeitswelt
  • Kommunikation – eine Kernkompetenz in der digitalen Zukunft
  • Digitale Kollaboration – erfolgsentscheidend für Arbeitnehmende in der Arbeitswelt der Zukunft
  • Neugierde, Lernbereitschaft und Innovationsfreude als Treiber der digitalen Weiterentwicklung

2
Grundkenntnisauffrischung – Mathematisch-statistische Kenntnisse
toggle

Grundkenntnisauffrischung – Mathematischstatistische Kenntnisse

Im zweiten Modul frischst Du Deine mathematischen und statistischen Kenntnisse wieder auf. Das umfasst Grundlagen der Algebra, Grundbegriffe der Wahrscheinlichkeitsrechnung, allgemeine Normalverteilung und grundlegende statistische Methoden.

Kapitel 1: Mathematisch-statistische Grundkenntnisse

Ob Du für Deine Marktforschungspräsentation Trends berechnen musst oder im Qualitätsmanagement die Messwertgrenzen von zulässigen Toleranzen festlegst: Ohne Mathematik geht es nicht. Wer im Rahmen von Studien eine Statistik erstellt oder Programme erzeugt, die Daten verschlüsseln sollen, benötigt Mathematik als unverzichtbares Werkzeug. Ein Rechner kann zwar die Arbeit erleichtern und komplexe Berechnungen ausführen, aber nicht die zugrundeliegenden Formeln erzeugen. Daher ist Mathematik eine universelle Basis aller komplexen Berufe, egal ob in Geisteswissenschaft, Technik, Informatik oder Wirtschaft. Neben den Grundlagen der Algebra von einfachen bis komplexen Themen und deren Umformung befasst Du Dich in diesem Kapitel mit statistischen Methoden und der Verteilungsrechnung.

  • Grundlagen der Algebra:
    • Term Umformung
    • Gleichungen
    • Koordinatensysteme
    • Diagramme
  • Grundbegriffe der Wahrscheinlichkeitsrechnung:
    • Zufallsexperiment
    • Relative Wahrscheinlichkeit
    • Kombinatorik
    • Bedingte Wahrscheinlichkeit
  • Wahrscheinlichkeit nach Laplace, Bernoulli-Verteilung, Binomialverteilung, Fakultät:
    • Baumdiagramme
    • Pfadregeln
    • N über k
    • 4 Felder Tafel
    • pq-Formel
  • Allgemeine Normalverteilung
  • Berechnungen zur Statistik:
    • Mittelwert
    • Median
    • Modal
    • Standardabweichung
    • Varianz
    • Spannweite

3
Projektmanagement
toggle

Projektmanagement
Im dritten Modul machst Du Dich mit ersten Projektmanagementgrundlagen vertraut. Die Schwerpunkte dieses Moduls sind Projektorganisation, Methoden, Abwicklung und Steuerung von Projekten, Ressourcenmanagement und Projektauswertung.

Kapitel 1: Projektmanagement Basics
Projektmanagement wird immer mehr zum erfolgsbestimmenden Organisationsansatz für Unternehmen in den unterschiedlichsten Industrie- und Wirtschaftszweigen. Es ermöglicht schnelle und flexible Arbeitsabläufe und trägt maßgeblich zur Steigerung von Effektivität und Effizienz eines modernen Betriebes bei. In diesem Kapitel bekommst Du die theoretischen und praktischen Grundlagen des Projektmanagements in kompakter Form vermittelt. Dabei lernst Du, die Ressourcen eines Unternehmens auch über Abteilungsgrenzen hinweg dynamisch zu nutzen. Der Schwerpunkt liegt auf dem Projektstart, der Methodik einer Projektplanung und dem Umfangs- und Zeitmanagement. Neben der Projektdurchführung werden das Kostenmanagement, das Controlling und die Teamführung sowie der Projektabschluss erarbeitet.

  • Projektorganisation
  • Methoden
  • Abwicklung und Steuerung
  • Ressourcenmanagement
  • Projektauswertung

4
Datenkompetenzen
toggle

Datenkompetenzen
Im vierten Modul eignest Du Dir grundlegende Daten- und KIKompetenzen an. Mit einem datengetriebenen Mindset verstehst Du, warum Entscheidungen auf Datenbasis essenziell sind und wie Du sie mit Data Thinking erfolgreich umsetzt. Du lernst, was künstliche Intelligenz leisten kann und was es für erfolgreiche KI-Projekte im Unternehmen braucht. Das Modul wird mit den Best Practices zu Data Storytelling abgerundet. So kannst Du Dein Datenwissen und die datengetriebenen Ergebnisse zielgruppengerecht kommunizieren.

Kapitel 1: Data Literacy
Du erwirbst grundlegende Kompetenzen, um Daten gewinnbringend im eigenen Unternehmen zu verarbeiten. Du erweiterst Dein Wissen über die wichtigsten Datentechnologien wie Big Data, künstliche Intelligenz oder das Internet der Dinge. Mit Abschluss des Kapitels hast Du einen ganzheitlichen Überblick über den gesamten Datenverarbeitungsprozess und kannst Daten in Deinen Berufsalltag integrieren.

1. Big Data
Du wirst in die Themenwelt „Big Data“ eingeführt. Ein besonderer Fokus liegt auf dem Ablauf eines typischen Datenverarbeitungsprozesses von der Erzeugung bis zur Analyse der Daten. In diesem Zusammenhang erkennst Du den Mehrwert und die Relevanz hochwertiger Datenqualität in Form von strukturierten Daten. Du erhältst Regeln und Richtlinien, wie Du die benötigte Datenqualität aufbaust und sicherstellst.

  • Begriffsklärung und Anwendungsfälle von Big Data
  • Daten als Entscheidungshilfe nutzen
  • Datenverarbeitungsprozess I:
    • Überblick des gesamten Prozesses
    • Strukturierte Daten im Fokus
    • Aggregation und Datenqualität
  • Datenvisualisierung I: Allgemeine Best Practices
  • Säulen- und Tortendiagramme verstehen

2. Datafizierung
Du erwirbst die Kompetenz, Mehrwerte und die Möglichkeiten von Daten zu erkennen. Du erlernst die relevanten Punkte bei der Umsetzung neuer Dateninfrastrukturen und eignest Dir Kenntnisse der Datenvisualisierung zur möglichst klaren und unmissverständlichen Kommunikation von Ergebnissen an.

  • Datenspeicher im Unternehmen kennenlernen
  • Datenverarbeitungsprozess II:
    • Verschiedene Datenmodelle im Fokus
    • Umgang mit fehlenden Daten
  • Datenvisualisierung II:
    • Verstehen von Histogrammen
    • Best Practices für Liniendiagramme
    • Ortsinformationen durch Karten

3. Künstliche Intelligenz
Die Begriffe künstliche Intelligenz, maschinelles Lernen und Deep Learning werden für Dich entmystifiziert. Du wirst dazu befähigt, einzuschätzen, was künstliche Intelligenz bereits leisten kann und was noch nicht. Durch das Erlernen von Fachbegriffen bist Du in der Lage auf Augenhöhe mit Mitarbeitenden der Fachabteilungen für Datenanalyse zu kommunizieren.

  • Definition und Anwendung künstlicher Intelligenz
  • Fokus Machine Learning
    • Überwachtes Lernen: Regression und Klassifizierung
    • Unüberwachtes Lernen: Clustering
    • Relevanz von Datenqualität
  • Datenvisualisierung III:
    • Streudiagramme interpretieren
    • Einflussfaktoren aus Regressionsgeraden ermitteln

4. Internet der Dinge
Du erkennst, dass Daten von Sensoren ebenfalls wichtige Erkenntnisse liefern. Weiterhin erhalten sie eine Vorstellung davon, wie die Vernetzung von Geräten zur Verbesserung von Prozessen oder neuen Wertschöpfungsmöglichkeiten führen kann.

  • Internet der Dinge und Industrie 4.0: Begriffsklärung, Chancen und Anwendungsfälle
  • Zusammenführung von Daten mehrerer Quellen
  • Grundlagen von A/B-Testing
  • Präsentation und Interpretation von Daten:
    • Grundlagen des Storytellings
    • Best Practices für Data Storytelling

Kapitel 2: AI Literacy
Du erhältst eine praktische Einführung in das Gebiet der künstlichen Intelligenz. Du bekommst die nötigen Kernkompetenzen, um bestehende und neue KI-Anwendungen anhand verschiedener Szenarien aus dem Business-Alltag sicher zu verstehen, für Dein Unternehmen erfolgreich zu übertragen und mit ihnen zu interagieren.

  • 1. Einführung in die KI
    Du steigst in die Welt von künstlicher Intelligenz ein. Du lernst, was sich hinter dem Begriff versteckt und wie Du KI von Machine Learning und Automatisierung abgrenzt. Du erfährst, welche Vorteile die Automatisierung für Dich und Dein Unternehmen hat und baust Dir mit ersten interaktiven Aufgaben Grundlagenwissen auf.
  • Definition von künstlicher Intelligenz, Automatisierung und Machine Learning
  • Rückblick auf die Geschichte von KI
  • Zusammenspiel verschiedener Technologien

2. Typische Anwendungen von KI
Du lernst, KI mithilfe von zwei typischen Anwendungsfällen anzuwenden und mit KI-basierten Systemen zu interagieren. Dadurch kannst Du Mehrwerte für Unternehmen, bspw. die Steigerung der Effizienz zu generieren.

  • Konfiguration eines Sprachassistenten durch die Anwendung von NLP (Natural Language Processing)
  • Einsatz von KI bei Empfehlungssystemen mithilfe von Machine Learning

3. Fortgeschrittene Anwendungen von KI
Du wendest Dich fortgeschrittenen Anwendungen zu KI mithilfe einer Praxisaufgabe zu einem intelligenten Industrieroboter zu und wirfst mit einem Experteninterview einen Blick in die Zukunft von KI.

  • Montage eines Pkws mithilfe des kollaborativen Roboters Cobot
  • Experteninterview zur KI der Zukunft

Kapitel 3: Data Driven Management
Im Rahmen des Kapitels Data Driven Management erhältst Du einen Überblick über die wichtigsten Datenrollen und wertvolle Handlungsempfehlungen von renommierten Datenexpert:innen aus der Industrie und Wirtschaft. Du rundest das Kapitel mit einem Toolkit zur Implementierung von Datenstrategien und zum Aufbau notwendiger Strukturen und Kernkompetenzen im Unternehmen mithilfe von Data Thinking ab.

  1. Data Strategy
    Du erhältst einen Überblick darüber, welche Vorteile sich einem Unternehmen bieten, die Daten zur Entscheidungsfindung nutzen.
    • Datenbasierte Entscheidungsfindung
    • Kommunikation und Datenkompetenz
    • Wertschöpfung mit Daten
  2. Data Thinking
    Du bekommst eine Einführung in das Thema Data Thinking und die dazugehörigen Prozessschritte.
    • Unternehmen verstehen
    • Nutzer:innen verstehen
    • Daten verstehen
  3. Data Management
    Du lernst, welche Veränderungen im Unternehmen eine erfolgreiche Datenstrategie ermöglichen.
    • Datenstrategie und Change Management
    • Datenverarbeitung und Datenqualität
    • Datenkompetenz und Jobrollen
    • Organisation innerhalb des Unternehmens

Kapitel 4: Data Storytelling
Du lernst in sechs Schritten die Grundlagen der Datenvisualisierung und die wichtigsten Techniken für eine effektive Kommunikation datengetriebener Ergebnisse und abstrakt statistischer Konzepte, um eine Präsentation zielgruppengerecht und erfolgreich umzusetzen.

  1. Einführung
    Du erfährst, warum Data Storytelling wichtig ist und wo und wie es zum Einsatz kommt. Wir erklären Dir, warum es wichtig ist, gute Präsentationsfähigkeiten zu haben und geben Dir einen ersten Überblick über Data Storytelling als Datenvisualisierungsmethode.
  2. Bestimme den Kontext
    Wir zeigen Dir die effektivsten Methoden für die Erstellung von Präsentationen sowie wertvolle Aspekte, die Deine Präsentation beeinflussen. Anhand eines praktischen Handouts erklären wir Dir relevante Techniken für die Erstellung von guten Datenvisualisierungen. Dabei gehen wir näher auf die Rahmenbedingungen, das Publikum, das Ziel und den Ton der Präsentation ein.
  3. Erzähle Deine Data Story
    Du erfährst, wie Du Geschichten im datengetriebenen Kontext ableitest und formulierst. Dabei verstehst Du, warum Geschichten wichtig sind und lerne anhand eines Beispiels, wie Du die wichtigsten Techniken des Geschichtenschreibens unterscheidest. Du machst Dich abschließend mit dem Storyboard als übergeordnete Technik näher vertraut.
  4. Wähle die richtige Abbildung
    Du lernst die Vor- und Nachteile der wichtigsten Diagrammtypen kennen. Dafür bekommst Du einen Leitfaden zur Auswahl geeigneter Visualisierungen an die Hand.
  5. Entrümple Deine Abbildungen
    Hier setzt Du Dich mit der Relevanz und den Techniken des „Decluttering“ auseinander, um Visualisierungen auf Grundlage psychologischer Mechanismen effektiv zu gestalten. Dabei bekommst Du Best Practices zur Aufmerksamkeitslenkung bei Abbildungen an die Hand.
  6. Abschlussprojekt
    Im Abschlussprojekt nutzt Du Deine erlernten Fähigkeiten, um ein Storyboard zu bauen. Du erstellst in einem geschäftsrelevanten Use Case ein passendes Storyboard und trägst es in einer fertigen Präsentation vor. Wir geben Dir in einem „Directors Cut“ (kommentierte Musterlösung) abschließendes Feedback zu Deinem Projekt.

5
Tools zur Datenanalyse und Datenvisualisierung
toggle

Tools zur Datenanalyse und Datenvisualisierung
Du lernst in diesem Modul die Grundlagen von relationalen Datenbanken und Datenbankmodellen kennen, führst einfache Datenabfragen durch und vertiefst Deine SQL-Kenntnisse in einer Projektarbeit mit Abschlusspräsentation. Im weiteren Verlauf dieses Moduls werden erste Grundlagen der Datenvisualisierung mit Google Data Studio vermittelt. Dies umfasst die Theorie der Datenvisualisierung, die Theorie der Modelle, den Einstieg in Google Data Studio und die Umsetzung von komplexen Datenvisualisierungsprojekten.

Kapitel 1: SQL Basics für Softwareentwickler
SQL bildet den Standard aller Datenbanksysteme und gehört damit in vielen Bereichen, wie auch in der Softwareentwicklung, zu den geforderten Grundkenntnissen. In diesem Kapitel erhältst Du einen theoretischen wie auch praktischen Einblick in die Syntax von SQL und deren Einsatzmöglichkeiten. Mit diesem Kurs erwirbst Du grundlegende Kenntnisse über relationale Datenbanksysteme sowie anwendungsbereite Fähigkeiten im Einsatz der Datenbanksprache SQL. Du wirst neben dem Ausführen praktischer Aufgaben in einer Übungsdatenbank auch ein kleines eigenes Datenbankprojekt realisieren. Dadurch lernst Du SQL-Themen praxisrelevant von der Erstellung einer Datenstruktur, über das Ausführen von DML-Anweisungen und einfachen Abfragen bis hin zu einigen fortgeschrittenen Themen wie z. B. Stored Procedures kennen.

> Einführung:
• Grundlagen zu Datenbankarchitekturen
• Einführung in MySQL und MariaDB
• Methoden zum Datenbankentwurf
> Relationale Datenmodelle:
• Datenbank erstellen
• Tabellen erstellen und verwalten
• Verwendung geeigneter Datentypen
• Daten einfügen, aktualisieren und löschen (DML)
> Einfache Datenbankabfragen:
• Operatoren in WHERE-Klauseln
• ORDER BY und GROUP BY
• Anwendung von Standfunktionen
• Datenabfragen über mehrere Tabellen mithilfe von Joins
> Fortgeschrittene Themen:
• Primär- und Sekundärschlüssel
• Fremdschlüssel
• Indizes Stored Procedures und Stored Functions
> Projektarbeit mit Abschlusspräsentation

Kapitel 2: Datenvisualisierung mit Google Data Studio
Datenvisualisierung ist der Schlüssel zur Analyse und Auswertung komplexer Daten. In der heutigen Geschäftswelt werden immer mehr Daten in immer kürzerer Zeit erzeugt und zusammengetragen, um daraus Vorteile zu ziehen, Entscheidungsgrundlagen zu generieren oder Wettbewerbsvorteile zu schaffen. Dabei sind die unterschiedlichen Formate und Speicherformen dieser Daten oft bereits die ersten Hürden. Ist es Dir gelungen, diese Daten in gleichen Formaten verfügbar gemacht zu haben, stehst Du vor der Herausforderung der Beziehungen und Skalierbarkeit solcher Daten. Wer soll sie nutzen und welche Erkenntnisse kann man aus den Datenbeständen beziehen? Wie beeinflusst die Art der Darstellung die Interpretation der Daten? Du brauchst mehr als ein einfaches Standard-Exceldiagramm. In diesem Kurs lernst Du fundamentale theoretische Grundlagen der Datenvisualisierung und erarbeitest Dir eine erste Praxis mit mächtigen Werkzeugen, um komplexe Datenvisualisierungsprojekte zu meistern.

> Theorie der Datenvisualisierung
• Korrelation, Relation, Dimension, Dynamik, Trend
• Differenzierung
• Visualisierungsformen 2D und 3D
• Komplexe Vergleiche in unterschiedlichen Dimensionen
> Theorie der Modelle
• Zielgruppen
• Psychologie und Wahrnehmung
• Erwartung, Interpretation, Verantwortung
> Google Data Studio
> Komplexe Datenvisualisierungsprojekte
• Zielsetzung, Fragestellung und Zielgruppen formulieren
• Daten-Pools analysieren und bereitstellen
• Daten aufbereiten und darstellen
• Evaluationsphasen

6
Data Analyst mit Kommunikations- und Präsentationstechniken
toggle

Data Analyst mit Kommunikations- und Präsentationstechniken
Im sechsten Modul lernst Du, Daten selbständig zu reinigen, aufzubereiten, zu visualisieren und unternehmensrelevante Vorhersagen zu tätigen. Du erlangst stark nachgefragte Fähigkeiten in der Programmiersprache Python sowie im Bereich des Machine Learnings.

Kapitel 1: Python Beginners Guide
Du machst Dich mit der interaktiven Lernumgebung – dem Data Lab von StackFuel – und der Programmiersprache Python vertraut.

  1. Python Basics
    Du bewegst Dich zum ersten Mal im Data Lab und machst Dich mit den Grundlagen der Programmierung vertraut. Du lernst, Zahlen und Texte als Variablen in Python zu speichern und diese als Gruppen in Listen zu bündeln. Die sachgemäße Leseart von Fehlermeldungen rundet Dein Python-Grundlagenwissen ab.
  2. Programming Basics
    Im zweiten Teil baust Du Deine Programmiergrundlagen weiter aus. Die Anwendung von Funktionen und Methoden sowie von Ablaufkontrollen mithilfe von Bedingungen stehen im Fokus dieses Kapitels.
  3. Loops and Functions
    Im letzten Teil des Grundlagenkapitels widmet sich der Ablaufkontrolle unter Verwendung von Schleifen. Du erweiterst Deinen Funktionsumfang durch das Importieren weiterer Python-Pakete und erhältst einen Einblick in die Versionierung von Code mit Git. Mit Abschluss des Kapitels kennst Du die wichtigsten Programmierungskonzepte, die für die Arbeit als Data Analyst wichtig sind.

Kapitel 2: Data Analytics with Python
Du lernst, neue Datenquellen zu erschließen, zu filtern und zusammenzuführen. Du übst, Unternehmensdaten mit ansprechenden Visualisierungen zielgruppengerecht zugänglich zu machen und selbstständig klassische Datenverarbeitungsprozesse durchzuführen (Daten einlesen, filtern, reinigen, verarbeiten und visualisieren).

  1. Data Pipelines (Pandas)
    Dieser Abschnitt vermittelt die effiziente Nutzung von Pandas – das Standardwerkzeug eines Data Analysts in Python. Du lernst, damit Daten in CSV-Dateien einzulesen, zu bereinigen und zu aggregieren.
  2. Data Exploration (Matplotlib)
    Du übst mithilfe von Marketingdaten die Visualisierung verschiedener Datenniveaus. Numerische Daten werden als Histogramme und Streudiagramme dargestellt, während kategorische Daten als Säulen- und Tortendiagramme abgebildet werden.
  3. Predictions (Statistics)
    Du erlernst anhand von Produktbewertungen statistische Begriffe wie Median und Quartile. Du identifizierst Ausreißer und erstellst einfache Vorhersagen mit der linearen und logistischen Regression.
  4. Internal Data (SQL)
    Du lernst, Datenbanken am Beispiel einer Personaldatenbank auszulesen und Standard-SQL-Abfragen zu formulieren.
  5. External Data (API)
    Du greifst mithilfe von Python auf Informationen wie Webseiten und von StackFuel konzipierte APIs im Internet zu.
  6. Advanced Jupyter
    Du lernst Jupyter-Funktionalitäten kennen und löst fortgeschrittene Visualisierungsprobleme wie Live-Updates und Interaktivität im Kontext eines Aktienmarktszenarios.
  7. Exercise Project
    Du analysierst ein New-Yorker-Taxidatenset mit über einer Million Fahrten und setzt Deine Python-Fähigkeiten möglichst eigenständig ein, um vorgegebene Fragestellungen zu beantworten.
  8. Final Project
    Du analysierst die Kundenabwanderungen eines Telekommunikationsunternehmens. Du durchläufst die gesamte Daten-Pipeline selbstständig und beantwortest typische Fragestellungen. In einem 1-on-1-Feedbackgespräch mit dem Mentorenteam von StackFuel präsentierst Du Dein Abschlussprojekt.

Kapitel 3: Machine Learning Basics
Du erstellst Data-Science-Workflows mit sklearn, evaluierst Deine Modell-Performance anhand von geeigneten Metriken und wirst für das Problem des Overfittings sensibilisiert.

  1. Supervised Learning (Regression)
    Anhand der linearen Regression erlernst Du den Umgang mit dem Python-Paket sklearn. Weiterhin beschäftigst Du Dich mit den Annahmen des Regressionsmodells und der Evaluation der erzeugten Prognosen. In diesem Zuge werden auch der Bias-Variance Trade-Off, Konzepte der Regularisierung sowie verschiedene Maße der Modellgüte verdeutlicht.
  2. Supervised Learning (Classification)
    Du wirst in Klassifizierungsalgorithmen anhand des k-Nearest-Neighbors-Algorithmus eingeführt und lernst, den Algorithmus zu evaluieren und die Klassifizierungsperformance einzuschätzen. Du optimierst die Parameter Deines Modells unter Beachtung der Aufteilung der Daten in Trainings- und Evaluationssets.
  3. Unsupervised Learning (Clustering)
    Du lernst den k-Means-Algorithmus als Beispiel eines Algorithmus des unüberwachten Lernens kennen. Die Annahmen und Performance-Metriken des Algorithmus werden von Dir kritisch beleuchtet und ein kurzer Ausblick auf eine Alternative zum k-Means-Clustering geworfen.
  4. Unsupervised Learning (Dimensionality Reduction)
    Du lernst, wie Du mithilfe einer Principal Component Analysis (PCA) die Dimension der Daten verringern kannst und nutzt die PCA, um unkorrelierte Features aus den Ursprungsdaten zu erzeugen. In diesem Zusammenhang wird das Thema Feature Engineering näher betrachtet und aus den alten Features neue erzeugt.
  5. Outlier Detection
    Du lernst verschiedene Ansätze kennen, um Ausreißer zu identifizieren und verstehen, mit diesen ungewöhnlichen Datenpunkten umzugehen. Du nutzt robuste Maße und Modelle, um den Einfluss der Ausreißer zu minimieren.

7
Kommunikation und Präsentation
toggle

Kommunikation und Präsentation
Im Zusatzmodul lernst Du viele hilfreiche Methoden und Tricks, um Inhalte zielgruppengerecht zu kommunizieren und zu präsentieren. Der Fokus liegt darauf, Dir neue Kenntnisse im Visualisieren, Präsentieren und Moderieren zu vermitteln. Zusätzlich zeigen wir Dir, wie Du Moderationen und Präsentationen bestmöglich nachbereiten kannst.

Kapitel 1: Gekonnt moderieren – kreativ präsentieren
Moderation und Präsentation sind Aufgaben des Berufsalltags, welche oft komplizierter sein können als gedacht. Was in der einen Situation funktioniert, kann in der nächsten daneben gehen. Daher lernst Du hier im Zusatzkapitel die professionelle Vorbereitung und Durchführung von Präsentationen, welche auf Deine Zielgruppe und Situation abgestimmt sind.

Modulübersicht.

  • Visualisieren:
    • Zweck, Mittel, Handwerk
    • Planung, Storyboard, Umsetzung
  • Präsentieren:
    • Thema, Ziel, Zielgruppe, Rahmen und Mittel
    • Ablauf und Organisation, Kleidung, Stimme und Haltung
    • Mit Störungen umgehen
  • Moderieren:
    • Thema und Ziel, Zielgruppe und Rahmen
    • Ablauf und Organisation
    • Themen- und Teilnehmerorientierung
  • Nachbereitung von Moderationen und Präsentationen
FAQ
quotation_marks
testemonial_picture_
Das Data Lab von StackFuel bietet für mich einen echten Mehrwert. Hier spürt man den Praxisbezug besonders gut. Die Aufgaben waren immer klar beschrieben und anschaulich dargestellt. So wusste ich immer, was ich machen muss. Das Training an sich war eine großartige Erfahrung!
Alexander Gross
Data Analyst bei AIC Portaltechnik
quotation_marks_flipped
quotation_marks
testemonial_picture_
Den größten Mehrwert bietet für mich der Praxisbezug. Dank StackFuel kann ich das Erlernte schnell umsetzen und für mich adaptieren. Das ist der echte Lernerfolg hinter den Online-Trainings.
Lutz Schneider
Strategischer IT-Einkäufer bei Axel Springer SE
quotation_marks_flipped
quotation_marks
testemonial_picture_
Die Inhalte des Online-Trainings von StackFuel waren sehr praxisorientiert. Es gab viele gute Beispiele und Projekte. Das fand ich sehr interessant und lehrreich. Seit dem Training hat sich mein Berufsalltag maßgeblich verändert: Ich bin jetzt Fachreferent für Datenanalysen in meiner Abteilung.
Jaroslaw Wojciech Sulak
Fachreferent für Datenanalysen bei IAV GmbH
quotation_marks_flipped
quotation_marks
testemonial_picture_
Die anwendungsfreundliche und flexible Weiterbildung Python-Programmierung hat meinen Blick auf komplexe Datenstrukturen komplett verändert. Dank des nachhaltigen und gut durchdachten Lernkonzepts sowie der nahtlosen Anwendung der Lerninhalte in der Entwicklungsumgebung kann ich das neu erlernte Wissen jetzt in meinem Joballtag vertieft in der Testautomation umsetzen und Daten seitdem leichter und effizienter verarbeiten.
Jenny Lindenau
Fachliche Leitung Testmanagement bei Bank Deutsches Kraftfahrzeuggewerbe GmbH
quotation_marks_flipped

Lass uns starten mit einer Beratung.

Unsere Beraterinnen und Berater helfen Dir gerne weiter und beantworten Dir alle offenen Fragen. Kostenlos und unverbindlich. Wir freuen uns auf Dich.
Kostenlos mit Bildungsgutschein*
(inkl. MwSt.)
0 € mit Bildungsgutschein