Power BI, Design Dashboards (3 Tage)
Ausbildungsziele:
Voraussetzungen für die Ausbildung:
Dieses Training richtet sich an Fachleute und Studenten, die Datenanalysefähigkeiten mit Python erwerben möchten. Ideal für:
- Datenanalysten Anfänger oder Intermediate.
- Python-Entwickler Sie wollen sich auf Datenanalyse spezialisieren.
- Marketing-, Finanz- und Betriebsleiter Interesse an Datenanalyse.
INTERPRETATION
1520
-
- Anwesend in unseren Räumlichkeiten oder bei Ihnen
-
– Distanciel Online Finden Sie uns auf: Straßburg, Lille, Lyon, Reims, Genf, Brüssel, Luxemburg, Frankfurt, Karlsruhe, Berlin, Metz
-
INTRA (Rufen Sie uns an, um ein Angebot zu erhalten)
Tag 1:
Morgen: Einführung und grundlegende Konzepte
Verstehen Sie die strategische Rolle von Data im Unternehmen.
Hauptkonzepte: Lebenszyklus, Governance, Qualität. Strukturieren und organisieren Sie Daten für einen optimalen Betrieb.
Inhalt:
-
Einführung in das Datenmanagement (1h)
• Definition und Rolle des Datenmanagements. Unterschied zwischen Daten und Informationen (Insights).
• Warum Data ein strategischer Hebel ist: konkrete Beispiele.
• Aktuelle Herausforderungen: Explosion von Datenmengen (Big Data), Qualität, Vertraulichkeit. • Fallstudie: Wie Amazon Daten verwendet, um das Kundenerlebnis anzupassen.. -
Datenlebenszyklus (1h)
• Die 5 Phasen des Datenlebenszyklus: Sammlung: Interne (CRM, ERP, IoT) und externe (Open Data) Datenquellen. Lagerung:
• Speichertypen (relationale Datenbanken, NoSQL, Cloud).
• Behandlung: Reinigung, Verarbeitung, ETL (Extrakt, Transformation, Ladung). • Analyse: Deskriptive, prädiktive und präskriptive Ansätze.
• Verbreitung: Reporting, Visualisierung und Austausch von Insights.
• Workshop: Identifizieren und abbilden Sie den Datenlebenszyklus in Ihrer Organisation. -
Data Governance: Grundsätze und bewährte Verfahren (1h) • Definition und Bedeutung von Data Governance.
• Schlüsselrollen: Chief Data Officer (CDO): Verantwortlich für die Datenstrategie. • Data Owner: Datenmanager.
• Data Steward: Garantie für Qualität und Einhaltung von Standards.
• Einhaltung der Vorschriften: DSGVO (Europa): Schutz personenbezogener Daten.
• HIPAA (USA): Vertraulichkeit von Gesundheitsdaten. Workshop: Definieren Sie Rollen und Verantwortlichkeiten für ein Datenprojekt.
Tag 1:
Nachmittag: Organisation und Datenqualität
- Entdecken Sie Python und die für die Datenanalyse benötigten Bibliotheken.
- Lernen, Daten mit Pandas und führen grundlegende Manipulationen auf DataFrames durch.
Inhalt:
-
Datenqualität: Methodik und Kontrolle (1h)
• Die 5 Dimensionen der Qualität:
• Genauigkeit: Zuverlässige und genaue Daten.
• Vollständig: Keine fehlenden Werte.
• Kohärenz: Einheitlichkeit zwischen Systemen.
• News: Echtzeit-Update oder Batch-Update.
• Rückverfolgbarkeit: Historie der Änderungen (Data Lineage).
• Qualitätskontrollverfahren: Audits, KPI, Monitoring.
• Übung: Analysieren Sie einen Datensatz und identifizieren Sie Anomalien. -
Datenarchitektur: Infrastruktur verstehen (1h)
• Unterschiede zwischen:
• Data Warehouse: Strukturiert für die historische Analyse.
• Data Lake: Massenspeicherung von Rohdaten. Data Lakehouse: Hybridisierung beider Ansätze.
• Kriterien der Wahl (Volumen, Geschwindigkeit, Vielfalt).
• Gemeinsame Technologien: Azure, Google BigQuery, Snowflake.
• Case Study: Wie Netflix Data Lakehouse nutzt, um das Verhalten zu analysieren • Nutzer. -
Fallstudie: Pilotierung eines Datenprojekts (1h)
• Schlüsselschritte: Definition, Sammlung, Verarbeitung, Analyse, Restitution.
• Beispiele für Projekte: Supply Chain Optimierung, Kundensegmentierung.
• Workshop: Strukturieren Sie einen Data Governance Plan.
Tag 2:
Morgen: Analyse und Visualisierung von Daten
Ziele des Tages: Master BI Tools für die Datenanalyse. Verwandeln Sie Daten in umsetzbare Erkenntnisse. Gewährleistung von Compliance und Risikomanagement.