Vielen Dank für Ihre Bereitschaft an dieser Umfrage teilzunehmen. Sie richtet sich an Personen, die sich in einem professionellen Umfeld mit Big-Data-Analysen beschäftigen und zielt auf die Nutzung eines Prozessmodells ab.
Im Rahmen meiner Masterarbeit soll in einer Vorstudie herausgefunden werden, ob das Prozessmodell CRISP4BigData seine Anforderungen erfüllt. Zu diesem Zweck soll diese Expertenbefragung durchgeführt werden. Das in meiner Arbeit untersuchte Modell wird zum besseren Verständnis weiter unten kurz beschrieben.
Die Beantwortung der Fragen nimmt ca. 10 Minuten in Anspruch.
Bei Fragen und Anregungen wenden Sie sich gerne über die E-Mail-Adresse martin.bley@studium.fernuni-hagen.de direkt an mich.
CRISP4BigData
Berwind u. a. [1] haben auf der Konferenz CERC2016 für die Big-Data-Analyse ein neues Prozessmodell namens Cross Industry Standard Process for Big Data (CRISP4BigData) vorgestellt. Dieser Ansatz resultiert aus neuen Analyseanforderungen wie der Metadatenanreicherung, Archivierung oder dem automatischen Finden von Experten zu bestimmten Analyseergebnissen. Angestrebt wird eine Methode zur automatischen Verarbeitung der Daten die auch den Datenimport und die langfristige Archivierung berücksichtigt. Eine schematische Darstellung des Prozessmodells mit den einzelnen Phasen und deren Aufgaben sind in der folgenden Abbildung dargestellt.
Zur Referenz werden hier die Aufgaben in den einzelnen Phasen von CRISP4BigData vorgestellt.
Phasen und Aufgaben von CRISP4BigData
Data Collection, Management & Curation
- Business Understanding
- Beschreibt die Problemstellungen und Ziele eines Analyseprozesses.
- Data Understanding
- Die erstmalige Ad-hoc-Analyse des Datenbestandes.
- Data Preparation
- Alle Tätigkeiten, die den Datenbestand, oder eine Teilmenge auf die Analyse vorbereiten.
- Data Enrichment
- Anreicherung der Datenbasis mit nützlichen Metadaten
Analytics
- Modelling
- Modellierung eines mathematischen oder statistischen Modells auf Grundlage des vorher festgelegten Datenmodells, mit dessen Hilfe die Analyse erfolgen soll.
- Analysis
- Das eigentliche Durchführen der Berechnung des in Modelling ermittelten Modells.
- Evaluation
- Bewertet die Analyseergebnisse nach Kriterien wie Sinnhaftigkeit, Grad der Innovation, Lösungsqualität, etc.
- Data Enrichment
- Anreicherung der Datenbasis mit nützlichen Metadaten
Interaction & Perception
- Deployment, Collaboration, Visualization
- Hier findet die eigentliche Im- plementierung der Analyse statt. Außerdem wird gesteuert, mit wem die Ergebnisse geteilt und wie sie visualisiert werden.
- Data Enrichment
- Anreicherung der Datenbasis mit nützlichen Metadaten
Insight & Effectuation
- Potentialities & Continuous Product and Service Improvement
- Schaffen und verwalten von neuen Erkenntnisse aus den Analyseergebnissen und dem schon vorhandenen Wissen.
- Data Enrichment
- Anreicherung der Datenbasis mit nützlichen Metadaten
Knowledge-based Support
- Knowledge Generation and Management
- Das Wissen über den Prozess und dessen Ergebnisse wird hier gespeichert.
- Retention and Archiving
- Langfristige Archivierung der gewonnenen Erkenntnisse.
-
[1] Berwind, K., M. Bornschlegel, M. Hemmje und M. Kaufmann. "Towards a Cross Industry Standard Process to support Big Data Applications in Virtual Research Environments”. In: Collaborative European Research Conference. CERC2016. Cork, Ireland: Cork Institute of Technology, 2017, S. 82–91
In dieser Umfrage sind 28 Fragen enthalten.