0%
Achtung: Javascript ist in Ihrem Browser für diese Webseite deaktiviert. Es kann sein, dass sie daher die Umfrage nicht abschließen werden können. Bitte überprüfen Sie ihre Browser-Einstellungen.

Kopie von Ein Prozessmodell für die Big-Data-Analyse

Vielen Dank für Ihre Bereitschaft an dieser Umfrage teilzunehmen. Sie richtet sich an Personen, die sich in einem professionellen Umfeld mit Big-Data-Analysen beschäftigen und zielt auf die Nutzung eines Prozessmodells ab.

Im Rahmen meiner Masterarbeit soll in einer Vorstudie herausgefunden werden, ob das Prozessmodell CRISP4BigData seine Anforderungen erfüllt. Zu diesem Zweck soll diese Expertenbefragung durchgeführt werden. Das in meiner Arbeit untersuchte Modell wird zum besseren Verständnis weiter unten kurz beschrieben.

Die Beantwortung der Fragen nimmt ca. 10 Minuten in Anspruch.

Bei Fragen und Anregungen wenden Sie sich gerne über die E-Mail-Adresse martin.bley@studium.fernuni-hagen.de direkt an mich.

CRISP4BigData

Berwind u. a. [1] haben auf der Konferenz CERC2016 für die Big-Data-Analyse ein neues Prozessmodell namens Cross Industry Standard Process for Big Data (CRISP4BigData) vorgestellt. Dieser Ansatz resultiert aus neuen Analyseanforderungen wie der Metadatenanreicherung, Archivierung oder dem automatischen Finden von Experten zu bestimmten Analyseergebnissen. Angestrebt wird eine Methode zur automatischen Verarbeitung der Daten die auch den Datenimport und die langfristige Archivierung berücksichtigt. Eine schematische Darstellung des Prozessmodells mit den einzelnen Phasen und deren Aufgaben sind in der folgenden Abbildung dargestellt.

Zur Referenz werden hier die Aufgaben in den einzelnen Phasen von CRISP4BigData vorgestellt.

Phasen und Aufgaben von CRISP4BigData

Data Collection, Management & Curation

Business Understanding
Beschreibt die Problemstellungen und Ziele eines Analyseprozesses.
Data Understanding
Die erstmalige Ad-hoc-Analyse des Datenbestandes.
Data Preparation
Alle Tätigkeiten, die den Datenbestand, oder eine Teilmenge auf die Analyse vorbereiten.
Data Enrichment
Anreicherung der Datenbasis mit nützlichen Metadaten

Analytics

Modelling
Modellierung eines mathematischen oder statistischen Modells auf Grundlage des vorher festgelegten Datenmodells, mit dessen Hilfe die Analyse erfolgen soll.
Analysis
Das eigentliche Durchführen der Berechnung des in Modelling ermittelten Modells.
Evaluation
Bewertet die Analyseergebnisse nach Kriterien wie Sinnhaftigkeit, Grad der Innovation, Lösungsqualität, etc.
Data Enrichment
Anreicherung der Datenbasis mit nützlichen Metadaten

Interaction & Perception

Deployment, Collaboration, Visualization
Hier findet die eigentliche Im- plementierung der Analyse statt. Außerdem wird gesteuert, mit wem die Ergebnisse geteilt und wie sie visualisiert werden.
Data Enrichment
Anreicherung der Datenbasis mit nützlichen Metadaten

Insight & Effectuation

Potentialities & Continuous Product and Service Improvement
Schaffen und verwalten von neuen Erkenntnisse aus den Analyseergebnissen und dem schon vorhandenen Wissen.
Data Enrichment
Anreicherung der Datenbasis mit nützlichen Metadaten
Knowledge-based Support
Knowledge Generation and Management
Das Wissen über den Prozess und dessen Ergebnisse wird hier gespeichert.
Retention and Archiving
Langfristige Archivierung der gewonnenen Erkenntnisse.
 

[1] Berwind, K., M. Bornschlegel, M. Hemmje und M. Kaufmann. "Towards a Cross Industry Standard Process to support Big Data Applications in Virtual Research Environments”. In: Collaborative European Research Conference. CERC2016. Cork, Ireland: Cork Institute of Technology, 2017, S. 82–91

In dieser Umfrage sind 28 Fragen enthalten.

Alle Daten werden anonym erhoben und ausschließlich im Rahmen meiner Masterarbeit ausgewertet. Eine Nutzung darüber hinaus wird nicht erfolgen.