Big Data Architecture and Analytics

Komplexe Analyseaufgaben bei großen Datenmengen

Wenn die Datenmengen für die herkömmliche Analyse zu groß werden, kommen Big-Data-Technologien zum Einsatz. Wir installieren und untersuchen hoch-performante zentralisierte und dezentrale Systeme für komplexe  Analyseaufgaben bei großen Datenmengen unter Echtzeitbedingungen.

Unsere Forschung fokussiert Methoden des maschinellen Lernens und semantische Technologien für hohen Datendurchsatz. Dazu nutzen und adaptieren wir Big-Data-Komponenten wie Hadoop und Storm und Lösungen mit In-Memory- und In-Database-Analytik. Für massive Datenströme entwickeln wir Online-Lernverfahren in Echtzeit sowie sublineare Algorithmen des maschinellen Lernens, die mit extrem großen Datenmengen skalieren.

Living Lab: Experimentierplattform für Big-Data-Anwendungen

Als Plattform zum Lernen und Experimentieren mit Big-Data-Anwendungen haben wir ein Living Lab aufgesetzt. Dafür haben wir die Lambda-Architektur ausgewählt, die einen flexiblen und hoch-skalierbaren Rahmen bildet, um sowohl Datenströme in Echtzeit und die komplette Datenmenge periodisch im Batch zu verarbeiten. Im Lab verwenden wir MapReduce-Techniken, parallele Workflows, Message Passing und NoSQL-Datenbanken.