Medienspiegel 2015

November 2015

Roberta rollte auf Platz eins

Kölner Stadt-Anzeiger, 20. November 2015:

»In Berlin Projekt für Schüler ausgezeichnet

Roberta, das niedliche Robotermädchen, ist aufs Siegertreppchen gerollt: Beim Wettbewerb "Ausgezeichnete Orte im Land der Ideen" holte das Projekt des Fraunhofer IAIS den ersten Platz in der Kategorie Bildung. Vom Schloss Birlinghoven aus hat Roberta nicht nur Deutschland erobert, sondern fungiert auch als Technik-Diplomatin in etlichen Ländern Europas.«

August 2015

Big Data: Forscher stellen FERARI-Framework vor

heise online, 24. August 2015:

»Das durch die EU geförderte Projekt hat es sich zum Ziel gesetzt, Strukturen zur systemweiten Datenanalyse im Big-Data-Bereich zu schaffen. Nun steht eine erste Version des Frameworks online zur Verfügung.

Forscher des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS haben eine erste Version des FERARI-Frameworks veröffentlicht. Die Fraunhofer-Forscher arbeiten dabei mit dem Israel Institue of Technology, der Technical University of Crete, der Hrvatski Telekom, Poslovna Inteligencija und IBM Research Israel zusammen.

FERARI steht für Flexible Event Processing for Big Data Architectures, und bei dem nun veröffentlichten Code handelt es sich um die Implementierung der ersten Ergebnisse eines EU-Projekts, das sich mit der Entwicklung einer Architektur befasst, die verteilte Berechnungen auf großen Mengen von Stream-Daten ermöglichen und zudem den Gesamtdatenstrom reduzieren soll.«

Big Data meistern mit Sensor-Intelligenz

elektroniknet.de, 20. August 2015:

»Mit den riesigen Datenströmen, die im Zusammenhang mit Industrie 4.0 und IoT entstehen, geraten die datenverarbeitenden Systeme zunehmend an ihre Grenzen. Im Rahmen des EU-Projekts »Flexible Event Processing for Big Data Architectures« (FERARI) wurde nun untersucht, inwieweit intelligente Sensoren die Datenflut reduzieren können.

"Kernidee bei FERARI ist eine allgemeine Entlastung datenverarbeitender Systeme", sagt Dr. Michael Mock, Projektleiter am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS. "Die einzelnen Sensoren der beteiligten Maschinen entscheiden dazu selbstständig, ob sie eine aufgenommene Information kommunizieren und für welche anderen Komponenten im System sie wichtig ist. Dadurch wird der Gesamtdatenstrom auf das Wesentliche reduziert."

In Kombination mit Methoden des "Complex Event Processing" – also der Verarbeitung komplexer, voneinander abhängiger Ereignisse – können dadurch auch in vielfach verflochtenen Echtzeitdatenströmen wichtige Zusammenhänge aufgedeckt werden.

"Bei der Entwicklung war uns besonders wichtig, den Anwendern einen schnellen Einstieg zu ermöglichen", betont Mock. "Dazu haben wir unter anderem die gesamte benötigte Softwarekonfiguration in einen Docker Container integriert."«

Juli 2015

News Stream 3.0

Deutschlandfunk, 18. Juli 2015:

»Video-Clips, Radio-Interviews, Posts von Bloggern, Tweets von Politikern - schwer, da den Überblick zu behalten. Mit News-Stream 3.0 soll es wieder weniger Kanäle geben, dafür mehr Übersicht. Helfen soll das Tool vor allem Journalisten.

Im Rahmen des Projekts "News-Stream 3.0" arbeiten Forscher um Daniel Stein am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS an einer Technologie für Journalisten, die unterschiedlichste Datenströme analysiert, bündelt und aufbereitet. Das neue Analyseverfahren kann Formate wie Textnachrichten, Videos oder Audiodateien verarbeiten und vereinfacht Redakteuren die Recherche zu einem bestimmten Thema.

Ebenfalls am Projekt beteiligt sind die Neofonie GmbH, die Deutsche Welle sowie die Deutsche Presseagentur dpa.«

Juni 2015

Aus Ton mach Text

Deutschlandfunk, 22. Juni 2015:

»Nur wenige Fernsehsendungen werden derzeit mit Untertiteln versehen. Die bisherigen Verfahren brauchen immer einen Menschen, der den gesprochenen Text hört, ihn in eine Sprachsoftware diktiert, die dann wiederum Text produziert. Das Ziel des Projekts LiveCaption ist die Entwicklung einer automatischen Generierung - mithilfe einer anspruchsvollen Software.

Statt Fernsehen könnte es genauso gut Fernhören heißen. Der Ton ist zwar vielleicht nicht ganz so wichtig wie das Bild, aber trotzdem schauen die meisten Menschen – wenn überhaupt – lieber mit als ohne Ton fern. Für gehörlose und hörgeschädigte Menschen ist der uneingeschränkte Genuss von Dokumentationen, Talk-Shows und Nachrichten im Fernsehen daher keine Selbstverständlichkeit. Zwar bieten einige Fernsehsender – vor allem die öffentlich-rechtlichen – inzwischen die Übersetzung ihres Programms in Form von Text oder Gebärdensprachen-Videos an, die bisherigen technischen Möglichkeiten bringen jedoch diverse Probleme mit sich.

Die bislang meist eingesetzte Methode: das sogenannte Respeaking

So überlagern Felder mit dem übersetzten Text oft das eigentliche Bild. Eingeblendete Gebärdensprachen-Videos führen zu einer Verkleinerung des anderen Videos. Außerdem ist nach wie vor die zeitnahe und gute Übersetzung von Live-Sendungen ein Problem. Das Projekt "LiveCaptions", umgesetzt von der VerbaVoice GmbH, der Step2e Broadcast AG und dem Fraunhofer-Institut für Intelligente Analyse und Informationssysteme, hat daher die automatische Generierung von Live-Untertiteln zum Ziel.«

Alte Schlossträume und eine Zukunft, die schon begonnen hat

General-Anzeiger Bonn, 22. Juni 2015:

»Was Architektur alles sein kann: "Moderne Algorithmen können Daten zwar bereits zuverlässig anonymisieren, sind aber in der Regel nicht auf Big-Data-Architekturen ausgelegt", wird Professor Stefan Wrobel, Institutsleiter des Fraunhofer IAIS, auf der Fraunhofer-Homepage zitiert.

Es geht um eine sogenannte Toolbox, ein Werkzeugkasten, den das Fraunhofer IAIS und die Siemens-Forschung Corporate Technology (CT) entwickelt haben, eine so genannte "Privacy Preserving Big Data Analytics Toolbox" mit Datenschutz-Algorithmen, die speziell auf die Anforderungen von Big-Data-Anwendungen angepasst sind.

Eine reizvolle Vorstellung, wie hier an der Zukunft gebastelt wird - und zwar vor einer Kulisse, die jeder urbritischen Vorabendserie zur Ehre gereichen würde: Schloss Birlinghoven in Sankt Augustin, eine weite Parkanlage mit einem Rosengarten und Ausblicken auf einen englischen Landschaftsgarten, inmitten dann eine hübsche Villa im englischen Landhausstil mit neogotischen und -barocken Elementen, Ecktürmen und hochherrschaftlichen Details wie die ausladende Terrasse zum Garten hin. Ein schönes Bild: Eine architektonische Inszenierung aus dem frühen 20. Jahrhundert mit Rückgriffen bis ins 17., in der Big-Data-Architekturen unserer Tage analysiert werden.«

Die fünf Typen von Data Scientists

Computerwoche, 22. Juni 2015:

»Data-Scientist-Teams bestehen aus Business Developern, Data Analysten, Data Managern sowie Application Developer und Security Managern. Sie alle müssen erst geschult werden.

Der Bedarf an gut ausgebildeten Fachkräften für Big Data zeigt, dass deutsche Unternehmen mittlerweile den hohen Wert von Daten erkannt haben und sich immer mehr zu „Datadriven Companies“ entwickeln. Hierfür benötigen sie besondere Fachkräfte – Data Scientists, die wissen, wie sie Big Data nutzen müssen, um automatisierte Ereignisse zu erkennen und einzuschätzen, Entwicklungen kurzfristig vorherzusagen und Entscheidungen zu treffen. Auf dieser Basis können Firmen dann ihre Unternehmensführung effizienter gestalten, neue individualisierte Dienstleistungen anbieten oder intelligente Produkte entwickeln.«

Klug kombinieren

Handelsblatt, 17. Juni 2015:

»Mit Smart Data lassen sich wertvolle Informationsschätze heben.
Unternehmen können daraus große Wettbewerbsvorteile ziehen.

Smart Data kombiniert die Datenanalyse mit Anwender- und Gerätewissen, also technischem Know-how und den Anforderungen von allen Beteiligten. Ein Beispiel aus der Automobilindustrie: „Bevor ein Autositz montiert wird, durchläuft er zahlreiche aufeinander abgestimmte Produktionsschritte in vielen Ländern. Wenn es an einer Station zu Verzögerungen kommt, stockt die ganze Lieferkette und es droht Stillstand.“ So weit muss es nicht kommen: „ Mithilfe von intelligenten statistischen Modellen, die mit historischen Daten Trainiert werden, können auffällige Ereignisse frühzeitig erkannt werden, „ sagt Dr. Dirk Hecker, Fraunhofer IAIS. Im Falle der Autositzmontage werden durch intelligente Datenanalyse Lieferengpässe erkannt, mögliche Folgen prognostiziert und Alternativen vorgeschlagen.«

Mai 2015

Ein Job für große Mengen

taz.die tageszeitung, 10. Mai 2015:

»Das neue Berufsbild "Data Scientist" gilt als zukunftsträchtige Qualifikation für Informatiker und Statistiker, die über den eigenen Tellerrand blicken wollen

Für dieses anspruchvolle Berufsbild hat das Fraunhofer IAIS vor zwei Jahren ein Schulungsprogramm mit dem Ziel aufgelegt, die Möglichkeiten, die Big Data Unternehmen bietet, zu vermitteln. Interessenten können im Vorfeld beraten lassen, welche Module für sie geeignet sind.«

Ein Puzzle für die Arbeitsministerin

General-Anzeiger Bonn, 12. Mai 2015:

»Andrea Nahles besucht das Fraunhofer-Institut in Birlinghoven, wo Anwendungen für die "Arbeit 4.0" entwickelt werden. Glaubt man Fachpolitikern und Wirtschaftsforschern, befindet sich Deutschland damit in die Arbeitswelt von morgen.

Für Nahles steht das Thema ganz oben auf der Agenda. Vor wenigen Tagen hat sie ein Grünbuch "Arbeit 4.0" veröffentlicht, in dem sie Vorstellungen und Fragestellungen zur Arbeitswelt der Zukunft skizziert. 2016 soll ein Weißbuch folgen, in dem sie Antworten geben will. Sie wolle "versuchen, die gesellschaftliche Dimension darzulegen", sagt die Ministerin, und auch "über die Ängste ins Gespräch kommen".

DIe Fraunhofer-Forschern  beschäftigen sich mit ganz praktischen Anwendungen. Einer hat mit seinem Team eine Programmier-Software namens "Roberta" für Grundschulkinder entwickelt. Die können damit zum Beispiel einem handelsüblichen Lego-Roboter spielerisch beibringen, wie ein Segway auf zwei Rädern die Balance halten kann.

Institutsleiter Stefan Wrobel formuliert dafür ein anspruchsvolles Ziel: "Ich möchte, dass alle Grundschüler in Deutschland das Programm nutzen können", so Wrobel, "Wir wollen eine Generation der Gestalter heranziehen, nicht eine der Nutzer."

Für den Gast aus Berlin ein gutes Stichwort. Denn für Nahles steht beim Stichwort "Arbeit 4.0" das Thema Lernen ganz oben: "Qualifizierung ist die eigentliche Herausforderung", sagt sie - und zwar nicht nur für Schüler, sondern auch für jene, die in den Betrieben täglich mit dem Wandel der Arbeitswelt konfrontiert werden.«

April 2015

Die Industrie liebäugelt mit eigenem Datennetz

Frankfurter Allgemeine Zeitung, 15. April 2015:

»Die Sicherheitsdebatte ist nicht erst seit den Vorfällen um den Fernsehsender TV5 Monde in vollem Gang

Die Frage, wie denn mit dem Thema Datensicherheit angesichts immer stärker vernetzter industrieller Produktion umzugehen sei, ist schwierig genug. Aber immerhin kann man auch im Schlechten etwas Nützliches entdecken. So wie es Günther Oettinger auf der Hannover Messe getan hat. Der deutsche EU-Kommissar, unter anderem für Digitale Wirtschaft zuständig, erinnerte dort an den spektakulären Hackerangriff zuletzt auf den französischen Fernsehsender TV5Monde und sagte, dieser habe auch etwas Gutes gehabt. Denn: "Jetzt sind alle hellwach.“

Es ist in Deutschland vor allem an der Fraunhofer Gesellschaft für mehr Sicherheit im Netz zu sorgen, wie auch immer es organisiert ist.

Deshalb gibt es die Initiative „Industrial Data Space“, die dem datenraum der Zukunft nicht nur einen Namen, sondern auch eine Gestalt geben soll.«

Klug kombinieren

Der Spiegel, 11. April 2015:

»Mit Smart Data lassen sich wertvolle Informationsschätze heben. Unternehmen können daraus große Wettbewerbsvorteile ziehen.

Der Begriff von „Big Data“ lässt Bilder von enormen Datenmengen entstehen. Sie stammen vorwiegend aus Social Media und der Informationstechnologie, umfassen aber auch Sensordaten oder Log- und Messdaten aus dem Internet der Dinge.

Doch werden Daten noch nicht genug genutzt: Lieferengpässe führen zu Produktionsausfällen, Blackouts legen Metropolen lahm. „Mithilfe von intelligenten statistischen Modellen, die mit historischen Daten trainiert werden, können auffällige Ereignisse frühzeitig erkannt werden“, sagt Dr. Dirk Hecker, Abteilungsleiter am Fraunhofer IAIS.«

LEARNMINER – Advanced Analytics for eLearning

ERCIM News 101,  April 2015:

»LEARNMINER is an interactive social eLearning platform that integrates advanced analytics and linked data processing to assist users in structuring course material. Tools for analyzing crowd behaviour allow instructors to identify overly simple or difficult material and provide means for planning deadlines or tests. LEARNMINER allows for mobile access and provides interactive visualization of learning material and progress.

The interdisciplinary field of Web science studies technical and sociological aspects of the Web. Given that the Web is the largest human information construct in history whose rate of adoption and impact on society are unparalleled, Web science aims to understand the Web in order to engineer its future and to ensure its social benefit [1]. The research project SoFWIReD (Southampton Fraunhofer Web Science, Internet Research & Development), funded by the Fraunhofer ICON initiative, is a collaboration between the University of Southampton and Fraunhofer FOKUS and Fraunhofer IAIS. It involves web and data scientists with expertise in developing web platforms for data and knowledge driven processing that incorporate aspects of collective intelligence.«

März 2015

Fraunhofer IAIS und Siemens entwickeln Datenschutz-Toolbox

BigData Insider, 18. März 2015:

»Für globale Unternehmen wie die Siemens AG spielt die intelligente Analyse großer Datenbestände eine immer wichtigere Rolle. Gleichzeitig wachsen aber die Ansprüche an den Datenschutz.

Bei Siemens ist die smarte Datenanlyse für die strategischen Wachstumsfelder des Unternehmens von besonderer Bedeutung. Entscheidend ist dabei, dass alle Analyseverfahren die Datenschutzregelungen einhalten und die Privatsphäre schützen. „Moderne Algorithmen können Daten zwar bereits zuverlässig anonymisieren, sind aber in der Regel nicht auf Big-Data-Architekturen ausgelegt“, erklärt Prof. Dr. Stefan Wrobel, Institutsleiter des Fraunhofer IAIS.

Datenschutz für Big-Data-Tools

Aus diesem Grund entwickelt das Fraunhofer IAIS gemeinsam mit Siemens eine sogenannte „Privacy Preserving Big Data Analytics Toolbox“. Sie enthält Datenschutz-Algorithmen, die speziell auf die Anforderungen von Big-Data-Anwendungen ausgelegt sind und verschiedene Anonymisierungsverfahren abdecken. „Beispiele sind Verfahren, die Namen zuverlässig verschlüsseln, personenbezogene Informationen in Gruppen zusammenfassen und somit verrauschen oder Datenabfragen mit nur einer Mindestanzahl an Treffern ermöglichen, um zu verhindern, dass einzelne Personen identifizierbar werden“, erklärt Projektleiter Dr. Michael Mock.«

Dezentralisierung statt Bürokratie: Europas Startup-Millionen

heise online, 6. März 2015:

»80 Millionen Euro verteilt die Europäische Kommission zur Zeit an europäische Gründer. Das soll die Internetwirtschaft des Kontinents voranbringen. Dabei ist das Startup-Programm eigentlich nur ein Nebenprodukt eines größeren Open-Source-Programms.

Die Europäische Union will insgesamt 80 Millionen Euro an Gründer verteilen, um Europa mit ihren Ideen voranzubringen. Für die Verteilung des Geldes ist ein für EU-Verhältnisse fast revolutionärer Ansatz gewählt worden. Privatwirtschaftliche Partner, die im Startup-Ökosystem verankert sind, formulieren eigene Zielgruppen und führen unter Aufsicht der Kommission eigenständig Ausschreibungen aus. Den Startups selbst wird dadurch die Bürokratie weitgehend erspart und das ganze Projekt deutlich dezentralisiert. Inzwischen gibt es erste Ergebnisse.«

Mit Big Data an die Spitze

Frankfurter Allgemeine Zeitung, 5. März 2015:

»Big Data ist derzeit eines der wichtigsten Strategiethemen in der Unternehmenswelt, doch viele Betriebe sehen noch Umsetzungsbarrieren. Hilfe bei Fragestellungen bietet seit einem Jahr die Fraunhofer-Allianz Big Data. Dort lässt vor allem die große Nachfrage nach Schulungen erahnen, welchen Stellenwert der intelligent Umgang mit gigantischen Datenmengen in Zukunft haben wird.

Der Einsatz von Big Data in Unternehmen und Organisationen hat längst begonnen. Die systematische Auswertung großer Datenmengen versetzt Firmen schon heute in die Lage, bei der Vorbereitung von Managemententscheidungen in neue Dimensionen vorzustoßen.

Fraunhofer bündelt Kompetenzen

In Sankt Augustin haben sich 25 Fraunhofer-Institute in der Allianz Big Data zusammengeschlossen, um Wirtschaft, Politik und Forschung eine zentrale Anlaufstelle zum großen Zukunftsthema bieten zu können.«

So verändert Big Data unser Leben

Frankfurter Neue Presse, 5. März 2015:

»Daten gelten als das neue Gold. Nicht nur die Geheimdienste, auch findige Unternehmen wühlen heute im Datenhaufen unserer vernetzten Welt, in Big Data. neue Geschäftsmodelle entstehen. Clevere Tools zur Analyse legen kostengünstig und in Echtzeit Muster offen, erlauben sogar Vorhersagen: Ob eine Grippewelle anrollt oder Einbrüche in bestimmten Wohngebieten zu erwarten sind.

Datenkapital auswerten

Der „Data Scientist“ ist ein gefragter Beruf. Seine Aufgabe ist es, eine entsprechende Architektur aufzusetzen, die richtigen Werte aus den immensen Datenmengen herauszufiltern, vorherzusagen und Business-Ideen zu entwickeln. „Das ist ein boomender Markt“, weiß Dr. Dirk Hecker vom Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (IAIS) in St. Augustin. „Wir bieten seit Mitte 2013 die Ausbildung zum ,Data Scientist‘ an. Die Kurse sind alle komplett ausgebucht. Zwischen 30 und 40 Prozent der Teilnehmer kommen aus der Autobranche“, sagt der Fraunhofer-Fachmann.

Wie kann die Autobranche Big Data nutzen? „Denken wir nur mal an die Regensensoren, die heute fast jedes Auto hat“, sagt der Fraunhofer-Experte. Eine Echtzeit-Analyse aller aktiven Regensensoren, zum Beispiel nach der Stärke und Frequenz der Scheibenwischer, könnte eine örtlich visualisierte Anzeige liefern, wo es gerade wie stark regnet, wie sich die Wolken bewegen und sich die Niederschlagsmenge – sogar punktuell – verteilt. „Diese Daten können Autohersteller verkaufen“, sagt Hecker. Zum Beispiel an die Landwirtschaft. Sie kann die Werte nutzen, um ihre automatisierten Maschinen effektiver einzusetzen und so den Ressourcenverbrauch zu verringern.

Das IAIS arbeitet derzeit an einem anderen Projekt, „Insight“ genannt, das Meldungen in sozialen Netzwerken wie Twitter und Facebook sowie Mobilfunkdaten in Echtzeit auswerten soll, um frühzeitig die Entstehung von Katastrophen oder besonderen Krisensituationen bei Massenereignissen zu erkennen, zu verhindern helfen oder gezielte Hilfe zu ermöglichen. „Insight“ („Intelligent Synthesis and Real-time Response using Massive Streaming of Heterogenous Data“), das von der EU und vom Bundesamt für Bevölkerungsschutz und Katastrophenhilfe gefördert wird, soll den anonymisierten Datenstrom analysieren und auffällig abweichende Entwicklungen grafisch aufbereitet direkt an die Einsatzzentrale melden.«

Februar 2015

Damit sollten Sie rechnen

FOCUS, 26. Februar 2015:

»Datenanalysten können heute mithilfe ausgefeilter Algorithmen sehr konkret Vorhersagen treffen – vom nächsten Einbruch über Kündigungen bis hin zur Wirksamkeit von Medikamenten. Doch damit wird es immer schwerer werden, die Privatsphäre zu schützen.

Nach dem Wetter und den Börsenkursen ist jetzt auch eine präzise Vorhersage menschlichen Verhaltens in Reichweite von „Predictive Ananlytics“. „In der Marktforschung steht ein disruptiver Wandel bevor: Dank sozialer Netzwerke und intelligenter Algorithmen kann man jetzt das Verhalten von Konsumenten täglich und quasi in Echtzeit analysieren“, erklärt Dirk Hecker, Fraunhofer IAIS. Hinzu kommen Prognosen über die Pläne von Kriminellen und sogar Versuche, Konflikte innerhalb oder zwischen Staaten vorherzusagen.

Doch die Entwicklung wirft völlig neue Fragen auf: Soll die Polizei künftig Verdächtige verhaften, bevor sie überhaupt eine Straftat begangen haben? Wird die Weltgemeinschaft Blauhelme in eine Region entsenden, nur weil ein Computer den Ausbruch eines Konfliktes vorhergesagt hat? Und könnten Versicherungen bald die Gesundheitsdaten ihrer Kunden dazu verwenden, um risikobasierte Tarife anzubieten?«

Stahlbranche kämpft mit Terabyte gegen Schrottberge

Die Welt, 25. Februar 2015:

»Ein Drittel der Stahlproduktion ist Ausschuss. Die massenhafte Analyse von Produktionsdaten soll dies ändern und viel Geld sparen. Auch wenn manche Berechnung mehrere Monate dauern kann.

Deutlich mehr als eine Milliarde Tonnen Stahl werden pro Jahr produziert - und etwa ein Drittel davon fällt als Schrott an. Noch unwirtschaftlicher ist, dass dieser Schrott zu einem Großteil die ganze Produktion durchläuft und somit die Anlagen blockiert. Eine Lösung für das Problem soll "Big Data" bringen - also das Sammeln und Auswerten riesiger Datenmengen.

Das Projekt heißt iProdict ("Intelligent Process Prediction based on Big Data") und läuft noch bis 2017. Gefördert wird es von der Bundesregierung, beteiligt sind unter anderem das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) und das Fraunhofer-Institut IAIS .

Es ist keine reine Simulation, die Forscher testen ihre Technik am lebendigen Objekt: der Saarstahl AG, die jährlich deutlich mehr als zwei Millionen Tonnen Stahl produziert. In den Hallen von Saarstahl vermessen Laser die Werkstoffe, suchen Ultraschallsensoren nach Materialfehlern wie störende Einschlüsse im Stahl.

Die Initiative Manufacturing Excellence will den Austausch zwischen Wissenschaft und Firmen fördern - mit dem Ziel, den Produktionsstandort Deutschland zu stärken. Firmen können sich dabei für den MX Award ( www.manufacturing-excellence.de ) bewerben und sich einer Selbstanalyse unterziehen.«

Daten, die nur Gutes tun sollen

Deutschlandfunk, 21. Februar 2015:

»Wann immer in der letzten Zeit über Big Data diskutiert wurde, traten schnell die Kritiker auf den Plan: Sie warnen vor Nebenwirkungen und Risiken der neuen Analysetechnologie für Massendaten. Nun soll ein Projekt Tools für den gesellschaftlichen Bereich erarbeiten.

Tatsächlich sind die Möglichkeiten für Geheimdienste und Strafverfolgungsbehörden groß und Marketingstrategen und Versicherungen planen den gläsernen Konsumenten. Doch Befürworter behaupten: In Big Data steckt auch jede Menge Potenzial zum Guten, die Chance, Big Data auch zum Wohle der Gesellschaft einzusetzen.

Zusammen mit elf europäischen Partnern hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin das EU-Projekt "BigDataEurope" initiiert. Am Freitag, den 27. Februar 2015 soll es in Brüssel offiziell starten und eine Plattform für Big-Data-Tools im gesellschaftlichen Bereich erarbeiten.

Der Projektleiter Prof. Sören Auer erklärte im Deutschlandfunk-Interview, was man sich darunter vorstellen muss.«

Januar 2015

Forschungsprojekt für Big Data in der Industrie

silicon, 21. Januar 2015:

»Das Projekt iPRODICT (Intelligent Process Prediction based on Big Data Analytics) im Saarland erforscht unter der Konsortialführung des Deutschen Forschungszentrums für Künstliche Intelligenz GmbH (DFKI) einen intelligenten Ansatz zur automatisierten Verbesserung von Geschäfts- und Produktionsprozessen.

Neben dem DFKI arbeiten auch Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS), Blue Yonder GmbH, Pattern Recognition Company GmbH, Software AG und nun auch der AnwDie Kombination von Produktions- und Geschäftsdaten ist Kern des von der Bundesregierung geförderten Projektes Intelligent Process Prediction based on Big Data Analytics, kurz iPRODICT.ender Saarstahl AG an diesem durch das Bundesministerium für Bildung und Forschung geförderten Projekt.

Der entwickelte iPRODICT-Ansatz wird als technologischer Prototyp in die Prozessfertigung beim Anwendungspartner Saarstahl AG implementiert, getestet und validiert. Damit sollen auch Nutzenpotenziale einer Industrie 4.0 verdeutlicht werden. Eine wichtige Komponente ist dabei die Fähigkeit, Prognosen in die Produktion mit einzuplanen, was eine wichtige Komponente für den Bereich Industrie 4.0 ist.«