Tipps für Existenz-Gründer

Werbung

Ob in Smartphones, intelligenten Autos oder selbstorganisierten Produktionsanlagen – Computersysteme finden sich heute in fast allen Lebensbereichen und liefern rasant wachsende Datenmengen. Die Herausforderung für die Informatik liegt dabei darin, die riesigen Datenberge (Big Data) sinnvoll und sicher zu verarbeiten. Hierfür soll das neue Schwerpunktprogramm „Algorithms for Big Data“ (SPP 1736) der Deutschen Forschungsgemeinschaft (DFG) nun effizientere Rechenoperationen entwickeln. An vier von insgesamt 15 Teilprojekten des SPP ist das Institut für Theoretische Informatik des Karlsruher Instituts für Technologie (KIT) beteiligt.

Mit neuen mobilen Technologien wie Smartphones oder Tablet-PCs ist in den vergangenen Jahren die Verbreitung von Computersystemen rapide angestiegen. Dadurch entstehen immer mehr Daten mit unterschiedlichen Strukturen. Häufig fehlen allerdings passende Programme, um sie zu verarbeiten. „Für viele Problemstellungen sind die bisher bekannten Algorithmen nicht auf die Verarbeitung großer Datenmengen ausgelegt. Daher suchen wir im neuen Schwerpunktprogramm nach theoretisch fundierten Verfahren, die sich dabei in der Praxis bewähren“, erklärt Juniorprofessor Henning Meyerhenke vom KIT.

Bislang standen bei der Forschung zu großen Datenmengen wissenschaftliche Anwendungen wie computergestützte Simulationen für die Wettervorhersage im Fokus. Die Wissenschaftler des KIT widmen sich dagegen alltagstauglichen Lösungen zur Effizienzsteigerung von Rechenvorgängen, wie sie etwa bei Suchanfragen im Internet oder bei der strukturellen Analyse von sozialen Netzwerken auftreten.

KIT mit vier Forschungsgruppen beteiligt

Das Schwerpunktprogramm „Algorithms for Big Data“, welches die DFG für sechs Jahre fördert, teilt sich in mehrere Projekte aus ganz Deutschland auf. Darunter sind vier Projekte aus dem Institut für Theoretische Informatik am KIT.

Das Projekt „Schnelle inexakte kombinatorische und algebraische Löser für große Netzwerke“ von Juniorprofessor Henning Meyerhenke widmet sich einer Reihe von komplexen Problemstellungen, die sich in großen Netzwerken ergeben. Die zu lösenden Aufgaben sind durch biologische Anwendungen motiviert. Beispielsweise lassen sich Individuen einer Spezies anhand der Ähnlichkeit ihres Erbguts vernetzen und dann klassifizieren. Die neuen Verfahren helfen dabei, die anfallenden Daten mit reduziertem Rechenaufwand in gleichartige Klassen einzuteilen. Diese Einteilung macht es wiederum für Biologen einfacher, neue Erkenntnisse abzuleiten.

Im Projekt „Scalable Cryptography“ von Juniorprofessor Dennis Hofheinz (KIT) und Professor Eike Klitz (Ruhr-Universität Bochum) dreht sich alles um die Sicherheit bei Big Data. Kryptographische Verfahren, wie Verschlüsselung oder digitale Signaturen, können auch bei großen Datenmengen eine sinnvolle Sicherheitsgarantie geben. Bestehende Verfahren lassen sich aber nur bedingt anpassen: So ist etwa der Schutz durch das in gängigen Internetbrowsern verwendete Verschlüsselungsverfahren RSA-OAEP bei riesigen Datenmengen nur unzureichend geklärt. „Wir suchen nach einer Lösung, deren Sicherheitsgarantien auch bei einer steigenden Anzahl an Zugriffen und Benutzern stabil bleiben“, so Juniorprofessor Dennis Hofheinz von der Arbeitsgruppe Kryptographie und Sicherheit am KIT.

Eine immense Ansammlung von Daten bilden die immer weiter wachsenden sozialen Netzwerke wie Facebook oder Twitter. Gleichzeitig zeichnet sich hierbei ein großer wirtschaftlicher und politischer Wert ab. Das Projekt „Clustering in sozialen Online-Netzwerken“ von Professorin Dorothea Wagner (KIT) und Professor Ulrik Brandes (Universität Konstanz) setzt an diesen Netzwerken an. Neue Algorithmen sollen es möglich machen, die Entwicklung von Onlinegemeinschaften in sozialen Netzwerken nachzuvollziehen.

Um eine große Menge an Daten wie beispielsweise im Internet zu durchsuchen, ist ein funktionsfähiges Werkzeug, etwa eine gute Suchmaschine, unerlässlich. „Doch die heute verwendeten Suchmaschinen lassen sich mit effizienteren Algorithmen noch weiter verbessern“, sagt Professor Peter Sanders, der ebenfalls am Institut für Theoretische Informatik forscht. Mit seinem Projekt „Textindizierung für große Datenmengen“ sucht Sanders gemeinsam mit Professor Johannes Fischer von der Technischen Universität Dortmund nach Optimierungsmöglichkeiten. Insbesondere sollen viele Prozessoren gleichzeitig eingesetzt werden und die Daten sollen in stark komprimierter Form trotzdem durchsuchbar bleiben.

Big Data am KIT

Das Thema Big Data ist in den verschiedensten Einsatzszenarien bereits angekommen und stellt nicht nur die Wissenschaft, sondern auch zunehmend auch die Nutzer neuer Technologien vor neue Probleme. Um diesen zu begegnen, beschäftigt sich das KIT auch über das SPP 1736 hinaus in den verschiedensten Projekten mit Big Data. So ist das KIT Partner im Helmholtz-Projekt „Large Scale Data Management and Analysis“ (LSDMA). Hier werden verschiedene Kompetenzen im Umgang mit großen Datenmengen durch vielfältige Forschungsschwerpunkte, wie effektive Erfassung, Speicherung, Verteilung, Analyse, Visualisierung und Archivierung von Daten gebündelt.

Seit 2014 betreibt das KIT zudem mit dem Smart Data Innovation Lab (SDIL) eine Plattform zur Big-Data-Spitzenforschung. Das SDIL stellt eine Höchstleistungsinfrastruktur zur Verfügung, welche Industrie und Wissenschaft praktisch nutzen können.

Quelle: KIT