Dr.Daniel Isemann und Marc Wiechmann diskutieren Möglichkeiten | © ESG Mobility

DATA SOLUTIONS PLATFORM

Der All-Inclusive-Urlaub für Data Science?

Neue Datenlösungen braucht das Land

Zentralisierung lautet das Zauberwort, das eine schnelle und konkrete Verarbeitung großer Datenmengen verspricht. Wie das funktioniert, und welchen Ausblick in die Zukunft die Branche bietet.

Dank Big Data ist Daten zu erhalten, und zwar jede Menge davon, in der Regel keine Schwierigkeit. Aus einer großen Menge von Daten jedoch erkennbare und nachvollziehbare Muster zu lesen - schon eher.

Viele Unternehmen, die erstmalig auf Big Data setzen, sehen sich dahingehend vor Probleme gestellt. Die auf dem Arbeitsmarkt sehr gefragten Data Scientists zu finden, die bei der Auswertung und Analyse des Big-Data-Datenstroms helfen, ist eines davon. Doch auch die strapaziöse Aufgabe, eine Entwicklungsumgebung zu finden und aufzusetzen, in der Daten-Experten effizient arbeiten können, kann herausfordernd sein.

Wer sich nun aus technologischer Sicht mit dem Thema Big Data befasst, landet schnell bei der „Containerisierung“ von Anwendungen und deren Daten. Gemeint ist dabei das Zusammenfassen von Anwendungen und Daten in Pakete, gemeinhin Container genannt. Dieser Container enthält alles, was benötigt wird, um das darin liegende Programm auszuführen oder zu nutzen. Damit gehören fehlende Bibliotheken, nicht installierte Software-Bestandteile oder unterschiedliche Ist-Stände bei Datenbeständen im Prinzip der Vergangenheit an.

Laufen nun einzelne oder auch mehrere dieser Container auf einem Server, kann eine vollständige Anwendung, sprich, Applikation für den Endkunden bereitgestellt werden.

Heutzutage benötigt man für Big Data Anwendungen vor allem Eines: Viel Geduld

Ansätze wie obig geschildert sind in einigen Punkten hervorragend dafür geeignet, die Management-Riege für das Thema Big Data zu begeistern: Höhere Geschwindigkeit in der Erfassung und Bereitstellung von Daten, die Einfachheit des Vorgangs, und nicht zuletzt die simple Skalierbarkeit. Dennoch wurde die Containerisierung von Anwendungen vor allem aus dem Bereich des maschinellen Lernens von nur wenigen Unternehmen vorangetrieben.

Zugegeben: Für die meisten Unternehmen wäre die Methodik zu hoch gegriffen, der Volksmund würde gar Kanonen und Spatzen bemühen. Schließlich ist meist nur eine Art der Mustererkennung erforderlich, selten werden mehrere Herangehensweisen notwendig.

Nicht verübeln kann man Unternehmen, dass diese sich dafür ungerne mit dem Partitionieren von Rechnern, dem Aufsetzen eines Unix-Systems oder dem Installieren von Python samt aller benötigten Frameworks auseinandersetzen möchten. Die Sorge um die in der Cloud liegenden Daten beflügeln einen Sicherheits-Sorge, die in Zeiten von Leaks und Whistleblowern Zündstoff bieten mag.

In A Nutshell

  • Machine Learning
  • Künstliche Intelligenz
  • neuronale Netze
  • Deep Learning
  • supervised / unsupervised / Reinforcement Learning
  • Tensorflow
  • NLP (natural language processing)
  • Predicted Maintenance
Oliver Hanka
Data Scientist - CYOSS

Frag uns was!

Für Ungeduldige: DSP – ein Login reicht.

Als Unternehmen, das auf Lösungen und Voraussicht blickt, nennen wir es schlicht DSP – die Data Solutions Platform, die die Nutzung von Big Data endlich simplifziert. Sie schließt die noch offene Lücke für alle Unternehmen, die Big Data für sich entdeckt haben, und dennoch ohne steile Lernkurve loslegen möchten. Ein einziger Login genügt hierfür. Der Anwender findet in der Plattform alles, was das Data-Science-Herz begehrt, in übersichtliche Module gegliedert. Alle relevanten Frameworks, Applikationen und die entsprechenden Entwicklungs-Umgebungen, bis hin zur Container-Orchestrierung und einer skalierbaren und geschützten Infrastruktur.

Für unsere Kunden uns zählt vor allem: Vertrauen

DSP bietet neben vorkonfigurierten Laufzeit- und Entwicklungsumgebungen auch umfangreiche Bibliotheks-Funktionen für häufig verwendete Machine-Learning-Aufgaben. Best-Practice-Ansätze können damit sofort genutzt werden, ohne dieses jedes Mal mühselig neu aufzusetzen. Der große Vorteil: Nach dem Login lässt sich sofort loslegen und das neurale Netz trainieren. Sollten die Daten sich doch einmal häufen oder die Berechnungsaufgabe komplexer werden, lässt sich die Infrastruktur mühelos skalieren. Wir schützen Ihre sensible Datenverarbeitung in der Cloud außerdem durch permanente Security Checks durch unsere Experten, sowie durch eine Continuous Compliance nach den Standards NIST und BSI.

Firmen vertrauen uns, und das nicht erst seit gestern und sicherlich nicht ohne Grund. Seit Jahren setzt beispielsweise das Auswärtige Amt unsere DSP Plattform zur Früherkennung von Krisen ein. Das Vertrauen von höchster Stelle in unseren Umgang mit hochsensiblen Daten ist ein schönes Beispiel und ein starker Beweis der Cyber-Sicherheit unserer Plattform. Auch diverse deutsche Fahrzeughersteller nutzen DSP zur Musterkennung in Big-Data-Sammlungen. Ausschlaggebende Argumente sind und bleiben die Unabhängigkeit von spezifischen Serverplattformen, das leichte All-Inclusive-Setup sowie die einfache Skalierbarkeit.

Überzeugen Sie sich selbst von der Effizienz und Sicherheit unserer Data Solutions Plattform und kontaktieren Sie uns jederzeit.