aifora Plattform

Die aifora Plattform ist das Fundament für die Nutzung unserer Predictive Services, welche auf Basis von Machine Learning Algorithmen funktionieren. Über Adapter und Konnektoren können Unternehmen ihre internen Daten in unsere sogenannte Data Refinery einbringen und sie in unseren Anwendungen nutzen.

Zusätzlich bieten wir eigene Datenquellen, wie Wettbewerbspreise und lokale Wetterdaten, die an die Plattform angebunden sind und zur Ermittlung von Vorhersagen Anwendung finden.

Sobald Ihr Unternehmen einmal angebunden ist, stehen Ihnen alle unsere Services flexibel zur Verfügung.

Das wichtige ist, dass der Aufwand für die Unternehmen selber dafür sehr gering ist und aus den Vorhersagen klare Handlungsempfehlungen entstehen. Die aufbereiteten Ergebnisse werden über benutzerfreundliche Interfaces den Anwendern zur Verfügung gestellt oder können zur Automatisierung der Prozesse direkt wieder in die internen Systeme reintegriert werden.

aifora Platform

Basics

Wie archäologische Artefakte können alte Daten zu neuen Fakten führen, wenn sie mit neuen Methoden oder Technologien analysiert und ausgewertet werden. Daten wegzuschmeißen, die heute nicht gebraucht werden, wäre daher fatal und würde Innovationen von Morgen verhindern.

Ein Data Lake ist keine Technologie, sondern ein Paradigma, dem wir folgen. Egal, ob strukturiert oder unstrukturiert, wir speichern Daten in ihrem Originalformat, um keine Informationen zu verlieren.

Daten, auf die regelmäßig zugegriffen wird, werden in Big Data Datenbanken gespeichert, damit sie auf horizontal skalierenden Infrastrukturen für die Verarbeitung in unseren Analysen schnell verfügbar sind.

Für die performante Verarbeitung der Daten und Berechnungen in Echtzeit betreiben wir eine Data Refinery. Diese besteht aus einer Microservice-Architektur mit kleinen Data Services, die eigenständig, agil und performant Berechnungen auf großen Datenmengen ausführen und Ergebnisse wieder in unseren Date Lake schreiben.

Damit am Ende alle Microservices harmonisiert und aufeinander abgestimmt sind, verwenden wir entsprechende Tools zur Orchestrierung der Container.

Somit vermeiden wir große monolithische Systeme, wie sie vor der Cloud Ära entwickelt wurden. Die Flexibilität und Agilität, die diese modernen Technologien mit sich bringen, erweitern unsere Möglichkeiten und schaffen ein perfektes Umfeld für neue und innovative Entwicklungen.

Übersicht der Technologien

Die Speicherung von Daten hat erheblich zugenommen in den letzten Jahren. Mittlerweile werden täglich 2,5 Trillionen Byte Daten von den vielen Milliarden via Internet vernetzten Geräten erzeugt. Von 2007 bis 2009 wurden genau so viele Daten gespeichert wie im gesamten Zeitraum davor. In den letzten zwei Jahren waren es sogar neun mal so viele Daten wie im gesamten Zeitraum davor. Man muss kein Mathematiker sein, um hier einen exponentiellen Anstieg in der Menge der gespeicherten Daten zu erkennen.

Für den Menschen wird es immer schwieriger, den Wert der Daten zu entschlüsseln und Handlungsempfehlungen aus den vorliegenden Daten abzuleiten. Machine Learning bedeutet, Daten maschinell in Handlungsanweisungen zu übersetzen. Überall da, wo viele Daten erzeugt werden und zeitnah ausgewertet werden müssen, sind diese Methoden unabdingbar.

Um smarte Analysen auf Big Data effizient anzuwenden, setzen wir sowohl auf Open-Source-Technologien, wie z.B. Hadoop und Hive für unseren Data Lake, als auch auf kommerzielle Anbieter, wenn diese eine bessere Lösung bieten.

Data Streaming

Data Streaming

  • Apache Kafka
  • Apache Spark Streaming
  • Apache Flink
Data Lake

Data Lake

  • Apache Hadoop
  • Apache Hive
  • SQL Server & S3
Data Refinery

Data Refinery

  • Apache Cassandra
  • Apache Spark
  • Python & R
Data Visualization

Data Visualization

  • R Shiny
  • Tableau
  • Angular JS

Details

 
Data Integration

Unsere Integrationsarchitektur übernimmt alle systematischen Aufgaben und Prozesse zur Nutzung der Data Science Services. Über Adapter und Konnektoren können Unternehmen ihre internen Daten einbringen und an die entsprechenden Services weiterleiten lassen. Die integrierten Daten werden mit externen Daten angereichert und zur optimalen Ermittlung von Vorhersagen verwendet.

Für das Auslesen der Unternehmensdaten setzen wir mit Spark SQL auf Standard-Schnittstellen wie JDBC und ODBC und befähigen somit jeden Kunden, unsere Services zu nutzen und sich mit seinen Daten in unsere Hadoop, NoSQL und In-Memory Datenbanken zu integrieren. Mit Python und R werden intelligente Algorithmen auf die „Big Data“ angewendet und liefern individuelle Ergebnisse für unsere Kunden über attraktive Web-Schnittstellen, die in Java, Java Spring und AngularJS geschrieben werden.

SaaS

SaaS steht für „Software als Service“ und bedeutet, dass Anwendungen bedarfsorientiert zur Verfügung gestellt werden. Mittlerweile ist SaaS ein weitverbreitetes Geschäftsmodell, dessen Cloud-Anwendungen in Anzahl und Vielfalt weiter zunehmen.

Für unsere Kunden bedeutet das, dass keine eigenen IT-Strukturen angeschafft, aufgebaut und gewartet werden müssen. Unsere Cloud-basierten Services skalieren automatisch die benötigten Ressourcen je nach Bedarf hoch und runter.

SaaS bedeutet auch, immer mit der neusten Software zu arbeiten und schnell und einfach neue Services nutzen zu können. Verglichen mit komplexen internen IT-Projekten mit langen Vorlaufzeiten ist eine SaaS-Implementierung schnell und einfach erledigt und stellt sicher, dass Software genutzt wird bevor sie schon wieder veraltet ist.

Auch nach der Anbindung an einen Service, wird Software und Infrastruktur von uns in regelmäßigen Zyklen mit neuen Versionen erneuert, um den Anforderungen an einem schnelllebigen Markt und Wettbewerb gerecht zu werden.

Data Science

Data Science ist die Wissenschaft, um den Wert der Daten zu erschließen und mit Sicherheit der Mega Hype des 21. Jahrhunderts. Die Anwendungsgebiete für Data-Science-Projekte sind schier unerschöpflich und so reichhaltig wie die Branchen, wo sie Anwendung finden. Besonders im Handel verspricht man sich ein hohes Potential bei der Anwendung intelligenter Algorithmen zur optimalen Entscheidungsfindung. Da diese Entscheidungen zumindest zu Beginn nicht nur von der Maschine getroffen werden, sondern in einer Übergangsphase immer eine Mensch-Maschine-Entscheidung sein werden, ist Transparenz und Verständlichkeit der verwendeten Data Science Methoden ein enorm wichtiges Thema.

Lösungen, die bei aifora entwickelt werden, vereinen langjähriges Branchen Know-how mit aktuellen Data Science Methoden, um so den Anforderungen am Markt gerecht zu werden.

Wie erklärt man einem Anwender am besten den „K-Nearest Neighbour“ Algorithmus, der einen Artikel anhand seiner Merkmale und Abverkaufs-Quoten klassifiziert und einer Referenzgruppe zuordnet? Solche Fragen verständlich und nachvollziehbar zu beantworten, ist uns besonders wichtig, denn Transparenz schafft Akzeptanz und ohne Akzeptanz werden unsere Lösungen nicht erfolgreich eingeführt.

Machine Learning

„Machine Learning is to transform Data into Actionable Insights”

Dieser Satz beschreibt am besten, wozu Machine Learning genutzt wird. Am Ende geht es darum, mit intelligenten Algorithmen automatisiert Information aus Daten zu ziehen, damit diese in Handlungsempfehlungen übersetzt werden können. Das macht die Abgrenzung zu anderen ähnlichen Gebieten wie dem Data Mining schwierig, da auch dort mit intelligenten Algorithmen Information aus Daten extrahiert werden. Wir sehen Machine Learning deswegen in unterschiedlichen Ausbaustufen:

In sogenannten „retrospektiven Analysen“ suchen Data Scientisten mithilfe intelligenten Algorithmen nach Mustern in historischen Daten. Dabei werden die richtigen Modelle und Parameter an dieser Stelle noch manuell evaluiert (sehr ähnlich zum klassischen Data Mining).

In einem „Live Betrieb“ werden intelligente Algorithmen ständig mit neuen Daten versorgt und erweitern damit das Modell. Hier werden die richtigen Modelle bereits festgelegt, aber Parameter können vom Data Scientisten noch manuell angepasst werden.

In der „Vollautomation“ werden nicht nur die Modelle ständig erweitert, sondern auch Parameter selbstständig immer weiter angepasst. An dieser Stelle spricht man von einem „selbstadaptiven Algorithmus“ und entspricht wohl am ehesten dem, was man sich allgemeinen unter Machine Learning vorstellt.

Artificial Intelligence

Machine Learning ist ein elementarer Bestandteil von künstlicher Intelligenz, da es auch hier darum geht, automatisiert von Daten zu lernen.

Bei künstlicher Intelligenz handelt es sich aber vor allem um Anwendungen, die menschenähnliche Entscheidungsstrukturen in einem nichteindeutigen Umfeld nachbilden. Das kann zum Beispiel ein Chat Bot im Customer Support oder eine Spracherkennung wie Siri oder Alexa sein.

Eine große Herausforderung bei der Entwicklung künstlicher Intelligenz ist die Lösung von Aufgaben, die für den Menschen leicht durchzuführen, aber mathematisch schwer zu erfassen sind. Aus diesem Problem sind neuronale Netze und das „Deep Learning“ entstanden. Dieser Ansatz in der künstlichen Intelligenz verwendet mehrschichtige und hierarchisch angeordnete Modelle zur Lösung komplexer Zusammenhänge, um beispielsweise Probleme in der Bilderkennung zu lösen, wo ein Bild zunächst nur als eine Sammlung von Bildpunkten existiert.

Mehr Insights? Tech-Talk gewünscht?