Interoperabilität und die Zukunft des Maschinellen Lernens

Maschinelles Lernen und Interoperabilität

Künstliche Intelligenz (KI) und ihre Untergruppe, das Maschinelle Lernen (ML), sind das Herzstück der Innovation für Unternehmen im digitalen Wandel. Insbesondere ML muss jedoch in hohem Maße interoperabel sein, damit intelligente Technologien wirklich bahnbrechend und innovativ sein können.

Gäbe es keine Interoperabilität, könnte man darauf wetten, dass die KI-Entwicklung begrenzt und nur für Big Tech zugänglich wäre. Denn nur Tech-Giganten haben Zugang zu den notwendigen Ressourcen und vor allem zu den meisten Daten, die ein kontinuierliches und sinnvolles Lernen ermöglichen.

Was ist Dateninteroperabilität?

In der Softwareentwicklung beschreibt der Begriff „Interoperabilität“ die Fähigkeit zweier unterschiedlicher Systeme, nahtlos miteinander zu kommunizieren. Als wesentliches Merkmal der künftigen ML-Entwicklung wird Interoperabilität für die Anwendungsentwicklung in Branchen wie dem Bank- und Finanzwesen, dem Gesundheitswesen und vielen anderen von entscheidender Bedeutung sein.

Dabei geht es darum, unterschiedliche Daten zusammenzuführen und die Benutzererfahrung zu verbessern. Schließlich haben wir alle Hunderttausende von Datenpunkten, die sich auf alles beziehen, was wir in unserem täglichen Leben tun. Warum sollten wir sie also nicht zum größtmöglichen Nutzen für Nutzer:innen/Kund:innen einsetzen?

Als Tech-Giganten versuchten, diesen Bereich mit Lock-in-Modellen zu kontrollieren, hatte dies negative Auswirkungen auf die Entwicklung von KI und ML. Kleinere Unternehmen konnten nicht konkurrieren, und die Entwickler waren auch an Dienste und Anbieter wie Amazons AWS gebunden. Wann immer dies geschieht, besteht die Gefahr, dass potenziell äußerst robuste KI-Architekturen, die von viel kleineren Unternehmen entwickelt wurden, vernachlässigt werden.

So ist beispielsweise TensorFlow von Google aufgrund seiner hohen Rechenleistung eines der beliebtesten KI-Frameworks. Da es jedoch nicht über mehrere vortrainierte KI-Modelle verfügt, ist es nicht die beste Option, wenn es um Innovation und die Beschleunigung der Markteinführung geht.

In ähnlicher Weise bietet AWS von Amazon sowohl umfassende Datenanalysetools als auch ein hohes Maß an Sicherheit, ist aber nicht flexibel genug, wenn es um spezifische ML-Algorithmen geht. In diesem Szenario ist es für Entwicklungsteams viel einfacher, die besten Frameworks und mehrere damit verbundene Funktionen zu verwenden, wenn sie alle interoperabel und flexibel sind. Ist dies nicht der Fall, müssten sie ständig den Anbieter von Cloud-Diensten wechseln.

Einige der innovativsten KI-Entwicklungen stammen von kleineren Start-ups (wie Nauto). Es macht also keinen Sinn, weiterhin an Lock-in-Modellen festzuhalten, die den Wechsel von KI-Frameworks oder deren Einsatz in unterschiedlichen KI-Architekturen erschweren.

Tipp:

Es gibt keinen Grund, sich auf eines dieser Lock-in-Modelle festzulegen. Erstellen Sie mit unserer Hilfe Ihre eigenen umfangreichen und repräsentativen ML-Trainingsdatensätze.

Trainingsdaten für ML & KI

Warum ist Dateninteroperabilität für die ML-Entwicklung wichtig?

Die Interoperabilität von Daten ist heute ein wichtiger Bestandteil der KI- und ML-Entwicklung. Dies liegt daran, dass sie dazu beiträgt, das Feld zu ebnen, und kleineren Anbietern den Zugang zu Datenressourcen ermöglicht, die früher nur den Tech-Giganten zur Verfügung standen.

Die Interoperabilität zwischen und über verschiedene Plattformen hinweg hilft intelligenten Algorithmen, ein gemeinsames Verständnis zu formulieren, und trägt dazu bei, andere KI- und ML-Modelle herstellerübergreifend flexibler zu machen. Dieser Ansatz trägt dazu bei, Innovationen zu beschleunigen und die KI-Branche voranzubringen.

Eine gute Nachricht ist, dass Tech-Giganten wie Facebook und Microsoft vor etwa fünf Jahren den Open Neural Network Exchange (ONNX) ins Leben gerufen haben, um den nahtlosen Transfer zwischen KI-Frameworks und ML-Modellen zu ermöglichen.

Diese Veranstaltung war im Wesentlichen bahnbrechend, da sich die Entwickler nicht mehr auf ein bestimmtes KI-Framework festlegen mussten. Sie konnten einfach mit ihrer Forschung beginnen und schnell zwischen verschiedenen Tools und Kombinationen wechseln. So konnten sie beispielsweise Technologien wie Cognitive Toolkit (Microsoft) und Caffe2, Pytorch (Facebook) mischen und kombinieren.

Obwohl Amazon nicht an dieser Initiative beteiligt war, hat das Unternehmen ein Pilotprojekt zur Interoperabilität von Sprachdiensten mit Facebook, Garmin und Xiaomi durchgeführt. In diesem Fall war das Unternehmen in der Lage, die Kompatibilität zwischen den Systemen zu gewährleisten, damit die Sprachdienste nahtlos auf allen Plattformen funktionieren.

Warum ist Interoperabilität für das Gesundheitswesen so wichtig?

Insbesondere im Gesundheitswesen haben interoperable ML-Tools ein echtes Potenzial, Leben zu verbessern und in einigen Fällen zu retten. In gewisser Weise ist es so, als würde ein erfahrener Arzt mit einem aufgemotzten Roboter zusammenarbeiten, um Patienten die bestmögliche Behandlung zukommen zu lassen.

Bei medizinischen Verfahren wie der Computertomographie (CT) wird beispielsweise eine riesige Menge an Daten über einen einzelnen Patienten erzeugt. Diese Informationen unterscheiden sich jedoch von dem, was Ärzte bei einer Routineuntersuchung in ihre eigenen Datenbanken eingeben. Durch die schnelle und automatische Integration dieser beiden Datentypen für die Analyse sind Ärzte in der Lage, potenziell kritische Krankheiten schnell und genau zu diagnostizieren.

Die Dinge liefen jedoch nicht ganz nach Plan, da die Anbieter von Gesundheitsdiensten unter ständigem Druck stehen, ihre Infrastrukturen aufgrund der jüngsten rechtlichen und regulatorischen Änderungen schneller zu aktualisieren. So müssen Gesundheitsdienstleister beispielsweise die Sicherheit und den Schutz der in ihren Datenbanken gespeicherten sensiblen Daten gewährleisten (und das ist an sich schon keine leichte Aufgabe!).

Außerdem wird es immer schwieriger, sie auf globaler Ebene zu verwirklichen, da es an Kommunikationsstandards (zwischen verschiedenen Patientendatensystemen) mangelt, die Patienten nicht über verschiedene Gesundheitsdaten ausgetauscht werden können, der Datenaustausch schlecht funktioniert und die Integrationskosten hoch sind.

Obwohl der Bedarf an einer Optimierung über verschiedene Datenmodelle hinweg rapide zunimmt, sind die vorhandenen Systeme und die derzeit verwendeten Methoden nicht ohne weiteres interoperabel.

Dies ist jedoch unumgänglich, da dadurch nicht nur die Diagnose kritischer Krankheiten optimiert und beschleunigt werden kann, sondern auch die Anbieter von Gesundheitsdiensten in die Lage versetzt werden könnten, die Versorgung zu verbessern, die Kosten zu senken, das Patientinnenerlebnis zu verbessern und das Risiko medizinischer Fehler zu verringern (um nur einige Beispiele zu nennen).

Jüngste Fortschritte im Bereich der künstlichen Intelligenz öffnen nun die Türen für eine schnellere und robustere Übersetzung zwischen verschiedenen Plattformen. Dieser Ansatz verspricht, medizinische Forschungsprojekte und natürlich auch die Gesundheitsversorgung erheblich zu optimieren. Aber es muss noch viel mehr getan werden, um eine echte Interoperabilität zwischen ML-Plattformen zu erreichen.

Neuronale Netze, die in der KI verwendet werden, sind im Wesentlichen eine Reihe von Algorithmen, die lernen, Muster zu erkennen. Sie nutzen Beschriftungen, maschinelle Wahrnehmung oder rohe Clustereingaben zur Interpretation von Sensordaten. Jedes Mal, wenn der Algorithmus ein Muster erkennt, untersucht er im Wesentlichen numerische Daten, die sich in Vektoren befinden, in denen alle Bilder, Zeitreihen, Töne und Texte der realen Welt übersetzt sind.

Daher ist es unerlässlich, verteilte KI-Architekturen mit Edge-Ökosystemen und Multi-Cloud-Infrastrukturen zu entwickeln, die von verschiedenen Dienstleistern angeboten werden. Die Interoperabilität zwischen Start-ups und Tech-Giganten ist ebenfalls von entscheidender Bedeutung, um Transparenz und Flexibilität in Ermangelung einer angemessenen Regulierung zu gewährleisten.

Die ONNX-Community hat verschiedene Tools entwickelt, um unterschiedliche Datenmodelle zu konvertieren und auszuführen. Sie können ML-Modelle, die auf verschiedenen Frameworks trainiert wurden, mit Tools wie ONNXMLTools schnell in das ONNX-Format konvertieren und zum Laufen bringen.

Während das ONNX-Format die Vereinheitlichung der KI- und ML-Bemühungen von Unternehmensgiganten beschleunigte, wurde jedoch schnell deutlich, dass all diese Daten an einem Ort zu haben, keinen Weg zu mühelosem Erfolg darstellt.

Die Zukunft von ML wird also wahrscheinlich von der semantischen Interoperabilität abhängen. Semantische Interoperabilität beschreibt den Prozess von Computersystemen, die Informationen mit eindeutiger, gemeinsamer Bedeutung austauschen. Daher sind qualitativ hochwertige Datensätze für das ordnungsgemäße Training von ML-Modellen unerlässlich, unabhängig davon, ob die Daten aus heterogenen Quellen oder aus einer einzigen Quelle stammen.

Das ist wichtig, denn Algorithmen können nicht ohne Weiteres Muster und Anomalien erkennen oder Vorhersagen treffen, wenn sie mit einer Kombination aus verschiedenen Datenquellen arbeiten und die Informationen nicht genau dasselbe bedeuten.

Man kann also mit Sicherheit sagen, dass die Zukunft des maschinellen Lernens von semantischer Interoperabilität und globalen Standards für die Datenkommunikation abhängt.

avatar

Andrew Zola