Zu Abschnitt

Was ist Edge Machine Learning?

URL kopieren

Edge Machine Learning bezieht sich auf den Prozess der Ausführung von Machine Learning (ML)-Modellen auf einem Edge-Gerät, um Muster in Sammlungen von Rohdaten zu sammeln, zu verarbeiten und zu erkennen.

Was ist Machine Learning am Edge?

Um Machine Learning am Edge am besten zu erklären, lassen Sie uns zunächst die beiden Komponenten aufschlüsseln, aus denen es besteht: Machine Learning und Edge Computing.

  • Machine Learning ist eine Teilmenge der künstlichen Intelligenz (KI), bei der die KI in der Lage ist, Wahrnehmungsaufgaben in einem Bruchteil der Zeit auszuführen, die ein Mensch benötigen würde. 
  • Edge Computing bezieht sich auf den Vorgang, bei dem Computing-Services physisch näher an den Benutzer oder die Quelle der Daten gebracht werden. Diese Computing-Services befinden sich auf sogenannten Edge-Geräten, einem Computer, der die Erfassung und Verarbeitung von Rohdaten in Echtzeit ermöglicht, was zu einer schnelleren und zuverlässigeren Analyse führt. 

Machine Learning at the Edge bietet die Möglichkeit, Machine Learning-Modelle lokal auf Edge-Geräten wie dem Internet of Things (IoT) auszuführen.

Mit steigenden Kundenerwartungen steigt auch die Nachfrage nach schneller, sicherer Rechenleistung. 

Interaktionen zwischen Unternehmen und Kunden bestehen heute oft in einer Mischung aus Hybridtechnologien und Touchpoints, die einen einfachen Zugriff auf Geräte, Daten und Anwendungen erfordern. Dies ermöglicht neue Prozesse und eine positive End-to-End-Benutzererfahrung.

Bisher erfolgte diese Verarbeitung durch den Transport von Datasets zu entfernten Clouds über Netzwerke. Aufgrund des langen Weges, den die Daten zwischen den Zielen zurücklegen müssen, kann dies zu Problemen führen, mit voller Kapazität zu arbeiten. Die Folgen können von Latenzen bis zu Sicherheitsverletzungen reichen.

Mit Edge Computing können Sie KI/ML-basierte Anwendungen (KI/ML) physisch näher an Datenquellen wie Sensoren, Kameras und Mobilgeräten bringen, um schneller Erkenntnisse zu gewinnen, Muster zu erkennen und dann Aktionen einzuleiten, ohne sich auf herkömmliche Cloud-Netzwerke verlassen zu müssen .

Edge Computing ist ein wichtiger Bestandteil der Vision einer Open Hybrid Cloud, die Ihnen eine einheitliche Anwendungs- und Betriebserfahrung bietet – und zwar durch eine gemeinsame, horizontale Plattform in der gesamten Architektur.

Eine Hybrid Cloud-Strategie ermöglicht es Unternehmen, Workloads sowohl in ihren eigenen Rechenzentren als auch in einer Public Cloud-Infrastruktur auszuführen (wie Amazon Web Services, Microsoft Azureoder Google Cloud). Die Edge-Strategie geht noch weiter und ermöglicht es Cloud-Umgebungen, Standorte zu erreichen, die zu weit entfernt sind, um eine kontinuierliche Konnektivität mit dem Rechenzentrum aufrechtzuerhalten.

Edge-Computing-Standorte verfügen häufig nur über begrenztes oder gar kein IT-Personal. Eine zuverlässige Edge-Computing-Lösung ist daher eine Lösung, die mit denselben Tools und Prozessen wie die zentralisierte Infrastruktur verwaltet und dennoch unabhängig in einem getrennten Modus betrieben werden kann.

Im Allgemeinen benötigen umfassende Edge-Computing-Lösungen Folgendes:

  • Einheitliches Deployment-Modell vom Core bis zum Edge
  • Flexible Architekturoptionen, um die Konnektivitäts- und Datenverwaltungsanforderungen bestmöglich zu erfüllen
  • Automatisierung und Verwaltung der Infrastrukturbereitstellungen und -aktualisierungen vom Hauptrechenzentrum bis zu weit entfernten Edge-Standorten.
  • Provisionierung, Aktualisierung und Verwaltung von Softwareanwendungen in der gesamten Infrastruktur in großem Umfang
  • Kontinuierlichen Betrieb an entfernten Edge-Standorten, auch wenn die Internetverbindung nicht zuverlässig ist
  • Robuste Softwareplattform, die sich beliebig skalieren lässt
  • Sichere Daten und Infrastruktur in Edge-Umgebungen mit sicherheitstechnischen Herausforderungen

Es gibt keinen einheitlichen Weg, um ML-Modelle zu erstellen und zu operationalisieren. Dennoch müsssen Datensätze gesammelt und vorbereitet, Modelle zu intelligenten Anwendungen entwickelt und Einnahmen aus diesen Anwendungen erzielt werden. Die Operationalisierung dieser Anwendungen mit integrierten ML-Funktionen – bekannt als MLOps – und deren ständige Aktualisierung erfordern die Zusammenarbeit zwischen Data Scientists, Entwicklung, ML-Engineering, IT-Operations und verschiedenen DevOps-Technologien.

Durch die Anwendung von DevOps- und GitOps-Prinzipien automatisieren und vereinfachen Unternehmen den iterativen Prozess der Integration von ML-Modellen in Softwareentwicklungsprozesse, Produktions-Rollout, Überwachung, Umschulung und erneute Bereitstellung für kontinuierliche Vorhersagegenauigkeit.

Mit Red Hat® OpenShift®kann dieser Prozess im Wesentlichen in 4 Schritte unterteilt werden:

  1. Training: ML-Modelle werden auf Jupyter-Notebooks auf Red Hat OpenShift trainiert.
  2. Automatisierung: Red Hat OpenShift Pipelines ist eine ereignisgesteuerte Continuous Integration-Funktion, mit der ML-Modelle als Container-Images folgendermaßen werden können:

    Speichern der Modelle für die Bereitstellung in einem Modell-Store gespeichert.
    Konvertieren der gespeicherten Modelle in Container-Images mit Red Hat OpenShift Build.
    Testen von der containerisierten Modell-Images, um sicherzustellen, dass sie funktionsfähig bleiben.
    Speichern der containerisierten Modell-Images in einer privaten, globalen Container-Image-Registry wie Red Hat Quay, wo die Images analysiert werden, um potenzielle Probleme zu identifizieren, Sicherheitsrisiken zu minimieren und Geo-Replikation zu ermöglichen.
     
  3. Deployment: Die von Red Hat OpenShift GitOps verwaltete deklarative Konfiguration automatisiert die Bereitstellung von ML-Modellen in großem Maßstab und ortsunabhängig.
  4. Überwachung: Modelle werden mit den Tools aus unserem Partnernetzwerk auf Zuverlässigkeit, Geschwindigkeit, Skalierbarkeit usw. überwacht und bei Bedarf durch erneutes Training und erneute Bereitstellung aktualisiert.

Künstliche Intelligenz und maschinelles Lernen (KI/ML) sind für Unternehmen immer wichtiger geworden, wenn sie versuchen, ihre Daten in geschäftlichen Wert umzuwandeln. Die Open Source Edge Computing-Lösungen von Red Hat ermöglichen die Beschleunigung dieser Geschäftsinitiativen durch Bereitstellung von Services, die den Entwicklungsprozess intelligenter Anwendungen in der Hybrid Cloud automatisieren und vereinfachen.

Red Hat ist sich bewusst, dass Data Scientists bei der Entwicklung ihrer KI/ML-Modelle häufig durch die fehlende Abstimmung zwischen sich schnell entwickelnden Tools erschwert werden. Dies kann sich wiederum auf die Produktivität und Zusammenarbeit zwischen den Teams, Softwareentwicklern und dem IT-Betrieb auswirken.

Um diese potenziellen Hürden zu überwinden, wurden Red Hat OpenShift Services entwickelt, um Benutzer dabei zu unterstützen, ihre intelligenten Anwendungen konsistent in Cloud-Umgebungen und Rechenzentren zu entwerfen, bereitzustellen und zu verwalten.

Die meisten Unternehmen könnten ihre Daten besser nutzen, sind jedoch durch ihre Tools und Workflows eingeschränkt. Red Hat® OpenShift® Data Science bietet eine unterstützte Self-Service-Umgebung, in der Data Scientists Algorithmen verfeinern und mit der Entwicklung, dem Training und dem Testen von Machine Learning-Modellen experimentieren können.

Edge Computing auf OpenShift ist für eine Vielzahl von Branchen geeignet und kann als wichtiges Tool für eine Reihe von Aufgaben dienen, von der Betrugserkennung über automatisierte Versicherungsangebote bis hin zur Erkundung natürlicher Ressourcen.

Weiterlesen

Artikel

IoT und Edge Computing

Das Internet of Things (IoT) braucht Rechenleistung in unmittelbarer Nähe von physischen Geräten und Datenquellen. Edge Computing bietet diese lokalen Datenverarbeitungs- und Speicherquellen für das IoT.

Artikel

Was ist Edge Computing?

Edge Computing ist Computing, das nahe am physischen Standort des Nutzers oder der Datenquelle stattfindet.

Artikel

Edge Computing in der Telekommunikation

Viele Telekommunikationsanbieter modernisieren ihre Netzwerke, um neue Einnahmequellen zu erschließen. Edge Computing spielt dabei eine wichtige Rolle.

Mehr über Edge Computing erfahren

Produkte

Eine stabile, bewährte und vielseitige Plattform, auf der neue Anwendungen entwickelt, Umgebungen virtualisiert und eine Hybrid Cloud erstellt werden kann, die mehr Sicherheit bietet.

Eine Plattform, die es Ihnen ermöglicht, Unternehmensanwendungen schnell und effizient über die von Ihnen gewünschte Infrastruktur bereitzustellen.

Ein Portfolio mit Unternehmenssoftware, die für schlanke Deployments am Netzwerkrand optimiert wurde.

Ressourcen