Die Zukunft unternehmensverwalteter Hardware ermöglichen
Yadhu Gopalan ist Mitbegründer und CEO von Esper. Esper bietet Geräteverwaltung der nächsten Generation für unternehmensverwaltete Hardware.
KI ist mehr als nur ein Schlagwort – sie ist die treibende Kraft hinter großen technologischen Fortschritten. Für Unternehmen ist die frühe Einführung von KI von entscheidender Bedeutung, aber die richtige Umsetzung heute bedeutet Erfolg morgen. Cloud-Bereitstellungen führen letztendlich zu Problemen, wenn die Nachfrage steigt – Latenz behindert Entscheidungen in Echtzeit und Datendurchsatz sowie Rechenlast treiben die Kosten rapide in die Höhe. Die Lösung? Führen Sie Ihr KI-Modell dort aus, wo Ihre Geräte sind – am Rand.
Warum KI am Edge die Zukunft ist
Traditionelle KI ist Cloud-nativ, d. h. Modelle werden in der Cloud ausgeführt, Daten verarbeitet und Ergebnisse formuliert. Dies ist vorteilhaft für daten- und ressourcenintensive KI-Verarbeitungsszenarien, bei denen Latenz und Kosten keine Rolle spielen. Edge-KI hingegen bringt die Berechnung dorthin, wo die Daten gesammelt werden – auf Edge-Geräte vor Ort wie Smartphones, Tablets, Kioske, Kassensysteme, IoT-Sensoren und dergleichen. Es gibt mehrere überzeugende Vorteile, KI am Edge statt in der Cloud auszuführen:
• Geringere Latenz: Da Daten am selben Ort erstellt und verarbeitet werden, erfolgt die Entscheidungsfindung in Echtzeit, da Daten nicht zur und von der Cloud übertragen werden müssen. Dadurch kann die Latenzzeit drastisch reduziert werden, was für Anwendungen wie autonome Fahrzeuge oder automatisierte Qualitätssicherung von entscheidender Bedeutung ist.
• Kostensenkung: Dies ist ein doppeltes Problem: Bandbreite und Rechenkosten. Wenn Daten in die Cloud übertragen werden (und in manchen Fällen auch zurück), steigt die Bandbreitennutzung. Und wenn Sie KI-Modelle in der Cloud ausführen, mieten Sie im Grunde Ressourcen. Enddienstleister wissen, wie wertvoll Rechenleistung ist, daher ist diese Miete mit einem hohen Aufpreis verbunden. Wenn Sie Modelle am Rand ausführen, nutzen Sie Rechenleistung, die Sie bereits besitzen. So können Sie die Bandbreitenkosten erheblich senken.
• Netzwerkoptimierungen: Ähnlich wie bei den Kostenüberlegungen zur Bandbreite verringert eine verringerte Datenübertragung die Belastung der Netzwerkinfrastruktur.
• Verbesserter Datenschutz: Die Übertragung vertraulicher Daten birgt immer zumindest ein geringes Risiko. Daher verringert sich das Risiko einer Offenlegung während der Übertragung, wenn die Daten auf einem einzigen Gerät gespeichert oder auf ein lokales Netzwerk beschränkt werden.
Trotz aller Vorteile, die der Einsatz von KI am Rand bietet, kann die Operationalisierung jedoch Herausforderungen mit sich bringen. Das größte Problem entsteht bei der Bereitstellung von KI-Modellen. Lassen Sie mich das erklären.
Die Herausforderung der Bereitstellung von KI-Modellen
Die Bereitstellung von Inhalten aller Art – beispielsweise Dateien, Anwendungen und Systemupdates – ist für viele Unternehmen eine Herausforderung, und die Bereitstellung von KI-Modellen verschärft dieses Problem nur noch. Dafür gibt es mehrere Gründe.
• Konfigurationsmanagement: Die Steuerung der Umgebung, in der Modelle am Rand ausgeführt werden, ist komplex. Sie benötigen Tools, die sicherstellen, dass Anwendung, System und Modell richtig konfiguriert sind. Darüber hinaus ist es wichtig, die richtige Laufzeit für Modelle zu haben und die Laufzeit für die Hardware aktualisieren zu können.
• Hardwarevielfalt: Wenn Sie im Einsatz eine Vielzahl von Geräten mit unterschiedlichen Rechenkapazitäten und physischen Standorten haben, ist die Bereitstellung von KI-Modellen im großen Maßstab schwierig zu verwalten.
• Häufigkeit der Modellaktualisierung: KI-Modelle werden viel häufiger aktualisiert als andere Arten von Edge-Inhalten. Wenn monatliche oder sogar wöchentliche Updates bereits ein Problem darstellen, kommen tägliche oder stündliche Updates einfach nicht in Frage.
• Begrenzte Ressourcen: Angesichts der Hardwareeinschränkungen der meisten Edge-Geräte (zumindest im Hinblick auf die Cloud-Verarbeitung) ist die Entwicklung zuverlässiger KI-Modelle für die lokale Verarbeitung ohne Einbußen bei der Zuverlässigkeit problematisch.
• Zuverlässige Netzwerkinfrastruktur: Die wiederholbare, skalierbare Bereitstellung von Software hängt von der Netzwerkzuverlässigkeit ab, was für manche Branchen eine Herausforderung darstellt – insbesondere für diejenigen, die in ländlichen Gebieten tätig sind.
Um diese Herausforderungen zu bewältigen, benötigen Unternehmen eine umfassende Strategie, die den gesamten KI-Lebenszyklus umfasst, angefangen bei den Geräten.
Der Weg nach vorne beginnt mit der Hardware
So wie KI weiterhin die Art und Weise beeinflussen wird, wie Geräte genutzt werden, muss sich auch Ihre Strategie rund um KI-Modell, App und Inhaltsverteilung weiterentwickeln. Glücklicherweise gibt es in der Welt der Softwareentwicklung bereits eine Lösung: DevOps.
Sie fragen sich vielleicht, was DevOps mit Geräteverwaltung zu tun hat. Bei DevOps-Praktiken geht es um die Abstimmung zwischen Entwicklungs- und Betriebsteams, und die Magie entsteht, wenn man dieses Konzept über die Softwareentwicklung hinaus bis an den Rand ausdehnt. Mit einer DevOps-Philosophie, die auf die Geräteverwaltung angewendet wird, können Ihre Entwicklungs- und IT-Teams zusammenarbeiten, um KI-Modelle (oder jede andere Art von Inhalten) zu erstellen, zu testen, anzuwenden und zu iterieren.
Mit modernen Tools und Technologien, die zukunftsweisende Geräteverwaltungslösungen bieten, ist dies auch keine theoretische Angelegenheit. Mit Tools wie Verteilungspipelines, Testumgebungen und stufenweisen Softwareupdates kann die Verteilung von KI-Modellen zum Problem werden. So hat Ihr Entwicklungsteam die Freiheit, an zukünftigen Updates zu arbeiten, Ihr IT-Team kann flexibel agieren und Ihr Unternehmen kann sich auf das Wesentliche konzentrieren.
Der Forbes Technology Council ist eine Community, zu der man nur auf Einladung Zugang für CIOs, CTOs und Technologiemanager von Weltklasse erhält. Bin ich qualifiziert?