Intel bringt neue Version von OpenVINO auf den Markt, um Entwicklern die Möglichkeit zu geben, AI-Reasoning zu beschleunigen

(CGN) – Intel hat am Vorabend des Mobile World Congress 2022 in Barcelona eine neue Version seiner OpenVINO-Toolsuite für die Intel-Distribution vorgestellt. Zu den neuen Funktionen, die größtenteils auf der Grundlage des Entwicklerfeedbacks der letzten dreieinhalb Jahre entwickelt wurden, gehören mehr Optionen für Deep-Learning-Modelle, mehr Optionen für die Geräteportabilität sowie eine höhere Inferenzleistung und weniger Codeänderungen.

Die neueste Version von OpenVINO 2022.1 wurde auf der Grundlage des Feedbacks von Hunderttausenden von Entwicklern in den letzten drei Jahren entwickelt und ist darauf ausgelegt, Optimierungsmaßnahmen zu vereinfachen und zu automatisieren“, so Adam Burns, Vice President für OpenVINO Developer Tools bei Intels Networking and Edge Division. Die neueste Version enthält Funktionen zur automatischen Erkennung von Hardware und zur automatischen Optimierung, mit denen Softwareentwickler auf jeder Plattform eine optimale Leistung erzielen können. Die Software, kombiniert mit Intel Chips, ermöglicht signifikante KI-ROI-Vorteile und kann einfach in Intel Technologie-basierte Lösungen im Netzwerk eines Anwenders implementiert werden.“

Über OpenVINO: Die Intel-Distribution der OpenVINO-Toolsuite für hochleistungsfähiges Deep Learning wurde auf der Grundlage von oneAPI entwickelt, um Anwendern dabei zu helfen, genauere Ergebnisse aus der realen Welt schneller in Produktionssystemen auf einer Vielzahl von Intel-Plattformen vom Edge bis zur Cloud einzusetzen. Mit einem vereinfachten Entwicklungsworkflow versetzt OpenVINO Entwickler in die Lage, Hochleistungsanwendungen und -algorithmen in der realen Welt einzusetzen.

Bedeutung: Edge AI verändert die Industrie und ermöglicht eine Vielzahl neuer und verbesserter Anwendungsfälle, darunter Anwendungen in den Bereichen Fertigung, Gesundheit und Biowissenschaften sowie Einzelhandel und Sicherheit. Laut Omdia Research wird der weltweite Umsatz mit Edge-KI-Chipsätzen bis 2025 51,9 Milliarden US-Dollar erreichen, da die Nachfrage nach Edge-KI-Funktionen in Unternehmen steigt. Edge Inference verringert die Latenzzeit, reduziert die Bandbreitenanforderungen und verbessert die Leistung, um die steigende Nachfrage nach Just-in-Time-Verarbeitung von neuen IoT-Geräten und -Anwendungen zu erfüllen.

Gleichzeitig wächst und verändert sich die Arbeitsbelastung der Entwickler. Daher benötigen sie einfachere, stärker automatisierte Prozesse und Tools, die vollständig intelligent sind, um die Leistung von der Erstellung bis zur Bereitstellung zu optimieren.

Über die Funktionen von OpenVINO 2022.1: Mit diesen neuen Funktionen können Entwickler Code für eine breitere Palette von Deep-Learning-Modellen leichter übernehmen, pflegen, optimieren und bereitstellen. Höhepunkte sind

Leichtere Aktualisierung der API

Geringere Code-Änderungen bei der Konvertierung von Frameworks: Modelle benötigen jetzt keine Layout-Transformationen mehr, da die genaue Formatierung beibehalten wird, um Konvertierungen zu reduzieren.

Eine einfachere Art, KI zu beschleunigen: Die API-Parameter des Modelloptimierers wurden reduziert, um die Komplexität zu minimieren.

Training mit vollständiger Inferenz: OpenVINO-Trainingserweiterungen und das Neural Network Compression Framework (NNCF) bieten optionale Modelltrainingsvorlagen, die die Leistung bei gleichbleibender Genauigkeit in den Bereichen Handlungserkennung, Bildklassifikation, Spracherkennung, Q&A und Übersetzung weiter verbessern können.

Breitere Modellunterstützung

Unterstützung für ein breiteres Spektrum an programmierbaren Modellen in natürlicher Sprache und Anwendungsfällen wie Text-to-Speech und Spracherkennung: Unterstützung dynamischer Formen, um die BERT-Familie und Hugging Face-Konverter besser zu unterstützen.

Optimierung und Unterstützung für fortgeschrittene Computer Vision: Die Mask R-CNN-Familie wurde jetzt weiter optimiert und Unterstützung für Modelle mit doppelter Genauigkeit (FP64) wurde eingeführt.

Direkte Unterstützung für PaddlePaddle-Modelle: Der Model Optimiser kann jetzt PaddlePaddle-Modelle direkt importieren, ohne dass sie zuerst in ein anderes Framework konvertiert werden müssen.

Tragbarkeit und Leistung

Intelligentere Gerätenutzung ohne Code-Änderungen: Der AUTO-Gerätemodus erkennt die verfügbaren Systeminferenzfähigkeiten auf der Grundlage der Modellanforderungen selbständig, so dass Anwendungen ihre Berechnungsumgebung nicht mehr im Voraus kennen müssen.

In die Tool-Suite integrierte Optimierung auf Expertenebene: verbesserte Geräteleistung durch automatische Stapelverarbeitung, automatische Abstimmung und Anpassung der Systemkonfiguration an die Bedürfnisse des Entwicklers sowie Durchsatzeinstellungen für Deep-Learning-Modelle. Dadurch können Entwickler eine skalierbare Parallelverarbeitung erreichen und die Speichernutzung optimieren.

Entwickelt für Intel Core der 12. Generation: Unterstützt hybride Architekturen und bietet erweiterte Funktionen für Hochleistungsinferenzen, die sowohl die CPU als auch die integrierte GPU nutzen.

Über Edge-Adoption: Mit dem Ansatz „einmal schreiben, überall einsetzen“ schreiben Entwickler eine Anwendung oder einen Algorithmus einmal und setzen ihn dann auf einer breiten Palette von Intel-Architekturen ein, darunter CPUs, iGPUs, Movidius VPUs und GNAs. Angesichts der explosionsartigen Zunahme von Daten hat Intel Software entwickelt, die es Entwicklern ermöglicht, Daten intelligenter zu verarbeiten, um Herausforderungen zu lösen und Geschäftsmodelle zu verändern. Infolgedessen werden neue und einzigartige KI-Technologien zunehmend an der Schnittstelle eingesetzt und auf das Unternehmen und den Kunden ausgeweitet.

Als Zebloks KI-Plattform-as-a-Service ist AI-Micro Cloud eine Cloud-to-Edge-ML-DevOps-Plattform, die es Kunden ermöglicht, KI-unabhängige Softwareentwickler und -anbieter in großem Umfang zu kombinieren, um Edge-KI-Anwendungen mit Unterstützung für den gesamten Lebenszyklus der Bereitstellung bereitzustellen. Die Integration der Intel OpenVINO-Software in die AI-Micro Cloud wird die Leistung der KI-Inferenz drastisch erhöhen und die Kosten pro Erkenntnis durch den Einsatz von Intel-Prozessoren minimieren. Die AI-Micro Cloud-Plattform von zeblok wird derzeit evaluiert, um spezifische Netzwerktopologien in Städten auf der ganzen Welt zu unterstützen.

Unser Ziel ist es, die Kosten pro Erkenntnis zu berücksichtigen“, so Mouli Narayanan, Gründer und CEO von Zeblok. Durch den Einsatz von Intel Prozessoren ermöglichen wir kostengünstige, energieeffiziente KI-Rechenoperationen, die einen extrem hohen Return on Investment erzielen. Diese neue Version von OpenVINO wird einen noch höheren Wert für unser Ökosystem schaffen.“

American Tower hat sechs Edge-Rechenzentren gebaut und wird in Zukunft weitere errichten. Das Unternehmen hat kürzlich CoreSite übernommen, um die 5G-Edge-Implementierung zu beschleunigen. Sie arbeiten mit Intel und Zeblok zusammen, um den Kunden eine schlüsselfertige Komplettlösung anbieten zu können.

Mit der Edge-Infrastruktur von American Tower, Intels OpenVINO Deep Learning-Fähigkeiten und Zebloks AI Platform-as-a-Service können wir dem Markt eine intelligente Komplettlösung anbieten“, so Eric Watko, Vice President of Innovation bei American Tower. „

Intel Core i5 12600K

[Wiederverkäufer] Merchant City

[Produktpreis] $2299

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.