Titelbild

(Quelle:shutterstock_microstock3D)

Künstliche Intelligenz bedeutet, aus enormen Datenmengen Zusammenhänge zu analysieren. Schlüsselworte hier sind ­Machine Learning und Deep Learning. Sie stellen jeweils eine spezielle Art von Lernverfahren dar, um mittels Algorithmen diese Zusammenhänge herauszufiltern. Grundlage dafür bilden hohe Rechenleistung und Speicherkapazität. Deshalb waren diese Anwendungen bislang zumeist in der Cloud angesiedelt, die beide Erfordernisse in ausreichender Form bereitstellt. Seit einiger Zeit erobert KI zudem den Mikrocontrollerbereich und hält mittlerweile auch Einzug in SPS, Embedded-PC & Co. Im industriellen Bereich werden unter anderem Machine-Vision-Aufgaben, wie visuelle Qualitätskontrolle oder bildgesteuerte Robotersysteme, sowie Intelligent Control als prädestinierte Anwendungsbereiche angegeben.

Das Gehirn intelligenter Steuerungen

Als Pionier im Bereich des Visual Computing sieht sich Nvidia. Das Unternehmen ging 1999 mit seinem ersten Grafikprozessor an den Markt. Nach diversen Ausbaustufen wurde 2018 unter dem Namen Jetson TX2i ein Modul herausgebracht, das speziell für industrielle Umgebungen ausgelegt ist. „Deep Learning und erschwingliche Sensoren haben die Voraussetzungen für einen explosionsartigen Anstieg in der Zahl autonomer Maschinen – dem IoT mit KI – geschaffen, der mit der Kambrischen Explosion in der Evolutionsgeschichte vergleichbar ist“, gibt das Unternehmen an. Der eingebettete „KI-Supercomputer“ Jetson TX2 bietet 1 Teraflops an Leistung auf einem kreditkartengroßen Modul. „Derartige Leistung wird eine neue Welle der Automatisierung in der Fertigung, Drohnen zum ­Inspizieren gefährlicher Umgebungen und Roboter, die Tag für Tag Millionen Pakete ausliefern, ermöglichen“, ist man bei Nvidia überzeugt.

Auch Intel gehört zu den großen Playern in diesem Marktsegment. Im September 2016 wurde die Übernahme des VPU-Experten (Virtual Processing Unit) Movidius angekündigt. Damit wurde unter anderem der Myriad-Chip ins Portfolio überführt. Dieser ist mittlerweile in der 3. Generation unter der Bezeichnung Myriad X erhältlich. Damit hat Intel sein Portfolio an Ende-zu-Ende-Lösungen im Bereich Künstliche Intelligenz ergänzt. Die VPU ermöglicht erweiterte autonome Einsatzmöglichkeiten für ein breites Produktspektrum. Intel definiert hier Drohnen, Roboter, intelligente Kamerasysteme und Virtual Reality als Einsatzgebiete. Im August 2017 wurde Myriad X als das weltweit erste Ein-Chip-System (System-on-Chip, SoC) vorgestellt, auf dem sich neuronale Recheneinheiten befinden, die ausschließlich für die Beschleunigung von anspruchsvollen Deep-Learning-Inferenzen bestimmt sind. Die neuronale Recheneinheit ist ein Hardware­block, der sich auf dem Chip befindet und speziell dafür entwickelt wurde, tiefe neuronale Netze unter Hochgeschwindigkeit arbeiten zu lassen, ohne dabei viel Energie zu benötigen. Unbeeinflusst bleibt auch die notwendige Genauigkeit, damit die Geräte ihre Umwelt sehen, verstehen und schnell auf sie reagieren können. Durch die Einführung der neuronalen Recheneinheit ist die Myriad-X-Architektur in der Lage, 1 Tops (Tera Operations Per Second) Rechenleistung in tiefen neuronalen Netzwerken zu liefern.

„Schon sehr bald werden Computer-Sehvermögen und Deep Learning zu Standardanforderungen an die Milliarden Geräte werden, die uns jeden Tag umgeben“, sagte Remi El-Ouazzane, Vice President und General Manager von Movidius, bei der Produktvorstellung. „Die Entwicklung von Geräten mit menschenähnlicher Bildintelligenz ist der nächste große Schritt im Computing. Mit Myriad X definieren wir die Grenzen der VPU neu: Sie wird ein Maximum an möglicher Rechenleistung für KI und für das Computer-Sehvermögen liefern und dabei trotzdem innerhalb der Energie- und Temperaturbeschränkungen moderner kabelloser Geräte bleiben.“

Myriad X kann über 4 Tops Gesamtleistung erbringen und ist dank ihres kleinen Formfaktors und der Fähigkeit zur Direktverarbeitung gut für autonome Systeme geeignet. Über die neuronale Recheneinheit hinaus kombiniert Myriad X Bild- und visuelle Verarbeitung und Deep Learning Inferenz in Echtzeit.

1 / 4

Ähnliche Beiträge