Ausblick

Abbild Nuvo-7164GC – KI-Embedded-Box-PC

Bild: Nuvo-7164GC – KI-Embedded-Box-PC mit Nvidia-Tesla-GPU von ICP (Quelle: Nvidia)

Neben den beiden großen Chipherstellern Intel und Nvidia gibt es eine Vielzahl weiterer Player, die ­KI-Chips anbieten bzw. entwickeln wollen. Dazu zählt beispielsweise Amazon Web Services – bislang Kunde beider Hersteller. Das Unternehmen hat ­Ende letzten Jahres angekündigt, bis Ende 2019 einen eigenen KI-Chip zu entwickeln. Dabei schlägt Amazon Web Services (AWS) mit seinem Inferentia einen ähnlichen Weg ein, wie Google vor einigen Jahren mit seiner Tensor Processing Unit (TPU). Der Unterschied: Google verfolgt mit seinem TPU-Chip den gleichen Ansatz wie Nvidia, also das Trainieren von Machine-Learning-Modellen. AWS hingegen konzentriert sich mit Inferentia auf Inferenz, also das Schlussfolgern neuer Aussagen aus einer Wissensbasis. Laut AWS können Kunden Inferentia mit der von Google geschaffenen KI-Software Tensorflow wie auch mit anderen KI-Frameworks nutzen. Der selbst entwickelte Chip für ­ML-Inferenzen soll nach Unternehmensangaben Hunderte von Tflops pro Chip und Tausende von Tflops pro Amazon-EC2-Instanz liefern. Das sind aber nur zwei weitere Beispiele aus einer Vielzahl an Bestrebungen rund um KI-Chips, die bis nach China reichen. Denn auch diese Nation hat diesen Markt für sich entdeckt und einige Firmen haben Entwicklungen in diese Richtung gestartet.

www.intel.de
www.siemens.com
www.nvidia.de
www.syslogic.de
www.ics-d.de

4 / 4

Ähnliche Beiträge