Carsten Kraus ist KI-Experte, Multiunternehmer, Business Angel und Mitglied des Forbes Technology Council (Quelle: Matthias Trenn).
Carsten Kraus ist KI-Experte, Multi-Unternehmer, Business Angel und Mitglied des Forbes Technology Council. Im Fokus stehen 2024 für ihn: Leistungsfähigere KI durch bessere kleine Large Language Models, Deep Reinforcement Learning und spezielle Hardware sowie weltwirtschaftliche Verschiebungen durch Regulation und neue Investitionen.
Im Detail lauten seine Prognosen wie folgt:
Weltwirtschaft: Regulation von KI in der EU, China auf dem Vormarsch
• AI Act der EU birgt Risiken: Für die mittelständische Wirtschaft aller Branchen ist der AI Act gefährlich. Für nicht-weltmarktorientierte europäische KI-Firmen ergeben sich eventuell neue Chancen. Die Unterschiede zum US-Markt müssen berücksichtigt werden, sonst drohen sehr hohe Strafen – und kleinere US-Unternehmen werden damit ihre Produkte eher nicht in die EU verkaufen.
• Eigene Large Language Models für alle Nationen: Alle Nationen werden eigene Large Language Models (LLMs) haben wollen, um nicht von den USA und China abhängig zu sein. Der Hintergrund: Entwickler können jeweils Meinungen und Geisteshaltungen der LLM – und damit auch ihrer Anwender – beeinflussen.
• China erhöht KI-Budget: China wird seine Anstrengungen nochmals vervielfachen und das staatliche Budget stark erhöhen. Denkbar ist, dass zudem aktiv versucht wird, führende chinesischstämmige KI-Forscher aus den USA zurückzuholen.
• Indien durch KI gefährdet: Routinetätigkeiten in der Softwareentwicklung lassen sich durch KI bereits heute doppelt so schnell erledigen. Das könnte eine Bedrohung für Indiens Outsourcing-Firmen sein denn, in Indien stammen 7,4 % des BIP aus der Softwareindustrie.
Software: Leistungsfähigere LLM und klügere KI
• Leistungsfähigere, kleine LLM: Kleinere Large Language Models werden leistungsfähig genug für viele Anwendungen (>= GPT 3.5 Qualität). Am Beispiel von Googles GeminiNano und Microsofts Phi-2 sieht man schon jetzt große Fortschritte in dieser Richtung, Phi-2 hat ungefähr die Leistung des 25-mal größeren Llama2.
• KI löst kompliziertere Sachverhalte: Deep Reinforcement Learning (Deep RL) wird weitere Durchbrüche erreichen und mehr Beachtung finden. Google, das mit seiner Tochterfirma DeepBrain führend in Deep Reinforcement Learning ist, wird versuchen, LLM mit Deep RL zu verbinden. Mit Alpha Fold und mehreren Durchbrüchen in der Mathematikforschung hat Google bereits für viel Aufsehen in der Wissenschaft gesorgt. Gelingt die Kombination, kann die KI viel besser komplizierte Sachverhalte durchdenken als bisher.
Hardware: Supercomputer und spezielle Hardware für KI
• Konkurrenz für Nvidia: AMD bringt mit den MI300-Karten für Rechenzentren eine ernsthafte Alternative zu Nvidia auf den Markt. Dadurch kann Nvidia nicht mehr jeden Preis durchsetzen.
• Spezielle Hardware für KI: Bisher wird KI meist auf GPU ausgeführt, die eigentlich für Grafik entwickelt wurden. Dabei ist spezielle Hardware viel effizienter: Beispielsweise hat IBM Northpole vorgestellt – eine Architektur, die den Speicher so verteilt, dass er jeweils nah um die Rechenkerne angeordnet ist. IBM erwartet sich davon eine mindestens 5-mal höhere Effizienz. Außerdem sind spezielle Chips für Spiking Neutal Networks in der Entwicklung. Ein Supercomputer namens DeepSouth soll im April 2024 in Betrieb gehen, der das Spiking-Prinzip mit existierender Hardware realisiert (und damit noch nicht die vollen Effizienzgewinne bringt). Die speziellen Chips kommen jedoch nicht 2024, sondern erst in ein paar Jahren.