Loading...
Die deutsche Uebersetzung ist eine Beta-Funktion. Einige Inhalte werden moeglicherweise noch auf Englisch angezeigt und nach und nach uebersetzt.
Der Chip-Hersteller Nvidia tätigt große Investitionen, um seine Rolle in der KI-Infrastruktur auszubauen. Jüngere Einreichungen und Ankündigungen zeigen, dass das Unternehmen 26 Milliarden Dollar für die Entwicklung von Open-Weight-KI-Modellen ausgeben will und 2 Milliarden Dollar in den KI-Rechenzentrums-Spezialisten Nebius investiert hat, um einen neuen Rechenzentrums-Deal abzuschließen. Nvidia beteiligt sich zudem an weiteren KI-Cloud-Anbietern, um seine Position im wachsenden Markt für KI-Rechenleistung zu sichern.
Diese Schritte erfolgen, während andere große Tech-Konzerne ebenfalls darum wetteifern, eigene KI-Hardware zu bauen. Meta bereitet beispielsweise die Einführung von vier neuen, selbst entwickelten Chips vor, um seine KI-Arbeitslasten intern zu bewältigen. Die Ankündigungen unterstreichen, wie kritisch und teuer die zugrundeliegende Recheninfrastruktur für KI geworden ist, wobei Unternehmen massiv investieren, um Engpässe zu vermeiden und Kosten zu senken.
Derzeit bleiben Nvidias Grafikprozessoren (GPUs) der Industriestandard für das Trainieren und Betreiben großer KI-Modelle. Seine Serie von Investitionen in Cloud-Partner und Rechenzentren ist eine Strategie, um sicherzustellen, dass seine Chips im Zentrum des KI-Booms bleiben, indem er mehr von der Lieferkette und dem Bereitstellungsumfeld kontrolliert.
Geopolitical narratives this event connects to
118 Schlagzeilen von 47 Verlagen
Dieselbe Geschichte aus anderen Perspektiven