Für Besucher von Electronica 2024

Buchen Sie jetzt Ihre Zeit!

Alles was es braucht sind ein paar Klicks, um Ihren Platz zu reservieren und das Standticket zu erhalten

Halle C5 Stand 220

Vorabregistrierung

Für Besucher von Electronica 2024
Sie melden sich alle an! Vielen Dank, dass Sie einen Termin vereinbart haben!
Wir senden Ihnen die Standtickets per E -Mail, sobald wir Ihre Reservierung überprüft haben.
Zuhause > Nachrichten > Amazon erhöht die Bemühungen, maßgeschneiderte KI -Chips zu erstellen und die Abhängigkeit von Nvidia zu verringern
RFQs/Bestellung (0)
Deutsch
Deutsch

Amazon erhöht die Bemühungen, maßgeschneiderte KI -Chips zu erstellen und die Abhängigkeit von Nvidia zu verringern


Amazon bereitet sich darauf vor, seinen neuesten Chip für künstliche Intelligenz (AI) zu starten, da das große Tech -Konglomerat versucht, Renditen von seinen Milliarden von Dollar an Halbleiterinvestitionen zu erzielen und seine Abhängigkeit von NVIDIA in der Marktführerin zu verringern.

Die Führungskräfte der Cloud Computing -Abteilung von Amazon investieren stark in maßgeschneiderte Chips, in der Hoffnung, die Effizienz der Dutzenden von Rechenzentren zu verbessern und letztendlich die Kosten für sich selbst und Amazon AWS -Kunden zu senken.

Diese Arbeit wird von Annapurna Labs geleitet, einem Chip -Startup mit Sitz in Austin, das Amazon Anfang 2015 für 350 Millionen US -Dollar erworben hat. Annapurnas jüngste Errungenschaften werden voraussichtlich im Dezember vorgestellt, wenn Amazon die weit verbreitete Verfügbarkeit von "Trainium 2" ankündigen wird.ist Teil einer AI -Chip -Serie, die die größten Modelle trainiert.

Trainium 2 wird bereits von Anthropic (OpenAIs Konkurrent, das von Amazon unterstützt) sowie VNET, Deutsche Telekom, Ricoh Japan und Stockmark untersucht.

Amazon AWS und Annapurna wollen mit Nvidia konkurrieren, was aufgrund seiner dominierenden Position auf dem KI -Chip -Markt zu einem der wertvollsten Unternehmen der Welt geworden ist.

Wir hoffen, der beste Ort zu sein, um Nvidia -Chips zu betreiben ", sagte Dave Brown, Vizepräsident für Computer- und Netzwerkdienste bei Amazon AWS.Andere professionelle KI -Chips "Inferentia" haben die Betriebskosten um 40% gesenkt und können für reaktionsschnelle generative KI -Modelle verwendet werden.

Amazon erwartet nun im Jahr 2024 Investitionen in Höhe von ca. 75 Milliarden US -Dollar, wobei die Mehrheit für die Technologieinfrastruktur fließt.Während der jüngsten Telefonkonferenz des Unternehmens erklärte CEO Andy Jassy, ​​dass er erwartet, dass das Unternehmen im Jahr 2025 mehr Ausgaben habe.

Dies ist ein Anstieg gegenüber den gesamten Jahresausgaben von 48,4 Milliarden US -Dollar im Jahr 2023.

Amazon, Microsoft und Meta sind alle wichtigen Kunden von Nvidia, entwerfen aber auch ihre eigenen Rechenzentrumschips, um die Grundlage für die KI -Wachstumswelle zu legen, die sie erwarten.

Daniel Newman von der Futurum Group sagte: "Jeder große Cloud -Anbieter verlagert sich inbrünstig in Richtung mehr Vertikalität und bewegt sich nach Möglichkeit zu einem homogenen und integrierten" Chip -Technologie "Stapel

Newman wies darauf hin, dass "von Openai nach Apple alle versuchen, ihre eigenen Chips zu bauen", weil sie "niedrigere Produktionskosten, höhere Gewinnmargen, höhere Verfügbarkeit und mehr Kontrolle" suchen.

Nach dem Erstellen des "Nitro" -Ssicherheitschips für AWS hat Annapurna mehrere Generationen von Graviton entwickelt, eine ARM-basierte zentrale Verarbeitungseinheit (CPU), die eine Alternative mit geringer Leistung zu herkömmlichen Server-Mainframes bietet, die von Intel oder AMD bereitgestellt werden.

Der Techinsights -Analyst G Dan Hutcheson sagte: „Ein wesentlicher Vorteil von AWS besteht darin, dass ihre Chips weniger Strom verbrauchen können und ihre Rechenzentren möglicherweise effizienter sein und damit die Kosten senken.Er sagte, wenn Nvidia's Grafics Processing Unit (GPU) ein leistungsstarkes allgemeines Instrument ist (für Autos wie Stationstagons), kann Amazon seine Chips für bestimmte Aufgaben und Dienste (wie kompakte oder Fließheck-Autos) optimieren.

Bisher haben AWS und Annapurna die dominierende Position von Nvidia in der AI -Infrastruktur kaum geschwächt.

Der Umsatz von NVIDIAs AI Data Center Chip -Umsatz erzielte im zweiten Quartal des Geschäftsjahres 2024 26,3 Milliarden US -Dollar. Diese Zahl entspricht dem Umsatz der gesamten AWS -Division, die Amazon im zweiten Quartal angekündigt hat.Es wird berichtet, dass nur ein kleiner Teil davon auf Kunden zugeordnet werden kann, die KI -Workloads auf der Annapurna -Infrastruktur ausführen.

Was die rohe Leistung von AWS -Chips und Nvidia -Chips betrifft, vermeidet Amazon direkte Vergleiche und übermittelt ihre Chips nicht an unabhängige Leistungsbenchmarks.

Der Berater von Moor Insights & Strategy Chip, Patrick Moorhead, ist der Ansicht, dass die Behauptung von Amazon, eine 4-fache Leistungsverbesserung zwischen Trainium 1 und Trainium 2, zutreffend ist, da er das Unternehmen seit Jahren überprüft.Die Leistungsdaten sind jedoch möglicherweise nicht so wichtig wie einfach, wenn sie mehr Auswahlmöglichkeiten bieten.

Die Menschen schätzen alle Innovationen, die Nvidia mitgebracht haben, aber niemand möchte, dass Nvidia 90% des Marktanteils besetzt, "fügte er hinzu."Diese Situation wird nicht zu lange dauern

Sprache auswählen

Klicken Sie auf den Leerzeichen zum Beenden