概要

AI時代のデータセンターの再考

AIの急速な普及に伴い、コンピューティングインフラストラクチャは、汎用プラットフォームから、パフォーマンス、効率、スケーラビリティを重視した、より特化され、電力効率のよい、ワークロードに最適化されたソリューションへと移行しています。Armは、これらのニーズを満たし、イノベーションと変革の機会を創出する、柔軟で電力効率のよいコンピューティング基盤を提供します。これは、ハイパースケールからエッジまでシームレスに拡張できるAIインフラストラクチャの基盤です。

eBookをダウンロード
メリット

より多くのコンピューティング、より高い効率、より優れた価格性能

Armは、幅広いAIアクセラレータとシームレスに連携するエネルギー効率の高いコンピューティングを提供し、総保有コストを削減しながら優れたパフォーマンスと効率を実現します。

最大8倍高速なMLモデルトレーニングと4.5倍のLLM推論パフォーマンス

DLRMモデルのトレーニングとGPT-65Bモデルの推論時に、x86+Hopperシステムと比較してNVIDIA Grace Hopperスーパーチップによって実現されます。1

推奨パフォーマンスが最大3倍向上

x86の代替製品と比較したMLPerf DLRMv2ベンチマークのGoogle Axionプロセッサーで実現します。2

最大2.5倍のAI推論パフォーマンス

Google Axionプロセッサーを搭載し、x86の代替製品と比較して64%のコスト削減と、リアルタイムAI向けのRAGの高速化を実現します。3

LLMおよびML推論タスクで最大2倍のパフォーマンス向上

現世代のx86インスタンスと比較して、AxionベースのVMによって実現されます。4

パートナー

実世界のパフォーマンスに最適化されたインフラストラクチャを通じて業界リーダーを支援

Armは、実世界のパフォーマンスに最適化されたコンピューティングソリューションにより、業界のリーダーがスケーラブルで効率的なデータセンターの新しい波を構築するように支援します。Arm CPUは、パフォーマンス、電力効率、シームレスなスケーラビリティを実現するように設計されており、最も要求の厳しいAIおよびクラウドワークロード向けのアクセラレータと組み合わせるのに最適です。

Arm and AWS

ArmベースのAWS Gravitonプロセッサーが、AIとクラウドネイティブのワークロードに優れた価格パフォーマンスと効率をもたらし、クラウドコンピューティングをどのように変革しているかをご覧ください。現在、AWSの最新のCPU容量の50%以上を担っています。

Google Cloud初のカスタムArmベースのCPUであるAxionが、現在のx86インスタンスよりも最大2倍優れたパフォーマンスを実現し、AIとクラウドワークロードのパフォーマンスと効率をどのように向上させているかをご覧ください。

Arm and NVIDIA

Armの電力効率のよいコンピューティングプラットフォームが、Grace CPUファミリを含むNVIDIAアクセラレーテッドコンピューティングプラットフォームの重要な要素となり、AIタスクで最大10倍のパフォーマンス向上を実現した方法をご覧ください。

コンピューティングプラットフォーム

Arm Neoverseによる強力なAI/MLパフォーマンス

Arm Neoverse CPUは、要求の厳しいAIワークロードを効率的に処理するように設計されており、高いスループット、電力効率、低いTCOを実現し、CPUが実用的な選択肢である場合に最適です。推奨エンジンや言語モデル推論から検索拡張生成(RAG)まで、Neoverseは幅広いAIアプリケーションに拡張できます。

Performance

Google Axionではx86と比べて推奨モデルのパフォーマンスが最大3倍向上します。2

cost saving

x86の代替製品と比較して、AI推論スループットが最大2.5倍向上し、コストが64%削減されます。5

Ecosystem

広範なハイパースケーラーの採用とマルチクラウドの可用性。

AIワークロード向けArm Neoverseを探すCPU上のAI/MLの詳細はこちら

あらゆるAIワークロードに対応するArmコンピューティングプラットフォーム

AIが従来の機械学習から生成AI、そしてエージェント型モデルへと進化するにつれて、ワークロードはますます計算と電力を集中的に使用するようになっています。これらの要求を満たすには、システムが各ワークロードを適切なプロセッサーに動的に一致させ、パフォーマンス、電力効率、コストを最適化できるようにするヘテロジニアスインフラストラクチャへの移行が必要です。

 

Arm Neoverse CPUは、GPU、NPU、カスタムアクセラレータとシームレスに統合され、パフォーマンス、柔軟性、効率、スケーラビリティを向上させる、電力効率のよいスケーラブルなコンピューティングプラットフォームを提供します。

ヘテロジニアス・コンピューティング・ソリューションを探す
ソフトウェアと開発ツール

ArmのソフトウェアとツールでAIワークロードを最適化

開発者は、少ない労力でAIを迅速かつ効率的に導入するために最適化されたツールを必要としています。Arm Kleidiライブラリや幅広いフレームワークサポートなどのArmソフトウェアエコシステムは、導入までの時間を短縮し、クラウドとエッジ全体でAIワークロードのパフォーマンスを向上させます。

関連情報

最新のニュース・関連情報

  • ニュースとブログ
  • レポート
  • ポッドキャスト
データセンターにおけるAI

データセンターにおけるArmの新時代の幕開け

業界アナリストのBen Bajarin氏が、AIがデータセンターアーキテクチャをどのように再定義しているのか、そしてAI時代のスケーラブルで効率的なインフラストラクチャを推進する上でArmが重要な役割を担うようになっている理由を探ります。

Podcast icon
データセンターにおけるAI

ArmとNVIDIAがデータセンターにおけるAIを再定義

NVIDIAとのポッドキャストを聴き、Armのパートナーシップがエンタープライズコンピューティングをどのように変革しているかを探ってください。

Podcast icon
データセンターにおけるAI

Armと業界専門家Matt Griffin氏によるAIインフラストラクチャの未来

Armと311 Instituteの創設者であるMatt Griffin氏が、新たなAIインフラストラクチャのトレンド、コンピューティングの拡張における課題、Armがクラウドからエッジまで効率的で持続可能なAIをどのように実現しているかについて話し合います。

よくある質問:データセンターにおけるAI

1.ArmがデータセンターのAIに最適な理由
  • 電力効率のよいパフォーマンス:Arm Neoverse CPUは業界をリードするワットあたりパフォーマンスを提供し、エネルギーコストを削減し、運用効率を向上させます。
  • 総保有コスト(TCO)の削減:最新のAIワークロード向けに最適化されたスケーラブルなアーキテクチャにより、企業はインフラストラクチャの支出を削減できます。
  • 柔軟でワークロードに最適化されたシステム:Armベースのプラットフォームは、GPU、NPU、カスタムアクセラレータとシームレスに統合され、あらゆるAIタスクに適切なコンピューティングを提供します。
  • ハイパースケーラーからの信頼:2025年までに、トップハイパースケーラーに出荷されるコンピューティングの半分がArmベースになると予測されています。そしてこれは、大規模なAIの導入におけるArmへの信頼が高まっていることを表しています。
  • 統合AIインフラストラクチャ:成熟したソフトウェアエコシステムと幅広い採用により、クラウドおよびデータセンター環境における多様なコンピューティングエンジン間のシームレスな統合をサポートします。
2.Armベースのプラットフォームは、NVIDIA、Google Cloud、AWSなどの業界パートナー全体でAIパフォーマンスをどのように向上させ、クラウドコストを削減するのか?

ArmベースのプラットフォームによりAIのパフォーマンスと効率が大規模に向上:


これらのイノベーションを組み合わせることで、クラウドおよびハイパースケールプラットフォーム全体でより高速でコスト効率の高いAIが実現します。

3.Armは開発者にどのようなAIワークロード向けツールを提供しているのか?

開発者は以下を使用してワークロードを加速できます。


  • Arm Kleidiライブラリ
  • 最適化されたフレームワークとツールチェーン
  • クラウド/サーバー開発のための移行チュートリアルと学習パス

つながる

サブスクリプションに登録して、最新のニュースやトレンド、ケーススタディ、技術的知見を入手してください。