AI時代のデータセンターの再考
AIの急速な普及に伴い、コンピューティングインフラストラクチャは、汎用プラットフォームから、パフォーマンス、効率、スケーラビリティを重視した、より特化され、電力効率のよい、ワークロードに最適化されたソリューションへと移行しています。Armは、これらのニーズを満たし、イノベーションと変革の機会を創出する、柔軟で電力効率のよいコンピューティング基盤を提供します。これは、ハイパースケールからエッジまでシームレスに拡張できるAIインフラストラクチャの基盤です。
より多くのコンピューティング、より高い効率、より優れた価格性能
Armは、幅広いAIアクセラレータとシームレスに連携するエネルギー効率の高いコンピューティングを提供し、総保有コストを削減しながら優れたパフォーマンスと効率を実現します。
実世界のパフォーマンスに最適化されたインフラストラクチャを通じて業界リーダーを支援
Armは、実世界のパフォーマンスに最適化されたコンピューティングソリューションにより、業界のリーダーがスケーラブルで効率的なデータセンターの新しい波を構築するように支援します。Arm CPUは、パフォーマンス、電力効率、シームレスなスケーラビリティを実現するように設計されており、最も要求の厳しいAIおよびクラウドワークロード向けのアクセラレータと組み合わせるのに最適です。
ArmベースのAWS Gravitonプロセッサーが、AIとクラウドネイティブのワークロードに優れた価格パフォーマンスと効率をもたらし、クラウドコンピューティングをどのように変革しているかをご覧ください。現在、AWSの最新のCPU容量の50%以上を担っています。

Google Cloud初のカスタムArmベースのCPUであるAxionが、現在のx86インスタンスよりも最大2倍優れたパフォーマンスを実現し、AIとクラウドワークロードのパフォーマンスと効率をどのように向上させているかをご覧ください。
Armの電力効率のよいコンピューティングプラットフォームが、Grace CPUファミリを含むNVIDIAアクセラレーテッドコンピューティングプラットフォームの重要な要素となり、AIタスクで最大10倍のパフォーマンス向上を実現した方法をご覧ください。
Arm Neoverseによる強力なAI/MLパフォーマンス
Arm Neoverse CPUは、要求の厳しいAIワークロードを効率的に処理するように設計されており、高いスループット、電力効率、低いTCOを実現し、CPUが実用的な選択肢である場合に最適です。推奨エンジンや言語モデル推論から検索拡張生成(RAG)まで、Neoverseは幅広いAIアプリケーションに拡張できます。
あらゆるAIワークロードに対応するArmコンピューティングプラットフォーム
AIが従来の機械学習から生成AI、そしてエージェント型モデルへと進化するにつれて、ワークロードはますます計算と電力を集中的に使用するようになっています。これらの要求を満たすには、システムが各ワークロードを適切なプロセッサーに動的に一致させ、パフォーマンス、電力効率、コストを最適化できるようにするヘテロジニアスインフラストラクチャへの移行が必要です。
Arm Neoverse CPUは、GPU、NPU、カスタムアクセラレータとシームレスに統合され、パフォーマンス、柔軟性、効率、スケーラビリティを向上させる、電力効率のよいスケーラブルなコンピューティングプラットフォームを提供します。
ArmのソフトウェアとツールでAIワークロードを最適化
開発者は、少ない労力でAIを迅速かつ効率的に導入するために最適化されたツールを必要としています。Arm Kleidiライブラリや幅広いフレームワークサポートなどのArmソフトウェアエコシステムは、導入までの時間を短縮し、クラウドとエッジ全体でAIワークロードのパフォーマンスを向上させます。
Arm Kleidiと開発者ツールでAIを加速
Arm KleidiAIライブラリ、幅広いフレームワークサポート、強力な開発者向けリソースを使用してパフォーマンスを向上させ、展開と最適化を効率化します。
最新のニュース・関連情報
- ニュースとブログ
- レポート
- ポッドキャスト

データセンターにおけるAI
データセンターにおけるArmの新時代の幕開け
業界アナリストのBen Bajarin氏が、AIがデータセンターアーキテクチャをどのように再定義しているのか、そしてAI時代のスケーラブルで効率的なインフラストラクチャを推進する上でArmが重要な役割を担うようになっている理由を探ります。
データセンターにおけるAI
ArmとNVIDIAがデータセンターにおけるAIを再定義
NVIDIAとのポッドキャストを聴き、Armのパートナーシップがエンタープライズコンピューティングをどのように変革しているかを探ってください。
データセンターにおけるAI
Armと業界専門家Matt Griffin氏によるAIインフラストラクチャの未来
Armと311 Instituteの創設者であるMatt Griffin氏が、新たなAIインフラストラクチャのトレンド、コンピューティングの拡張における課題、Armがクラウドからエッジまで効率的で持続可能なAIをどのように実現しているかについて話し合います。
よくある質問:データセンターにおけるAI
- 電力効率のよいパフォーマンス:Arm Neoverse CPUは業界をリードするワットあたりパフォーマンスを提供し、エネルギーコストを削減し、運用効率を向上させます。
- 総保有コスト(TCO)の削減:最新のAIワークロード向けに最適化されたスケーラブルなアーキテクチャにより、企業はインフラストラクチャの支出を削減できます。
- 柔軟でワークロードに最適化されたシステム:Armベースのプラットフォームは、GPU、NPU、カスタムアクセラレータとシームレスに統合され、あらゆるAIタスクに適切なコンピューティングを提供します。
- ハイパースケーラーからの信頼:2025年までに、トップハイパースケーラーに出荷されるコンピューティングの半分がArmベースになると予測されています。そしてこれは、大規模なAIの導入におけるArmへの信頼が高まっていることを表しています。
- 統合AIインフラストラクチャ:成熟したソフトウェアエコシステムと幅広い採用により、クラウドおよびデータセンター環境における多様なコンピューティングエンジン間のシームレスな統合をサポートします。
ArmベースのプラットフォームによりAIのパフォーマンスと効率が大規模に向上:
- NVIDIA:Arm CPU + Grace Hopperを使用すると、x86ベースのシステムと比較して、最大8倍高速なMLトレーニングと4.5倍優れたLLM推論(GPT-65B)が得られます。
- Google Cloud:x86ベースの代替製品と比較した場合、Axionプロセッサーは、MLPerfパフォーマンスが最大3倍、推論スループットが2.5倍、コストが64%削減されます。
- AWS:Armをベースに構築されたGraviton CPUは、AWSの最近の容量の50%以上を賄い、業界をリードする価格性能比とエネルギー効率を実現します。
これらのイノベーションを組み合わせることで、クラウドおよびハイパースケールプラットフォーム全体でより高速でコスト効率の高いAIが実現します。
開発者は以下を使用してワークロードを加速できます。
- Arm Kleidiライブラリ
- 最適化されたフレームワークとツールチェーン
- クラウド/サーバー開発のための移行チュートリアルと学習パス
つながる
サブスクリプションに登録して、最新のニュースやトレンド、ケーススタディ、技術的知見を入手してください。