AMD、Luma AIと提携しCESでagentic AIインフラを推進
AMDはLuma Labs AIと協力し、先進的なagentic AI(自律型AI)モデル向けインフラを提供する。CESで注目を集め、Luma AIのAmit Jain CEOが提携の意義を語っている。
AMDはLuma Labs AIと提携し、先進的なagentic AIモデルを支える基幹インフラを提供する。この提携はCES(Consumer Electronics Show)で強調され、両社は次世代AIイノベーションを推進している。
Agentic AIは、人間の介入を最小限に抑え複雑なタスクを実行する自律システムを指す。AMDの高性能プロセッサとアクセラレータは、これらリソース集約型のモデルをリアルタイム処理・推論で駆動する計算規模を提供する。
生成AI技術で知られるLuma Labs AIは、AMDのAIワークロード向け半導体ソリューションの専門性を活用する。提携ではAMDのInstinctアクセラレータとEPYCプロセッサが用いられ、AIトレーニングとデプロイの効率で業界ベンチマークを樹立している。例えばMI300X GPUは、大規模言語モデルタスクで前世代比最大5倍の推論性能を実現し、agenticアプリケーションの基盤を形成する。
CESの基調講演とデモでスポットライトを浴びたこの提携は、ロボティクス、コンテンツ作成、エンタープライズ自動化分野での自律エージェント需要の高まりに対応する。Luma AIのAmit Jain CEOは、AMDのハードウェアが同社のマルチモーダルAIモデル処理を加速すると述べ、戦略的適合性を強調した。
この取り組みはAMDのAIエコシステム戦略を強化し、ROCmなどの最適化ソフトウェアスタックを統合する。アナリストはこうした提携が、高い計算コストの障壁を低減しagentic AIの民主化に不可欠と見ている。
両社はAI進化の最前線に位置づけられ、クリエイティブツール、バーチャルアシスタント、産業自動化への応用が期待される。Jain氏の詳細はAMD公式チャネルで確認可能だ。
重要ポイント
- AMDがLuma AIのエージェントモデル向けインフラを提供
- CESでこの協業が注目を集める
- Luma AIのCEOはAmit Jain(@gravicle)である
- AMD InstinctアクセラレータがAIワークロードをサポート
