ワンストップのインテリジェント IT ソリューション

dw@donewin.com.hk |

シスコ,アリスタ,HPE,Intel コンソーシアムが AI インフラストラクチャ向けイーサネットのスーパーサイズ化を目指す

ブログニュース

シスコ, アリスタ, HPE, Intel がコンソーシアムを主導し、AI インフラストラクチャ向けイーサネットの超大型化を目指す

AI ワークロードにより、ネットワークに前例のないパフォーマンスと容量の要求が課されることが予想されます, AI に必要な規模と速度に対応するために、少数のネットワーキング ベンダーが協力して今日のイーサネット テクノロジーを強化しています。.

AMD, アリスタ, ブロードコム, シスコ, 証拠, HPE, インテル, Meta と Microsoft が Ultra Ethernet コンソーシアムを発表 (電気通信大学), Linux Foundation が主催するグループで、物理的なソフトウェアの開発に取り組んでいます。, リンク, トランスポート層とソフトウェア層のイーサネットの進歩.

通信網

業界は今年イーサネットの 50 周年を祝いました. イーサネットの特徴は、その柔軟性と適応性です。, そしてこの由緒あるテクノロジーは、AI インフラストラクチャのサポートに関して間違いなく重要な役割を果たすでしょう。. しかし、今日の従来のネットワーク相互接続では必要なパフォーマンスを提供できないという懸念があります。, AI の需要に対応できる規模と帯域幅, そしてコンソーシアムはそれらの懸念に対処することを目指しています.

WPA3 エンタープライズを使用して Wi-Fi に 802.1x を展開する方法

「AI ワークロードは両方ともデータであるため、ネットワークに負荷がかかります- 計算負荷が高い. ワークロードが非常に大きいため、パラメータが数千のプロセッサに分散されます。. 大規模な言語モデル (LLM) GPT-3など, チンチラ, とパーム, DLRM などの推奨システムと同様に [ディープラーニングの推奨事項] そしてデン [深く階層的なアンサンブル ネットワーク] 計算に関与する他のプロセッサと「パラメータ」を共有する何千もの GPU のクラスターでトレーニングされます,」 Arista CEO の Jayshree Ullal 氏はブログで新しいコンソーシアムについて書いています. “この計算、交換、削減のサイクルでは, 交換されるデータ量が非常に多いため、ネットワークの貧弱または混雑による速度低下が AI アプリケーションのパフォーマンスに重大な影響を与える可能性があります。”

0 秒の 29 秒音量 0%

歴史的に, プロセッサコアとメモリを接続する唯一のオプションは、InfiniBand などの相互接続でした, PCIエクスプレス, イーサネット経由のリモート ダイレクト メモリ アクセスと、コンピューティング クラスターをオフロードに接続するその他のプロトコルですが、AI ワークロード要件に関しては制限があります.

「アリスタとウルトラ イーサネット コンソーシアムの創設メンバーは、RDMA の制限を再考して置き換える時期が来たと信じています」. 従来のRDMA, InfiniBand Trade Association の定義による (IBTA) 数十年前, 要求の高い AI/ML ネットワーク トラフィックは時代遅れを示しています. RDMA は大規模なフローのチャンクでデータを送信します, これらの大規模なフローは、リンクのバランスを崩し、過剰な負荷を引き起こす可能性があります。,ウラルは書いた.

「新たなアプリケーション向けに RDMA をサポートする最新のトランスポート プロトコルを構築するために白紙の状態から始める時期が来ています。,ウラルは書いた. 「 [コンソーシアムの] EUT (ウルトライーサネットトランスポート) このプロトコルには、アプリケーションの AI ネットワーク規模に対応しながら、イーサネット/IP の利点が組み込まれます。, エンドポイントとプロセス, そして、オープンスタンダードとマルチベンダーの相互運用性という目標を維持します。」

候補者は募集中です 2024 IT業界で働くのに最適な場所

UEC はホワイトペーパーの中で、イーサネット仕様を推進し、以下のような多くのコア技術と機能を特徴とする予定であると書いています。:

  • AI ワークフローが宛先に同時にアクセスできるようにするマルチパスとパケット スプレー.
  • イーサネット リンクの最適なバランスを確保するための柔軟な配信順序; 順序付けは、帯域幅を大量に使用する操作で AI ワークロードが必要とする場合にのみ適用されます。.
  • 最新の輻輳制御メカニズムにより、AI ワークロードがホットスポットを回避し、マルチパス全体に負荷を均等に分散します。. マルチパス パケット スプレーと連動して動作するように設計できます。, AI トラフィックの信頼性の高い転送を可能にする.
  • 輻輳を管理するためのエンドツーエンドのテレメトリ. ネットワークから発信される情報により、参加者に渋滞の場所と原因を知らせることができます。. 輻輳シグナリング パスを短縮し、より多くの情報をエンドポイントに提供することで、より応答性の高い輻輳制御が可能になります。.

電気通信大学は規模を拡大すると発表, 安定性, イーサネットネットワークの信頼性とセキュリティの向上.

「UEC トランスポートには設計によりネットワーク セキュリティが組み込まれており、AI トレーニングまたは推論ジョブで計算エンドポイント間で送信されるすべてのネットワーク トラフィックを暗号化して認証できます。. UEC は、効率的なセッション管理のための実績のあるコア技術を活用するトランスポート プロトコルを開発します。, 認証, IPSec や PSP などの最新の暗号化方式による機密性,」と電気通信大学は書いた.

「仕事が増えるにつれて、, ホストやネットワーク インターフェイスのセッション状態を増大させずに暗号化をサポートする必要がある. これに奉仕して, UET には、ジョブに参加する数万の計算ノード間でキーを効率的に共有できる新しいキー管理メカニズムが組み込まれています。. AI のトレーニングと推論に必要な高速性と規模で効率的に実装できるように設計されています。,」と電気通信大学は述べた.

「これはイーサネットの徹底的な見直しではありません」,」と博士は言いました. J・メッツ, ウルトライーサネットコンソーシアム会長, 声明の中で. 「特定のパフォーマンス要件を持つワークロードの効率を向上させるためにイーサネットを調整することです」. 私たちは、大規模な効率とパフォーマンスを向上させる最善の方法を見つけるために、物理層からソフトウェア層に至るまで、あらゆる層を検討しています。」

改善された AI 接続テクノロジーの必要性が現れ始めています. 例えば, 最新の「データセンター 5 年間 7 月」 2023 予測レポート,」とDell'Oroグループは述べています。 20% のイーサネット データセンター スイッチ ポートは、AI ワークロードをサポートするために高速化されたサーバーに接続されます。 2027. 新しい生成 AI アプリケーションの台頭は、すでに堅調なデータセンター スイッチ市場のさらなる成長を促進するでしょう, を超えると予測される $100 今後 5 年間の累計売上高は 10 億ドルに達する, サメ・ブージェルベーネは言った, デロロ社副社長.

最近発表された別のレポートでは, の 650 同グループは、AI/ML によりネットワークに膨大な帯域幅パフォーマンス要件が課されると述べました。, AI/ML は今後 5 年間のデータセンター切り替えの主要な成長ドライバーの 1 つです.

「AI の帯域幅が拡大するにつれて、, AI/ML およびアクセラレーション コンピューティングに関連するイーサネット スイッチングの部分は、今日までにニッチ市場から市場の重要な部分に移行するでしょう。 2027. AI/ML に対応するために製品が生産規模に達し次第、800Gbps ベースのスイッチと光学系の記録的な出荷が見られることになります。,」とアラン・ウェッケル氏は語った。, の創設者兼テクノロジーアナリスト 650 グループ.

前へ:

次:

返信を残す

ライブチャット
伝言を残す

    − 6 = 2