アイコン

Google Cloud Tech

チャンネル登録者数 125万人

4635 回視聴 ・ 28いいね ・ 2019/04/12

ML研究者、インフラストラクチャ管理者、HPCアプリケーションのオーナーなど、GPUインフラストラクチャを迅速に導入し、本番環境で快適に運用し、必要に応じて動的にスケーリングしたいと考えている方も多いでしょう。

MLおよびHPCワークロードでよく使用される様々なGPU製品と機能について、幅広く概説します。さらに、GCP上でGPUコンピューティングインフラストラクチャをどのように管理しているか、実際のお客様事例をご紹介します。

主なトピック:新しいNVIDIA Tesla T4およびV100 GPUを含む、様々なGPU製品。GPUを搭載したカスタムVMシェイプ、すぐに導入できるディープラーニングVMイメージ。動的スケーリング。低コストのバッチワークロード向けのプリエンプティブGPU。GKEとのGPU統合。

Google Cloud で構築 → https://bit.ly/2TVEpZx

その他の動画はこちら:
Next '19 Compute セッションはこちら → https://bit.ly/Next19Compute
Next '19 全セッションの再生リスト → https://bit.ly/Next19AllSessions

GCP チャンネルに登録 → https://bit.ly/GCloudPlatform

講演者:Chris Kleban

セッション ID:CMP103
製品:クラウド - AI と機械学習 - AI インフラストラクチャ;氏名:Chris Kleban;イベント:Google Cloud Next 2019;

コメント

コメントを取得中...

再生方法の変更

動画のデフォルトの再生方法を設定できます。埋め込みで見れるなら埋め込みで見た方が良いですよ。

現在の再生方法: nocookie