Google Cloud Tech
チャンネル登録者数 125万人
4635 回視聴 ・ 28いいね ・ 2019/04/12
ML研究者、インフラストラクチャ管理者、HPCアプリケーションのオーナーなど、GPUインフラストラクチャを迅速に導入し、本番環境で快適に運用し、必要に応じて動的にスケーリングしたいと考えている方も多いでしょう。
MLおよびHPCワークロードでよく使用される様々なGPU製品と機能について、幅広く概説します。さらに、GCP上でGPUコンピューティングインフラストラクチャをどのように管理しているか、実際のお客様事例をご紹介します。
主なトピック:新しいNVIDIA Tesla T4およびV100 GPUを含む、様々なGPU製品。GPUを搭載したカスタムVMシェイプ、すぐに導入できるディープラーニングVMイメージ。動的スケーリング。低コストのバッチワークロード向けのプリエンプティブGPU。GKEとのGPU統合。
Google Cloud で構築 → https://bit.ly/2TVEpZx
その他の動画はこちら:
Next '19 Compute セッションはこちら → https://bit.ly/Next19Compute
Next '19 全セッションの再生リスト → https://bit.ly/Next19AllSessions
GCP チャンネルに登録 → https://bit.ly/GCloudPlatform
講演者:Chris Kleban
セッション ID:CMP103
製品:クラウド - AI と機械学習 - AI インフラストラクチャ;氏名:Chris Kleban;イベント:Google Cloud Next 2019;
コメント
再生方法の変更
動画のデフォルトの再生方法を設定できます。埋め込みで見れるなら埋め込みで見た方が良いですよ。
現在の再生方法: nocookie
コメントを取得中...