LLMをアプリケーションに組み込む方法を効率化したいとお考えですか? これは、すでに慣れ親しんでいる製品やサービスを使用して行うことを好みますか? ここで、 Docker Desktop は、特に Docker の Business サブスクリプション ティアが提供する高度な機能と組み合わせると、特に NVIDIA の最先端テクノロジと組み合わせたときに活躍します。
AIワークロードの設定と管理が、すでに使用している日常的なツールと同じくらい直感的に行える開発環境を想像してみてください。 NVIDIA とのパートナーシップを深めることで、私たちはこれを実現することに全力を尽くしています。 このコラボレーションにより、Docker コンテナを活用する能力が向上するだけでなく、AI アプリケーションの構築と開発の全体的なエクスペリエンスも大幅に向上します。
さらに、このパートナーシップは、お客様の長期的な成長とイノベーションの目標をサポートするように設計されています。 Docker Desktop と Docker Business を NVIDIA ソフトウェアと組み合わせることで、プロトタイプの構築やエンタープライズ グレードの AI アプリケーションのデプロイなど、AI 開発の旅を加速させたい開発者にとって完璧な出発点となります。 これは単にツールを提供するだけではありません。それは、あなたの能力、あなたのキャリア、そしてあなたの組織のイノベーション能力に投資することです。
Docker Business を使用すると、セキュリティの強化、管理の合理化、比類のないサポートの提供を実現する高度な機能にアクセスできます。 一方、NVIDIA AI Workbench は、AI および機械学習プロジェクト向けに調整された堅牢でコンテナ化された環境を提供します。 これらのソリューションを組み合わせることで、可能性の限界を押し広げ、AIをより簡単かつ効果的にアプリケーションに導入することができます。
NVIDIA AI Workbench とは?
NVIDIA AI Workbench は、データ サイエンティストや開発者が GPU システム間で AI ワークロードと開発環境を作成、共同作業、移行できるようにする、コンテナーを搭載した無料の開発者ツールキットです。 モデルの微調整、データ サイエンス ワークフロー、取得拡張生成などのシナリオを対象としています。 ユーザーは複数のシステムにインストールできますが、Windows、Ubuntu、およびmacOSでローカルに実行されるクライアントアプリケーションからすべてを操作できます。 NVIDIA AI Workbench は、GitHub や GitLab などの Git ベースのプラットフォームを通じて、コラボレーションと配布を可能にします。
Docker Desktop は NVIDIA AI Workbench とどのように関連していますか?
NVIDIA AI Workbench にはコンテナ ランタイムが必要です。 Docker のコンテナランタイム (Docker Engine) は、Docker Desktop を通じて提供され、Windows および macOS で AI Workbench を使用する開発者に推奨される AI Workbench ランタイムです。 以前は、AI Workbench のユーザーは Docker Desktop を手動でインストールする必要がありました。 この最新リリースの AI Workbench では、コンテナ ランタイムとして Docker を選択した開発者は、手動の手順を必要とせずに、マシンに Docker Desktop が自動的にインストールされます。
この統合については、 NVIDIA の技術ブログで学ぶことができます。
AIアプリケーションのプロトタイプを超えて
Docker Desktop は、単なるアプリケーション開発ツールではありません。これは、AI を含む幅広いアプリケーションを開発するための統合された使いやすい環境を提供するランチパッドです。 Docker Desktopを特に強力にしているのは、コンテナ化された環境をシームレスに作成および管理する能力であり、開発者は基盤となるインフラストラクチャを気にすることなくイノベーションに集中できます。
すでに Docker に投資している開発者にとっては、他のワークロードのために長年にわたって築き上げてきたスキル、自動化、インフラストラクチャ、ツールが AI ワークロードにも直接適用できることを意味します。 この相互互換性により、チームはプロセスをオーバーホールしたり、新しいツールを習得したりすることなく、既存のDockerベースのワークフローを拡張してAIアプリケーションやサービスを含めることができるため、投資に対して大きなリターンが得られます。
Docker Desktopは、Windows、macOS、Linuxと互換性があるため、多様な開発チームにとって理想的な選択肢となっています。 その堅牢な機能は、初期のプロトタイピングから大規模なデプロイまで、幅広い開発ワークフローをサポートし、AIアプリケーションがコンセプトから本番環境に移行するときに、開発者は既存のDockerインフラストラクチャと専門知識を活用して作業を加速および拡張できます。
高品質のエンタープライズグレードのAIアプリケーションを作成したいと考えている人のために、Docker DesktopとDocker Businessは高度な機能を提供します。 これには、エンタープライズおよび高度な開発環境に不可欠な強化されたセキュリティ、管理、およびサポート機能が含まれます。 Docker Business を使用すると、開発チームは既存の Docker エコシステムを引き続き活用しながら、安全に構築し、効率的にコラボレーションし、コンプライアンスを維持できます。 Docker Business を活用することで、開発者は自信を持ってワークフローを加速し、Docker に期待されるのと同じ信頼性と効率性を備えた革新的な AI ソリューションを提供できます。
NVIDIA GPU で開発者のイノベーションを加速
急速に進化するAI開発の状況では、モデルのトレーニングや推論などのタスクに必要な集中的な計算を処理するためには、GPU機能を活用する能力が不可欠です。 Docker は、独自の GPU を使用しているか、クラウドベースのコンピューティングを活用する必要があるかにかかわらず、さまざまな開発者に対応する柔軟なソリューションの提供に取り組んでいます。
Docker Desktop による NVIDIA GPU によるコンテナの実行
GPU は AI 開発の中心であり、Docker Desktop は NVIDIA GPU を効果的に活用するように最適化されています。 Docker Desktop 4.29 以降、開発者はデーモンで CDI サポートを構成し、CDI デバイスのサポートを介して --device
オプションを使用して、実行中のコンテナーですべての NVIDIA GPU を簡単に使用できるようにすることができます。
たとえば、次のコマンドを使用して、すべての NVIDIA GPU をコンテナで使用可能にすることができます。
docker run --device nvidia.com/gpu=all <image> <command>
Docker Desktop が NVIDIA GPU をサポートする方法の詳細については、 GPU のドキュメントを参照してください。
GPUはありませんか? Testcontainers Cloudで問題ありません
すべての開発者が強力なGPUハードウェアにローカルアクセスできるわけではありません。 このギャップを埋めるために、 Testcontainers Cloud での GPU サポートを検討しています。 これにより、開発者はクラウド環境のGPUリソースにアクセスできるようになり、物理GPUを必要とせずにテストを実行し、AIモデルを検証することができます。 Testcontainers Cloudを使用すると、どこからでもGPUのパワーを活用でき、高性能なAI開発を民主化できます。
Docker Hub上の信頼できるAI/MLコンテンツ
Docker Desktop は、開発者が AI 開発の新しいアイデアやアプローチを発見し、実験するための信頼性の高い効率的なプラットフォームを提供します。 Docker は、信頼できるコンテンツ プログラムを通じて、オープンソースおよび商用コミュニティと共に高品質のイメージを選択してキュレーションし、 Docker Hub の Docker Official Images、 Docker Sponsored Open Source、 Docker Verified Publishers で配布しています。 豊富な AI/ML コンテンツを備えた Docker を使用すると、ユーザーはイメージを簡単に見つけてプルし、すばやく実験できます。 これには、 NVIDIA ソフトウェア製品 などのさまざまなイメージが含まれており、開発者は迅速かつ効率的に開始できます。
Docker Build Cloud によるビルドの高速化
Docker Build Cloud は、あらゆるアプリケーションの構築、テスト、デプロイを効率化し、加速するように設計されたフルマネージド サービスです。 Docker Build Cloud を活用することで、AI アプリケーション開発者はビルドをローカル マシンからリモート BuildKit インスタンスに移行でき、ビルドが最大 39倍高速になります。 複雑なビルドプロセスをDocker Build Cloudにオフロードすることで、AI開発チームはモデルとアルゴリズムの改良に集中でき、Dockerは残りの処理を任せることができます。
Testcontainersによる品質の確保
AIアプリケーションがプロトタイプから製品化可能なソリューションへと進化するにつれて、その信頼性とパフォーマンスを確保することが重要になります。 そこで、Testcontainersのようなテストフレームワークの出番です。 Testcontainers を使用すると、開発者は実際のコンテナ化された依存関係を使用してアプリケーションをテストできるため、自己完結型、べき等、再現可能な方法で AI モデルを利用するアプリケーション ロジックを簡単に検証できます。
たとえば、LLM を使用する開発者は、最近リリースされた Ollama コンテナ を利用して Hugging Face で利用可能な任意のモデルを利用してアプリケーションをテストする Testcontainers ベースのテストを作成できます。
まとめ
Docker と NVIDIA のコラボレーションは、AI 開発のランドスケープにおける大きな前進です。 Docker Desktop を NVIDIA AI Workbench に統合することで、開発者は AI アプリケーションの構築、出荷、実行をこれまで以上に簡単に行えるようになりました。 Docker Desktop は、初期のプロトタイプ作成から大規模なデプロイまで、幅広い開発ワークフローをサポートする堅牢で合理化された環境を提供します。
Docker Business の高度な機能により、AI 開発者はイノベーションと効率性に集中できます。 NVIDIA とのパートナーシップを深めるにつれ、AI 開発コミュニティにさらなる強化をもたらし、開発者が AI と機械学習の可能性の限界を押し広げることができるようになることを楽しみにしています。
AIアプリケーション開発に革命を起こすためのエキサイティングなアップデートにご期待ください。
さらに詳しく
- NVIDIA AI Workbench で Docker Desktop を 今すぐインストールして始めましょう。
- 認証と更新 を行って、サブスクリプション レベルの最新の Docker Desktop 機能を受け取ります。
- Docker は初めてですか? アカウントを作成します。
- Docker Newsletter を購読してください。
- NVIDIA の Docker Hub ライブラリをご覧ください。
- Dockerの GenAIスタックでRAGアプリケーション開発を始めましょう。