ジェネレーティブAIはソフトウェア開発を変革していますが、AIモデルをローカルで構築して実行することは、まだ必要以上に困難です。今日の開発者は、断片化されたツール、ハードウェア互換性の問題、分断されたアプリケーション開発ワークフローに直面しており、これらすべてがイテレーションの妨げとなり、進行を遅らせています。
そのため、既存のワークフローから直接 、AI モデルをローカルで実行およびテストするためのより高速でシンプルな方法である Docker Model Runner をリリースします。最新のLLMを試す場合でも、本番環境にデプロイする場合でも、Model Runnerは必要なパフォーマンスと制御を摩擦なく実現します。
また、 Google、Continue、 Dagger、 Qualcomm Technologies、 HuggingFace、 Spring AI、 VMware Tanzu AI Solutions など、AI およびソフトウェア開発で最も影響力のある企業と提携し、開発者が最新のモデル、フレームワーク、ツールに直接アクセスできるようにしています。これらのパートナーシップは単なる統合ではなく、AI イノベーションをよりアクセスしやすく、強力で、開発者にとって使いやすいものにするという共通のコミットメントです。Docker Model Runner を使用すると、Docker ワークフロー内から直接 AI エコシステムを最大限に活用できます。
LLM開発は進化しています:私たちはそれをローカルファーストにしています
LLMを動力源とするアプリケーションのローカル開発は勢いを増していますが、それには正当な理由があります。パフォーマンス、コスト、データプライバシーなどの主要な側面でいくつかの利点があります。しかし、今日、ローカルのセットアップは複雑です。
開発者は、コンテナワークフローとは別に、複数のツールを手動で統合し、環境を設定し、モデルを管理することを余儀なくされることがよくあります。モデルの実行はプラットフォームによって異なり、使用可能なハードウェアによって異なります。モデルのストレージが断片化されるのは、モデルを格納、共有、または提供する標準的な方法がないためです。
その結果は?クラウド推論コストの上昇と開発者エクスペリエンスの分断。最初のリリースでは、その摩擦を減らし、ローカル モデルの実行をよりシンプルに、より速く、開発者がすでに構築する方法に簡単に適合させることに重点を置いています。
Docker Model Runner: AI モデルをローカルで実行するシンプルで安全な方法
Docker Model Runner は、AI モデルの実行をコンテナの実行と同じくらい簡単にするように設計されています。このベータ リリースにより、開発者は、モデルの実行、テスト、モデルをローカルで使用するアプリケーション コードの反復処理を、通常のセットアップの手間を省くための高速で低摩擦の方法を提供します。方法は次のとおりです。
モデルをローカルで実行する
Docker Model Runner を使用すると、AI モデルをローカルで実行することが、内部ループ内の他のサービスを実行するのと同じくらい簡単になりました。Docker Model Runner は、Docker Desktop の一部として推論エンジンを含めることでこれを実現し、llama.cpp の上に構築され、使い慣れた OpenAI API を介してアクセスできます。追加のツールや追加のセットアップ、分断されたワークフローはありません。すべてが 1 か所にとどまるため、マシン上ですばやくテストと反復を行うことができます。
GPU アクセラレーションの有効化 (Apple シリコン)
AppleシリコンのGPUアクセラレーションにより、開発者は高速な推論を行い、ローカルハードウェアを最大限に活用できます。ホストベースの実行を使用することで、仮想マシン内でモデルを実行する際のパフォーマンス制限を回避できます。これにより、推論の高速化、テストの円滑化、フィードバックループの改善につながります。
OCI Artifactsによるモデル・パッケージングの標準化
今日のモデルの配布は乱雑です。モデルは、多くの場合、ルーズなファイルとして共有されるか、カスタム認証を備えた独自のダウンロードツールの背後に共有されます。Docker Model Runnerでは、モデルを OCI Artifactsとしてパッケージ化し、オープンスタンダードとしてパッケージ化し、コンテナにすでに使用しているのと同じレジストリとワークフローを通じてモデルを配布およびバージョン管理できるようにします。現在、Docker Hubからすぐに使用できるモデルを簡単に取得できます。まもなく、独自のモデルをプッシュしたり、任意のコンテナレジストリと統合したり、CI/CDパイプラインに接続したり、使い慣れたツールを使用してアクセス制御や自動化を行ったりすることもできるようになります。
繁栄するGenAIエコシステムで勢いを増す
地域開発をシームレスにするためには、エコシステムが必要です。そのためには、開発者がローカル マシンでモデルのパフォーマンスをテストしている場合でも、これらのモデルを実行するアプリケーションを構築している場合でも、開発者がどこにいても会うことから始まります。
そのため、私たちは Docker Model Runner を、AI アプリケーション開発プロセスの両側にパートナーの強力なエコシステムとともにリリースします。モデル面では、Google などの業界リーダーや HuggingFace などのコミュニティ プラットフォームと協力して、高品質で最適化されたモデルを現地ですぐに使用できます。これらのモデルはOCIアーティファクトとして公開されるため、コンテナ・イメージと同様に、標準のDockerコマンドを使用してプルして実行できます。
しかし、私たちはモデルにとどまりません。また、Dagger、Continue、Spring AI、VMware Tanzu などのアプリケーション、言語、ツールのパートナーとも協力し、Model Runner で構築されたアプリケーションを実際の開発者ワークフローにシームレスに統合できるようにしています。さらに、Qualcomm Technologies などのハードウェア パートナーと協力して、すべてのプラットフォームで高パフォーマンスの推論を確保しています。
Docker Model Runner の進化に伴い、パートナーのエコシステムを拡大し、十分な配布と追加機能を可能にする取り組みを進めていきます。
私たちが目指すところ
これはほんの始まりに過ぎません。Docker Model Runner を使用すると、開発者は AI モデルの実行を日常のワークフローに、安全に、ローカルに、かつ低い参入障壁で簡単に取り込むことができます。まもなく、GPU アクセラレーションを搭載した Windows など、より多くのプラットフォームでモデルを実行したり、独自のモデルをカスタマイズして公開したり、AI を開発ループにさらに柔軟に統合したりできるようになります (Compose や Testcontainers など)。Docker Desktop のリリースごとに、GenAI 開発をより簡単に、より速く、より楽しく構築するための新機能を引き続きリリースしていきます。
今すぐお試しください!
Docker Model Runner が Docker Desktop 4. . . .40のベータ機能として利用可能になりました。開始するには:
- Appleシリコンを搭載したMacの場合
- Docker Desktop 4に更新します。40
- Docker の GenAI Hub のパートナーが開発したモデルをプルして、実験を開始します
- 詳細については、 こちらのドキュメントをご覧ください。
ぜひお試しいただき、ご意見をお聞かせください。
Docker Model Runner について詳しく知るにはどうすればよいですか?
利用可能なアセットを今すぐチェックしてください!
MacをAIプレイグラウンドに変えるYouTubeチュートリアル
Docker Model Runner のクイックスタートガイド
Docker Model Runner on Docker Docs
Dagger と Docker Model Runner を使用したローカル AI エージェントの作成
Google Cloud Next でお会いしましょう。
マンダレーコンベンションセンターのブース 1530 に立ち寄って、ハンズオンデモや限定コンテンツをお楽しみください。