適用対象:Foundry (クラシック) ポータル。 この記事は、新しい Foundry ポータルでは使用できません。
新しいポータルの詳細を確認します。
メモ
この記事のリンクは、現在表示している Foundry (クラシック) ドキュメントではなく、新しい Microsoft Foundry ドキュメントのコンテンツを開く場合があります。
ヒント
別の Foundry プロジェクトのクイックスタートが利用可能です:
このクイックスタートでは、ハブベースのプロジェクト用にローカル環境を設定し、モデルをデプロイし、トレースと評価が可能なシンプルなチャットスクリプトを構築します。
前提 条件
- Azure サブスクリプション
- 既存のハブ プロジェクト (または 作成)。 そうでない場合は、Foundry プロジェクトのクイック スタートの使用を検討してください。
開発環境を設定する
- 前提条件 (Python、Azure CLI、ログイン) をインストールします。
- パッケージをインストールします。
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
プロジェクトの種類が異なる場合は、異なる azure-ai-projects バージョンが必要です。 競合を回避するために、各プロジェクトを独自の分離された環境に保持します。
モデルをデプロイする
- ポータル: サインインし、ハブ プロジェクトを開きます。
- モデル カタログ: gpt-4o-mini を選択します。
- このモデルを使用し>既定のデプロイ名>デプロイを受け入れます。
- 成功した後:確認するためにプレイグラウンドで開きます。
チャット アプリを構築する
サンプル コードを使用して chat.py を作成します。
ヒント
コードでは、Azure AI Projects 1.x SDK を使用し、Azure AI Projects 2.x と互換性がありません。 この記事のコードで使用する正しいバージョン azure-ai-projects==1.0.0b10 をインストールしてください。
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
プロジェクトの「概要」ページからプロジェクトの接続文字列を挿入します(コード内のプレースホルダーをコピーして置き換えます)。
実行:
python chat.py
プロンプト テンプレートの追加
口ひげテンプレートを使用してget_chat_responseを追加し (chat-template.py サンプルを参照)、ユーザー/コンテキスト メッセージを使用して呼び出します。
テンプレート化された応答を表示するには、もう一度実行します。
リソースのクリーンアップ
料金が発生しないように、完了したら配置またはプロジェクトを削除します。