Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica solo a:Portale di Foundry (versione classica). Questo articolo non è disponibile per il nuovo portale foundry.
Altre informazioni sul nuovo portale.
Annotazioni
I collegamenti in questo articolo potrebbero aprire contenuto nella nuova documentazione di Microsoft Foundry anziché nella documentazione di Foundry (versione classica) visualizzata.
Suggerimento
È disponibile una guida introduttiva al progetto Foundry alternativa: Quickstart: Introduzione a Microsoft Foundry (progetti Foundry).
Questa guida introduttiva configura l'ambiente locale per i progetti basati su hub, distribuisce un modello e compila un semplice script di chat tracciato/valutabile.
Prerequisiti
- sottoscrizione di Azure
- Progetto hub esistente (oppure crearne uno). In caso contrario, prendere in considerazione l'uso di un progetto di avvio rapido di Foundry.
Configurare l'ambiente di sviluppo
- Installare i prerequisiti (Python, interfaccia della riga di comando di Azure, account di accesso).
- Installare i pacchetti:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Diversi tipi di progetti richiedono versioni distinte di azure-ai-projects. Mantenere ogni project nel proprio ambiente isolato per evitare conflitti.
Distribuire un modello
- Portale: accedi, apri hub di progetto.
- Catalogo modelli: selezionare gpt-4o-mini.
- Usare questo modello > accettare il nome > di distribuzione predefinito Deploy.
- Dopo il completamente: aprire nel playground per verificare.
Creare l'app di chat
Creare chat.py con codice di esempio:
Suggerimento
Il codice usa Azure AI Projects 1.x SDK ed è incompatibile con Azure AI Projects 2.x. Assicurarsi di installare la versione azure-ai-projects==1.0.0b10 corretta da usare con il codice in questo articolo.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Inserisci la stringa di connessione del progetto dalla pagina Panoramica del progetto (copia e sostituisci il segnaposto nel codice).
Corri!
python chat.py
Aggiungere la creazione di modelli per le richieste
Aggiungere get_chat_response usando il template Mustache (vedere esempio di chat-template.py) e quindi richiamarlo con messaggi dell'utente/contesto.
Eseguire nuovamente per visualizzare la risposta modellata.
Pulire le risorse
Elimina la distribuzione o il progetto quando hai finito per evitare addebiti.
Passo successivo
Panoramica della libreria client Microsoft Foundry