Condividi tramite


Guida introduttiva: Introduzione a Microsoft Foundry (progetti hub) (versione classica)

Si applica solo a:Portale di Foundry (versione classica). Questo articolo non è disponibile per il nuovo portale foundry. Altre informazioni sul nuovo portale.

Annotazioni

I collegamenti in questo articolo potrebbero aprire contenuto nella nuova documentazione di Microsoft Foundry anziché nella documentazione di Foundry (versione classica) visualizzata.

Suggerimento

È disponibile una guida introduttiva al progetto Foundry alternativa: Quickstart: Introduzione a Microsoft Foundry (progetti Foundry).

Questa guida introduttiva configura l'ambiente locale per i progetti basati su hub, distribuisce un modello e compila un semplice script di chat tracciato/valutabile.

Prerequisiti

  • sottoscrizione di Azure
  • Progetto hub esistente (oppure crearne uno). In caso contrario, prendere in considerazione l'uso di un progetto di avvio rapido di Foundry.

Configurare l'ambiente di sviluppo

  1. Installare i prerequisiti (Python, interfaccia della riga di comando di Azure, account di accesso).
  2. Installare i pacchetti:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Diversi tipi di progetti richiedono versioni distinte di azure-ai-projects. Mantenere ogni project nel proprio ambiente isolato per evitare conflitti.

Distribuire un modello

  1. Portale: accedi, apri hub di progetto.
  2. Catalogo modelli: selezionare gpt-4o-mini.
  3. Usare questo modello > accettare il nome > di distribuzione predefinito Deploy.
  4. Dopo il completamente: aprire nel playground per verificare.

Creare l'app di chat

Creare chat.py con codice di esempio:

Suggerimento

Il codice usa Azure AI Projects 1.x SDK ed è incompatibile con Azure AI Projects 2.x. Assicurarsi di installare la versione azure-ai-projects==1.0.0b10 corretta da usare con il codice in questo articolo.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Inserisci la stringa di connessione del progetto dalla pagina Panoramica del progetto (copia e sostituisci il segnaposto nel codice).

Corri!

python chat.py

Aggiungere la creazione di modelli per le richieste

Aggiungere get_chat_response usando il template Mustache (vedere esempio di chat-template.py) e quindi richiamarlo con messaggi dell'utente/contesto.

Eseguire nuovamente per visualizzare la risposta modellata.

Pulire le risorse

Elimina la distribuzione o il progetto quando hai finito per evitare addebiti.

Passo successivo

Panoramica della libreria client Microsoft Foundry

Guida Rapida: Inizia con Foundry (progetti Foundry).