Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
SI APPLICA A: Tutti i livelli di Gestione API
È possibile importare gli endpoint del modello di intelligenza artificiale distribuiti in Microsoft Foundry nell'istanza di Gestione API come API. Usare i criteri del gateway di intelligenza artificiale e altre funzionalità in Gestione API per semplificare l'integrazione, migliorare l'osservabilità e migliorare il controllo sugli endpoint del modello.
Per altre informazioni sulla gestione delle API di intelligenza artificiale in Gestione API, vedere:
Opzioni di compatibilità client
Gestione API supporta le opzioni di compatibilità client seguenti per le API di intelligenza artificiale di Microsoft Foundry. Quando si importa l'API usando la procedura guidata, scegliere l'opzione appropriata per la distribuzione del modello. L'opzione determina il modo in cui i client chiamano l'API e il modo in cui l'istanza di Gestione API instrada le richieste allo strumento Foundry.
Azure OpenAI: gestire Azure OpenAI nelle distribuzioni di modelli di Microsoft Foundry.
I client chiamano la distribuzione in un endpoint
/openai, ad esempio/openai/deployments/my-deployment/chat/completions. Il percorso della richiesta include il nome della distribuzione. Usare questa opzione se lo strumento Foundry include solo distribuzioni di modelli OpenAI di Azure.Intelligenza artificiale di Azure: gestire gli endpoint del modello in Microsoft Foundry esposti tramite l'API di inferenza del modello di intelligenza artificiale di Azure.
I client chiamano la distribuzione in un endpoint
/models, ad esempio/my-model/models/chat/completions. Il corpo della richiesta include il nome della distribuzione. Usa questa opzione se desideri la flessibilità di passare tra i modelli esposti tramite l'API di Inferenza del Modello AI di Azure e quelli distribuiti in Azure OpenAI nei Foundry Models.Azure OpenAI v1: gestire Azure OpenAI nelle distribuzioni di modelli di Microsoft Foundry usando l'API API OpenAI di Azure versione 1.
I clienti chiamano la distribuzione presso un endpoint del modello v1 di Azure OpenAI, ad esempio
openai/v1/my-model/chat/completions. Il corpo della richiesta include il nome della distribuzione.
Prerequisiti
Un'istanza di API Management esistente. Crearne una se non è già stato fatto.
Uno strumenti Fonderia nella sottoscrizione con uno o più modelli distribuiti. Ad esempio, i modelli distribuiti in Microsoft Foundry o Azure OpenAI.
Per abilitare la memorizzazione nella cache semantica per l'API, vedere Abilitare la memorizzazione nella cache semantica delle risposte per i prerequisiti.
Per applicare controlli di sicurezza del contenuto nell'API, vedere Applicare controlli di sicurezza del contenuto alle richieste LLM per i prerequisiti.
Importare l'API Microsoft Foundry usando il portale
Usare la procedura seguente per importare un'API di intelligenza artificiale in Gestione API.
Quando si importa l'API, Gestione API configura automaticamente:
- Operazioni per ciascun endpoint dell'API REST.
- Identità assegnata dal sistema con le autorizzazioni necessarie per accedere alla distribuzione dello strumento Foundry.
- Una risorsa backend e dei criteri set-backend-service che indirizzano le richieste API all'endpoint Azure AI Services.
- Autenticazione al back-end usando l'identità gestita assegnata dal sistema dell'istanza.
- (facoltativamente) Criteri che consentono di monitorare e gestire l'API.
Per importare un'API di Microsoft Foundry nella Gestione delle API:
Nel portale di Azure passare all'istanza di Gestione API.
Nel menu a sinistra, in API, selezionare >.
In Crea da risorsa Azure, selezionare Microsoft Foundry.
Nella scheda Seleziona servizio di intelligenza artificiale :
Nella scheda Configura API :
Immettere un Nome visualizzato e una Descrizione facoltativa per l'API.
In Percorso di base immettere un percorso usato dall'istanza di Gestione API per accedere all'endpoint di distribuzione.
Facoltativamente, selezionare uno o più prodotti da associare all'API.
In Compatibilità client selezionare una delle opzioni seguenti in base ai tipi di client che si intende supportare. Per altre informazioni, vedere Opzioni di compatibilità client .
- Azure OpenAI : selezionare questa opzione se i client devono accedere solo ad Azure OpenAI nelle distribuzioni di modelli di Microsoft Foundry.
- Intelligenza artificiale di Azure : selezionare questa opzione se i client devono accedere ad altri modelli in Microsoft Foundry.
- Azure OpenAI v1 : selezionare questa opzione se si vuole usare l'API OpenAI di Azure versione 1 con le distribuzioni del modello Foundry.
Seleziona Avanti.
Nella scheda Gestisci consumo di token immettere facoltativamente le impostazioni o accettare le impostazioni predefinite che definiscono i criteri seguenti per monitorare e gestire l'API:
Nella scheda Applica memorizzazione nella cache semantica immettere facoltativamente le impostazioni o accettare le impostazioni predefinite che definiscono i criteri per ottimizzare le prestazioni e ridurre la latenza per l'API:
Nella scheda Sicurezza del contenuto di intelligenza artificiale immettere facoltativamente le impostazioni o accettare le impostazioni predefinite per configurare il servizio Sicurezza del contenuto di Intelligenza artificiale di Azure per bloccare le richieste con contenuto non sicuro:
Seleziona Esamina.
Dopo che il portale convalida le impostazioni, selezionare Crea.
Testare l'API di intelligenza artificiale
Per assicurarsi che l'API di intelligenza artificiale funzioni come previsto, testarla nella console di test di Gestione API.
Selezionare l'API creata nel passaggio precedente.
Selezionare la scheda Test.
Selezionare un'operazione compatibile con la distribuzione del modello. Nella pagina vengono visualizzati i campi per i parametri e le intestazioni.
Immettere i parametri e le intestazioni in base alle esigenze. A seconda dell'operazione, potrebbe essere necessario configurare o aggiornare un corpo della richiesta. Ecco un semplice esempio di richiesta per un'operazione di completamento di chat:
{ "model": "any", "messages": [ { "role": "user", "content": "Help me plan a trip to Paris", "max_tokens": 100 } ] }Annotazioni
Nella console di test Gestione API aggiunge automaticamente un'intestazione Ocp-Apim-Subscription-Key e imposta la chiave di sottoscrizione per la sottoscrizione all-access predefinita. Questa chiave fornisce l'accesso a ogni API nell'istanza di Gestione API. Per visualizzare facoltativamente l'intestazione Ocp-Apim-Subscription-Key , selezionare l'icona "occhio" accanto alla richiesta HTTP.
Selezionare Invia.
Quando il test ha esito positivo, il back-end risponde con un codice di risposta HTTP corretto e alcuni dati. La risposta include i dati di utilizzo dei token per monitorare e gestire il consumo di token del modello linguistico.
Contenuti correlati
- Limitazioni relative all'importazione di API
- Importare una specifica OpenAPI
- Importare un'API SOAP
- Importare un'API SOAP e convertirla in REST
- Importare un'API dell'App Service
- Importare un'API dell'app contenitore
- Importare un'API WebSocket
- Importare un'API GraphQL
- Importare uno schema di GraphQL e configurare resolver di campo
- Importare un’API dell'app per le funzioni
- Importare un'API per un'app di logica
- Importare un servizio Service Fabric
- Importare un'API Microsoft Foundry
- Importare un'API OpenAI Azure
- Importare un'API LLM
- Importare un'API OData
- Esportare un'API REST come server MCP
- Rendere visibile un server MCP esistente
- Importare un'API dell'agente A2A
- Importare metadati OData SAP
- Importare un'API gRPC
- Modificare un'API