Freigeben über


Importieren einer Microsoft Foundry-API

GILT FÜR: Alle API Management-Ebenen

Sie können KI-Modellendpunkte in Microsoft Foundry bereitstellen und diese in Ihre API-Verwaltungsinstanz als APIs importieren. Verwenden Sie KI-Gatewayrichtlinien und andere Funktionen in der API-Verwaltung, um die Integration zu vereinfachen, die Observierbarkeit zu verbessern und die Kontrolle über die Modellendpunkte zu verbessern.

Weitere Informationen zum Verwalten von KI-APIs in der API-Verwaltung finden Sie unter:

Clientkompatibilitätsoptionen

DIE API-Verwaltung unterstützt die folgenden Clientkompatibilitätsoptionen für KI-APIs von Microsoft Foundry. Wenn Sie die API mithilfe des Assistenten importieren, wählen Sie die Option aus, die für ihre Modellbereitstellung geeignet ist. Die Option bestimmt, wie Clients die API aufrufen und wie die API-Verwaltungsinstanz Anforderungen an das Foundry-Tool weiterleitet.

  • Azure OpenAI: Verwalten von Azure OpenAI in Microsoft Foundry-Modellbereitstellungen.

    Clients rufen die Bereitstellung an einem /openai-Endpunkt wie /openai/deployments/my-deployment/chat/completions auf. Der Anforderungspfad enthält den Bereitstellungsnamen. Verwenden Sie diese Option, wenn Ihr Foundry-Tool nur Azure OpenAI-Modellbereitstellungen enthält.

  • Azure AI: Verwalten Sie Modellendpunkte in Microsoft Foundry, die über die Azure AI-Modell-Inference-API verfügbar gemacht werden.

    Clients rufen die Bereitstellung an einem /models-Endpunkt wie /my-model/models/chat/completions auf. Der Anforderungstext enthält den Bereitstellungsnamen. Verwenden Sie diese Option, wenn Sie flexibel zwischen Modellen wechseln möchten, die über die Azure AI Model Inference-API und die in Azure OpenAI in Foundry Models bereitgestellt werden.

  • Azure OpenAI v1 – Verwalten von Azure OpenAI in Microsoft Foundry-Modellbereitstellungen mithilfe der Azure OpenAI-API, Version 1-API.

    Clients rufen die Bereitstellung an einem Azure OpenAI v1-Modellendpunkt wie openai/v1/my-model/chat/completions auf. Der Anforderungstext enthält den Bereitstellungsnamen.

Voraussetzungen

  • Eine bestehende API Management-Instanz. Erstellen Sie bitte eine, falls noch nicht geschehen.

  • Ein Foundry Tool in Ihrem Abonnement mit einem oder mehreren bereitgestellten Modellen. Beispiele sind Modelle, die in Microsoft Foundry oder Azure OpenAI bereitgestellt werden.

Importieren der Microsoft Foundry-API mithilfe des Portals

Führen Sie die folgenden Schritte aus, um eine KI-API in die API-Verwaltung zu importieren.

Wenn Sie die API importieren, konfiguriert API Management automatisch Folgendes:

  • Vorgänge für jeden REST-API-Endpunkt der API.
  • Eine vom System zugewiesene Identität mit den erforderlichen Berechtigungen für den Zugriff auf die Tool-Bereitstellung von Foundry.
  • Eine backend-Ressource und eine set-backend-service-Richtlinie, die API-Anforderungen an den Azure AI Services-Endpunkt weiterleitet.
  • Authentifizierung für das Back-End mithilfe der vom System zugewiesenen verwalteten Identität der Instanz.
  • (optional) Richtlinien, mit denen Sie die API überwachen und verwalten können.

So importieren Sie eine Microsoft Foundry-API in die API-Verwaltung:

  1. Wechseln Sie im Azure-Portal zu Ihrer API-Verwaltungsinstanz.

  2. Wählen Sie im linken Menü unter APIs die Option APIs>+ API hinzufügen aus.

  3. Wählen Sie unter Aus Azure Ressource erstellenMicrosoft Foundry aus.

    Screenshot der Erstellung einer openAI-kompatiblen API im Portal.

  4. Wählen Sie auf der Registerkarte "AI-Dienst auswählen " folgendes aus:

    1. Wählen Sie das Abonnement aus, in dem Nach Foundry Tools gesucht werden soll. Um Informationen zu den Modellbereitstellungen in einem Dienst abzurufen, wählen Sie den Link "Bereitstellungen " neben dem Dienstnamen aus. Screenshot der Bereitstellungen für einen KI-Dienst im Portal.
    2. Wählen Sie ein Foundry-Tool aus.
    3. Wählen Sie Weiteraus.
  5. Auf der Registerkarte "API konfigurieren ":

    1. Geben Sie einen Anzeigenamen und optional eine Beschreibung für die API ein.

    2. Geben Sie im Basispfad einen Pfad ein, den Ihre API-Verwaltungsinstanz für den Zugriff auf den Bereitstellungsendpunkt verwendet.

    3. Wählen Sie optional ein oder mehrere Produkte aus, die der API zugeordnet werden sollen.

    4. Wählen Sie in der Clientkompatibilität eine der folgenden Optionen basierend auf den Clienttypen aus, die Sie unterstützen möchten. Weitere Informationen finden Sie unter Clientkompatibilitätsoptionen .

      • Azure OpenAI – Wählen Sie diese Option aus, wenn Ihre Clients nur in Microsoft Foundry-Modellbereitstellungen auf Azure OpenAI zugreifen müssen.
      • Azure AI – Wählen Sie diese Option aus, wenn Ihre Clients auf andere Modelle in Microsoft Foundry zugreifen müssen.
      • Azure OpenAI v1 – Wählen Sie diese Option aus, wenn Sie die Azure OpenAI-API Version 1 mit Ihren Foundry-Modellbereitstellungen verwenden möchten.
    5. Wählen Sie Weiteraus.

      Screenshot der Konfiguration der Microsoft Foundry-API im Portal.

  6. Geben Sie auf der Registerkarte " Tokenverbrauch verwalten " optional Einstellungen ein, oder akzeptieren Sie Standardeinstellungen, die die folgenden Richtlinien definieren, um die API zu überwachen und zu verwalten:

  7. Geben Sie auf der Registerkarte " Semantisches Zwischenspeichern anwenden " optional Einstellungen ein, oder akzeptieren Sie Standardeinstellungen, die die Richtlinien definieren, um die Leistung zu optimieren und die Latenz für die API zu verringern:

  8. Geben Sie optional auf der Registerkarte "KI-Inhaltssicherheit " Einstellungen ein, oder akzeptieren Sie Standardeinstellungen zum Konfigurieren des Azure AI Content Safety-Diensts, um Eingabeaufforderungen mit unsicherem Inhalt zu blockieren:

  9. Wählen Sie Überprüfen aus.

  10. Nachdem das Portal die Einstellungen überprüft hat, wählen Sie "Erstellen" aus.

Testen der KI-API

Um sicherzustellen, dass Ihre KI-API erwartungsgemäß funktioniert, testen Sie sie in der API-Verwaltungstestkonsole.

  1. Wählen Sie die API aus, die Sie im vorherigen Schritt erstellt haben.

  2. Wählen Sie die Registerkarte Testen aus.

  3. Wählen Sie einen Vorgang aus, der mit der Modellbereitstellung kompatibel ist. Auf der Seite werden Felder für Parameter und Header angezeigt.

  4. Geben Sie bei Bedarf Parameter und Header ein. Je nach Vorgang müssen Sie möglicherweise einen Anforderungstext konfigurieren oder aktualisieren. Hier ist ein grundlegender Beispielanforderungstext für einen Chat-Abschlussvorgang:

    {
      "model": "any",
      "messages": [
        {
          "role": "user",
          "content": "Help me plan a trip to Paris",
          "max_tokens": 100
        }
      ]
    }
    

    Hinweis

    In der Testkonsole fügt die API-Verwaltung automatisch einen Ocp-Apim-Subscription-Key-Header hinzu und legt den Abonnementschlüssel für das integrierte All-Access-Abonnement fest. Dieser Schlüssel bietet Zugriff auf jede API in der API-Verwaltungsinstanz. Um optional den Ocp-Apim-Subscription-Key-Header anzuzeigen, wählen Sie das Symbol "eye" neben der HTTP-Anforderung aus.

  5. Wählen Sie "Senden" aus.

    Wenn der Test erfolgreich ist, antwortet das Back-End mit einem erfolgreichen HTTP-Antwortcode und einigen Daten. Die Antwort enthält Tokennutzungsdaten, die Ihnen bei der Überwachung und Verwaltung Des Sprachmodelltokenverbrauchs helfen.