Referência de visualização da API REST do Azure OpenAI no Microsoft Foundry Models

Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.

API specs

O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API primária:

  • Control plane
  • Plano de dados – criação
  • Plano de dados – inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem seu próprio conjunto exclusivo de versões de API GA (versão prévia e estável/geralmente disponível). Versões prévias atualmente tendem a seguir uma cadência mensal.

Important

Agora há uma nova API de inferência de visualização. Saiba mais em nosso guia de ciclo de vida da API.

API Versão prévia mais recente Versão mais recente do GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files A API do painel de controle é usada para operações como a criação de recursos, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também controla o que é possível fazer com recursos como o Azure Resource Manager, o Bicep, o Terraform e a CLI do Azure.
Data plane v1 preview v1 Spec files A API do plano de dados controla operações de inferência e criação.

Authentication

O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou a ID do Microsoft Entra.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a Chave de API no api-key cabeçalho HTTP. O Início Rápido fornece diretrizes sobre como fazer chamadas com esse tipo de autenticação.

  • Autenticação da ID do Microsoft Entra: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o Authorization cabeçalho. O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN. Você pode ler nosso guia de instruções sobre como autenticar com a ID do Microsoft Entra.

Controle de versão da API REST

As APIs de serviço são usadas com versão usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de data deMM-DD YYYY. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a 2025-04-01-preview versão prévia da especificação de inferência do plano de dados do Azure OpenAI.

Se você estiver procurando documentação sobre a versão mais recente da API ga, consulte a API de inferência do plano de dados ga mais recente

Conclusões – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
best_of inteiro Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos para retornar ââ'¬â€œ best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop.
No 1
echo boolean Ecoe novamente o prompt, além da conclusão No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. No 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.

Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo é logprobs 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens da sua adição max_tokens de prompt não pode exceder o tamanho do contexto do modelo.
No 16
n inteiro Quantas conclusões serão geradas para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. No 0
solicitação cadeia de caracteres ou matriz O prompt para o qual gerar conclusões, codificadas como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento.
Yes
seed inteiro Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até quatro sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção. No
fluxo boolean Se o progresso parcial deve ser transmitido de volta. Se definidos, os tokens são enviados como eventos enviados apenas por servidor de dados conforme ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo de código python.
No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct.
No None
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico.

Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Inserções – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenha uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia A ID de implantação do modelo que foi implantado.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
dimensions inteiro O número de dimensões que as inserções de saída resultantes devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. No
encoding_format cadeia O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64. O padrão é float. No
entrada cadeia de caracteres ou matriz Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. Yes
input_type cadeia tipo de entrada de pesquisa de inserção a ser usada No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto

Examples

Example

Retorne as inserções para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusões de chat – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Cria uma conclusão para a mensagem de chat

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ format enumeração Especifica o formato de áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16.

Valores possíveis: wav, , mp3, flac, opus, pcm16
No
└─ voice enumeração Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.

Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
No
data_sources matriz As entradas de configuração para extensões de chat do Azure OpenAI que as usam.
Essa especificação extra só é compatível com o Azure OpenAI.
No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim.
No 0
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual função (se houver) é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
No
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.
No None
logprobs boolean Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content valor de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo.
No
messages matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código python. Yes
metadados objeto Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no painel de conclusões armazenados. No
modalities ChatCompletionModalities Tipos de saída que você gostaria que o modelo gerasse para essa solicitação.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
No
n inteiro Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. No 1
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
previsão PredictionContent Configuração para uma Saída Prevista, que pode melhorar consideravelmente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
No 0
reasoning_effort enumeração somente modelos o1

Restringe o esforço no raciocínio para modelos de raciocínio.

Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Valores possíveis: low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Beta.
Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais.
No
armazenar boolean Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. No
fluxo boolean Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo de código python.
No False
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico.

Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
tool_choice chatCompletionToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. No
tools matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se esse parâmetro for usado. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos.
No
user_security_context userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão com base nos dados de vetor de imagem do Azure Search.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Banco de Dados do Mongo fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Elasticsearch fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o recurso pinecone fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcreve o áudio no idioma de entrada.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
modelo cadeia ID do modelo a ser usado. As opções são gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1gpt-4o-transcribe-diarize. Yes
arquivo cadeia O objeto de arquivo de áudio a ser transcrever. Yes
linguagem cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para ambas ou ambas as opções: wordou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas gerar carimbos de data/hora de palavra incorre em latência adicional. No ['segment']

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto
text/plain cadeia Texto transcrito no formato de saída (quando response_format era de text, vtt ou srt).

Examples

Example

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcreve e converte o áudio de entrada em texto em inglês.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio a ser convertido. Yes
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json objeto
text/plain cadeia Texto transcrito no formato de saída (quando response_format era um de texto, vtt ou srt).

Examples

Example

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Fala – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Gera áudio do texto de entrada.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
entrada cadeia O texto para o qual sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Yes
response_format enumeração O formato no qual sintetizar o áudio.
Valores possíveis: mp3, , opus, aac, flac, , wavpcm
No
speed number A velocidade do áudio sintetizado. Selecione um valor de 0.25 até 4.0. 1.0 é o padrão. No 1.0
voice enumeração A voz a ser usada para síntese de fala.
Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/octet-stream cadeia

Examples

Example

Sintetiza o áudio do texto fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Respostas: Código de Status: 200

{
  "body": "101010101"
}

Gerações de imagem – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Gera um lote de imagens de uma legenda de texto em uma determinada implantação de modelo de geração de imagem

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
em segundo plano imageBackground Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. No auto
n inteiro O número de imagens a serem geradas. Para dall-e-3, há suporte apenas para n=1. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. No 100
output_format imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. No png
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 Yes
partial_images inteiro O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. 0
fluxo boolean Edite a imagem no modo de streaming. no false
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.
Valores possíveis: url, b64_json.
No url
size imageSize O tamanho das imagens geradas. No auto
estilo imageStyle O estilo das imagens geradas. Só há suporte para dall-e-3. No vivid
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. No

Responses

Código de status: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de Status: padrão

Descrição: ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Cria imagens fornecidas por um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de Status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Gerações de imagem – Editar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Edita uma imagem de uma legenda de texto em uma determinada implantação de modelo gpt-image-1

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: multipart/form-data

Name Tipo Description Required Default
imagem cadeia de caracteres ou matriz As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 50 MB. Yes
input_fidelity cadeia Controlar o esforço que o modelo exercerá para corresponder ao estilo e aos recursos, especialmente os recursos faciais, das imagens de entrada. Esse parâmetro só tem suporte para modelos da série gpt-image-1. Suportes high e low. no low.
máscara cadeia Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. No
n inteiro O número de imagens a serem geradas. Deve estar entre 1 e 10. No 1
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
partial_images O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente.
fluxo boolean Edite a imagem no modo de streaming. no false
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
size imageSize O tamanho das imagens geradas. No auto
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. No

Responses

Código de status: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de Status: padrão

Descrição: ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Lista - Assistentes

Note

A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Retorna uma lista de assistentes.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Retorna uma lista de assistentes.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Criar – Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Crie um assistente com um modelo e instruções.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia Yes
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
└─ vector_stores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Crie um assistente com um modelo e instruções.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obter – Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Recupera um assistente.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A ID do assistente a ser recuperado.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Recupera um assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modificar – Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica um assistente.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A ID do assistente a ser modificada.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia No
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Substitui a lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz Substitui o repositório de vetores anexado a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifica um assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Excluir – Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Excluir um assistente.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A ID do assistente a ser excluída.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Exclui um assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Criar – Thread

Note

A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Crie um thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
messages matriz Uma lista de mensagens para iniciar o thread. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No
└─ vector_stores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Cria um thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obter – Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera um thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser recuperado.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Recupera um thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modificar – Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica um thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser modificado. Somente o metadata pode ser modificado.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de Arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifica um thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Excluir – Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Excluir um thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser excluído.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Exclui um thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Lista – Mensagens

Note

A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Retorna uma lista de mensagens para um determinado thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads aos quais as mensagens pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
run_id consulta No cadeia Filtre mensagens pela ID de execução que as gerou.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Criar – Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Crie uma mensagem.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads para o qual criar uma mensagem.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. No
conteúdo cadeia O conteúdo da mensagem. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
função cadeia A função da entidade que está criando a mensagem. Os valores permitidos incluem:
- user: indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Crie uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obter – Mensagem

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recupere uma mensagem.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads aos quais essa mensagem pertence.
message_id caminho Yes cadeia A ID da mensagem a ser recuperada.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Recupere uma mensagem.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modificar – Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica uma mensagem.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread ao qual essa mensagem pertence.
message_id caminho Yes cadeia A ID da mensagem a ser modificada.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modificar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Criar – Thread e Executar

Note

A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Crie um thread e execute-o em uma solicitação.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente a ser usada para executar essa execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem.
No
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
conversa createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
No
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz A ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crie um thread e execute-o em uma solicitação.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Lista – Execuções

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retorna uma lista de execuções que pertencem a um thread.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread ao qual a execução pertence.
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Retorna uma lista de execuções que pertencem a um thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Criar – Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Crie uma execução.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser executado.
include[] consulta No matriz Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado da pesquisa de arquivo.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
additional_instructions cadeia Acrescenta instruções adicionais ao final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. No
additional_messages matriz Adiciona mensagens adicionais ao thread antes de criar a execução. No
assistant_id cadeia A ID do assistente a ser usada para executar essa execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crie uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obter – Executar

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera uma execução.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads executados.
run_id caminho Yes cadeia A ID da execução a ser recuperada.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Obtém uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modificar – Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica uma execução.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads executados.
run_id caminho Yes cadeia A ID da execução a ser modificada.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifica uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Enviar – Saídas da ferramenta a serem executadas

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads aos quais essa execução pertence.
run_id caminho Yes cadeia A ID da execução que requer o envio de saída da ferramenta.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem.
No
tool_outputs matriz Uma lista de ferramentas para as quais as saídas estão sendo enviadas. Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Cancelar – Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Cancela uma execução que é in_progress.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread ao qual essa execução pertence.
run_id caminho Yes cadeia A ID da execução a ser cancelada.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Cancela uma execução que é in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Lista – Etapas de Execução

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retorna uma lista de etapas de execução que pertencem a uma execução.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread à qual as etapas executar e executar pertencem.
run_id caminho Yes cadeia A ID da execução à qual as etapas de execução pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia
include[] consulta No matriz Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado da pesquisa de arquivo.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Retorna uma lista de etapas de execução que pertencem a uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Obter – Etapa de Execução

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera uma etapa de execução.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread ao qual a etapa executar e executar pertence.
run_id caminho Yes cadeia A ID da execução à qual a etapa de execução pertence.
step_id caminho Yes cadeia A ID da etapa de execução a ser recuperada.
include[] consulta No matriz Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado da pesquisa de arquivo.
api-version consulta Yes cadeia

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Recupera uma etapa de execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Lista – Repositórios de Vetores

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retorna uma lista de repositórios de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Retorna uma lista de repositórios de vetores.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Criar – Repositório vetor

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Crie um repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. No
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Cria um repositório de vetores.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Get – Vector Store

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera um repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser recuperado.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Recupera um repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modificar – Repositório de Vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica um repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser modificado.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifica um repositório de vetores.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Excluir – Repositório de Vetores

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Excluir um repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser excluído.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Exclui um repositório de vetores.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Lista – Arquivos do Repositório de Vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos do repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual os arquivos pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta No cadeia
Valores possíveis: in_progress, , completed, failedcancelled
Filtrar por status do arquivo. Um de in_progress, completed, failed, . cancelled
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retorna uma lista de arquivos do repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar – Arquivo do Repositório vetor

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores para o qual criar um Arquivo.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. No
file_id cadeia Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obter – Arquivo do Repositório vetor

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera um arquivo de repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo que está sendo recuperado.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Recupera um arquivo de repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Excluir – Arquivo do Repositório vetor

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Exclua um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de arquivo de exclusão.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo a ser excluído.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Exclua um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de arquivo de exclusão.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Atualizar atributos em um arquivo de repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo para atualizar atributos.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Recuperar o conteúdo do arquivo do repositório vetor

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recupere o conteúdo analisado de um arquivo de repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores.
file_id caminho Yes cadeia A ID do arquivo no repositório de vetores.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Repositório de vetores de pesquisa

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Pesquise em um repositório de vetores partes relevantes com base em um filtro de atributos de consulta e arquivo.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser pesquisado.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
filters ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. No 10
consulta cadeia de caracteres ou matriz Uma cadeia de caracteres de consulta para uma pesquisa Yes
ranking_options objeto Opções de classificação para pesquisa. No
└─ ranker enumeração
Valores possíveis: auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Se deseja reescrever a consulta de linguagem natural para pesquisa de vetor. No False

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Criar – Lote de Arquivos do Repositório vetor

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Crie um lote de arquivos do repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores para o qual criar um Lote de Arquivos.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Request Body

Content-Type: application/json

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. Yes

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Crie um lote de arquivos do repositório de vetores.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Respostas: Código de Status: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Get – Lote de Arquivos do Repositório vetor

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera um lote de arquivos do repositório de vetores.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia A ID do lote de arquivos que está sendo recuperado.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Recupera um lote de arquivos do repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Cancelar – Lote de Arquivos do Repositório vetor

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Cancelar um lote de arquivos do repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia A ID do lote de arquivos a ser cancelada.
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Cancelar um lote de arquivos do repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Lista – Arquivos do Lote de Arquivos do Repositório vetor

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos do repositório de vetores em um lote.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual os arquivos pertencem.
batch_id caminho Yes cadeia A ID do lote de arquivos à qual os arquivos pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo created_at carimbo de data/hora dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta No cadeia
Valores possíveis: in_progress, , completed, failedcancelled
Filtrar por status do arquivo. Um de in_progress, completed, failed, . cancelled
api-version consulta Yes cadeia api version

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retorna uma lista de arquivos do repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar – Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime. Pode ser configurado com os mesmos parâmetros de sessão que o session.update evento cliente. Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmera utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.

Request Body

Content-Type: application/json

Name Tipo Description Required Default
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto A configuração para transcrição de áudio de entrada, o padrão é desativada e pode ser definida para null desativar uma vez. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ model cadeia O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1
No
└─ prompt cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado.

Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta de assistente, incluindo chamadas de ferramenta. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
modelo cadeia O nome da implantação usada para esta sessão.
No
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho.
No 0.8
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função.
No auto
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ interrupt_response boolean Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Código de status: 200

Descrição: sessão criada com êxito.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Criar - Sessão de Transcrição em Tempo Real

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime especificamente para transcrições em tempo real. Pode ser configurado com os mesmos parâmetros de sessão que o transcription_session.update evento cliente. Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmera utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.

Request Body

Content-Type: application/json

Name Tipo Description Required Default
include matriz O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são:
- item.input_audio_transcription.logprobs
No
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ model enumeração O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1.

Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ prompt cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
turn_detection objeto Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad. Não disponível para sessões de transcrição.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ interrupt_response boolean Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD. Não disponível para sessões de transcrição.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No

Responses

Código de status: 200

Descrição: sessão criada com êxito.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Cria uma resposta de modelo.

Request Body

Content-Type: application/json

Name Tipo Description Required Default
include matriz No
entrada cadeia de caracteres ou matriz Model inputs Yes
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.
No True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversa.
No
reasoning Reasoning Opções de configuração para modelos de raciocínio. No
armazenar boolean Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API.
No True
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor.
Consulte a seção Streaming abaixo para obter mais informações.
No False
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more:
– Entradas e saídas de texto
– Saídas estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

O formato padrão não tem { "type": "text" } opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o
model's capabilities
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

API de respostas – itens de entrada

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera uma resposta de modelo com a ID fornecida.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia A ID da resposta a ser recuperada.
include consulta No matriz Campos adicionais a serem incluídos na resposta. Consulte o include parâmetro para criação de resposta acima para obter mais informações.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json response

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Exclui uma resposta de modelo com a ID fornecida.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia A ID da resposta a ser excluída.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Código de status: 404

Descrição: Não encontrado

Content-Type Type Description
application/json error

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

API de respostas – lista de itens de resposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retorna uma lista de itens de entrada para uma determinada resposta.

URI Parameters

Name In Required Tipo Description
ponto de extremidade caminho Yes string url Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia A ID da resposta para a qual recuperar itens de entrada.
limit consulta No inteiro Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
A ordem para retornar os itens de entrada. O padrão é asc.
- asc: retorne os itens de entrada em ordem crescente.
- desc: retorne os itens de entrada em ordem decrescente.
after consulta No cadeia Uma ID de item para listar itens depois, usada na paginação.
before consulta No cadeia Uma ID de item para listar itens anteriormente, usada na paginação.

Request Header

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopo: https://ai.azure.com/.default
api-key True cadeia Forneça a chave da API openai do Azure aqui

Responses

Código de status: 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Tipo Description Required Default
erro error No

errorBase

Name Tipo Description Required Default
codificar cadeia No
mensagem cadeia No

erro

Name Tipo Description Required Default
inner_error innerError Erro interno com detalhes adicionais. No
param cadeia No
tipo cadeia No

innerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No

innerErrorCode

Códigos de erro para o objeto de erro interno.

Property Value
Description Códigos de erro para o objeto de erro interno.
Type cadeia
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Tipo Description Required Default
erro dalleError No

dalleError

Name Tipo Description Required Default
inner_error dalleInnerError Erro interno com detalhes adicionais. No
param cadeia No
tipo cadeia No

dalleInnerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No
revised_prompt cadeia O prompt que foi usado para gerar a imagem, se houve alguma revisão no prompt. No

contentFilterCompletionTextSpan

Descreve um intervalo dentro do texto de conclusão gerado. Deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.

Name Tipo Description Required Default
completion_end_offset inteiro Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset para intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. Yes
completion_start_offset inteiro Deslocamento do ponto de código UTF32 que inicia o intervalo. Yes

contentFilterResultBase

Name Tipo Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Tipo Description Required Default
filtered boolean Yes
severity cadeia No

contentFilterDetectedResult

Name Tipo Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Tipo Description Required Default
citation objeto No
└─ URL cadeia No
└─ license cadeia No

contentFilterDetectedWithCompletionTextSpansResult

Name Tipo Description Required Default
details matriz No

contentFilterIdResult

Name Tipo Description Required Default
filtered boolean Yes
id cadeia No

contentFilterResultsBase

Informações sobre os resultados da filtragem de conteúdo.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto e palavrões de terceiros, se tiver sido detectado e se tiver sido filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados.

Name Tipo Description Required Default
details matriz No
filtered boolean Yes

promptFilterResult

Os resultados da filtragem de conteúdo para um único prompt na solicitação.

Name Tipo Description Required Default
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No
prompt_index inteiro No

promptFilterResults

Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes.

Nenhuma propriedade definida para esse componente.

dalleContentFilterResults

Informações sobre os resultados da filtragem de conteúdo.

Name Tipo Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Tipo Description Required Default
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. No 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. No
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 – tokens de prompt). Isso não é compatível com modelos da série O1. No 4096
metadados objeto Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no painel de conclusões armazenados. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. No 0
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais. No
armazenar boolean Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. No
fluxo boolean Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. No False
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.
Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o Azure OpenAI a monitorar e detectar abusos. No

createCompletionRequest

Name Tipo Description Required Default
best_of inteiro Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de conclusões do candidato e n especifica quantos retornarão. best_of deve ser maior que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop.
No 1
echo boolean Ecoe novamente o prompt, além da conclusão
No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim.
No 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.

Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo é logprobs 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens da sua adição max_tokens de prompt não pode exceder o tamanho do contexto do modelo.
No 16
n inteiro Quantas conclusões serão geradas para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
No 0
solicitação cadeia de caracteres ou matriz Os prompts para gerar conclusões, codificados como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento.
Yes
seed inteiro Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção.
No
fluxo boolean Se o progresso parcial deve ser transmitido de volta. Se definidos, os tokens são enviados como eventos enviados apenas por servidor de dados conforme ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo de código python.
No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct.
No None
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.

Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos.
No

createCompletionResponse

Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade de chat).

Name Tipo Description Required Default
choices matriz A lista de opções de conclusão que o modelo gerou para o prompt de entrada. Yes
created inteiro O carimbo de data/hora Unix (em segundos) de quando a conclusão foi criada. Yes
id cadeia Um identificador exclusivo para a conclusão. Yes
modelo cadeia O modelo usado para conclusão. Yes
objeto enumeração O tipo de objeto, que é sempre "text_completion"
Valores possíveis: text_completion
Yes
prompt_filter_results promptFilterResults Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo.
No
uso completionUsage Estatísticas de uso para a solicitação de conclusão. No

createChatCompletionRequest

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ format enumeração Especifica o formato de áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16.

Valores possíveis: wav, , mp3, flac, opus, pcm16
No
└─ voice enumeração Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.

Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
No
data_sources matriz As entradas de configuração para extensões de chat do Azure OpenAI que as usam.
Essa especificação adicional só é compatível com o Azure OpenAI.
No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim.
No 0
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual função (se houver) é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
No
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.
No None
logprobs boolean Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content valor de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo.
No
messages matriz Uma lista de mensagens que compõem a conversa até agora. Exemplo de código python. Yes
metadados objeto Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no painel de conclusões armazenados. No
modalities ChatCompletionModalities Tipos de saída que você gostaria que o modelo gerasse para essa solicitação.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
No
n inteiro Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. No 1
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
previsão PredictionContent Configuração para uma Saída Prevista, que pode melhorar consideravelmente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
No 0
reasoning_effort enumeração somente modelos o1

Restringe o esforço no raciocínio para modelos de raciocínio.

Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Valores possíveis: low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Beta.
Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais.
No
armazenar boolean Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. No
fluxo boolean Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Exemplo de código python.
No False
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.

Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
tool_choice chatCompletionToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. No
tools matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se esse parâmetro for usado. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos.
No
user_security_context userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. No

userSecurityContext

O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.

Name Tipo Description Required Default
application_name cadeia O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas neste campo. No
end_user_id cadeia Esse identificador é a ID de objeto de usuário do Microsoft Entra (antigo Azure Active Directory) usada para autenticar usuários finais no aplicativo de IA generativo. Informações pessoais confidenciais não devem ser incluídas neste campo. No
end_user_tenant_id cadeia A ID do locatário do Microsoft 365 à qual o usuário final pertence. Ele é necessário quando o aplicativo de IA gerativo é multilocatário. No
source_ip cadeia Captura o endereço IP do cliente original, aceitando formatos IPv4 e IPv6. No

chatCompletionFunctions

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No

chatCompletionFunctionCallOption

Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes

chatCompletionFunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Nenhuma propriedade definida para esse componente.

chatCompletionRequestMessage

Esse componente pode ser um dos seguintes:

ChatCompletionRequestDeveloperMessage

Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos o1 e mais recentes, developer as mensagens substituem as mensagens anteriores system .

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do desenvolvedor. Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso developer.
Valores possíveis: developer
Yes

chatCompletionRequestSystemMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do sistema. Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso system.
Valores possíveis: system
Yes

chatCompletionRequestUserMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do usuário.
Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso user.
Valores possíveis: user
Yes

chatCompletionRequestAssistantMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado.
No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. No
└─ arguments cadeia Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
refusal cadeia A mensagem de recusa do assistente. No
função enumeração A função do autor das mensagens, nesse caso assistant.
Valores possíveis: assistant
Yes
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

chatCompletionRequestToolMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem da ferramenta. Yes
função enumeração A função do autor das mensagens, nesse caso tool.
Valores possíveis: tool
Yes
tool_call_id cadeia Chamada de ferramenta à qual esta mensagem está respondendo. Yes

chatCompletionRequestFunctionMessage

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem de função. Yes
name cadeia O nome da função a ser chamada. Yes
função enumeração A função do autor das mensagens, nesse caso function.
Valores possíveis: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestSystemMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestUserMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestAssistantMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestToolMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestMessageContentPartText

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Tipo Description Required Default
input_audio objeto Yes
└─ data cadeia Dados de áudio codificados em Base64. No
└─ format enumeração O formato dos dados de áudio codificados. Atualmente, dá suporte a "wav" e "mp3".

Valores possíveis: wav, mp3
No
tipo enumeração O tipo da parte de conteúdo. Sempre input_audio.
Valores possíveis: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Tipo Description Required Default
image_url objeto Yes
└─ detail enumeração Especifica o nível de detalhes da imagem. Saiba mais no guia de Visão.
Valores possíveis: auto, , lowhigh
No
└─ url cadeia Uma URL da imagem ou os dados de imagem codificados em base64. No
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Tipo Description Required Default
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: refusal
Yes

azureChatExtensionConfiguration

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

###Discriminator para azureChatExtensionConfiguration

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Tipo Description Required Default
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Property Value
Description Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Type cadeia
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Search ao usá-la como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters azureSearchChatExtensionParameters Parâmetros para o Azure Search quando usados como uma extensão de chat do Azure OpenAI. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Parâmetros para o Azure Search quando usados como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource No
ponto de extremidade cadeia O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. Yes
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. No
filtro cadeia Search filter. No
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice a ser usado conforme disponível no recurso do Azure Search referenciado. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. No
semantic_configuration cadeia A configuração semântica adicional para a consulta. No
strictness inteiro A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. No

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser usado como um caminho de arquivo. No
image_vector_fields matriz Os nomes dos campos que representam dados de vetor de imagem. No
title_field cadeia O nome do campo de índice a ser usado como um título. No
url_field cadeia O nome do campo de índice a ser usado como UMA URL. No
vector_fields matriz Os nomes dos campos que representam dados de vetor. No

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Property Value
Description O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Type cadeia
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-la como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Azure Cosmos DB para MongoDB vCore. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Azure Cosmos DB para MongoDB vCore.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação do Azure OpenAI em seus dados ao usar uma cadeia de conexão. Yes
container_name cadeia O nome do contêiner de recursos do Azure Cosmos DB. Yes
database_name cadeia O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Yes
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice vCore do MongoDB a ser usado com o Azure Cosmos DB. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. No

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser usado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser usado como um título. No
url_field cadeia O nome do campo de índice a ser usado como UMA URL. No
vector_fields matriz Os nomes dos campos que representam dados de vetor. Yes

elasticsearchChatExtensionConfiguration

Uma representação específica das opções configuráveis para o Elasticsearch ao usá-la como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters elasticsearchChatExtensionParameters Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
autenticação onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource No
ponto de extremidade cadeia O ponto de extremidade do Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. No
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice de Elasticsearch®. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
query_type elasticsearchQueryType O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. No
strictness inteiro A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. No

elasticsearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser usado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser usado como um título. No
url_field cadeia O nome do campo de índice a ser usado como UMA URL. No
vector_fields matriz Os nomes dos campos que representam dados de vetor. No

elasticsearchQueryType

O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Property Value
Description O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Type cadeia
Values simple
vector

mongoDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters mongoDBChatExtensionParameters Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Mongo DB. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Mongo DB.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
app_name cadeia O nome do aplicativo Mongo DB. Yes
autenticação onYourDataUsernameAndPasswordAuthenticationOptions As opções de autenticação do Azure OpenAI em seus dados ao usar um nome de usuário e uma senha. Yes
collection_name cadeia O nome da Coleção Mongo DB. Yes
database_name cadeia O nome do banco de dados mongo DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
ponto de extremidade cadeia O nome do ponto de extremidade do cluster do Mongo DB. Yes
fields_mapping mongoDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso do Mongo DB configurado. Yes
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice mongo DB. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. No

mongoDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso do Mongo DB configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser usado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser usado como um título. No
url_field cadeia O nome do campo de índice a ser usado como UMA URL. No
vector_fields matriz Os nomes dos campos que representam dados de vetor. Yes

pineconeChatExtensionConfiguration

Uma representação específica de opções configuráveis para Pinecone ao usá-la como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
parameters pineconeChatExtensionParameters Parâmetros para configurar extensões de chat do Azure OpenAI Pinecone. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Yes

pineconeChatExtensionParameters

Parâmetros para configurar extensões de chat do Azure OpenAI Pinecone.

Name Tipo Description Required Default
allow_partial_result boolean Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. No False
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave de API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa de vetor, que se baseia em um nome de implantação de modelo de inserção interna no mesmo recurso do Azure OpenAI. Yes
ambiente cadeia O nome do ambiente de Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso do Pinecone configurado. Yes
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice de banco de dados pinecone. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número superior configurado de documentos a serem apresentados para a consulta configurada. No

pineconeFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso do Pinecone configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser usado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser usado como um título. No
url_field cadeia O nome do campo de índice a ser usado como UMA URL. No

onYourDataAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados.

Discriminador para onYourDataAuthenticationOptions

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataContextProperty

A propriedade de contexto.

Property Value
Description A propriedade de contexto.
Type cadeia
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados.

Property Value
Description Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados.
Type cadeia
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave de API.

Name Tipo Description Required Default
chave cadeia A chave de API a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar uma cadeia de conexão.

Name Tipo Description Required Default
connection_string cadeia A cadeia de conexão a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave Elasticsearch e um par de IDs de chave.

Name Tipo Description Required Default
chave cadeia A chave Elasticsearch a ser usada para autenticação. No
key_id cadeia A ID da chave Elasticsearch a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataEncodedApiKeyAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave de API codificada do Elasticsearch.

Name Tipo Description Required Default
encoded_api_key cadeia A chave de API codificada do Elasticsearch a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataAccessTokenAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar o token de acesso.

Name Tipo Description Required Default
access_token cadeia O token de acesso a ser usado para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar uma identidade gerenciada atribuída pelo sistema.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar uma identidade gerenciada atribuída pelo usuário.

Name Tipo Description Required Default
managed_identity_resource_id cadeia A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

As opções de autenticação do Azure OpenAI em seus dados ao usar um nome de usuário e uma senha.

Name Tipo Description Required Default
senha cadeia The password. a ser usado para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. Yes
nome de usuário cadeia O nome de usuário a ser usado para autenticação. No

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetor para o Azure OpenAI em seus dados com pesquisa de vetor.

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. Yes

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor.

Property Value
Description Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor.
Type cadeia
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI em seus dados ao aplicar a pesquisa de vetor, que se baseia em uma chamada pública de ponto de extremidade do Azure OpenAI para inserções.

Name Tipo Description Required Default
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions No
dimensions inteiro O número de dimensões que as inserções devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. No
ponto de extremidade cadeia Especifica a URL do ponto de extremidade de recurso da qual as inserções devem ser recuperadas. Ele deve estar no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta de versão de api não é permitido. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. Yes

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI on Your Data ao aplicar a pesquisa de vetor, que se baseia em um nome de implantação de modelo de inserções internas no mesmo recurso do Azure OpenAI.

Name Tipo Description Required Default
deployment_name cadeia Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas Em Seus Dados usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a pesquisa de vetor mesmo em redes privadas. No
dimensions inteiro O número de dimensões que as inserções devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. Yes

onYourDataIntegratedVectorizationSource

Representa o vetorizador integrado definido dentro do recurso de pesquisa.

Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. Yes

onYourDataModelIdVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI on Your Data ao aplicar a pesquisa de vetor, que se baseia em uma ID do modelo de serviço de pesquisa. Atualmente, só há suporte para Elasticsearch®.

Name Tipo Description Required Default
model_id cadeia Especifica a ID do modelo a ser usada para vetorização. Essa ID do modelo deve ser definida no serviço de pesquisa. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. Yes

azureChatExtensionsMessageContext

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

Name Tipo Description Required Default
all_retrieved_documents matriz Todos os documentos recuperados. No
citations matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. No
intenção cadeia A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. No

citation

informações de citação para uma mensagem de resposta de conclusões de chat.

Name Tipo Description Required Default
chunk_id cadeia A ID da parte da citação. No
conteúdo cadeia O conteúdo da citação. Yes
filepath cadeia O caminho do arquivo da citação. No
rerank_score number A pontuação de reclassificado do documento recuperado. No
title cadeia O título da citação. No
url cadeia A URL da citação. No

retrievedDocument

O documento recuperado.

Name Tipo Description Required Default
chunk_id cadeia A ID da parte da citação. No
conteúdo cadeia O conteúdo da citação. Yes
data_source_index inteiro O índice da fonte de dados. No
filepath cadeia O caminho do arquivo da citação. No
filter_reason filterReason O motivo da filtragem do documento recuperado. No
original_search_score number A pontuação de pesquisa original do documento recuperado. No
rerank_score number A pontuação de reclassificado do documento recuperado. No
search_queries matriz As consultas de pesquisa usadas para recuperar o documento. No
title cadeia O título da citação. No
url cadeia A URL da citação. No

filterReason

O motivo da filtragem do documento recuperado.

Property Value
Description O motivo da filtragem do documento recuperado.
Type cadeia
Values score
rerank

chatCompletionMessageToolCall

Name Tipo Description Required Default
função objeto A função chamada pelo modelo. Yes
└─ arguments cadeia Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
id cadeia A ID da chamada da ferramenta. Yes
tipo toolCallType O tipo da chamada de ferramenta, nesse caso function. Yes

toolCallType

O tipo da chamada de ferramenta, nesse caso function.

Property Value
Description O tipo da chamada de ferramenta, nesse caso function.
Type cadeia
Values function

chatCompletionRequestMessageTool

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem. No
tool_call_id cadeia Chamada de ferramenta à qual esta mensagem está respondendo. No

chatCompletionRequestMessageFunction

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem. No
name cadeia O conteúdo da mensagem. No
função enumeração A função do autor das mensagens, nesse caso function.
Valores possíveis: function
No

createChatCompletionResponse

Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
choices matriz Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. Yes
created inteiro O carimbo de data/hora unix (em segundos) de quando a conclusão do chat foi criada. Yes
id cadeia Um identificador exclusivo para a conclusão do chat. Yes
modelo cadeia O modelo usado para a conclusão do chat. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Yes
prompt_filter_results promptFilterResults Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo.
No
uso completionUsage Estatísticas de uso para a solicitação de conclusão. No

createChatCompletionStreamResponse

Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
choices matriz Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1.
Yes
created inteiro O carimbo de data/hora unix (em segundos) de quando a conclusão do chat foi criada. Cada parte tem o mesmo carimbo de data/hora. Yes
id cadeia Um identificador exclusivo para a conclusão do chat. Cada parte tem a mesma ID. Yes
modelo cadeia O modelo para gerar a conclusão. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Yes
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.
Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo.
No

chatCompletionStreamResponseDelta

Um delta de conclusão de chat gerado por respostas de modelo transmitidas.

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem de parte. No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. No
└─ arguments cadeia Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
refusal cadeia A mensagem de recusa gerada pelo modelo. No
função enumeração A função do autor desta mensagem.
Valores possíveis: system, , user, assistanttool
No
tool_calls matriz No

chatCompletionMessageToolCallChunk

Name Tipo Description Required Default
função objeto No
└─ arguments cadeia Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. No
└─ name cadeia O nome da função a ser chamada. No
id cadeia A ID da chamada da ferramenta. No
indexar inteiro Yes
tipo enumeração O tipo da ferramenta. Atualmente, só function há suporte.
Valores possíveis: function
No

chatCompletionStreamOptions

Opções para resposta de streaming. Defina isso somente quando você definir stream: true.

Name Tipo Description Required Default
include_usage boolean Se definido, uma parte adicional será transmitida antes da data: [DONE] mensagem. O usage campo nessa parte mostra as estatísticas de uso do token para toda a solicitação e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo.
No

chatCompletionChoiceLogProbs

Informações de probabilidade de log para a escolha.

Name Tipo Description Required Default
conteúdo matriz Uma lista de tokens de conteúdo de mensagens com informações de probabilidade de log. Yes
refusal matriz Uma lista de tokens de recusa de mensagens com informações de probabilidade de log. No

chatCompletionTokenLogprob

Name Tipo Description Required Default
bytes matriz Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. Yes
logprob number A probabilidade de log desse token. Yes
símbolo cadeia The token. Yes
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de solicitados retornados top_logprobs . Yes

chatCompletionResponseMessage

Uma mensagem de conclusão de chat gerada pelo modelo.

Name Tipo Description Required Default
audio objeto Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. No
└─ data cadeia Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação.
No
└─ expires_at inteiro O carimbo de data/hora unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos.
No
└─ id cadeia Identificador exclusivo para essa resposta de áudio. No
└─ transcript cadeia Transcrição do áudio gerado pelo modelo. No
conteúdo cadeia O conteúdo da mensagem. Yes
contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente. No
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. No
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
função chatCompletionResponseMessageRole A função do autor da mensagem de resposta. Yes
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

chatCompletionResponseMessageRole

A função do autor da mensagem de resposta.

Property Value
Description A função do autor da mensagem de resposta.
Type cadeia
Values assistant

chatCompletionToolChoiceOption

Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes.

Esse componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
função objeto Yes
└─ name cadeia O nome da função a ser chamada. No
tipo enumeração O tipo da ferramenta. Atualmente, só function há suporte.
Valores possíveis: function
Yes

ParallelToolCalls

Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.

Nenhuma propriedade definida para esse componente.

PredictionContent

Conteúdo de saída previsto estático, como o conteúdo de um arquivo de texto que está sendo regenerado.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo poderá ser retornada muito mais rapidamente. Yes
tipo enumeração O tipo do conteúdo previsto que você deseja fornecer. Atualmente, esse tipo é sempre content.
Valores possíveis: content
Yes

chatCompletionMessageToolCalls

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para esse componente.

ChatCompletionModalities

Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para esse componente.

chatCompletionFunctionCall

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Name Tipo Description Required Default
arguments cadeia Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. Yes
name cadeia O nome da função a ser chamada. Yes

completionUsage

Estatísticas de uso para a solicitação de conclusão.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens na conclusão gerada. Yes
completion_tokens_details objeto Divisão de tokens usados em uma conclusão. No
└─ accepted_prediction_tokens inteiro Ao usar Saídas Previstas, o número de tokens na previsão que apareceu na conclusão. No
└─ audio_tokens inteiro Tokens de entrada de áudio gerados pelo modelo. No
└─ reasoning_tokens inteiro Tokens gerados pelo modelo para raciocínio. No
└─ rejected_prediction_tokens inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceu na conclusão. No entanto, como tokens de raciocínio, esses tokens ainda são contados no total de tokens de conclusão para fins de limites de janela de cobrança, saída e contexto. No
prompt_tokens inteiro Número de tokens no prompt. Yes
prompt_tokens_details objeto Detalhes dos tokens de prompt. No
└─ audio_tokens inteiro Tokens de entrada de áudio presentes no prompt. No
└─ cached_tokens inteiro O número de tokens de prompt armazenados em cache. No
total_tokens inteiro Número total de tokens usados na solicitação (prompt + conclusão). Yes

chatCompletionTool

Name Tipo Description Required Default
função FunctionObject Yes
tipo enumeração O tipo da ferramenta. Atualmente, só function há suporte.
Valores possíveis: function
Yes

FunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para esse componente.

FunctionObject

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No
strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. No False

ResponseFormatText

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta que está sendo definido: text
Valores possíveis: text
Yes

ResponseFormatJsonObject

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta que está sendo definido: json_object
Valores possíveis: json_object
Yes

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

Nenhuma propriedade definida para esse componente.

ResponseFormatJsonSchema

Name Tipo Description Required Default
json_schema objeto Yes
└─ description cadeia Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato. No
└─ name cadeia O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. No
└─ schema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON. No
└─ strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. No False
tipo enumeração O tipo de formato de resposta que está sendo definido: json_schema
Valores possíveis: json_schema
Yes

chatCompletionChoiceCommon

Name Tipo Description Required Default
finish_reason cadeia No
indexar inteiro No

createTranslationRequest

Translation request.

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio a ser convertido. Yes
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0

audioResponse

Resposta de translação ou transcrição quando response_format era json

Name Tipo Description Required Default
enviar SMS cadeia Texto traduzido ou transcrito. Yes

audioVerboseResponse

Resposta de translação ou transcrição quando response_format foi verbose_json

Name Tipo Description Required Default
duration number Duration. No
linguagem cadeia Language. No
segments matriz No
tarefa cadeia Tipo de tarefa de áudio. No
enviar SMS cadeia Texto traduzido ou transcrito. Yes
words matriz No

audioResponseFormat

Define o formato da saída.

Property Value
Description Define o formato da saída.
Type cadeia
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Tipo Description Required Default
arquivo cadeia O objeto de arquivo de áudio a ser transcrever. Yes
linguagem cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para ambas ou ambas as opções: wordou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas gerar carimbos de data/hora de palavra incorre em latência adicional. No ['segment']

audioSegment

Transcrição ou segmento de tradução.

Name Tipo Description Required Default
avg_logprob number Probabilidade média do log. No
compression_ratio number Compression ratio. No
end number Deslocamento final do segmento. No
id inteiro Segment identifier. No
no_speech_prob number Probabilidade de "sem fala". No
seek number Deslocamento do segmento. No
start number Deslocamento de início do segmento. No
temperature number Temperature. No
enviar SMS cadeia Segment text. No
tokens matriz Tokens do texto. No

audioWord

Transcrição ou palavra de tradução.

Name Tipo Description Required Default
end number Deslocamento de término do Word. No
start number Deslocamento de início do Word. No
palavra cadeia Word No

createSpeechRequest

Speech request.

Name Tipo Description Required Default
entrada cadeia O texto para o qual sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Yes
response_format enumeração O formato no qual sintetizar o áudio.
Valores possíveis: mp3, , opus, aac, flac, , wavpcm
No
speed number A velocidade do áudio sintetizado. Selecione um valor de 0.25 até 4.0. 1.0 é o padrão. No 1.0
voice enumeração A voz a ser usada para síntese de fala.
Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
Yes

imageQuality

A qualidade da imagem que será gerada.

Property Value
Description A qualidade da imagem que será gerada.
Type cadeia
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

O formato no qual as imagens geradas são retornadas.

Property Value
Description O formato no qual as imagens geradas são retornadas.
Type cadeia
Default url
Values url
b64_json

imagesOutputFormat

O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos de série.

Property Value
Description O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1.
Type cadeia
Default png
Values png
jpeg

imageSize

O tamanho das imagens geradas.

Property Value
Description O tamanho das imagens geradas.
Type cadeia
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

O estilo das imagens geradas. Só há suporte para dall-e-3.

Property Value
Description O estilo das imagens geradas. Só há suporte para dall-e-3.
Type cadeia
Default vivid
Values vivid
natural

imageBackground

Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1.

Property Value
Description Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1.
Type cadeia
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Tipo Description Required Default
em segundo plano imageBackground Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. No auto
n inteiro O número de imagens a serem geradas. Para dall-e-3, há suporte apenas para n=1. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. No 100
output_format imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. No png
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1 e 4.000 caracteres para dall-e-3 Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Só há suporte para dall-e-3. No url
size imageSize O tamanho das imagens geradas. No auto
estilo imageStyle O estilo das imagens geradas. Só há suporte para dall-e-3. No vivid
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. No

imageEditsRequest

Name Tipo Description Required Default
imagem cadeia de caracteres ou matriz As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 25 MB. Yes
máscara cadeia Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. No
n inteiro O número de imagens a serem geradas. No 1
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
size imageSize O tamanho das imagens geradas. No auto
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. No

generateImagesResponse

Name Tipo Description Required Default
created inteiro O carimbo de data/hora unix quando a operação foi criada. Yes
dados matriz Os dados de resultado da operação, se bem-sucedidos Yes
uso imageGenerationsUsage Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1. No

imageResult

A url da imagem ou a imagem codificada se bem-sucedida e um erro de outra forma.

Name Tipo Description Required Default
b64_json cadeia A imagem codificada em base64 No
content_filter_results dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. No
prompt_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No
revised_prompt cadeia O prompt que foi usado para gerar a imagem, se houve alguma revisão no prompt. No
url cadeia A URL da imagem. No

imageGenerationsUsage

Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. No
input_tokens_details objeto Um detalhamento dos tokens de entrada. No
└─ image_tokens inteiro O número de tokens de imagem. No
└─ text_tokens inteiro O número de tokens de texto. No
output_tokens inteiro O número de tokens de saída. No
total_tokens inteiro O número total de tokens usados. No

linha

Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.

Name Tipo Description Required Default
spans matriz Uma matriz de intervalos que representam objetos detectados e suas informações de caixa delimitadora. Yes
enviar SMS cadeia Yes

span

Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.

Name Tipo Description Required Default
length inteiro O comprimento do intervalo em caracteres, medido em pontos de código Unicode. Yes
deslocamento inteiro O deslocamento de caractere dentro do texto em que o intervalo começa. Esse deslocamento é definido como a posição do primeiro caractere do intervalo, contando desde o início do texto como pontos de código Unicode. Yes
polígono matriz Uma matriz de objetos que representa pontos no polígono que inclui o objeto detectado. Yes
enviar SMS cadeia O conteúdo do texto do intervalo que representa o objeto detectado. Yes

runCompletionUsage

Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou in_progressseja, , queuedetc.).

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens de conclusão usados ao longo da execução. Yes
prompt_tokens inteiro Número de tokens de prompt usados ao longo da execução. Yes
total_tokens inteiro Número total de tokens usados (prompt + conclusão). Yes

runStepCompletionUsage

Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens de conclusão usados ao longo da etapa de execução. Yes
prompt_tokens inteiro Número de tokens de prompt usados ao longo da etapa de execução. Yes
total_tokens inteiro Número total de tokens usados (prompt + conclusão). Yes

assistantsApiResponseFormatOption

Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.

Esse componente pode ser um dos seguintes:

assistantsApiResponseFormat

Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools tiver permissão para ser passado para a Execução. Se text o modelo puder retornar texto ou qualquer valor necessário.

Name Tipo Description Required Default
tipo cadeia Deve ser um de text ou json_object. No enviar SMS

tipo Enum: AssistantsApiResponseFormat

Value Description
enviar SMS
json_object

assistantObject

Representa um assistant que pode chamar o modelo e usar ferramentas.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. Yes
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
modelo cadeia ID do modelo a ser usado. Yes
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre assistant. Yes
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz A ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, file_searchou function.
Yes []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1

objeto Enum: AssistantObjectType

Value Description
assistente O tipo de objeto, que é sempre assistente

createAssistantRequest

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia Yes
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
└─ vector_stores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1

modifyAssistantRequest

Name Tipo Description Required Default
description cadeia A descrição do assistente. O comprimento máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia No
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Substitui a lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz Substitui o repositório de vetores anexado a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1

deleteAssistantResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

assistantToolsCode

Name Tipo Description Required Default
tipo cadeia O tipo de ferramenta que está sendo definida: code_interpreter Yes

tipo Enum: assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Tipo Description Required Default
file_search objeto Substitui a ferramenta de pesquisa de arquivos. No
└─ max_num_results inteiro O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50, inclusive.

Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados.
No
tipo cadeia O tipo de ferramenta que está sendo definida: file_search Yes

Enumeração de tipo: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Tipo Description Required Default
tipo cadeia O tipo de ferramenta que está sendo definida: file_search Yes

Enumeração de tipo: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Tipo Description Required Default
função objeto A definição da função. Yes
└─ description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
└─ name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. No
└─ parameters chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. No
tipo cadeia O tipo de ferramenta que está sendo definida: function Yes

tipo Enum: assistantToolsFunction

Value Description
função

truncationObject

Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.

Name Tipo Description Required Default
last_messages inteiro O número de mensagens mais recentes do thread ao construir o contexto para a execução. No
tipo cadeia A estratégia de truncamento a ser usada para o thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo max_prompt_tokens. Yes

tipo Enum: TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.

Esse componente pode ser um dos seguintes:

assistantsNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.

Name Tipo Description Required Default
função objeto No
└─ name cadeia O nome da função a ser chamada. No
tipo cadeia O tipo da ferramenta. Se o tipo for function, o nome da função deverá ser definido Yes

tipo Enum: AssistantsNamedToolChoiceType

Value Description
função
code_interpreter
file_search

runObject

Representa uma execução de execução em um threads.

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente usada para execução dessa execução. Yes
cancelled_at inteiro O carimbo de data/hora unix (em segundos) para quando a execução foi cancelada. Yes
completed_at inteiro O carimbo de data/hora unix (em segundos) para quando a execução foi concluída. Yes
created_at inteiro O carimbo de data/hora unix (em segundos) para quando a execução foi criada. Yes
expires_at inteiro O carimbo de data/hora unix (em segundos) para quando a execução expirará. Yes
failed_at inteiro O carimbo de data/hora unix (em segundos) para quando a execução falhou. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
incomplete_details objeto Detalhes sobre por que a execução está incompleta. null Será se a execução não estiver incompleta. Yes
└─ reason cadeia O motivo pelo qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. No
instructions cadeia As instruções que o assistente usou para esta execução. Yes
last_error objeto O último erro associado a essa execução. Será null se não houver erros. Yes
└─ code cadeia Um de server_error ou rate_limit_exceeded. No
└─ message cadeia Uma descrição legível pelo humano do erro. No
max_completion_tokens inteiro O número máximo de tokens de conclusão especificados para terem sido usados ao longo da execução.
Yes
max_prompt_tokens inteiro O número máximo de tokens de prompt especificados para terem sido usados ao longo da execução.
Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
modelo cadeia O modelo que o assistente usou para esta execução. Yes
objeto cadeia O tipo de objeto, que é sempre thread.run. Yes
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
required_action objeto Detalhes sobre a ação necessária para continuar a execução. null Será se nenhuma ação for necessária. Yes
└─ submit_tool_outputs objeto Detalhes sobre as saídas da ferramenta necessárias para que essa execução continue. No
└─ tool_calls matriz Uma lista das chamadas de ferramenta relevantes. No
└─ type enumeração Por enquanto, isso é sempre submit_tool_outputs.
Valores possíveis: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Yes
started_at inteiro O carimbo de data/hora unix (em segundos) para quando a execução foi iniciada. Yes
status cadeia O status da execução, que pode ser queued, , in_progress, requires_action, cancelling, , cancelled, failed, completedou expired. Yes
temperature number A temperatura de amostragem usada para esta execução. Se não for definido, o padrão será 1. No
thread_id cadeia A ID dos threads em que foi executada como parte dessa execução. Yes
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Yes
tools matriz A lista de ferramentas que o assistente usou para essa execução. Yes []
top_p number O valor de amostragem do núcleo usado para esta execução. Se não for definido, o padrão será 1. No
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Yes
uso runCompletionUsage Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou in_progressseja, , queuedetc.). Yes

enumeração de objeto: runObjectType

Value Description
thread.run O tipo de objeto de execução que é sempre thread.run

Enumeração de status: RunObjectStatus

Value Description
na fila O estado enfileirado
in_progress O estado in_progress
requires_action O estado required_action
cancelling O estado de cancelamento
cancelled O estado cancelado
failed O estado com falha
completed O estado concluído
expired O estado expirado

createRunRequest

Name Tipo Description Required Default
additional_instructions cadeia Acrescenta instruções adicionais ao final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. No
additional_messages matriz Adiciona mensagens adicionais ao thread antes de criar a execução. No
assistant_id cadeia A ID do assistente a ser usada para executar essa execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem.
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

listRunsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

modifyRunRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

submitToolOutputsRunRequest

Name Tipo Description Required Default
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem.
No
tool_outputs matriz Uma lista de ferramentas para as quais as saídas estão sendo enviadas. Yes

runToolCallObject

Objetos de chamada de ferramenta

Name Tipo Description Required Default
função objeto A definição da função. Yes
└─ arguments cadeia Os argumentos que o modelo espera que você passe para a função. No
└─ name cadeia O nome da função. No
id cadeia A ID da chamada da ferramenta. Essa ID deve ser referenciada quando você envia as saídas da ferramenta usando as saídas da ferramenta de envio para executar o ponto de extremidade. Yes
tipo cadeia O tipo de chamada de ferramenta para o qual a saída é necessária. Por enquanto, isso é sempre function. Yes

tipo Enum: RunToolCallObjectType

Value Description
função

createThreadAndRunRequest

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente a ser usada para executar essa execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem.
No
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
No 1
conversa createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
No
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz A ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

threadObject

Representa um thread que contém mensagens.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) para quando o thread foi criado. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre thread. Yes
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
Yes
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

enumeração de objeto: ThreadObjectType

Value Description
conversa O tipo de objeto de thread que é sempre thread

createThreadRequest

Name Tipo Description Required Default
messages matriz Uma lista de mensagens para iniciar o thread. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No
└─ vector_stores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

modifyThreadRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores.
No
└─ code_interpreter objeto No
└─ file_ids matriz Uma lista de IDs de Arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ file_search objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

deleteThreadResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteThreadResponseObjectState

Value Description
thread.deleted O estado do objeto de resposta de thread de exclusão que é thread.deleted

listThreadsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

messageObject

Representa uma mensagem dentro de um threads.

Name Tipo Description Required Default
assistant_id cadeia Se aplicável, a ID do assistente que criou esta mensagem. Yes
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às que foram adicionados. Yes
completed_at inteiro O carimbo de data/hora Unix (em segundos) para quando a mensagem foi concluída. Yes
conteúdo matriz O conteúdo da mensagem na matriz de texto e/ou imagens. Yes
created_at inteiro O carimbo de data/hora Unix (em segundos) para quando a mensagem foi criada. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
incomplete_at inteiro O carimbo de data/hora Unix (em segundos) para quando a mensagem foi marcada como incompleta. Yes
incomplete_details objeto Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. Yes
└─ reason cadeia O motivo pelo qual a mensagem está incompleta. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre thread.message. Yes
função cadeia A entidade que produziu a mensagem. Um de user ou assistant. Yes
run_id cadeia Se aplicável, a ID da execução associada à criação dessa mensagem. Yes
status cadeia O status da mensagem, que pode ser in_progress, incompleteou completed. Yes
thread_id cadeia A ID de threads à qual essa mensagem pertence. Yes

Enumeração de objeto: MessageObjectType

Value Description
thread.message O tipo de objeto de mensagem que é thread.message

Enumeração de status: MessageObjectStatus

Value Description
in_progress
incomplete
completed

Enumeração de função: MessageObjectRole

Value Description
usuário
assistente

messageDeltaObject

Representa uma mensagem delta, ou seja, todos os campos alterados em uma mensagem durante o streaming.

Name Tipo Description Required Default
delta objeto O delta que contém os campos que foram alterados na Mensagem. Yes
└─ content matriz O conteúdo da mensagem na matriz de texto e/ou imagens. No
└─ role cadeia A entidade que produziu a mensagem. Um de user ou assistant. No
id cadeia O identificador da mensagem, que pode ser referenciado em pontos de extremidade de API. Yes
objeto cadeia O tipo de objeto, que é sempre thread.message.delta. Yes

objeto Enum: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Tipo Description Required Default
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. No
conteúdo cadeia O conteúdo da mensagem. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
função cadeia A função da entidade que está criando a mensagem. Os valores permitidos incluem:
- user: indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Yes

Enumeração de função: CreateMessageRequestRole

Value Description
usuário
assistente

modifyMessageRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

deleteMessageResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteMessageResponseObject

Value Description
thread.message.deleted O estado do objeto de resposta da mensagem de exclusão

listMessagesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

messageContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Name Tipo Description Required Default
image_file objeto Yes
└─ file_id cadeia A ID do arquivo da imagem no conteúdo da mensagem. No
tipo cadeia Sempre image_file. Yes

tipo Enum: MessageContentImageFileObjectType

Value Description
image_file O tipo de arquivo de imagem de conteúdo da mensagem

messageContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Name Tipo Description Required Default
enviar SMS objeto Yes
└─ annotations matriz No
└─ value cadeia Os dados que compõem o texto. No
tipo cadeia Sempre text. Yes

tipo Enum: messageContentTextObjectType

Value Description
enviar SMS O tipo de objeto de texto de conteúdo da mensagem

messageContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar arquivos.

Name Tipo Description Required Default
end_index inteiro Yes
file_citation objeto Yes
└─ file_id cadeia A ID do arquivo específico do qual a citação é. No
start_index inteiro Yes
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. Yes
tipo cadeia Sempre file_citation. Yes

tipo Enum: FileCitationObjectType

Value Description
file_citation O tipo de objeto de citação de arquivo

messageContentTextAnnotationsFilePathObject

Uma URL para o arquivo gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.

Name Tipo Description Required Default
end_index inteiro Yes
file_path objeto Yes
└─ file_id cadeia A ID do arquivo que foi gerado. No
start_index inteiro Yes
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. Yes
tipo cadeia Sempre file_path. Yes

tipo Enum: FilePathObjectType

Value Description
file_path O tipo de objeto de caminho de arquivo

messageDeltaContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Name Tipo Description Required Default
image_file objeto No
└─ file_id cadeia A ID do arquivo da imagem no conteúdo da mensagem. No
indexar inteiro O índice da parte de conteúdo na mensagem. Yes
tipo cadeia Sempre image_file. Yes

tipo Enum: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Name Tipo Description Required Default
indexar inteiro O índice da parte de conteúdo na mensagem. Yes
enviar SMS objeto No
└─ annotations matriz No
└─ value cadeia Os dados que compõem o texto. No
tipo cadeia Sempre text. Yes

tipo Enum: MessageDeltaContentTextObjectType

Value Description
enviar SMS

messageDeltaContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.

Name Tipo Description Required Default
end_index inteiro No
file_citation objeto No
└─ file_id cadeia A ID do arquivo específico do qual a citação é. No
└─ quote cadeia A citação específica no arquivo. No
indexar inteiro O índice da anotação na parte de conteúdo de texto. Yes
start_index inteiro No
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. No
tipo cadeia Sempre file_citation. Yes

tipo Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Uma URL para o arquivo gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.

Name Tipo Description Required Default
end_index inteiro No
file_path objeto No
└─ file_id cadeia A ID do arquivo que foi gerado. No
indexar inteiro O índice da anotação na parte de conteúdo de texto. Yes
start_index inteiro No
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. No
tipo cadeia Sempre file_path. Yes

tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Representa uma etapa na execução de uma execução.

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente associado à etapa de execução. Yes
cancelled_at inteiro O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi cancelada. Yes
completed_at inteiro O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi concluída. Yes
created_at inteiro O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi criada. Yes
expired_at inteiro O carimbo de data/hora unix (em segundos) para quando a etapa de execução expirou. Uma etapa será considerada expirada se a execução pai tiver expirado. Yes
failed_at inteiro O carimbo de data/hora unix (em segundos) para quando a etapa de execução falhou. Yes
id cadeia O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. Yes
last_error objeto O último erro associado a esta etapa de execução. Será null se não houver erros. Yes
└─ code cadeia Um de server_error ou rate_limit_exceeded. No
└─ message cadeia Uma descrição legível pelo humano do erro. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre assistant.run.step. Yes
run_id cadeia A ID da execução da qual essa etapa de execução faz parte. Yes
status cadeia O status da execução, que pode serin_progress, , cancelled, failedou completedexpired. Yes
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Os detalhes da etapa de execução. Yes
thread_id cadeia A ID dos threads executados. Yes
tipo cadeia O tipo de etapa de execução, que pode ser ou message_creationtool_calls. Yes

objeto Enum: RunStepObjectType

Value Description
assistant.run.step O tipo de objeto, que é sempre assistant.run.step

tipo Enum: RunStepObjectType

Value Description
message_creation A etapa de execução message_creation
tool_calls A etapa de execução tool_calls

Enumeração de status: RunStepObjectStatus

Value Description
in_progress O status de execução do in_progress
cancelled O status da execução cancelada
failed O status da execução cancelada
completed O status da execução cancelada
expired O status da execução cancelada

runStepDeltaObject

Representa uma etapa de execução delta, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.

Name Tipo Description Required Default
delta objeto O delta que contém os campos que foram alterados na etapa de execução. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Os detalhes da etapa de execução. No
id cadeia O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. Yes
objeto cadeia O tipo de objeto, que é sempre thread.run.step.delta. Yes

objeto Enum: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

runStepDetailsMessageCreationObject

Detalhes da criação da mensagem pela etapa de execução.

Name Tipo Description Required Default
message_creation objeto Yes
└─ message_id cadeia A ID da mensagem que foi criada por esta etapa de execução. No
tipo cadeia Sempre message_creation. Yes

tipo Enum: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Detalhes da criação da mensagem pela etapa de execução.

Name Tipo Description Required Default
message_creation objeto No
└─ message_id cadeia A ID da mensagem que foi criada por esta etapa de execução. No
tipo cadeia Sempre message_creation. Yes

tipo Enum: RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Detalhes da chamada da ferramenta.

Name Tipo Description Required Default
tool_calls matriz Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreterou retrievalfunction.
Yes
tipo cadeia Sempre tool_calls. Yes

tipo Enum: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Detalhes da chamada da ferramenta.

Name Tipo Description Required Default
tool_calls matriz Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreterou file_searchfunction.
No
tipo cadeia Sempre tool_calls. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.

Name Tipo Description Required Default
code_interpreter objeto A definição de chamada da ferramenta Interpretador de Código. Yes
└─ input cadeia A entrada para a chamada da ferramenta Interpretador de Código. No
└─ outputs matriz As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. No
id cadeia A ID da chamada da ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.

Name Tipo Description Required Default
code_interpreter objeto A definição de chamada da ferramenta Interpretador de Código. No
└─ input cadeia A entrada para a chamada da ferramenta Interpretador de Código. No
└─ outputs matriz As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. No
id cadeia A ID da chamada da ferramenta. No
indexar inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Saída de texto da chamada da ferramenta Interpretador de Código como parte de uma etapa de execução.

Name Tipo Description Required Default
logs cadeia A saída de texto da chamada da ferramenta Interpretador de Código. Yes
tipo cadeia Sempre logs. Yes

tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Saída de texto da chamada da ferramenta Interpretador de Código como parte de uma etapa de execução.

Name Tipo Description Required Default
indexar inteiro O índice da saída na matriz de saídas. Yes
logs cadeia A saída de texto da chamada da ferramenta Interpretador de Código. No
tipo cadeia Sempre logs. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Tipo Description Required Default
imagem objeto Yes
└─ file_id cadeia A ID do arquivo da imagem. No
tipo cadeia Sempre image. Yes

tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
imagem

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Tipo Description Required Default
imagem objeto No
└─ file_id cadeia A ID do arquivo da imagem. No
indexar inteiro O índice da saída na matriz de saídas. Yes
tipo cadeia Sempre image. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
imagem

runStepDetailsToolCallsFileSearchObject

Name Tipo Description Required Default
file_search objeto Por enquanto, isso sempre será um objeto vazio. Yes
└─ results matriz Os resultados da pesquisa de arquivo. No
id cadeia A ID do objeto de chamada de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Uma instância de resultado da pesquisa de arquivo.

Name Tipo Description Required Default
conteúdo matriz O conteúdo do resultado encontrado. O conteúdo só será incluído se solicitado por meio do parâmetro de consulta include. No
file_id cadeia A ID do arquivo no qual o resultado foi encontrado. Yes
file_name cadeia O nome do arquivo no qual o resultado foi encontrado. Yes
pontuação number A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Tipo Description Required Default
file_search objeto Por enquanto, isso sempre será um objeto vazio. Yes
id cadeia A ID do objeto de chamada de ferramenta. No
indexar inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Tipo Description Required Default
função objeto A definição da função que foi chamada. Yes
└─ arguments cadeia Os argumentos passados para a função. No
└─ name cadeia O nome da função. No
└─ output cadeia A saída da função. Isso será null se as saídas ainda não tiverem sido enviadas. No
id cadeia A ID do objeto de chamada de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
função

runStepDeltaStepDetailsToolCallsFunctionObject

Name Tipo Description Required Default
função objeto A definição da função que foi chamada. No
└─ arguments cadeia Os argumentos passados para a função. No
└─ name cadeia O nome da função. No
└─ output cadeia A saída da função. Isso será null se as saídas ainda não tiverem sido enviadas. No
id cadeia A ID do objeto de chamada de ferramenta. No
indexar inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Yes

tipo Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
função

vectorStoreExpirationAfter

A política de expiração de um repositório de vetores.

Name Tipo Description Required Default
âncora cadeia Carimbo de data/hora de âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at. Yes
days inteiro O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. Yes

Enumeração de âncora: VectorStoreExpirationAfterAnchor

Value Description
last_active_at O carimbo de data/hora de âncora após o qual a política de expiração se aplica.

vectorStoreObject

Um repositório de vetores é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores foi criado. Yes
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
expires_at inteiro O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores expirará. No
file_counts objeto Yes
└─ cancelled inteiro O número de arquivos que foram cancelados. No
└─ completed inteiro O número de arquivos que foram processados com êxito. No
└─ failed inteiro O número de arquivos que falharam ao processar. No
└─ in_progress inteiro O número de arquivos que estão sendo processados no momento. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
last_active_at inteiro O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores estava ativo pela última vez. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
name cadeia O nome do repositório de vetores. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vector_store
Yes
status cadeia O status do repositório de vetores, que pode ser expired, in_progressou completed. Um status indica completed que o repositório de vetores está pronto para uso. Yes
usage_bytes inteiro O número total de bytes usados pelos arquivos no repositório de vetores. Yes

Enumeração de status: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. No
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

updateVectorStoreRequest

Name Tipo Description Required Default
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

listVectorStoresResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

deleteVectorStoreResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted O estado do objeto de resposta do repositório de vetor de exclusão

vectorStoreFileObject

Uma lista de arquivos anexados a um repositório de vetores.

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. No
created_at inteiro O carimbo de data/hora Unix (em segundos) para quando o arquivo de repositório de vetores foi criado. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
last_error objeto O último erro associado a esse arquivo de repositório de vetores. Será null se não houver erros. Yes
└─ code cadeia Um de server_error ou invalid_fileunsupported_file. No
└─ message cadeia Uma descrição legível pelo humano do erro. No
objeto cadeia O tipo de objeto, que é sempre vector_store.file. Yes
status cadeia O status do arquivo de repositório de vetores, que pode ser in_progress, , completedou cancelledfailed. O status completed indica que o arquivo de repositório de vetores está pronto para uso. Yes
usage_bytes inteiro O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. Yes
vector_store_id cadeia A ID do repositório de vetores ao qual o arquivo está anexado. Yes

objeto Enum: VectorStoreFileObjectType

Value Description
vector_store.file

Enumeração de status: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Isso é retornado quando a estratégia de agrupamento é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.

Name Tipo Description Required Default
tipo cadeia Sempre other. Yes

tipo Enum: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Tipo Description Required Default
estático staticChunkingStrategy Yes
tipo cadeia Sempre static. Yes

tipo Enum: StaticChunkingStrategyResponseParamType

Value Description
estático

staticChunkingStrategy

Name Tipo Description Required Default
chunk_overlap_tokens inteiro O número de tokens que se sobrepõem entre partes. O valor padrão é 400.

Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Yes
max_chunk_size_tokens inteiro O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. Yes

autoChunkingStrategyRequestParam

A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Name Tipo Description Required Default
tipo enumeração Sempre auto.
Valores possíveis: auto
Yes

staticChunkingStrategyRequestParam

Name Tipo Description Required Default
estático staticChunkingStrategy Yes
tipo enumeração Sempre static.
Valores possíveis: static
Yes

chunkingStrategyRequestParam

A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia.

Esse componente pode ser um dos seguintes:

createVectorStoreFileRequest

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. No
file_id cadeia Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. Yes

listVectorStoreFilesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

deleteVectorStoreFileResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

objeto Enum: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Um lote de arquivos anexados a um repositório de vetores.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos do repositório de vetores foi criado. Yes
file_counts objeto Yes
└─ cancelled inteiro O número de arquivos que foram cancelados. No
└─ completed inteiro O número de arquivos que foram processados. No
└─ failed inteiro O número de arquivos que falharam ao processar. No
└─ in_progress inteiro O número de arquivos que estão sendo processados no momento. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
objeto cadeia O tipo de objeto, que é sempre vector_store.file_batch. Yes
status cadeia O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completedcancelled ou failed. Yes
vector_store_id cadeia A ID do repositório de vetores ao qual o Arquivo está anexado. Yes

objeto Enum: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Enumeração de status: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. Yes

assistantStreamEvent

Representa um evento emitido ao transmitir uma execução.

Cada evento em um fluxo de eventos enviados pelo servidor tem uma propriedade eevent:data

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emitemos eventos sempre que um novo objeto é criado, faz a transição para um novo estado ou é transmitido em partes (deltas). Por exemplo, emitemos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente opta por criar uma mensagem durante uma execução, emitemos um thread.message.created eventevento, thread.message.in_progress muitos thread.message.delta eventos e, por fim, um thread.message.completed evento.

Podemos adicionar eventos adicionais ao longo do tempo, portanto, recomendamos lidar com eventos desconhecidos normalmente em seu código.

Esse componente pode ser um dos seguintes:

threadStreamEvent

Esse componente pode ser um dos seguintes:

thread.created

Ocorre quando um novo thread é criado.

Name Tipo Description Required Default
dados threadObject Representa um thread que contém mensagens. Yes
evento cadeia Yes

Data: threadObject

Enumeração de evento: ThreadStreamEventEnum

Value Description
thread.created O evento criado pelo thread

runStreamEvent

Esse componente pode ser um dos seguintes:

thread.run.created

Ocorre quando uma nova execução é criada.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de evento: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Ocorre quando uma execução é movida para um queued status.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de evento: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Ocorre quando uma execução é movida para um in_progress status.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de Eventos: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Ocorre quando uma execução é movida para um requires_action status.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de Evento: RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Ocorre quando uma execução é concluída.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de eventos: RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Ocorre quando uma execução falha.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de evento: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Ocorre quando uma execução é movida para um cancelling status.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de evento: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Ocorre quando uma execução é cancelada.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de eventos: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Ocorre quando uma execução expira.

Name Tipo Description Required Default
dados runObject Representa uma execução de execução em um threads. Yes
evento cadeia Yes

Data: runObject

Enumeração de evento: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Esse componente pode ser um dos seguintes:

thread.run.step.created

Ocorre quando uma etapa de execução é criada.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa na execução de uma execução.
Yes
evento cadeia Yes

Data: runStepObject

Enumeração de Evento: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Ocorre quando uma etapa de execução é movida para um in_progress estado.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa na execução de uma execução.
Yes
evento cadeia Yes

Data: runStepObject

Enumeração de Eventos: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Ocorre quando partes de uma etapa de execução estão sendo transmitidas.

Name Tipo Description Required Default
dados runStepDeltaObject Representa uma etapa de execução delta, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.
Yes
evento cadeia Yes

Data: runStepDeltaObject

Enumeração de Evento: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Ocorre quando uma etapa de execução é concluída.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa na execução de uma execução.
Yes
evento cadeia Yes

Data: runStepObject

Enumeração de eventos: RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Ocorre quando uma etapa de execução falha.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa na execução de uma execução.
Yes
evento cadeia Yes

Data: runStepObject

Enumeração de Evento: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Ocorre quando uma etapa de execução é cancelada.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa na execução de uma execução.
Yes
evento cadeia Yes

Data: runStepObject

Enumeração de Evento: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Ocorre quando uma etapa de execução expira.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa na execução de uma execução.
Yes
evento cadeia Yes

Data: runStepObject

Enumeração de Evento: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Esse componente pode ser um dos seguintes:

thread.message.created

Ocorre quando uma mensagem é criada.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um threads. Yes
evento cadeia Yes

Data: messageObject

Enumeração de Evento: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Ocorre quando uma mensagem é movida para um in_progress estado.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um threads. Yes
evento cadeia Yes

Data: messageObject

Enumeração de Eventos: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Ocorre quando partes de uma mensagem estão sendo transmitidas.

Name Tipo Description Required Default
dados messageDeltaObject Representa uma mensagem delta, ou seja, todos os campos alterados em uma mensagem durante o streaming.
Yes
evento cadeia Yes

Data: messageDeltaObject

Enumeração de Evento: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Ocorre quando uma mensagem é concluída.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um threads. Yes
evento cadeia Yes

Data: messageObject

Enumeração de evento: MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Ocorre quando uma mensagem termina antes de ser concluída.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um threads. Yes
evento cadeia Yes

Data: messageObject

Enumeração de Evento: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Esse componente pode ser um dos seguintes:

Click

Uma ação de clique.

Name Tipo Description Required Default
button enumeração Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, backou forward.

Valores possíveis: left, , right, wheel, back, forward
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.

Valores possíveis: click
Yes
x inteiro A coordenada x em que o clique ocorreu.
Yes
y inteiro A coordenada y em que o clique ocorreu.
Yes

CodeInterpreterFileOutput

A saída de uma chamada de ferramenta de interpretador de código que é um arquivo.

Name Tipo Description Required Default
files matriz Yes
tipo enumeração O tipo da saída do arquivo interpretador de código. Sempre files.

Valores possíveis: files
Yes

CodeInterpreterTextOutput

A saída de uma chamada de ferramenta de interpretador de código que é texto.

Name Tipo Description Required Default
logs cadeia Os logs da chamada da ferramenta interpretador de código.
Yes
tipo enumeração O tipo da saída de texto do interpretador de código. Sempre logs.

Valores possíveis: logs
Yes

CodeInterpreterTool

Uma ferramenta que executa o código.

Name Tipo Description Required Default
file_ids matriz As IDs dos arquivos em que executar o código.
Yes
tipo enumeração O tipo da ferramenta de interpretador de código. Sempre code_interpreter.

Valores possíveis: code_interpreter
Yes

CodeInterpreterToolCall

Uma chamada de ferramenta para executar o código.

Name Tipo Description Required Default
codificar cadeia O código a ser executado.
Yes
id cadeia A ID exclusiva da chamada da ferramenta interpretador de código.
Yes
results matriz Os resultados da chamada da ferramenta interpretador de código.
Yes
status enumeração O status da chamada da ferramenta interpretador de código.

Valores possíveis: in_progress, , interpretingcompleted
Yes
tipo enumeração O tipo da chamada da ferramenta interpretador de código. Sempre code_interpreter_call.

Valores possíveis: code_interpreter_call
Yes

CodeInterpreterToolOutput

Esse componente pode ser um dos seguintes:

ComparisonFilter

Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.

Name Tipo Description Required Default
chave cadeia A chave a ser comparada com o valor. Yes
tipo enumeração Especifica o operador de comparação: eq, , ne, gt, gte, lt, lte.
- eq:Equals
- ne: não é igual a
- gt: maior que
- gte: maior ou igual a
- lt: menor que
- lte: menor ou igual a

Valores possíveis: eq, , ne, gt, gte, , ltlte
Yes
value cadeia de caracteres ou número ou booliano O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. Yes

CompoundFilter

Combinar vários filtros usando and ou or.

Name Tipo Description Required Default
filters matriz Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. Yes
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Yes

ComputerAction

Esse componente pode ser um dos seguintes:

ComputerScreenshotImage

Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.

Name Tipo Description Required Default
file_id cadeia O identificador de um arquivo carregado que contém a captura de tela. No
image_url cadeia A URL da imagem de captura de tela. No
tipo enumeração Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.

Valores possíveis: computer_screenshot
Yes

ComputerTool

Uma ferramenta que controla um computador virtual.

Name Tipo Description Required Default
display_height number A altura da exibição do computador.
Yes
display_width number A largura da exibição do computador.
Yes
ambiente enumeração O tipo de ambiente de computador a ser controlado.

Valores possíveis: mac, , windows, ubuntubrowser
Yes
tipo enumeração O tipo da ferramenta de uso do computador. Sempre computer_use_preview.

Valores possíveis: computer-use-preview
Yes

ComputerToolCall

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Name Tipo Description Required Default
ação ComputerAction Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída.
Yes
id cadeia A ID exclusiva da chamada do computador. Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada do computador.
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo da chamada do computador. Sempre computer_call.
Valores possíveis: computer_call
Yes

ComputerToolCallOutput

A saída de uma chamada de ferramenta de computador.

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor.
No
call_id cadeia A ID da chamada da ferramenta de computador que produziu a saída.
Yes
id cadeia A ID da saída da chamada da ferramenta de computador.
No
saída ComputerScreenshotImage Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Yes
status enumeração O status da entrada da mensagem. Um de in_progress, completedou incomplete. Populado quando os itens de entrada são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Yes

ComputerToolCallOutputResource

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor.
No
call_id cadeia A ID da chamada da ferramenta de computador que produziu a saída.
Yes
id cadeia A ID exclusiva da saída da ferramenta de chamada do computador.
Yes
saída ComputerScreenshotImage Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Yes
status enumeração O status da entrada da mensagem. Um de in_progress, completedou incomplete. Populado quando os itens de entrada são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Yes

ComputerToolCallSafetyCheck

Uma verificação de segurança pendente para a chamada do computador.

Name Tipo Description Required Default
codificar cadeia O tipo da verificação de segurança pendente. Yes
id cadeia A ID da verificação de segurança pendente. Yes
mensagem cadeia Detalhes sobre a verificação de segurança pendente. Yes

Content

Conteúdo de entrada e saída multi modal.

Esse componente pode ser um dos seguintes:

Coordinate

Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.

Name Tipo Description Required Default
x inteiro The x-coordinate.
Yes
y inteiro The y-coordinate.
Yes

CreateModelResponseProperties

Name Tipo Description Required Default
metadados Metadata Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia Modelo usado para gerar as respostas. No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. .
No

createResponse

Name Tipo Description Required Default
include matriz {"$ref": "#/components/schemas/includable/description"} No
entrada cadeia de caracteres ou matriz Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. Yes
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.
No True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio. No
armazenar boolean Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API.
No True
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. No False
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more:
– entradas e saídas de texto
– Saídas estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão não tem { "type": "text" } opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o
resposta para ajustar a janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

DoubleClick

Uma ação de clique duplo.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.

Valores possíveis: double_click
Yes
x inteiro A coordenada x em que o clique duplo ocorreu.
Yes
y inteiro A coordenada y em que o clique duplo ocorreu.
Yes

Drag

Uma ação de arrastar.

Name Tipo Description Required Default
caminho matriz Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo,[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.

Valores possíveis: drag
Yes

EasyInputMessage

Uma entrada de mensagem para o modelo com uma função que indica a instrução seguindo a hierarquia. As instruções fornecidas com a função ou developer têm system precedência sobre as instruções fornecidas com a user função. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.

Name Tipo Description Required Default
conteúdo string ou InputMessageContentList Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta.
Também pode conter respostas anteriores do assistente.
Yes
função enumeração A função da entrada da mensagem. Um de user, assistant, systemou developer.

Valores possíveis: user, , assistant, systemdeveloper
Yes
tipo enumeração O tipo de entrada da mensagem. Sempre message.

Valores possíveis: message
No

FileCitation

Uma citação a um arquivo.

Name Tipo Description Required Default
file_id cadeia A ID do arquivo.
Yes
indexar inteiro O índice do arquivo na lista de arquivos.
Yes
tipo enumeração O tipo da citação de arquivo. Sempre file_citation.

Valores possíveis: file_citation
Yes

FilePath

Um caminho para um arquivo.

Name Tipo Description Required Default
file_id cadeia A ID do arquivo.
Yes
indexar inteiro O índice do arquivo na lista de arquivos.
Yes
tipo enumeração O tipo do caminho do arquivo. Sempre file_path.

Valores possíveis: file_path
Yes

FileSearchRanker

O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.

Property Value
Description O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.
Type cadeia
Values auto
default_2024_08_21

FileSearchTool

Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.

Name Tipo Description Required Default
filters ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive.
No
ranking_options objeto Opções de classificação para pesquisa. No
└─ ranker enumeração O classificador a ser usado para a pesquisa de arquivos.
Valores possíveis: auto, default-2024-11-15
No
└─ score_threshold number O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1.
Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados.
No 0
tipo enumeração O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.

Valores possíveis: file_search
Yes
vector_store_ids matriz As IDs dos repositórios de vetores a serem pesquisadas.
Yes

FileSearchToolCall

Os resultados de uma chamada de ferramenta de pesquisa de arquivo.

Name Tipo Description Required Default
id cadeia A ID exclusiva da chamada da ferramenta de pesquisa de arquivos.
Yes
queries matriz As consultas usadas para pesquisar arquivos.
Yes
results matriz Os resultados da chamada da ferramenta de pesquisa de arquivos.
No
status enumeração O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress, searchingincomplete ou failed,

Valores possíveis: in_progress, , searching, completed, incomplete, failed
Yes
tipo enumeração O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.

Valores possíveis: file_search_call
Yes

FunctionTool

Define uma função em seu próprio código que o modelo pode optar por chamar.

Name Tipo Description Required Default
description cadeia Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada.
No
name cadeia O nome da função a ser chamada.
Yes
parameters objeto Um objeto de esquema JSON que descreve os parâmetros da função.
Yes
strict boolean Se deve impor a validação estrita de parâmetro. Padrão true.
Yes
tipo enumeração O tipo da ferramenta de função. Sempre function.

Valores possíveis: function
Yes

FunctionToolCall

Uma chamada de ferramenta para executar uma função.

Name Tipo Description Required Default
arguments cadeia Uma cadeia de caracteres JSON dos argumentos a serem passados para a função.
Yes
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo.
Yes
id cadeia A ID exclusiva da chamada da ferramenta de função.
Yes
name cadeia O nome da função a ser executada.
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da chamada da ferramenta de função. Sempre function_call.

Valores possíveis: function_call
Yes

FunctionToolCallOutput

A saída de uma chamada de ferramenta de função.

Name Tipo Description Required Default
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo.
Yes
id cadeia A ID exclusiva da saída da chamada da ferramenta de função. Populado quando esse item é retornado por meio da API.
No
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função.
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.

Valores possíveis: function_call_output
Yes

FunctionToolCallOutputResource

Name Tipo Description Required Default
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo.
Yes
id cadeia A ID exclusiva da saída da ferramenta de chamada de função.
Yes
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função.
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.

Valores possíveis: function_call_output
Yes

includable

Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:

  • file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos.
  • message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
  • computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
Property Value
Description Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
- file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos.
- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
Type cadeia
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Uma entrada de áudio para o modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio codificados em Base64.
Yes
format enumeração O formato dos dados de áudio. Os formatos com suporte no momento são mp3 e wav.

Valores possíveis: mp3, wav
Yes
tipo enumeração O tipo do item de entrada. Sempre input_audio.

Valores possíveis: input_audio
Yes

InputContent

Esse componente pode ser um dos seguintes:

InputFile

Uma entrada de arquivo para o modelo.

Name Tipo Description Required Default
file_data cadeia O conteúdo do arquivo a ser enviado para o modelo.
No
file_id cadeia A ID do arquivo a ser enviado para o modelo.
No
filename cadeia O nome do arquivo a ser enviado para o modelo.
No
tipo enumeração O tipo do item de entrada. Sempre input_file.

Valores possíveis: input_file
Yes

InputImage

Uma entrada de imagem para o modelo.

Name Tipo Description Required Default
detail enumeração O nível de detalhes da imagem a ser enviada para o modelo. Um de high, lowou auto. O padrão é auto.

Valores possíveis: high, , lowauto
Yes
file_id cadeia A ID do arquivo a ser enviado para o modelo.
No
image_url cadeia A URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou uma imagem codificada em base64 em uma URL de dados.
No
tipo enumeração O tipo do item de entrada. Sempre input_image.

Valores possíveis: input_image
Yes

InputItem

Esse componente pode ser um dos seguintes:

InputMessage

Uma entrada de mensagem para o modelo com uma função que indica a instrução seguindo a hierarquia. As instruções fornecidas com a função ou developer têm system precedência sobre as instruções fornecidas com a user função.

Name Tipo Description Required Default
conteúdo InputMessageContentList Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente
types.
Yes
função enumeração A função da entrada da mensagem. Um de user, systemou developer.

Valores possíveis: user, , systemdeveloper
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo de entrada da mensagem. Sempre definido como message.

Valores possíveis: message
No

InputMessageContentList

Uma lista de um ou muitos itens de entrada para o modelo, contendo tipos de conteúdo diferentes.

Nenhuma propriedade definida para esse componente.

InputMessageResource

Name Tipo Description Required Default
conteúdo InputMessageContentList Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente
types.
Yes
id cadeia A ID exclusiva da entrada da mensagem.
Yes
função enumeração A função da entrada da mensagem. Um de user, systemou developer.

Valores possíveis: user, , systemdeveloper
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo de entrada da mensagem. Sempre definido como message.

Valores possíveis: message
No

InputText

Uma entrada de texto para o modelo.

Name Tipo Description Required Default
enviar SMS cadeia A entrada de texto para o modelo.
Yes
tipo enumeração O tipo do item de entrada. Sempre input_text.

Valores possíveis: input_text
Yes

Item

Item de conteúdo usado para gerar uma resposta.

Esse componente pode ser um dos seguintes:

ItemReference

Um identificador interno para um item a ser referenciado.

Name Tipo Description Required Default
id cadeia A ID do item a ser referenciado.
Yes
tipo enumeração O tipo de item a ser referenciado. Sempre item_reference.

Valores possíveis: item_reference
Yes

ItemResource

Item de conteúdo usado para gerar uma resposta.

Esse componente pode ser um dos seguintes:

KeyPress

Uma coleção de teclas que o modelo deseja executar.

Name Tipo Description Required Default
keys matriz A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.

Valores possíveis: keypress
Yes

Metadata

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.

Nenhuma propriedade definida para esse componente.

ModelResponseProperties

Name Tipo Description Required Default
metadados Metadata Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia Modelo usado para gerar as respostas. No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
Geralmente, recomendamos alterar isso ou top_p não ambos.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. .
No

Move

Uma ação de movimentação do mouse.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.

Valores possíveis: move
Yes
x inteiro A coordenada x para a qual mover.
Yes
y inteiro A coordenada y para a qual mover.
Yes

OutputAudio

Uma saída de áudio do modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio codificados em Base64 do modelo.
Yes
transcrição cadeia A transcrição dos dados de áudio do modelo.
Yes
tipo enumeração O tipo do áudio de saída. Sempre output_audio.

Valores possíveis: output_audio
Yes

OutputContent

Esse componente pode ser um dos seguintes:

OutputItem

Name Tipo Description Required Default
ação ComputerAction Yes
arguments cadeia Uma cadeia de caracteres JSON dos argumentos a serem passados para a função.
Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída.
Yes
conteúdo matriz Conteúdo de texto de raciocínio.
Yes
id cadeia O identificador exclusivo do conteúdo de raciocínio.
Yes
name cadeia O nome da função a ser executada.
Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada do computador.
Yes
queries matriz As consultas usadas para pesquisar arquivos.
Yes
results matriz Os resultados da chamada da ferramenta de pesquisa de arquivos.
No
função enumeração A função da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Yes

OutputMessage

Uma mensagem de saída do modelo.

Name Tipo Description Required Default
conteúdo matriz O conteúdo da mensagem de saída.
Yes
id cadeia A ID exclusiva da mensagem de saída.
Yes
função enumeração A função da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Yes
status enumeração O status da entrada da mensagem. Um de in_progress, completedou incomplete. Populado quando os itens de entrada são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo da mensagem de saída. Sempre message.

Valores possíveis: message
Yes

OutputText

Uma saída de texto do modelo.

Name Tipo Description Required Default
annotations matriz As anotações da saída de texto.
Yes
enviar SMS cadeia A saída de texto do modelo.
Yes
tipo enumeração O tipo do texto de saída. Sempre output_text.

Valores possíveis: output_text
Yes

RealtimeSessionCreateRequest

Configuração do objeto de sessão em tempo real.

Name Tipo Description Required Default
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto A configuração para transcrição de áudio de entrada, o padrão é desativada e pode ser definida para null desativar uma vez. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ model cadeia O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1.
No
└─ prompt cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado.

Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta de assistente, incluindo chamadas de ferramenta. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
modelo cadeia O nome da implantação usada para esta sessão.
No
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho.
No 0.8
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função.
No auto
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ interrupt_response boolean Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para chaves é de um minuto.

Name Tipo Description Required Default
client_secret objeto Chave efêmera retornada pela API. Yes
└─ expires_at inteiro Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto.
No
└─ value cadeia Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor.
No
input_audio_format cadeia O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.
No
input_audio_transcription objeto A configuração para transcrição de áudio de entrada, o padrão é desativada e pode ser definida para null desativar uma vez. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio de Whisper e deve ser tratada como orientação aproximada em vez da representação compreendida pelo modelo.
No
└─ model cadeia O modelo a ser usado para transcrição whisper-1 é o único modelo com suporte no momento.
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta (por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado.
Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta de assistente, incluindo chamadas de ferramenta. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
output_audio_format cadeia O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw.
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O padrão é 0,8.
No
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função.
No
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turnos. Pode ser definido para null desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
No
└─ prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ type cadeia No momento, há suporte para server_vad o tipo de detecção de turnos.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configuração do objeto de sessão de transcrição em tempo real.

Name Tipo Description Required Default
include matriz O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são:
- item.input_audio_transcription.logprobs
No
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.
Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada.
No
└─ type enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ model enumeração O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1

Valores possíveis: gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
turn_detection objeto Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ create_response boolean Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad. Não disponível para sessões de transcrição.
No True
└─ eagerness enumeração Usado apenas para semantic_vad o modo. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ interrupt_response boolean Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD. Não disponível para sessões de transcrição.
No True
└─ prefix_padding_ms inteiro Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ type enumeração Tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Uma nova configuração de sessão de transcrição em tempo real.

Quando uma sessão é criada no servidor por meio da API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.

Name Tipo Description Required Default
client_secret objeto Chave efêmera retornada pela API. Só está presente quando a sessão é criada no servidor por meio da API REST.
Yes
└─ expires_at inteiro Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto.
No
└─ value cadeia Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor.
No
input_audio_format cadeia O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.
No
input_audio_transcription objeto Configuração do modelo de transcrição.
No
└─ language cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ model enumeração O modelo a ser usado para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15ou whisper-1.

Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ prompt cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
turn_detection objeto Configuração para detecção de turnos. Pode ser definido para null desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
No
└─ prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ silence_duration_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário.
No
└─ threshold number Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ type cadeia No momento, há suporte para server_vad o tipo de detecção de turnos.
No

Reasoning

Opções de configuração para modelos de raciocínio.

Name Tipo Description Required Default
Esforço ReasoningEffort Restringe o esforço no raciocínio para modelos de raciocínio.
Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Yes meio
resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Um de concise ou detailed.

Valores possíveis: concise, detailed
No

ReasoningItem

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.

Name Tipo Description Required Default
conteúdo matriz Conteúdo de texto de raciocínio.
Yes
id cadeia O identificador exclusivo do conteúdo de raciocínio.
Yes
status enumeração O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Yes

Refusal

Uma recusa do modelo.

Name Tipo Description Required Default
refusal cadeia A explicação da recusa do modelo.
Yes
tipo enumeração O tipo da recusa. Sempre refusal.

Valores possíveis: refusal
Yes

response

Name Tipo Description Required Default
created_at number Unix timestamp (em segundos) de quando esta Resposta foi criada.
Yes
erro ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.
Yes
id cadeia Identificador exclusivo para esta resposta.
Yes
incomplete_details objeto Detalhes sobre por que a resposta está incompleta.
Yes
└─ reason enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Yes
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
No
metadados Metadata Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
modelo cadeia Modelo usado para gerar as respostas. Yes
objeto enumeração O tipo de objeto desse recurso – sempre definido como response.

Valores possíveis: response
Yes
saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output matriz e supondo que seja uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade em que há suporte em SDKs.
Yes
output_text cadeia Propriedade de conveniência somente SDK que contém a saída de texto agregada de todos os output_text itens na output matriz, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.
Yes True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio.
No
status enumeração O status da geração de resposta. Um de completed, failed, in_progressou incomplete.

Valores possíveis: completed, , failed, in_progressincomplete
No
temperature number Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico.
Geralmente, recomendamos alterar isso ou top_p não ambos.
Yes 1
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more:
– entradas e saídas de texto
– Saídas estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão não tem { "type": "text" } opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Yes
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas
Yes
top_p number Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados.

Geralmente, recomendamos alterar isso ou temperature não ambos.
Yes 1
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No
uso ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. .
No

ResponseAudioDeltaEvent

Emitido quando há uma resposta de áudio parcial.

Name Tipo Description Required Default
delta cadeia Uma parte dos bytes de áudio de resposta codificados em Base64.
Yes
tipo enumeração O tipo do evento. Sempre response.audio.delta.

Valores possíveis: response.audio.delta
Yes

ResponseAudioDoneEvent

Emitido quando a resposta de áudio é concluída.

Name Tipo Description Required Default
tipo enumeração O tipo do evento. Sempre response.audio.done.

Valores possíveis: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Emitido quando há uma transcrição parcial do áudio.

Name Tipo Description Required Default
delta cadeia A transcrição parcial da resposta de áudio.
Yes
tipo enumeração O tipo do evento. Sempre response.audio.transcript.delta.

Valores possíveis: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Emitido quando a transcrição de áudio completa é concluída.

Name Tipo Description Required Default
tipo enumeração O tipo do evento. Sempre response.audio.transcript.done.

Valores possíveis: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Emitido quando um snippet de código parcial é adicionado pelo interpretador de código.

Name Tipo Description Required Default
delta cadeia O snippet de código parcial adicionado pelo interpretador de código.
Yes
output_index inteiro O índice do item de saída que a chamada do interpretador de código está em andamento.
Yes
tipo enumeração O tipo do evento. Sempre response.code_interpreter_call.code.delta.

Valores possíveis: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Emitido quando a saída do snippet de código é finalizada pelo interpretador de código.

Name Tipo Description Required Default
codificar cadeia A saída final do snippet de código pelo interpretador de código.
Yes
output_index inteiro O índice do item de saída que a chamada do interpretador de código está em andamento.
Yes
tipo enumeração O tipo do evento. Sempre response.code_interpreter_call.code.done.

Valores possíveis: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Emitido quando a chamada do interpretador de código é concluída.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
output_index inteiro O índice do item de saída que a chamada do interpretador de código está em andamento.
Yes
tipo enumeração O tipo do evento. Sempre response.code_interpreter_call.completed.

Valores possíveis: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Emitido quando uma chamada de interpretador de código está em andamento.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
output_index inteiro O índice do item de saída que a chamada do interpretador de código está em andamento.
Yes
tipo enumeração O tipo do evento. Sempre response.code_interpreter_call.in_progress.

Valores possíveis: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Emitido quando o interpretador de código está interpretando ativamente o snippet de código.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
output_index inteiro O índice do item de saída que a chamada do interpretador de código está em andamento.
Yes
tipo enumeração O tipo do evento. Sempre response.code_interpreter_call.interpreting.

Valores possíveis: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Emitido quando a resposta do modelo é concluída.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo do evento. Sempre response.completed.

Valores possíveis: response.completed
Yes

ResponseContentPartAddedEvent

Emitido quando uma nova parte de conteúdo é adicionada.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que foi adicionada.
Yes
item_id cadeia A ID do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
part OutputContent Yes
tipo enumeração O tipo do evento. Sempre response.content_part.added.

Valores possíveis: response.content_part.added
Yes

ResponseContentPartDoneEvent

Emitido quando uma parte do conteúdo é feita.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que é feita.
Yes
item_id cadeia A ID do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
part OutputContent Yes
tipo enumeração O tipo do evento. Sempre response.content_part.done.

Valores possíveis: response.content_part.done
Yes

ResponseCreatedEvent

Um evento emitido quando uma resposta é criada.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo do evento. Sempre response.created.

Valores possíveis: response.created
Yes

ResponseError

Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.

Name Tipo Description Required Default
codificar ResponseErrorCode O código de erro da resposta.
Yes
mensagem cadeia Uma descrição legível pelo humano do erro.
Yes

ResponseErrorCode

O código de erro da resposta.

Property Value
Description O código de erro da resposta.
Type cadeia
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Emitido quando ocorre um erro.

Name Tipo Description Required Default
codificar cadeia O código de erro.
Yes
mensagem cadeia A mensagem de erro.
Yes
param cadeia O parâmetro de erro.
Yes
tipo enumeração O tipo do evento. Sempre error.

Valores possíveis: error
Yes

ResponseFailedEvent

Um evento emitido quando uma resposta falha.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo do evento. Sempre response.failed.

Valores possíveis: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
tipo enumeração O tipo do evento. Sempre response.file_search_call.completed.

Valores possíveis: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Emitido quando uma chamada de pesquisa de arquivo é iniciada.

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
tipo enumeração O tipo do evento. Sempre response.file_search_call.in_progress.

Valores possíveis: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Emitido quando uma pesquisa de arquivo está pesquisando no momento.

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando.
Yes
tipo enumeração O tipo do evento. Sempre response.file_search_call.searching.

Valores possíveis: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Emitido quando há um delta de argumentos parciais de chamada de função.

Name Tipo Description Required Default
delta cadeia O delta de argumentos de chamada de função que é adicionado.
Yes
item_id cadeia A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado.
Yes
tipo enumeração O tipo do evento. Sempre response.function_call_arguments.delta.

Valores possíveis: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Emitido quando os argumentos de chamada de função são finalizados.

Name Tipo Description Required Default
arguments cadeia Os argumentos de chamada de função. Yes
item_id cadeia A ID do item. Yes
output_index inteiro O índice do item de saída. Yes
tipo enumeração
Valores possíveis: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Emitido quando a resposta está em andamento.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo do evento. Sempre response.in_progress.

Valores possíveis: response.in_progress
Yes

ResponseIncompleteEvent

Um evento emitido quando uma resposta é concluída como incompleta.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo do evento. Sempre response.incomplete.

Valores possíveis: response.incomplete
Yes

responseItemList

Uma lista de itens de resposta.

Name Tipo Description Required Default
dados matriz Uma lista de itens usados para gerar essa resposta. Yes
first_id cadeia A ID do primeiro item da lista. Yes
has_more boolean Se há mais itens disponíveis. Yes
last_id cadeia A ID do último item da lista. Yes
objeto enumeração O tipo de objeto retornado deve ser list.
Valores possíveis: list
Yes

ResponseModalities

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para esse componente.

ResponseModalitiesTextOnly

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

Em breve, essa API dará suporte a outras modalidades de saída, incluindo áudio e imagens.

Nenhuma propriedade definida para esse componente.

ResponseOutputItemAddedEvent

Emitido quando um novo item de saída é adicionado.

Name Tipo Description Required Default
item OutputItem Yes
output_index inteiro O índice do item de saída que foi adicionado.
Yes
tipo enumeração O tipo do evento. Sempre response.output_item.added.

Valores possíveis: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Emitido quando um item de saída é marcado como concluído.

Name Tipo Description Required Default
item OutputItem Yes
output_index inteiro O índice do item de saída que foi marcado como concluído.
Yes
tipo enumeração O tipo do evento. Sempre response.output_item.done.

Valores possíveis: response.output_item.done
Yes

ResponseProperties

Name Tipo Description Required Default
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa.
No
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio.
No
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more:
– entradas e saídas de texto
– Saídas estruturadas
No
└─ format TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão não tem { "type": "text" } opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

ResponseRefusalDeltaEvent

Emitido quando há um texto de recusa parcial.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o texto de recusa é adicionado.
Yes
delta cadeia O texto de recusa que é adicionado.
Yes
item_id cadeia A ID do item de saída ao qual o texto de recusa é adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o texto de recusa é adicionado.
Yes
tipo enumeração O tipo do evento. Sempre response.refusal.delta.

Valores possíveis: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Emitido quando o texto de recusa é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que o texto de recusa é finalizado.
Yes
item_id cadeia A ID do item de saída em que o texto de recusa é finalizado.
Yes
output_index inteiro O índice do item de saída em que o texto de recusa é finalizado.
Yes
refusal cadeia O texto de recusa finalizado.
Yes
tipo enumeração O tipo do evento. Sempre response.refusal.done.

Valores possíveis: response.refusal.done
Yes

responseStreamEvent

Name Tipo Description Required Default
anotação Annotation Yes
annotation_index inteiro O índice da anotação que foi adicionada.
Yes
arguments cadeia Os argumentos de chamada de função. Yes
codificar cadeia O código de erro.
Yes
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
content_index inteiro O índice da parte de conteúdo que o conteúdo do texto é finalizado.
Yes
delta cadeia O delta de texto que foi adicionado.
Yes
item OutputItem O item de saída marcado como concluído.
Yes
item_id cadeia A ID do item de saída em que o conteúdo do texto é finalizado.
Yes
mensagem cadeia A mensagem de erro.
Yes
output_index inteiro O índice do item de saída que o conteúdo do texto é finalizado.
Yes
param cadeia O parâmetro de erro.
Yes
part OutputContent A parte de conteúdo que é feita.
Yes
refusal cadeia O texto de recusa finalizado.
Yes
response response A resposta incompleta.
Yes
enviar SMS cadeia O conteúdo do texto finalizado.
Yes
tipo enumeração O tipo do evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Emitido quando uma anotação de texto é adicionada.

Name Tipo Description Required Default
anotação Annotation Yes
annotation_index inteiro O índice da anotação que foi adicionada.
Yes
content_index inteiro O índice da parte de conteúdo à qual a anotação de texto foi adicionada.
Yes
item_id cadeia A ID do item de saída ao qual a anotação de texto foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a anotação de texto foi adicionada.
Yes
tipo enumeração O tipo do evento. Sempre response.output_text.annotation.added.

Valores possíveis: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Emitido quando há um delta de texto adicional.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o delta de texto foi adicionado.
Yes
delta cadeia O delta de texto que foi adicionado.
Yes
item_id cadeia A ID do item de saída ao qual o delta de texto foi adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o delta de texto foi adicionado.
Yes
tipo enumeração O tipo do evento. Sempre response.output_text.delta.

Valores possíveis: response.output_text.delta
Yes

ResponseTextDoneEvent

Emitido quando o conteúdo do texto é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que o conteúdo do texto é finalizado.
Yes
item_id cadeia A ID do item de saída em que o conteúdo do texto é finalizado.
Yes
output_index inteiro O índice do item de saída que o conteúdo do texto é finalizado.
Yes
enviar SMS cadeia O conteúdo do texto finalizado.
Yes
tipo enumeração O tipo do evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Yes

ResponseUsage

Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. Yes
output_tokens inteiro O número de tokens de saída. Yes
output_tokens_details objeto Um detalhamento dos tokens de saída. Yes
└─ reasoning_tokens inteiro O número de tokens de raciocínio. No
total_tokens inteiro O número total de tokens usados. Yes

Screenshot

Uma ação de captura de tela.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.

Valores possíveis: screenshot
Yes

Scroll

Uma ação de rolagem.

Name Tipo Description Required Default
scroll_x inteiro A distância de rolagem horizontal.
Yes
scroll_y inteiro A distância de rolagem vertical.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.

Valores possíveis: scroll
Yes
x inteiro A coordenada x em que a rolagem ocorreu.
Yes
y inteiro A coordenada y em que a rolagem ocorreu.
Yes

StopConfiguration

Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção.

Esse componente pode ser um dos seguintes:

TextResponseFormatConfiguration

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.

O formato padrão não tem { "type": "text" } opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.

Esse componente pode ser um dos seguintes:

TextResponseFormatJsonSchema

Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre saídas estruturadas.

Name Tipo Description Required Default
description cadeia Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato.
No
name cadeia O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64.
No
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Yes
strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true.
No False
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_schema.
Valores possíveis: json_schema
Yes

Tool

Esse componente pode ser um dos seguintes:

ToolChoiceFunction

Use essa opção para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes
tipo enumeração Para a chamada de função, o tipo é sempre function.
Valores possíveis: function
Yes

ToolChoiceOptions

Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.

Property Value
Description Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
Type cadeia
Values none
auto
required

ToolChoiceTypes

Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.

Name Tipo Description Required Default
tipo enumeração O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são:
- file_search
- computer_use_preview

Valores possíveis: file_search, computer_use_preview
Yes

Tipo

Uma ação para digitar texto.

Name Tipo Description Required Default
enviar SMS cadeia O texto a ser digitado.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.

Valores possíveis: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Yes

UrlCitation

Uma citação para um recurso da Web usado para gerar uma resposta de modelo.

Name Tipo Description Required Default
end_index inteiro O índice do último caractere da citação de URL na mensagem.
Yes
start_index inteiro O índice do primeiro caractere da citação de URL na mensagem.
Yes
title cadeia O título do recurso da Web.
Yes
tipo enumeração O tipo da citação de URL. Sempre url_citation.

Valores possíveis: url_citation
Yes
url cadeia A URL do recurso da Web.
Yes

VectorStoreFileAttributes

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.

Nenhuma propriedade definida para esse componente.

VectorStoreFileContentResponse

Representa o conteúdo analisado de um arquivo de repositório de vetores.

Name Tipo Description Required Default
dados matriz Conteúdo analisado do arquivo. Yes
has_more boolean Indica se há mais páginas de conteúdo a serem buscadas. Yes
next_page cadeia O token para a próxima página, se houver. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.file_content.page
Valores possíveis: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Tipo Description Required Default
filters ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. No 10
consulta cadeia de caracteres ou matriz Uma cadeia de caracteres de consulta para uma pesquisa Yes
ranking_options objeto Opções de classificação para pesquisa. No
└─ ranker enumeração Valores possíveis: auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Se deseja reescrever a consulta de linguagem natural para pesquisa de vetor. No False

VectorStoreSearchResultContentObject

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto retornado da pesquisa. Yes
tipo enumeração O tipo de conteúdo.
Valores possíveis: text
Yes

VectorStoreSearchResultItem

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Yes
conteúdo matriz Partes de conteúdo do arquivo. Yes
file_id cadeia A ID do arquivo do repositório de vetores. Yes
filename cadeia O nome do arquivo de repositório de vetores. Yes
pontuação number A pontuação de similaridade para o resultado. Yes

VectorStoreSearchResultsPage

Name Tipo Description Required Default
dados matriz A lista de itens de resultado da pesquisa. Yes
has_more boolean Indica se há mais resultados a serem buscados. Yes
next_page cadeia O token para a próxima página, se houver. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.search_results.page
Valores possíveis: vector_store.search_results.page
Yes
search_query matriz Yes

VoiceIdsShared

Nenhuma propriedade definida para esse componente.

Wait

Uma ação de espera.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.

Valores possíveis: wait
Yes

ReasoningEffort

Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.

Property Value
Description Restringe o esforço no raciocínio para modelos de raciocínio.
Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
Type cadeia
Default meio
Values low
medium
high

errorEvent

Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.

Name Tipo Description Required Default
dados error Yes
evento cadeia Yes

Enumeração de evento: ErrorEventEnum

Value Description
erro

doneEvent

Ocorre quando um fluxo termina.

Name Tipo Description Required Default
dados cadeia Yes
evento cadeia Yes

Enumeração de evento: DoneEventEnum

Value Description
done

Enumeração de dados: DoneEventDataEnum

Value Description
[DONE]

Next steps

Saiba mais sobre modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.