Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.
API specs
O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API primária:
- Control plane
- Plano de dados – criação
- Plano de dados – inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem seu próprio conjunto exclusivo de versões de API GA (versão prévia e estável/geralmente disponível). Versões prévias atualmente tendem a seguir uma cadência mensal.
Important
Agora há uma nova API de inferência de visualização. Saiba mais em nosso guia de ciclo de vida da API.
| API | Versão prévia mais recente | Versão mais recente do GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | A API do painel de controle é usada para operações como a criação de recursos, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também controla o que é possível fazer com recursos como o Azure Resource Manager, o Bicep, o Terraform e a CLI do Azure. |
| Data plane | v1 preview |
v1 |
Spec files | A API do plano de dados controla operações de inferência e criação. |
Authentication
O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou a ID do Microsoft Entra.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a Chave de API no
api-keycabeçalho HTTP. O Início Rápido fornece diretrizes sobre como fazer chamadas com esse tipo de autenticação.Autenticação da ID do Microsoft Entra: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o
Authorizationcabeçalho. O token fornecido deve ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN. Você pode ler nosso guia de instruções sobre como autenticar com a ID do Microsoft Entra.
Controle de versão da API REST
As APIs de serviço são usadas com versão usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de data deMM-DD YYYY. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a 2025-04-01-preview versão prévia da especificação de inferência do plano de dados do Azure OpenAI.
Se você estiver procurando documentação sobre a versão mais recente da API ga, consulte a API de inferência do plano de dados ga mais recente
Conclusões – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | inteiro | Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos para retornar ââ'¬â€œ best_of deve ser maior que n.Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Ecoe novamente o prompt, além da conclusão | No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. | No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo é logprobs 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens da sua adição max_tokens de prompt não pode exceder o tamanho do contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusões serão geradas para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | No | 0 |
| solicitação | cadeia de caracteres ou matriz | O prompt para o qual gerar conclusões, codificadas como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento. |
Yes | |
| seed | inteiro | Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção. | No | |
| fluxo | boolean | Se o progresso parcial deve ser transmitido de volta. Se definidos, os tokens são enviados como eventos enviados apenas por servidor de dados conforme ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código python. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Inserções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenha uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | A ID de implantação do modelo que foi implantado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dimensions | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. |
No | |
| encoding_format | cadeia | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64. O padrão é float. |
No | |
| entrada | cadeia de caracteres ou matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. |
Yes | |
| input_type | cadeia | tipo de entrada de pesquisa de inserção a ser usada | No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Examples
Example
Retorne as inserções para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de Status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusões de chat – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Cria uma conclusão para a mensagem de chat
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ format | enumeração | Especifica o formato de áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16. Valores possíveis: wav, , mp3, flac, opus, pcm16 |
No | |
| └─ voice | enumeração | Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
No | |
| data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as usam. Essa especificação extra só é compatível com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content valor de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código python. | Yes | |
| metadados | objeto | Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no painel de conclusões armazenados. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| n | inteiro | Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| previsão | PredictionContent | Configuração para uma Saída Prevista, que pode melhorar consideravelmente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| reasoning_effort | enumeração |
somente modelos o1 Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Beta. Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. |
No | |
| armazenar | boolean | Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | No | |
| fluxo | boolean | Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código python. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
logprobs deve ser definido como true se esse parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados de vetor de imagem do Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Banco de Dados do Mongo fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o recurso pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcreve o áudio no idioma de entrada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| modelo | cadeia | ID do modelo a ser usado. As opções são gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1gpt-4o-transcribe-diarize. |
Yes | |
| arquivo | cadeia | O objeto de arquivo de áudio a ser transcrever. | Yes | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para ambas ou ambas as opções: wordou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas gerar carimbos de data/hora de palavra incorre em latência adicional. |
No | ['segment'] |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era de text, vtt ou srt). |
Examples
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcreve e converte o áudio de entrada em texto em inglês.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio a ser convertido. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era um de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Gera áudio do texto de entrada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para o qual sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato no qual sintetizar o áudio. Valores possíveis: mp3, , opus, aac, flac, , wavpcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 até 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | cadeia |
Examples
Example
Sintetiza o áudio do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de Status: 200
{
"body": "101010101"
}
Gerações de imagem – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Gera um lote de imagens de uma legenda de texto em uma determinada implantação de modelo de geração de imagem
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. | No | auto |
| n | inteiro | O número de imagens a serem geradas. Para dall-e-3, há suporte apenas para n=1. | No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. | No | png |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 | Yes | |
| partial_images | inteiro | O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | 0 | |
| fluxo | boolean | Edite a imagem no modo de streaming. | no | false |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.Valores possíveis: url, b64_json. |
No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| estilo | imageStyle | O estilo das imagens geradas. Só há suporte para dall-e-3. | No | vivid |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de status: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Cria imagens fornecidas por um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Gerações de imagem – Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita uma imagem de uma legenda de texto em uma determinada implantação de modelo gpt-image-1
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | cadeia de caracteres ou matriz | As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 50 MB. | Yes | |
| input_fidelity | cadeia | Controlar o esforço que o modelo exercerá para corresponder ao estilo e aos recursos, especialmente os recursos faciais, das imagens de entrada. Esse parâmetro só tem suporte para modelos da série gpt-image-1. Suportes high e low. |
no |
low. |
| máscara | cadeia | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. | No | |
| n | inteiro | O número de imagens a serem geradas. Deve estar entre 1 e 10. | No | 1 |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| partial_images | O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | |||
| fluxo | boolean | Edite a imagem no modo de streaming. | no | false |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de status: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Lista - Assistentes
Note
A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retorna uma lista de assistentes.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Retorna uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar – Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crie um assistente com um modelo e instruções.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | Yes | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| └─ vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de Status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obter – Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera um assistente.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A ID do assistente a ser recuperado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Recupera um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar – Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica um assistente.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A ID do assistente a ser modificada. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | No | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Substitui a lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | Substitui o repositório de vetores anexado a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de Status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir – Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Excluir um assistente.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A ID do assistente a ser excluída. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar – Thread
Note
A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Crie um thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para iniciar o thread. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No | |
| └─ vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Cria um thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obter – Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera um thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser recuperado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera um thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar – Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica um thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser modificado. Somente o metadata pode ser modificado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de Arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica um thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir – Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Excluir um thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser excluído. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Exclui um thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista – Mensagens
Note
A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retorna uma lista de mensagens para um determinado thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads aos quais as mensagens pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| run_id | consulta | No | cadeia | Filtre mensagens pela ID de execução que as gerou. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar – Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Crie uma mensagem.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads para o qual criar uma mensagem. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| função | cadeia | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user: indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Crie uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de Status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obter – Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recupere uma mensagem.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads aos quais essa mensagem pertence. |
| message_id | caminho | Yes | cadeia | A ID da mensagem a ser recuperada. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recupere uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar – Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica uma mensagem.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread ao qual essa mensagem pertence. |
| message_id | caminho | Yes | cadeia | A ID da mensagem a ser modificada. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modificar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar – Thread e Executar
Note
A API de Assistentes foi preterida e será desativada em 26 de agosto de 2026. Use o serviço Microsoft Foundry Agents em disponibilidade geral. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crie um thread e execute-o em uma solicitação.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | A ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie um thread e execute-o em uma solicitação.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista – Execuções
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retorna uma lista de execuções que pertencem a um thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread ao qual a execução pertence. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retorna uma lista de execuções que pertencem a um thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar – Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crie uma execução.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser executado. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado da pesquisa de arquivo. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia | Acrescenta instruções adicionais ao final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | No | |
| additional_messages | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | No | |
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obter – Executar
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera uma execução.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads executados. |
| run_id | caminho | Yes | cadeia | A ID da execução a ser recuperada. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Obtém uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar – Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica uma execução.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads executados. |
| run_id | caminho | Yes | cadeia | A ID da execução a ser modificada. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar – Saídas da ferramenta a serem executadas
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads aos quais essa execução pertence. |
| run_id | caminho | Yes | cadeia | A ID da execução que requer o envio de saída da ferramenta. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar – Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela uma execução que é in_progress.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread ao qual essa execução pertence. |
| run_id | caminho | Yes | cadeia | A ID da execução a ser cancelada. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Cancela uma execução que é in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista – Etapas de Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retorna uma lista de etapas de execução que pertencem a uma execução.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread à qual as etapas executar e executar pertencem. |
| run_id | caminho | Yes | cadeia | A ID da execução à qual as etapas de execução pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia | |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado da pesquisa de arquivo. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retorna uma lista de etapas de execução que pertencem a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obter – Etapa de Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera uma etapa de execução.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread ao qual a etapa executar e executar pertence. |
| run_id | caminho | Yes | cadeia | A ID da execução à qual a etapa de execução pertence. |
| step_id | caminho | Yes | cadeia | A ID da etapa de execução a ser recuperada. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado da pesquisa de arquivo. |
| api-version | consulta | Yes | cadeia |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Recupera uma etapa de execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista – Repositórios de Vetores
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retorna uma lista de repositórios de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retorna uma lista de repositórios de vetores.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar – Repositório vetor
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crie um repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Cria um repositório de vetores.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Get – Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera um repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser recuperado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera um repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar – Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica um repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser modificado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica um repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Excluir – Repositório de Vetores
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Excluir um repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser excluído. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Exclui um repositório de vetores.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista – Arquivos do Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos do repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | cadeia Valores possíveis: in_progress, , completed, failedcancelled |
Filtrar por status do arquivo. Um de in_progress, completed, failed, . cancelled |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos do repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar – Arquivo do Repositório vetor
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores para o qual criar um Arquivo. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. |
No | |
| file_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de Status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obter – Arquivo do Repositório vetor
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera um arquivo de repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo que está sendo recuperado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera um arquivo de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir – Arquivo do Repositório vetor
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Exclua um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de arquivo de exclusão.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo a ser excluído. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Exclua um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de arquivo de exclusão.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Atualizar atributos em um arquivo de repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo para atualizar atributos. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recuperar o conteúdo do arquivo do repositório vetor
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupere o conteúdo analisado de um arquivo de repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores. |
| file_id | caminho | Yes | cadeia | A ID do arquivo no repositório de vetores. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Repositório de vetores de pesquisa
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Pesquise em um repositório de vetores partes relevantes com base em um filtro de atributos de consulta e arquivo.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser pesquisado. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. | No | 10 |
| consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Yes | |
| ranking_options | objeto | Opções de classificação para pesquisa. | No | |
| └─ ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se deseja reescrever a consulta de linguagem natural para pesquisa de vetor. | No | False |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Criar – Lote de Arquivos do Repositório vetor
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crie um lote de arquivos do repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores para o qual criar um Lote de Arquivos. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Crie um lote de arquivos do repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de Status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get – Lote de Arquivos do Repositório vetor
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera um lote de arquivos do repositório de vetores.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos que está sendo recuperado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera um lote de arquivos do repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar – Lote de Arquivos do Repositório vetor
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancelar um lote de arquivos do repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos a ser cancelada. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Cancelar um lote de arquivos do repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista – Arquivos do Lote de Arquivos do Repositório vetor
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos do repositório de vetores em um lote.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual os arquivos pertencem. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos à qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | cadeia Valores possíveis: in_progress, , completed, failedcancelled |
Filtrar por status do arquivo. Um de in_progress, completed, failed, . cancelled |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos do repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar – Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime. Pode ser configurado com os mesmos parâmetros de sessão que o session.update evento cliente.
Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmera utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | A configuração para transcrição de áudio de entrada, o padrão é desativada e pode ser definida para null desativar uma vez. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ model | cadeia | O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta de assistente, incluindo chamadas de ferramenta. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| modelo | cadeia | O nome da implantação usada para esta sessão. |
No | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Código de status: 200
Descrição: sessão criada com êxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Criar - Sessão de Transcrição em Tempo Real
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime especificamente para transcrições em tempo real.
Pode ser configurado com os mesmos parâmetros de sessão que o transcription_session.update evento cliente.
Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmera utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ model | enumeração | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1.Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad. Não disponível para sessões de transcrição. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD. Não disponível para sessões de transcrição. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No |
Responses
Código de status: 200
Descrição: sessão criada com êxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Cria uma resposta de modelo.
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | No | ||
| entrada | cadeia de caracteres ou matriz | Model inputs | Yes | |
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversa. |
No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. |
No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. Consulte a seção Streaming abaixo para obter mais informações. |
No | False |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more: – Entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.O formato padrão não tem { "type": "text" } opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o model's capabilities |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas – itens de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera uma resposta de modelo com a ID fornecida.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | A ID da resposta a ser recuperada. |
| include | consulta | No | matriz | Campos adicionais a serem incluídos na resposta. Consulte o include parâmetro para criação de resposta acima para obter mais informações. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Exclui uma resposta de modelo com a ID fornecida.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | A ID da resposta a ser excluída. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
Código de status: 404
Descrição: Não encontrado
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas – lista de itens de resposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retorna uma lista de itens de entrada para uma determinada resposta.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | A ID da resposta para a qual recuperar itens de entrada. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
A ordem para retornar os itens de entrada. O padrão é asc.- asc: retorne os itens de entrada em ordem crescente.- desc: retorne os itens de entrada em ordem decrescente. |
| after | consulta | No | cadeia | Uma ID de item para listar itens depois, usada na paginação. |
| before | consulta | No | cadeia | Uma ID de item para listar itens anteriormente, usada na paginação. |
Request Header
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeEscopo: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API openai do Azure aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | error | No |
errorBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | No | ||
| mensagem | cadeia | No |
erro
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia | No | ||
| tipo | cadeia | No |
innerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No |
innerErrorCode
Códigos de erro para o objeto de erro interno.
| Property | Value |
|---|---|
| Description | Códigos de erro para o objeto de erro interno. |
| Type | cadeia |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | dalleError | No |
dalleError
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia | No | ||
| tipo | cadeia | No |
dalleInnerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| revised_prompt | cadeia | O prompt que foi usado para gerar a imagem, se houve alguma revisão no prompt. | No |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. Deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset para intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. | Yes | |
| completion_start_offset | inteiro | Deslocamento do ponto de código UTF32 que inicia o intervalo. | Yes |
contentFilterResultBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | cadeia | No |
contentFilterDetectedResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citation | objeto | No | ||
| └─ URL | cadeia | No | ||
| └─ license | cadeia | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No |
contentFilterIdResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | cadeia | No |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto e palavrões de terceiros, se tiver sido detectado e se tiver sido filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No | ||
| filtered | boolean | Yes |
promptFilterResult
Os resultados da filtragem de conteúdo para um único prompt na solicitação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| prompt_index | inteiro | No |
promptFilterResults
Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes.
Nenhuma propriedade definida para esse componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | A filtragem de conteúdo resulta com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. | No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. | No | |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 – tokens de prompt). Isso não é compatível com modelos da série O1. | No | 4096 |
| metadados | objeto | Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no painel de conclusões armazenados. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | No | 0 |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. | No | |
| armazenar | boolean | Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | No | |
| fluxo | boolean | Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o Azure OpenAI a monitorar e detectar abusos. | No |
createCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | inteiro | Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões do candidato e n especifica quantos retornarão.
best_of deve ser maior que n.Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Ecoe novamente o prompt, além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo é logprobs 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens da sua adição max_tokens de prompt não pode exceder o tamanho do contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusões serão geradas para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| solicitação | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento. |
Yes | |
| seed | inteiro | Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção. |
No | |
| fluxo | boolean | Se o progresso parcial deve ser transmitido de volta. Se definidos, os tokens são enviados como eventos enviados apenas por servidor de dados conforme ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código python. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No |
createCompletionResponse
Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade de chat).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | A lista de opções de conclusão que o modelo gerou para o prompt de entrada. | Yes | |
| created | inteiro | O carimbo de data/hora Unix (em segundos) de quando a conclusão foi criada. | Yes | |
| id | cadeia | Um identificador exclusivo para a conclusão. | Yes | |
| modelo | cadeia | O modelo usado para conclusão. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo. |
No | |
| uso | completionUsage | Estatísticas de uso para a solicitação de conclusão. | No |
createChatCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ format | enumeração | Especifica o formato de áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16. Valores possíveis: wav, , mp3, flac, opus, pcm16 |
No | |
| └─ voice | enumeração | Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
No | |
| data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as usam. Essa especificação adicional só é compatível com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content valor de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código python. | Yes | |
| metadados | objeto | Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no painel de conclusões armazenados. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| n | inteiro | Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| previsão | PredictionContent | Configuração para uma Saída Prevista, que pode melhorar consideravelmente os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| reasoning_effort | enumeração |
somente modelos o1 Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Beta. Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. |
No | |
| armazenar | boolean | Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | No | |
| fluxo | boolean | Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código python. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
logprobs deve ser definido como true se esse parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | No |
userSecurityContext
O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| application_name | cadeia | O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas neste campo. | No | |
| end_user_id | cadeia | Esse identificador é a ID de objeto de usuário do Microsoft Entra (antigo Azure Active Directory) usada para autenticar usuários finais no aplicativo de IA generativo. Informações pessoais confidenciais não devem ser incluídas neste campo. | No | |
| end_user_tenant_id | cadeia | A ID do locatário do Microsoft 365 à qual o usuário final pertence. Ele é necessário quando o aplicativo de IA gerativo é multilocatário. | No | |
| source_ip | cadeia | Captura o endereço IP do cliente original, aceitando formatos IPv4 e IPv6. | No |
chatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
chatCompletionFunctionCallOption
Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes |
chatCompletionFunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Nenhuma propriedade definida para esse componente.
chatCompletionRequestMessage
Esse componente pode ser um dos seguintes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário.
Com modelos o1 e mais recentes, developer as mensagens substituem as mensagens anteriores system .
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do desenvolvedor. | Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso developer.Valores possíveis: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso system.Valores possíveis: system |
Yes |
chatCompletionRequestUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso user.Valores possíveis: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado. |
No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| └─ arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| refusal | cadeia | A mensagem de recusa do assistente. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso assistant.Valores possíveis: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso tool.Valores possíveis: tool |
Yes | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem de função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso function.Valores possíveis: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestSystemMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Esse componente pode ser um dos seguintes:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio | objeto | Yes | ||
| └─ data | cadeia | Dados de áudio codificados em Base64. | No | |
| └─ format | enumeração | O formato dos dados de áudio codificados. Atualmente, dá suporte a "wav" e "mp3". Valores possíveis: wav, mp3 |
No | |
| tipo | enumeração | O tipo da parte de conteúdo. Sempre input_audio.Valores possíveis: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_url | objeto | Yes | ||
| └─ detail | enumeração | Especifica o nível de detalhes da imagem. Saiba mais no guia de Visão. Valores possíveis: auto, , lowhigh |
No | |
| └─ url | cadeia | Uma URL da imagem ou os dados de imagem codificados em base64. | No | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Yes |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
###Discriminator para azureChatExtensionConfiguration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
| Property | Value |
|---|---|
| Description | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
| Type | cadeia |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-la como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parâmetros para o Azure Search quando usados como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Parâmetros para o Azure Search quando usados como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | No | ||
| ponto de extremidade | cadeia | O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. | No | |
| filtro | cadeia | Search filter. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice a ser usado conforme disponível no recurso do Azure Search referenciado. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | No | |
| semantic_configuration | cadeia | A configuração semântica adicional para a consulta. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| image_vector_fields | matriz | Os nomes dos campos que representam dados de vetor de imagem. | No | |
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados de vetor. | No |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
| Type | cadeia |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-la como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Azure Cosmos DB para MongoDB vCore. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Azure Cosmos DB para MongoDB vCore.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação do Azure OpenAI em seus dados ao usar uma cadeia de conexão. | Yes | |
| container_name | cadeia | O nome do contêiner de recursos do Azure Cosmos DB. | Yes | |
| database_name | cadeia | O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice vCore do MongoDB a ser usado com o Azure Cosmos DB. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados de vetor. | Yes |
elasticsearchChatExtensionConfiguration
Uma representação específica das opções configuráveis para o Elasticsearch ao usá-la como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | No | ||
| ponto de extremidade | cadeia | O ponto de extremidade do Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice de Elasticsearch®. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| query_type | elasticsearchQueryType | O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
elasticsearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados de vetor. | No |
elasticsearchQueryType
O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
| Type | cadeia |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Mongo DB. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar o Azure OpenAI em suas extensões de chat de dados ao usar o Mongo DB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| app_name | cadeia | O nome do aplicativo Mongo DB. | Yes | |
| autenticação | onYourDataUsernameAndPasswordAuthenticationOptions | As opções de autenticação do Azure OpenAI em seus dados ao usar um nome de usuário e uma senha. | Yes | |
| collection_name | cadeia | O nome da Coleção Mongo DB. | Yes | |
| database_name | cadeia | O nome do banco de dados mongo DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| ponto de extremidade | cadeia | O nome do ponto de extremidade do cluster do Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso do Mongo DB configurado. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice mongo DB. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
mongoDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso do Mongo DB configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados de vetor. | Yes |
pineconeChatExtensionConfiguration
Uma representação específica de opções configuráveis para Pinecone ao usá-la como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parâmetros para configurar extensões de chat do Azure OpenAI Pinecone. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Parâmetros para configurar extensões de chat do Azure OpenAI Pinecone.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como false, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave de API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa de vetor, que se baseia em um nome de implantação de modelo de inserção interna no mesmo recurso do Azure OpenAI. | Yes | |
| ambiente | cadeia | O nome do ambiente de Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso do Pinecone configurado. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice de banco de dados pinecone. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
pineconeFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso do Pinecone configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No |
onYourDataAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados.
Discriminador para onYourDataAuthenticationOptions
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataContextProperty
A propriedade de contexto.
| Property | Value |
|---|---|
| Description | A propriedade de contexto. |
| Type | cadeia |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados.
| Property | Value |
|---|---|
| Description | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. |
| Type | cadeia |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave de API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave de API a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar uma cadeia de conexão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| connection_string | cadeia | A cadeia de conexão a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave Elasticsearch e um par de IDs de chave.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave Elasticsearch a ser usada para autenticação. | No | |
| key_id | cadeia | A ID da chave Elasticsearch a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar uma chave de API codificada do Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | cadeia | A chave de API codificada do Elasticsearch a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar o token de acesso.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| access_token | cadeia | O token de acesso a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar uma identidade gerenciada atribuída pelo sistema.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar uma identidade gerenciada atribuída pelo usuário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | cadeia | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
As opções de autenticação do Azure OpenAI em seus dados ao usar um nome de usuário e uma senha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| senha | cadeia | The password. a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com o Azure OpenAI em seus dados. | Yes | |
| nome de usuário | cadeia | O nome de usuário a ser usado para autenticação. | No |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetor para o Azure OpenAI em seus dados com pesquisa de vetor.
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. | Yes |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor.
| Property | Value |
|---|---|
| Description | Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. |
| Type | cadeia |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI em seus dados ao aplicar a pesquisa de vetor, que se baseia em uma chamada pública de ponto de extremidade do Azure OpenAI para inserções.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | inteiro | O número de dimensões que as inserções devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. |
No | |
| ponto de extremidade | cadeia | Especifica a URL do ponto de extremidade de recurso da qual as inserções devem ser recuperadas. Ele deve estar no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta de versão de api não é permitido. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. | Yes |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI on Your Data ao aplicar a pesquisa de vetor, que se baseia em um nome de implantação de modelo de inserções internas no mesmo recurso do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | cadeia | Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas Em Seus Dados usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a pesquisa de vetor mesmo em redes privadas. | No | |
| dimensions | inteiro | O número de dimensões que as inserções devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. | Yes |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido dentro do recurso de pesquisa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. | Yes |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI on Your Data ao aplicar a pesquisa de vetor, que se baseia em uma ID do modelo de serviço de pesquisa. Atualmente, só há suporte para Elasticsearch®.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| model_id | cadeia | Especifica a ID do modelo a ser usada para vetorização. Essa ID do modelo deve ser definida no serviço de pesquisa. | No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor. | Yes |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | matriz | Todos os documentos recuperados. | No | |
| citations | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | No | |
| intenção | cadeia | A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. | No |
citation
informações de citação para uma mensagem de resposta de conclusões de chat.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia | A ID da parte da citação. | No | |
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| rerank_score | number | A pontuação de reclassificado do documento recuperado. | No | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No |
retrievedDocument
O documento recuperado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia | A ID da parte da citação. | No | |
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| data_source_index | inteiro | O índice da fonte de dados. | No | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| filter_reason | filterReason | O motivo da filtragem do documento recuperado. | No | |
| original_search_score | number | A pontuação de pesquisa original do documento recuperado. | No | |
| rerank_score | number | A pontuação de reclassificado do documento recuperado. | No | |
| search_queries | matriz | As consultas de pesquisa usadas para recuperar o documento. | No | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No |
filterReason
O motivo da filtragem do documento recuperado.
| Property | Value |
|---|---|
| Description | O motivo da filtragem do documento recuperado. |
| Type | cadeia |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A função chamada pelo modelo. | Yes | |
| └─ arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | A ID da chamada da ferramenta. | Yes | |
| tipo | toolCallType | O tipo da chamada de ferramenta, nesse caso function. |
Yes |
toolCallType
O tipo da chamada de ferramenta, nesse caso function.
| Property | Value |
|---|---|
| Description | O tipo da chamada de ferramenta, nesse caso function. |
| Type | cadeia |
| Values | function |
chatCompletionRequestMessageTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | No | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | No |
chatCompletionRequestMessageFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | No | |
| name | cadeia | O conteúdo da mensagem. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso function.Valores possíveis: function |
No |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de data/hora unix (em segundos) de quando a conclusão do chat foi criada. | Yes | |
| id | cadeia | Um identificador exclusivo para a conclusão do chat. | Yes | |
| modelo | cadeia | O modelo usado para a conclusão do chat. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo. |
No | |
| uso | completionUsage | Estatísticas de uso para a solicitação de conclusão. | No |
createChatCompletionStreamResponse
Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de data/hora unix (em segundos) de quando a conclusão do chat foi criada. Cada parte tem o mesmo carimbo de data/hora. | Yes | |
| id | cadeia | Um identificador exclusivo para a conclusão do chat. Cada parte tem a mesma ID. | Yes | |
| modelo | cadeia | O modelo para gerar a conclusão. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo. |
No |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem de parte. | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| └─ arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | No | |
| função | enumeração | A função do autor desta mensagem. Valores possíveis: system, , user, assistanttool |
No | |
| tool_calls | matriz | No |
chatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | A ID da chamada da ferramenta. | No | |
| indexar | inteiro | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: function |
No |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se definido, uma parte adicional será transmitida antes da data: [DONE] mensagem. O usage campo nessa parte mostra as estatísticas de uso do token para toda a solicitação e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo. |
No |
chatCompletionChoiceLogProbs
Informações de probabilidade de log para a escolha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo de mensagens com informações de probabilidade de log. | Yes | |
| refusal | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade de log. | No |
chatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Yes | |
| logprob | number | A probabilidade de log desse token. | Yes | |
| símbolo | cadeia | The token. | Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de solicitados retornados top_logprobs . |
Yes |
chatCompletionResponseMessage
Uma mensagem de conclusão de chat gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. | No | |
| └─ data | cadeia | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. |
No | |
| └─ expires_at | inteiro | O carimbo de data/hora unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos. |
No | |
| └─ id | cadeia | Identificador exclusivo para essa resposta de áudio. | No | |
| └─ transcript | cadeia | Transcrição do áudio gerado pelo modelo. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente. | No | |
| function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| função | chatCompletionResponseMessageRole | A função do autor da mensagem de resposta. | Yes | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionResponseMessageRole
A função do autor da mensagem de resposta.
| Property | Value |
|---|---|
| Description | A função do autor da mensagem de resposta. |
| Type | cadeia |
| Values | assistant |
chatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes.
Esse componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | Yes | ||
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: function |
Yes |
ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Nenhuma propriedade definida para esse componente.
PredictionContent
Conteúdo de saída previsto estático, como o conteúdo de um arquivo de texto que está sendo regenerado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo poderá ser retornada muito mais rapidamente. | Yes | |
| tipo | enumeração | O tipo do conteúdo previsto que você deseja fornecer. Atualmente, esse tipo é sempre content.Valores possíveis: content |
Yes |
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para esse componente.
ChatCompletionModalities
Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para esse componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes |
completionUsage
Estatísticas de uso para a solicitação de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens na conclusão gerada. | Yes | |
| completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | No | |
| └─ accepted_prediction_tokens | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceu na conclusão. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio gerados pelo modelo. | No | |
| └─ reasoning_tokens | inteiro | Tokens gerados pelo modelo para raciocínio. | No | |
| └─ rejected_prediction_tokens | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceu na conclusão. No entanto, como tokens de raciocínio, esses tokens ainda são contados no total de tokens de conclusão para fins de limites de janela de cobrança, saída e contexto. | No | |
| prompt_tokens | inteiro | Número de tokens no prompt. | Yes | |
| prompt_tokens_details | objeto | Detalhes dos tokens de prompt. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio presentes no prompt. | No | |
| └─ cached_tokens | inteiro | O número de tokens de prompt armazenados em cache. | No | |
| total_tokens | inteiro | Número total de tokens usados na solicitação (prompt + conclusão). | Yes |
chatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | FunctionObject | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: function |
Yes |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para esse componente.
FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No | |
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
ResponseFormatText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: textValores possíveis: text |
Yes |
ResponseFormatJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_objectValores possíveis: json_object |
Yes |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para esse componente.
ResponseFormatJsonSchema
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| json_schema | objeto | Yes | ||
| └─ description | cadeia | Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato. | No | |
| └─ name | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | No | |
| └─ strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schemaValores possíveis: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | cadeia | No | ||
| indexar | inteiro | No |
createTranslationRequest
Translation request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio a ser convertido. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
audioResponse
Resposta de translação ou transcrição quando response_format era json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes |
audioVerboseResponse
Resposta de translação ou transcrição quando response_format foi verbose_json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| linguagem | cadeia | Language. | No | |
| segments | matriz | No | ||
| tarefa | cadeia | Tipo de tarefa de áudio. | No | |
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes | |
| words | matriz | No |
audioResponseFormat
Define o formato da saída.
| Property | Value |
|---|---|
| Description | Define o formato da saída. |
| Type | cadeia |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O objeto de arquivo de áudio a ser transcrever. | Yes | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para ambas ou ambas as opções: wordou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas gerar carimbos de data/hora de palavra incorre em latência adicional. |
No | ['segment'] |
audioSegment
Transcrição ou segmento de tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilidade média do log. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Deslocamento final do segmento. | No | |
| id | inteiro | Segment identifier. | No | |
| no_speech_prob | number | Probabilidade de "sem fala". | No | |
| seek | number | Deslocamento do segmento. | No | |
| start | number | Deslocamento de início do segmento. | No | |
| temperature | number | Temperature. | No | |
| enviar SMS | cadeia | Segment text. | No | |
| tokens | matriz | Tokens do texto. | No |
audioWord
Transcrição ou palavra de tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end | number | Deslocamento de término do Word. | No | |
| start | number | Deslocamento de início do Word. | No | |
| palavra | cadeia | Word | No |
createSpeechRequest
Speech request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para o qual sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato no qual sintetizar o áudio. Valores possíveis: mp3, , opus, aac, flac, , wavpcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 até 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
Yes |
imageQuality
A qualidade da imagem que será gerada.
| Property | Value |
|---|---|
| Description | A qualidade da imagem que será gerada. |
| Type | cadeia |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
O formato no qual as imagens geradas são retornadas.
| Property | Value |
|---|---|
| Description | O formato no qual as imagens geradas são retornadas. |
| Type | cadeia |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos de série.
| Property | Value |
|---|---|
| Description | O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. |
| Type | cadeia |
| Default | png |
| Values | pngjpeg |
imageSize
O tamanho das imagens geradas.
| Property | Value |
|---|---|
| Description | O tamanho das imagens geradas. |
| Type | cadeia |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
O estilo das imagens geradas. Só há suporte para dall-e-3.
| Property | Value |
|---|---|
| Description | O estilo das imagens geradas. Só há suporte para dall-e-3. |
| Type | cadeia |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1.
| Property | Value |
|---|---|
| Description | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. |
| Type | cadeia |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. | No | auto |
| n | inteiro | O número de imagens a serem geradas. Para dall-e-3, há suporte apenas para n=1. | No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. | No | png |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1 e 4.000 caracteres para dall-e-3 | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. Só há suporte para dall-e-3. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| estilo | imageStyle | O estilo das imagens geradas. Só há suporte para dall-e-3. | No | vivid |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No |
imageEditsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | cadeia de caracteres ou matriz | As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 25 MB. | Yes | |
| máscara | cadeia | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. | No | |
| n | inteiro | O número de imagens a serem geradas. | No | 1 |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No |
generateImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | inteiro | O carimbo de data/hora unix quando a operação foi criada. | Yes | |
| dados | matriz | Os dados de resultado da operação, se bem-sucedidos | Yes | |
| uso | imageGenerationsUsage | Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1. | No |
imageResult
A url da imagem ou a imagem codificada se bem-sucedida e um erro de outra forma.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| b64_json | cadeia | A imagem codificada em base64 | No | |
| content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | No | |
| prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| revised_prompt | cadeia | O prompt que foi usado para gerar a imagem, se houve alguma revisão no prompt. | No | |
| url | cadeia | A URL da imagem. | No |
imageGenerationsUsage
Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | No | |
| input_tokens_details | objeto | Um detalhamento dos tokens de entrada. | No | |
| └─ image_tokens | inteiro | O número de tokens de imagem. | No | |
| └─ text_tokens | inteiro | O número de tokens de texto. | No | |
| output_tokens | inteiro | O número de tokens de saída. | No | |
| total_tokens | inteiro | O número total de tokens usados. | No |
linha
Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| spans | matriz | Uma matriz de intervalos que representam objetos detectados e suas informações de caixa delimitadora. | Yes | |
| enviar SMS | cadeia | Yes |
span
Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| length | inteiro | O comprimento do intervalo em caracteres, medido em pontos de código Unicode. | Yes | |
| deslocamento | inteiro | O deslocamento de caractere dentro do texto em que o intervalo começa. Esse deslocamento é definido como a posição do primeiro caractere do intervalo, contando desde o início do texto como pontos de código Unicode. | Yes | |
| polígono | matriz | Uma matriz de objetos que representa pontos no polígono que inclui o objeto detectado. | Yes | |
| enviar SMS | cadeia | O conteúdo do texto do intervalo que representa o objeto detectado. | Yes |
runCompletionUsage
Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou in_progressseja, , queuedetc.).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da execução. | Yes | |
| prompt_tokens | inteiro | Número de tokens de prompt usados ao longo da execução. | Yes | |
| total_tokens | inteiro | Número total de tokens usados (prompt + conclusão). | Yes |
runStepCompletionUsage
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da etapa de execução. | Yes | |
| prompt_tokens | inteiro | Número de tokens de prompt usados ao longo da etapa de execução. | Yes | |
| total_tokens | inteiro | Número total de tokens usados (prompt + conclusão). | Yes |
assistantsApiResponseFormatOption
Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.
A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.
A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Esse componente pode ser um dos seguintes:
assistantsApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools tiver permissão para ser passado para a Execução. Se text o modelo puder retornar texto ou qualquer valor necessário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | Deve ser um de text ou json_object. |
No | enviar SMS |
tipo Enum: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| enviar SMS | |
| json_object |
assistantObject
Representa um assistant que pode chamar o modelo e usar ferramentas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. | Yes | |
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| modelo | cadeia | ID do modelo a ser usado. | Yes | |
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | A ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, file_searchou function. |
Yes | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
objeto Enum: AssistantObjectType
| Value | Description |
|---|---|
| assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | Yes | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| └─ vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
modifyAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | No | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Substitui a lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | Substitui o repositório de vetores anexado a esse assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
deleteAssistantResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
assistantToolsCode
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | O tipo de ferramenta que está sendo definida: code_interpreter |
Yes |
tipo Enum: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Substitui a ferramenta de pesquisa de arquivos. | No | |
| └─ max_num_results | inteiro | O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50, inclusive. Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados. |
No | |
| tipo | cadeia | O tipo de ferramenta que está sendo definida: file_search |
Yes |
Enumeração de tipo: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | O tipo de ferramenta que está sendo definida: file_search |
Yes |
Enumeração de tipo: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função. | Yes | |
| └─ description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. | No | |
| tipo | cadeia | O tipo de ferramenta que está sendo definida: function |
Yes |
tipo Enum: assistantToolsFunction
| Value | Description |
|---|---|
| função |
truncationObject
Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| last_messages | inteiro | O número de mensagens mais recentes do thread ao construir o contexto para a execução. | No | |
| tipo | cadeia | A estratégia de truncamento a ser usada para o thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo max_prompt_tokens. |
Yes |
tipo Enum: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Esse componente pode ser um dos seguintes:
assistantsNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| tipo | cadeia | O tipo da ferramenta. Se o tipo for function, o nome da função deverá ser definido |
Yes |
tipo Enum: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| função | |
| code_interpreter | |
| file_search |
runObject
Representa uma execução de execução em um threads.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente usada para execução dessa execução. | Yes | |
| cancelled_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução foi cancelada. | Yes | |
| completed_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução foi concluída. | Yes | |
| created_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução foi criada. | Yes | |
| expires_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução expirará. | Yes | |
| failed_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução falhou. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| incomplete_details | objeto | Detalhes sobre por que a execução está incompleta.
null Será se a execução não estiver incompleta. |
Yes | |
| └─ reason | cadeia | O motivo pelo qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. | No | |
| instructions | cadeia | As instruções que o assistente usou para esta execução. | Yes | |
| last_error | objeto | O último erro associado a essa execução. Será null se não houver erros. |
Yes | |
| └─ code | cadeia | Um de server_error ou rate_limit_exceeded. |
No | |
| └─ message | cadeia | Uma descrição legível pelo humano do erro. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão especificados para terem sido usados ao longo da execução. |
Yes | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt especificados para terem sido usados ao longo da execução. |
Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| modelo | cadeia | O modelo que o assistente usou para esta execução. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| required_action | objeto | Detalhes sobre a ação necessária para continuar a execução.
null Será se nenhuma ação for necessária. |
Yes | |
| └─ submit_tool_outputs | objeto | Detalhes sobre as saídas da ferramenta necessárias para que essa execução continue. | No | |
| └─ tool_calls | matriz | Uma lista das chamadas de ferramenta relevantes. | No | |
| └─ type | enumeração | Por enquanto, isso é sempre submit_tool_outputs.Valores possíveis: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Yes | |
| started_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução foi iniciada. | Yes | |
| status | cadeia | O status da execução, que pode ser queued, , in_progress, requires_action, cancelling, , cancelled, failed, completedou expired. |
Yes | |
| temperature | number | A temperatura de amostragem usada para esta execução. Se não for definido, o padrão será 1. | No | |
| thread_id | cadeia | A ID dos threads em que foi executada como parte dessa execução. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Yes | |
| tools | matriz | A lista de ferramentas que o assistente usou para essa execução. | Yes | [] |
| top_p | number | O valor de amostragem do núcleo usado para esta execução. Se não for definido, o padrão será 1. | No | |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Yes | |
| uso | runCompletionUsage | Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou in_progressseja, , queuedetc.). |
Yes |
enumeração de objeto: runObjectType
| Value | Description |
|---|---|
| thread.run | O tipo de objeto de execução que é sempre thread.run |
Enumeração de status: RunObjectStatus
| Value | Description |
|---|---|
| na fila | O estado enfileirado |
| in_progress | O estado in_progress |
| requires_action | O estado required_action |
| cancelling | O estado de cancelamento |
| cancelled | O estado cancelado |
| failed | O estado com falha |
| completed | O estado concluído |
| expired | O estado expirado |
createRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia | Acrescenta instruções adicionais ao final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | No | |
| additional_messages | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | No | |
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
listRunsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
modifyRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
submitToolOutputsRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Yes |
runToolCallObject
Objetos de chamada de ferramenta
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função. | Yes | |
| └─ arguments | cadeia | Os argumentos que o modelo espera que você passe para a função. | No | |
| └─ name | cadeia | O nome da função. | No | |
| id | cadeia | A ID da chamada da ferramenta. Essa ID deve ser referenciada quando você envia as saídas da ferramenta usando as saídas da ferramenta de envio para executar o ponto de extremidade. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta para o qual a saída é necessária. Por enquanto, isso é sempre function. |
Yes |
tipo Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| função |
createThreadAndRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias curvas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | A ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
threadObject
Representa um thread que contém mensagens.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o thread foi criado. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread. |
Yes | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
Yes | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
enumeração de objeto: ThreadObjectType
| Value | Description |
|---|---|
| conversa | O tipo de objeto de thread que é sempre thread |
createThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para iniciar o thread. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No | |
| └─ vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
modifyThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de Arquivo disponibilizadas para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
deleteThreadResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | O estado do objeto de resposta de thread de exclusão que é thread.deleted |
listThreadsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
messageObject
Representa uma mensagem dentro de um threads.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | Se aplicável, a ID do assistente que criou esta mensagem. | Yes | |
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às que foram adicionados. | Yes | |
| completed_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando a mensagem foi concluída. | Yes | |
| conteúdo | matriz | O conteúdo da mensagem na matriz de texto e/ou imagens. | Yes | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando a mensagem foi criada. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| incomplete_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando a mensagem foi marcada como incompleta. | Yes | |
| incomplete_details | objeto | Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. | Yes | |
| └─ reason | cadeia | O motivo pelo qual a mensagem está incompleta. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.message. |
Yes | |
| função | cadeia | A entidade que produziu a mensagem. Um de user ou assistant. |
Yes | |
| run_id | cadeia | Se aplicável, a ID da execução associada à criação dessa mensagem. | Yes | |
| status | cadeia | O status da mensagem, que pode ser in_progress, incompleteou completed. |
Yes | |
| thread_id | cadeia | A ID de threads à qual essa mensagem pertence. | Yes |
Enumeração de objeto: MessageObjectType
| Value | Description |
|---|---|
| thread.message | O tipo de objeto de mensagem que é thread.message |
Enumeração de status: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
Enumeração de função: MessageObjectRole
| Value | Description |
|---|---|
| usuário | |
| assistente |
messageDeltaObject
Representa uma mensagem delta, ou seja, todos os campos alterados em uma mensagem durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objeto | O delta que contém os campos que foram alterados na Mensagem. | Yes | |
| └─ content | matriz | O conteúdo da mensagem na matriz de texto e/ou imagens. | No | |
| └─ role | cadeia | A entidade que produziu a mensagem. Um de user ou assistant. |
No | |
| id | cadeia | O identificador da mensagem, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.message.delta. |
Yes |
objeto Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| função | cadeia | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user: indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Enumeração de função: CreateMessageRequestRole
| Value | Description |
|---|---|
| usuário | |
| assistente |
modifyMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
deleteMessageResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | O estado do objeto de resposta da mensagem de exclusão |
listMessagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
messageContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objeto | Yes | ||
| └─ file_id | cadeia | A ID do arquivo da imagem no conteúdo da mensagem. | No | |
| tipo | cadeia | Sempre image_file. |
Yes |
tipo Enum: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | O tipo de arquivo de imagem de conteúdo da mensagem |
messageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | objeto | Yes | ||
| └─ annotations | matriz | No | ||
| └─ value | cadeia | Os dados que compõem o texto. | No | |
| tipo | cadeia | Sempre text. |
Yes |
tipo Enum: messageContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS | O tipo de objeto de texto de conteúdo da mensagem |
messageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | Yes | ||
| file_citation | objeto | Yes | ||
| └─ file_id | cadeia | A ID do arquivo específico do qual a citação é. | No | |
| start_index | inteiro | Yes | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia | Sempre file_citation. |
Yes |
tipo Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | O tipo de objeto de citação de arquivo |
messageContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | Yes | ||
| file_path | objeto | Yes | ||
| └─ file_id | cadeia | A ID do arquivo que foi gerado. | No | |
| start_index | inteiro | Yes | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia | Sempre file_path. |
Yes |
tipo Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | O tipo de objeto de caminho de arquivo |
messageDeltaContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objeto | No | ||
| └─ file_id | cadeia | A ID do arquivo da imagem no conteúdo da mensagem. | No | |
| indexar | inteiro | O índice da parte de conteúdo na mensagem. | Yes | |
| tipo | cadeia | Sempre image_file. |
Yes |
tipo Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | O índice da parte de conteúdo na mensagem. | Yes | |
| enviar SMS | objeto | No | ||
| └─ annotations | matriz | No | ||
| └─ value | cadeia | Os dados que compõem o texto. | No | |
| tipo | cadeia | Sempre text. |
Yes |
tipo Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS |
messageDeltaContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | No | ||
| file_citation | objeto | No | ||
| └─ file_id | cadeia | A ID do arquivo específico do qual a citação é. | No | |
| └─ quote | cadeia | A citação específica no arquivo. | No | |
| indexar | inteiro | O índice da anotação na parte de conteúdo de texto. | Yes | |
| start_index | inteiro | No | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | No | |
| tipo | cadeia | Sempre file_citation. |
Yes |
tipo Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | No | ||
| file_path | objeto | No | ||
| └─ file_id | cadeia | A ID do arquivo que foi gerado. | No | |
| indexar | inteiro | O índice da anotação na parte de conteúdo de texto. | Yes | |
| start_index | inteiro | No | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | No | |
| tipo | cadeia | Sempre file_path. |
Yes |
tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Representa uma etapa na execução de uma execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente associado à etapa de execução. | Yes | |
| cancelled_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi cancelada. | Yes | |
| completed_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi concluída. | Yes | |
| created_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi criada. | Yes | |
| expired_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a etapa de execução expirou. Uma etapa será considerada expirada se a execução pai tiver expirado. | Yes | |
| failed_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a etapa de execução falhou. | Yes | |
| id | cadeia | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_error | objeto | O último erro associado a esta etapa de execução. Será null se não houver erros. |
Yes | |
| └─ code | cadeia | Um de server_error ou rate_limit_exceeded. |
No | |
| └─ message | cadeia | Uma descrição legível pelo humano do erro. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre assistant.run.step. |
Yes | |
| run_id | cadeia | A ID da execução da qual essa etapa de execução faz parte. | Yes | |
| status | cadeia | O status da execução, que pode serin_progress, , cancelled, failedou completedexpired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Yes | |
| thread_id | cadeia | A ID dos threads executados. | Yes | |
| tipo | cadeia | O tipo de etapa de execução, que pode ser ou message_creationtool_calls. |
Yes |
objeto Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | O tipo de objeto, que é sempre assistant.run.step |
tipo Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | A etapa de execução message_creation |
| tool_calls | A etapa de execução tool_calls |
Enumeração de status: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | O status de execução do in_progress |
| cancelled | O status da execução cancelada |
| failed | O status da execução cancelada |
| completed | O status da execução cancelada |
| expired | O status da execução cancelada |
runStepDeltaObject
Representa uma etapa de execução delta, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objeto | O delta que contém os campos que foram alterados na etapa de execução. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes da etapa de execução. | No | |
| id | cadeia | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.run.step.delta. |
Yes |
objeto Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objeto | Yes | ||
| └─ message_id | cadeia | A ID da mensagem que foi criada por esta etapa de execução. | No | |
| tipo | cadeia | Sempre message_creation. |
Yes |
tipo Enum: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objeto | No | ||
| └─ message_id | cadeia | A ID da mensagem que foi criada por esta etapa de execução. | No | |
| tipo | cadeia | Sempre message_creation. |
Yes |
tipo Enum: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreterou retrievalfunction. |
Yes | |
| tipo | cadeia | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreterou file_searchfunction. |
No | |
| tipo | cadeia | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objeto | A definição de chamada da ferramenta Interpretador de Código. | Yes | |
| └─ input | cadeia | A entrada para a chamada da ferramenta Interpretador de Código. | No | |
| └─ outputs | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia | A ID da chamada da ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objeto | A definição de chamada da ferramenta Interpretador de Código. | No | |
| └─ input | cadeia | A entrada para a chamada da ferramenta Interpretador de Código. | No | |
| └─ outputs | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia | A ID da chamada da ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de Código como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | A saída de texto da chamada da ferramenta Interpretador de Código. | Yes | |
| tipo | cadeia | Sempre logs. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de Código como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | O índice da saída na matriz de saídas. | Yes | |
| logs | cadeia | A saída de texto da chamada da ferramenta Interpretador de Código. | No | |
| tipo | cadeia | Sempre logs. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objeto | Yes | ||
| └─ file_id | cadeia | A ID do arquivo da imagem. | No | |
| tipo | cadeia | Sempre image. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| imagem |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objeto | No | ||
| └─ file_id | cadeia | A ID do arquivo da imagem. | No | |
| indexar | inteiro | O índice da saída na matriz de saídas. | Yes | |
| tipo | cadeia | Sempre image. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| imagem |
runStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Yes | |
| └─ results | matriz | Os resultados da pesquisa de arquivo. | No | |
| id | cadeia | A ID do objeto de chamada de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Uma instância de resultado da pesquisa de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo do resultado encontrado. O conteúdo só será incluído se solicitado por meio do parâmetro de consulta include. | No | |
| file_id | cadeia | A ID do arquivo no qual o resultado foi encontrado. | Yes | |
| file_name | cadeia | O nome do arquivo no qual o resultado foi encontrado. | Yes | |
| pontuação | number | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Yes | |
| id | cadeia | A ID do objeto de chamada de ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função que foi chamada. | Yes | |
| └─ arguments | cadeia | Os argumentos passados para a função. | No | |
| └─ name | cadeia | O nome da função. | No | |
| └─ output | cadeia | A saída da função. Isso será null se as saídas ainda não tiverem sido enviadas. |
No | |
| id | cadeia | A ID do objeto de chamada de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função que foi chamada. | No | |
| └─ arguments | cadeia | Os argumentos passados para a função. | No | |
| └─ name | cadeia | O nome da função. | No | |
| └─ output | cadeia | A saída da função. Isso será null se as saídas ainda não tiverem sido enviadas. |
No | |
| id | cadeia | A ID do objeto de chamada de ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
vectorStoreExpirationAfter
A política de expiração de um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| âncora | cadeia | Carimbo de data/hora de âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at. |
Yes | |
| days | inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. | Yes |
Enumeração de âncora: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | O carimbo de data/hora de âncora após o qual a política de expiração se aplica. |
vectorStoreObject
Um repositório de vetores é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores foi criado. | Yes | |
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| expires_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores expirará. | No | |
| file_counts | objeto | Yes | ||
| └─ cancelled | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ completed | inteiro | O número de arquivos que foram processados com êxito. | No | |
| └─ failed | inteiro | O número de arquivos que falharam ao processar. | No | |
| └─ in_progress | inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_active_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores estava ativo pela última vez. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| name | cadeia | O nome do repositório de vetores. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Yes | |
| status | cadeia | O status do repositório de vetores, que pode ser expired, in_progressou completed. Um status indica completed que o repositório de vetores está pronto para uso. |
Yes | |
| usage_bytes | inteiro | O número total de bytes usados pelos arquivos no repositório de vetores. | Yes |
Enumeração de status: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
updateVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
listVectorStoresResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
deleteVectorStoreResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | O estado do objeto de resposta do repositório de vetor de exclusão |
vectorStoreFileObject
Uma lista de arquivos anexados a um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
No | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o arquivo de repositório de vetores foi criado. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_error | objeto | O último erro associado a esse arquivo de repositório de vetores. Será null se não houver erros. |
Yes | |
| └─ code | cadeia | Um de server_error ou invalid_fileunsupported_file. |
No | |
| └─ message | cadeia | Uma descrição legível pelo humano do erro. | No | |
| objeto | cadeia | O tipo de objeto, que é sempre vector_store.file. |
Yes | |
| status | cadeia | O status do arquivo de repositório de vetores, que pode ser in_progress, , completedou cancelledfailed. O status completed indica que o arquivo de repositório de vetores está pronto para uso. |
Yes | |
| usage_bytes | inteiro | O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Yes | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o arquivo está anexado. | Yes |
objeto Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Enumeração de status: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de agrupamento é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | Sempre other. |
Yes |
tipo Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | cadeia | Sempre static. |
Yes |
tipo Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| estático |
staticChunkingStrategy
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | inteiro | O número de tokens que se sobrepõem entre partes. O valor padrão é 400.Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | inteiro | O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. |
Yes |
autoChunkingStrategyRequestParam
A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Yes |
chunkingStrategyRequestParam
A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia.
Esse componente pode ser um dos seguintes:
createVectorStoreFileRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. |
No | |
| file_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Yes |
listVectorStoreFilesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
deleteVectorStoreFileResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos do repositório de vetores foi criado. | Yes | |
| file_counts | objeto | Yes | ||
| └─ cancelled | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ completed | inteiro | O número de arquivos que foram processados. | No | |
| └─ failed | inteiro | O número de arquivos que falharam ao processar. | No | |
| └─ in_progress | inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre vector_store.file_batch. |
Yes | |
| status | cadeia | O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completedcancelled ou failed. |
Yes | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o Arquivo está anexado. | Yes |
objeto Enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Enumeração de status: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Yes |
assistantStreamEvent
Representa um evento emitido ao transmitir uma execução.
Cada evento em um fluxo de eventos enviados pelo servidor tem uma propriedade eevent:data
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitemos eventos sempre que um novo objeto é criado, faz a transição para um novo estado ou é transmitido em partes (deltas). Por exemplo, emitemos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente opta por criar uma mensagem durante uma execução, emitemos um thread.message.created eventevento, thread.message.in_progress muitos thread.message.delta eventos e, por fim, um thread.message.completed evento.
Podemos adicionar eventos adicionais ao longo do tempo, portanto, recomendamos lidar com eventos desconhecidos normalmente em seu código.
Esse componente pode ser um dos seguintes:
threadStreamEvent
Esse componente pode ser um dos seguintes:
thread.created
Ocorre quando um novo thread é criado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | threadObject | Representa um thread que contém mensagens. | Yes | |
| evento | cadeia | Yes |
Data: threadObject
Enumeração de evento: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | O evento criado pelo thread |
runStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova execução é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de evento: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Ocorre quando uma execução é movida para um queued status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de evento: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ocorre quando uma execução é movida para um in_progress status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de Eventos: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma execução é movida para um requires_action status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de Evento: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Ocorre quando uma execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de eventos: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Ocorre quando uma execução falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de evento: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Ocorre quando uma execução é movida para um cancelling status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de evento: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma execução é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de eventos: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Ocorre quando uma execução expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução de execução em um threads. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Enumeração de evento: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando uma etapa de execução é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Enumeração de Evento: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Ocorre quando uma etapa de execução é movida para um in_progress estado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Enumeração de Eventos: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de uma etapa de execução estão sendo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepDeltaObject | Representa uma etapa de execução delta, ou seja, todos os campos alterados em uma etapa de execução durante o streaming. |
Yes | |
| evento | cadeia | Yes |
Data: runStepDeltaObject
Enumeração de Evento: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ocorre quando uma etapa de execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Enumeração de eventos: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ocorre quando uma etapa de execução falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Enumeração de Evento: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando uma etapa de execução é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Enumeração de Evento: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando uma etapa de execução expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Enumeração de Evento: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Esse componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um threads. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Enumeração de Evento: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem é movida para um in_progress estado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um threads. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Enumeração de Eventos: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageDeltaObject | Representa uma mensagem delta, ou seja, todos os campos alterados em uma mensagem durante o streaming. |
Yes | |
| evento | cadeia | Yes |
Data: messageDeltaObject
Enumeração de Evento: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um threads. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Enumeração de evento: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Ocorre quando uma mensagem termina antes de ser concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um threads. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Enumeração de Evento: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Esse componente pode ser um dos seguintes:
Click
Uma ação de clique.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| button | enumeração | Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, backou forward.Valores possíveis: left, , right, wheel, back, forward |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.Valores possíveis: click |
Yes | |
| x | inteiro | A coordenada x em que o clique ocorreu. |
Yes | |
| y | inteiro | A coordenada y em que o clique ocorreu. |
Yes |
CodeInterpreterFileOutput
A saída de uma chamada de ferramenta de interpretador de código que é um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| files | matriz | Yes | ||
| tipo | enumeração | O tipo da saída do arquivo interpretador de código. Sempre files.Valores possíveis: files |
Yes |
CodeInterpreterTextOutput
A saída de uma chamada de ferramenta de interpretador de código que é texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | Os logs da chamada da ferramenta interpretador de código. |
Yes | |
| tipo | enumeração | O tipo da saída de texto do interpretador de código. Sempre logs.Valores possíveis: logs |
Yes |
CodeInterpreterTool
Uma ferramenta que executa o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_ids | matriz | As IDs dos arquivos em que executar o código. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de interpretador de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Yes |
CodeInterpreterToolCall
Uma chamada de ferramenta para executar o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código a ser executado. |
Yes | |
| id | cadeia | A ID exclusiva da chamada da ferramenta interpretador de código. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta interpretador de código. |
Yes | |
| status | enumeração | O status da chamada da ferramenta interpretador de código. Valores possíveis: in_progress, , interpretingcompleted |
Yes | |
| tipo | enumeração | O tipo da chamada da ferramenta interpretador de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Esse componente pode ser um dos seguintes:
ComparisonFilter
Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave a ser comparada com o valor. | Yes | |
| tipo | enumeração | Especifica o operador de comparação: eq, , ne, gt, gte, lt, lte.- eq:Equals- ne: não é igual a- gt: maior que- gte: maior ou igual a- lt: menor que- lte: menor ou igual aValores possíveis: eq, , ne, gt, gte, , ltlte |
Yes | |
| value | cadeia de caracteres ou número ou booliano | O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. | Yes |
CompoundFilter
Combinar vários filtros usando and ou or.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | matriz | Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Yes | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Yes |
ComputerAction
Esse componente pode ser um dos seguintes:
ComputerScreenshotImage
Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | O identificador de um arquivo carregado que contém a captura de tela. | No | |
| image_url | cadeia | A URL da imagem de captura de tela. | No | |
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.Valores possíveis: computer_screenshot |
Yes |
ComputerTool
Uma ferramenta que controla um computador virtual.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | A altura da exibição do computador. |
Yes | |
| display_width | number | A largura da exibição do computador. |
Yes | |
| ambiente | enumeração | O tipo de ambiente de computador a ser controlado. Valores possíveis: mac, , windows, ubuntubrowser |
Yes | |
| tipo | enumeração | O tipo da ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer-use-preview |
Yes |
ComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. |
Yes | |
| id | cadeia | A ID exclusiva da chamada do computador. | Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada do computador. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo da chamada do computador. Sempre computer_call.Valores possíveis: computer_call |
Yes |
ComputerToolCallOutput
A saída de uma chamada de ferramenta de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. |
No | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia | A ID da saída da chamada da ferramenta de computador. |
No | |
| saída | ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Yes | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedou incomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. |
No | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia | A ID exclusiva da saída da ferramenta de chamada do computador. |
Yes | |
| saída | ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Yes | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedou incomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Uma verificação de segurança pendente para a chamada do computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O tipo da verificação de segurança pendente. | Yes | |
| id | cadeia | A ID da verificação de segurança pendente. | Yes | |
| mensagem | cadeia | Detalhes sobre a verificação de segurança pendente. | Yes |
Content
Conteúdo de entrada e saída multi modal.
Esse componente pode ser um dos seguintes:
Coordinate
Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| x | inteiro | The x-coordinate. |
Yes | |
| y | inteiro | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | Modelo usado para gerar as respostas. | No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. . |
No |
createResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | {"$ref": "#/components/schemas/includable/description"} | No | |
| entrada | cadeia de caracteres ou matriz | Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. | Yes | |
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. |
No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. | No | False |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more: – entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão não tem { "type": "text" } opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o resposta para ajustar a janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
DoubleClick
Uma ação de clique duplo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.Valores possíveis: double_click |
Yes | |
| x | inteiro | A coordenada x em que o clique duplo ocorreu. |
Yes | |
| y | inteiro | A coordenada y em que o clique duplo ocorreu. |
Yes |
Drag
Uma ação de arrastar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| caminho | matriz | Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo,[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.Valores possíveis: drag |
Yes |
EasyInputMessage
Uma entrada de mensagem para o modelo com uma função que indica a instrução seguindo a hierarquia. As instruções fornecidas com a função ou developer têm system precedência sobre as instruções fornecidas com a user função. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | string ou InputMessageContentList | Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta. Também pode conter respostas anteriores do assistente. |
Yes | |
| função | enumeração | A função da entrada da mensagem. Um de user, assistant, systemou developer.Valores possíveis: user, , assistant, systemdeveloper |
Yes | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
No |
FileCitation
Uma citação a um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | A ID do arquivo. |
Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo da citação de arquivo. Sempre file_citation.Valores possíveis: file_citation |
Yes |
FilePath
Um caminho para um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | A ID do arquivo. |
Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path.Valores possíveis: file_path |
Yes |
FileSearchRanker
O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.
| Property | Value |
|---|---|
| Description | O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador. |
| Type | cadeia |
| Values | autodefault_2024_08_21 |
FileSearchTool
Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. |
No | |
| ranking_options | objeto | Opções de classificação para pesquisa. | No | |
| └─ ranker | enumeração | O classificador a ser usado para a pesquisa de arquivos. Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. |
No | 0 |
| tipo | enumeração | O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.Valores possíveis: file_search |
Yes | |
| vector_store_ids | matriz | As IDs dos repositórios de vetores a serem pesquisadas. |
Yes |
FileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa de arquivos. |
Yes | |
| queries | matriz | As consultas usadas para pesquisar arquivos. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de arquivos. |
No | |
| status | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress, searchingincomplete ou failed,Valores possíveis: in_progress, , searching, completed, incomplete, failed |
Yes | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.Valores possíveis: file_search_call |
Yes |
FunctionTool
Define uma função em seu próprio código que o modelo pode optar por chamar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada. |
No | |
| name | cadeia | O nome da função a ser chamada. |
Yes | |
| parameters | objeto | Um objeto de esquema JSON que descreve os parâmetros da função. |
Yes | |
| strict | boolean | Se deve impor a validação estrita de parâmetro. Padrão true. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de função. Sempre function.Valores possíveis: function |
Yes |
FunctionToolCall
Uma chamada de ferramenta para executar uma função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | A ID exclusiva da chamada da ferramenta de função. |
Yes | |
| name | cadeia | O nome da função a ser executada. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da chamada da ferramenta de função. Sempre function_call.Valores possíveis: function_call |
Yes |
FunctionToolCallOutput
A saída de uma chamada de ferramenta de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | A ID exclusiva da saída da chamada da ferramenta de função. Populado quando esse item é retornado por meio da API. |
No | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | A ID exclusiva da saída da ferramenta de chamada de função. |
Yes | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
includable
Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
-
file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos. -
message.input_image.image_url: inclua urls de imagem da mensagem de entrada. -
computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
| Property | Value |
|---|---|
| Description | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são: - file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos.- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador. |
| Type | cadeia |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Uma entrada de áudio para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio codificados em Base64. |
Yes | |
| format | enumeração | O formato dos dados de áudio. Os formatos com suporte no momento são mp3 e wav.Valores possíveis: mp3, wav |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Yes |
InputContent
Esse componente pode ser um dos seguintes:
InputFile
Uma entrada de arquivo para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado para o modelo. |
No | |
| file_id | cadeia | A ID do arquivo a ser enviado para o modelo. |
No | |
| filename | cadeia | O nome do arquivo a ser enviado para o modelo. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Yes |
InputImage
Uma entrada de imagem para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detail | enumeração | O nível de detalhes da imagem a ser enviada para o modelo. Um de high, lowou auto. O padrão é auto.Valores possíveis: high, , lowauto |
Yes | |
| file_id | cadeia | A ID do arquivo a ser enviado para o modelo. |
No | |
| image_url | cadeia | A URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou uma imagem codificada em base64 em uma URL de dados. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Yes |
InputItem
Esse componente pode ser um dos seguintes:
InputMessage
Uma entrada de mensagem para o modelo com uma função que indica a instrução seguindo a hierarquia. As instruções fornecidas com a função ou developer têm system precedência sobre as instruções fornecidas com a user função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente types. |
Yes | |
| função | enumeração | A função da entrada da mensagem. Um de user, systemou developer.Valores possíveis: user, , systemdeveloper |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre definido como message.Valores possíveis: message |
No |
InputMessageContentList
Uma lista de um ou muitos itens de entrada para o modelo, contendo tipos de conteúdo diferentes.
Nenhuma propriedade definida para esse componente.
InputMessageResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente types. |
Yes | |
| id | cadeia | A ID exclusiva da entrada da mensagem. |
Yes | |
| função | enumeração | A função da entrada da mensagem. Um de user, systemou developer.Valores possíveis: user, , systemdeveloper |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre definido como message.Valores possíveis: message |
No |
InputText
Uma entrada de texto para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Yes |
Item
Item de conteúdo usado para gerar uma resposta.
Esse componente pode ser um dos seguintes:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Um identificador interno para um item a ser referenciado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | A ID do item a ser referenciado. |
Yes | |
| tipo | enumeração | O tipo de item a ser referenciado. Sempre item_reference.Valores possíveis: item_reference |
Yes |
ItemResource
Item de conteúdo usado para gerar uma resposta.
Esse componente pode ser um dos seguintes:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Uma coleção de teclas que o modelo deseja executar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| keys | matriz | A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.Valores possíveis: keypress |
Yes |
Metadata
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.
As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Nenhuma propriedade definida para esse componente.
ModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | Modelo usado para gerar as respostas. | No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. . |
No |
Move
Uma ação de movimentação do mouse.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.Valores possíveis: move |
Yes | |
| x | inteiro | A coordenada x para a qual mover. |
Yes | |
| y | inteiro | A coordenada y para a qual mover. |
Yes |
OutputAudio
Uma saída de áudio do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio codificados em Base64 do modelo. |
Yes | |
| transcrição | cadeia | A transcrição dos dados de áudio do modelo. |
Yes | |
| tipo | enumeração | O tipo do áudio de saída. Sempre output_audio.Valores possíveis: output_audio |
Yes |
OutputContent
Esse componente pode ser um dos seguintes:
OutputItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. |
Yes | |
| conteúdo | matriz | Conteúdo de texto de raciocínio. |
Yes | |
| id | cadeia | O identificador exclusivo do conteúdo de raciocínio. |
Yes | |
| name | cadeia | O nome da função a ser executada. |
Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada do computador. |
Yes | |
| queries | matriz | As consultas usadas para pesquisar arquivos. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de arquivos. |
No | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
OutputMessage
Uma mensagem de saída do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo da mensagem de saída. |
Yes | |
| id | cadeia | A ID exclusiva da mensagem de saída. |
Yes | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedou incomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: message |
Yes |
OutputText
Uma saída de texto do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | matriz | As anotações da saída de texto. |
Yes | |
| enviar SMS | cadeia | A saída de texto do modelo. |
Yes | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Yes |
RealtimeSessionCreateRequest
Configuração do objeto de sessão em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | A configuração para transcrição de áudio de entrada, o padrão é desativada e pode ser definida para null desativar uma vez. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ model | cadeia | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1. |
No | |
| └─ prompt | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta de assistente, incluindo chamadas de ferramenta. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| modelo | cadeia | O nome da implantação usada para esta sessão. |
No | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para chaves é de um minuto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objeto | Chave efêmera retornada pela API. | Yes | |
| └─ expires_at | inteiro | Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ value | cadeia | Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
No | |
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw. |
No | |
| input_audio_transcription | objeto | A configuração para transcrição de áudio de entrada, o padrão é desativada e pode ser definida para null desativar uma vez. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio de Whisper e deve ser tratada como orientação aproximada em vez da representação compreendida pelo modelo. |
No | |
| └─ model | cadeia | O modelo a ser usado para transcrição whisper-1 é o único modelo com suporte no momento. |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta (por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta de assistente, incluindo chamadas de ferramenta. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| output_audio_format | cadeia | O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw. |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O padrão é 0,8. |
No | |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função. |
No | |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turnos. Pode ser definido para null desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. |
No | |
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ type | cadeia | No momento, há suporte para server_vad o tipo de detecção de turnos. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuração do objeto de sessão de transcrição em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser pcm de 16 bits a uma taxa de exemplo de 24kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido para null desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar o VAD e transformar a precisão da detecção (reduzindo falsos positivos) e o desempenho do modelo, melhorando a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ model | enumeração | O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1Valores possíveis: gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turnos, VAD do servidor de ether ou VAD semântico. Isso pode ser definido para null desativar, caso em que o cliente deve disparar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário não uhhmfor definido, o modelo pontuará uma baixa probabilidade de término da curva e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada vad. Não disponível para sessões de transcrição. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ interrupt_response | boolean | Se deve ou não interromper automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de ) quando ocorre um evento de início de autoVAD. Não disponível para sessões de transcrição. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Uma nova configuração de sessão de transcrição em tempo real.
Quando uma sessão é criada no servidor por meio da API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objeto | Chave efêmera retornada pela API. Só está presente quando a sessão é criada no servidor por meio da API REST. |
Yes | |
| └─ expires_at | inteiro | Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ value | cadeia | Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
No | |
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw. |
No | |
| input_audio_transcription | objeto | Configuração do modelo de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ model | enumeração | O modelo a ser usado para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15ou whisper-1.Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turnos. Pode ser definido para null desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. |
No | |
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Limite de ativação para VAD (0,0 a 1,0), esse padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ type | cadeia | No momento, há suporte para server_vad o tipo de detecção de turnos. |
No |
Reasoning
Opções de configuração para modelos de raciocínio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Esforço | ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
Yes | meio |
| resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Um de concise ou detailed.Valores possíveis: concise, detailed |
No |
ReasoningItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Conteúdo de texto de raciocínio. |
Yes | |
| id | cadeia | O identificador exclusivo do conteúdo de raciocínio. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completedou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
Refusal
Uma recusa do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A explicação da recusa do modelo. |
Yes | |
| tipo | enumeração | O tipo da recusa. Sempre refusal.Valores possíveis: refusal |
Yes |
response
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Unix timestamp (em segundos) de quando esta Resposta foi criada. |
Yes | |
| erro | ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. |
Yes | |
| id | cadeia | Identificador exclusivo para esta resposta. |
Yes | |
| incomplete_details | objeto | Detalhes sobre por que a resposta está incompleta. |
Yes | |
| └─ reason | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Yes | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia | Modelo usado para gerar as respostas. | Yes | |
| objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Yes | |
| saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output matriz e supondo que seja uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade em que há suporte em SDKs. |
Yes | |
| output_text | cadeia | Propriedade de conveniência somente SDK que contém a saída de texto agregada de todos os output_text itens na output matriz, se houver algum. Com suporte nos SDKs python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. |
Yes | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| status | enumeração | O status da geração de resposta. Um de completed, failed, in_progressou incomplete.Valores possíveis: completed, , failed, in_progressincomplete |
No | |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
Yes | 1 |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more: – entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão não tem { "type": "text" } opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Yes | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas |
Yes | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
Yes | 1 |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| uso | ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. . |
No |
ResponseAudioDeltaEvent
Emitido quando há uma resposta de áudio parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | Uma parte dos bytes de áudio de resposta codificados em Base64. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.audio.delta.Valores possíveis: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Emitido quando a resposta de áudio é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo do evento. Sempre response.audio.done.Valores possíveis: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Emitido quando há uma transcrição parcial do áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | A transcrição parcial da resposta de áudio. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.audio.transcript.delta.Valores possíveis: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Emitido quando a transcrição de áudio completa é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo do evento. Sempre response.audio.transcript.done.Valores possíveis: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um snippet de código parcial é adicionado pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O snippet de código parcial adicionado pelo interpretador de código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do interpretador de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.code.delta.Valores possíveis: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Emitido quando a saída do snippet de código é finalizada pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | A saída final do snippet de código pelo interpretador de código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do interpretador de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.code.done.Valores possíveis: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada do interpretador de código é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do interpretador de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.completed.Valores possíveis: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do interpretador de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está interpretando ativamente o snippet de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do interpretador de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emitido quando a resposta do modelo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.completed.Valores possíveis: response.completed |
Yes |
ResponseContentPartAddedEvent
Emitido quando uma nova parte de conteúdo é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que foi adicionada. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Emitido quando uma parte do conteúdo é feita.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que é feita. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.content_part.done.Valores possíveis: response.content_part.done |
Yes |
ResponseCreatedEvent
Um evento emitido quando uma resposta é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.created.Valores possíveis: response.created |
Yes |
ResponseError
Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | ResponseErrorCode | O código de erro da resposta. |
Yes | |
| mensagem | cadeia | Uma descrição legível pelo humano do erro. |
Yes |
ResponseErrorCode
O código de erro da resposta.
| Property | Value |
|---|---|
| Description | O código de erro da resposta. |
| Type | cadeia |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Emitido quando ocorre um erro.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código de erro. |
Yes | |
| mensagem | cadeia | A mensagem de erro. |
Yes | |
| param | cadeia | O parâmetro de erro. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre error.Valores possíveis: error |
Yes |
ResponseFailedEvent
Um evento emitido quando uma resposta falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.failed.Valores possíveis: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.file_search_call.completed.Valores possíveis: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de pesquisa de arquivo é iniciada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Emitido quando uma pesquisa de arquivo está pesquisando no momento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta de argumentos parciais de chamada de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O delta de argumentos de chamada de função que é adicionado. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Emitido quando os argumentos de chamada de função são finalizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| item_id | cadeia | A ID do item. | Yes | |
| output_index | inteiro | O índice do item de saída. | Yes | |
| tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Yes |
ResponseIncompleteEvent
Um evento emitido quando uma resposta é concluída como incompleta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo do evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Yes |
responseItemList
Uma lista de itens de resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma lista de itens usados para gerar essa resposta. | Yes | |
| first_id | cadeia | A ID do primeiro item da lista. | Yes | |
| has_more | boolean | Se há mais itens disponíveis. | Yes | |
| last_id | cadeia | A ID do último item da lista. | Yes | |
| objeto | enumeração | O tipo de objeto retornado deve ser list.Valores possíveis: list |
Yes |
ResponseModalities
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para esse componente.
ResponseModalitiesTextOnly
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
Em breve, essa API dará suporte a outras modalidades de saída, incluindo áudio e imagens.
Nenhuma propriedade definida para esse componente.
ResponseOutputItemAddedEvent
Emitido quando um novo item de saída é adicionado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | inteiro | O índice do item de saída que foi adicionado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Emitido quando um item de saída é marcado como concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | inteiro | O índice do item de saída que foi marcado como concluído. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.output_item.done.Valores possíveis: response.output_item.done |
Yes |
ResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Learn more: – entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão não tem { "type": "text" } opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
ResponseRefusalDeltaEvent
Emitido quando há um texto de recusa parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. |
Yes | |
| delta | cadeia | O texto de recusa que é adicionado. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Emitido quando o texto de recusa é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que o texto de recusa é finalizado. |
Yes | |
| item_id | cadeia | A ID do item de saída em que o texto de recusa é finalizado. |
Yes | |
| output_index | inteiro | O índice do item de saída em que o texto de recusa é finalizado. |
Yes | |
| refusal | cadeia | O texto de recusa finalizado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.refusal.done.Valores possíveis: response.refusal.done |
Yes |
responseStreamEvent
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | inteiro | O índice da anotação que foi adicionada. |
Yes | |
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| codificar | cadeia | O código de erro. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| content_index | inteiro | O índice da parte de conteúdo que o conteúdo do texto é finalizado. |
Yes | |
| delta | cadeia | O delta de texto que foi adicionado. |
Yes | |
| item | OutputItem | O item de saída marcado como concluído. |
Yes | |
| item_id | cadeia | A ID do item de saída em que o conteúdo do texto é finalizado. |
Yes | |
| mensagem | cadeia | A mensagem de erro. |
Yes | |
| output_index | inteiro | O índice do item de saída que o conteúdo do texto é finalizado. |
Yes | |
| param | cadeia | O parâmetro de erro. |
Yes | |
| part | OutputContent | A parte de conteúdo que é feita. |
Yes | |
| refusal | cadeia | O texto de recusa finalizado. |
Yes | |
| response | response | A resposta incompleta. |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto finalizado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Emitido quando uma anotação de texto é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | inteiro | O índice da anotação que foi adicionada. |
Yes | |
| content_index | inteiro | O índice da parte de conteúdo à qual a anotação de texto foi adicionada. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.output_text.annotation.added.Valores possíveis: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Emitido quando há um delta de texto adicional.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o delta de texto foi adicionado. |
Yes | |
| delta | cadeia | O delta de texto que foi adicionado. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Emitido quando o conteúdo do texto é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que o conteúdo do texto é finalizado. |
Yes | |
| item_id | cadeia | A ID do item de saída em que o conteúdo do texto é finalizado. |
Yes | |
| output_index | inteiro | O índice do item de saída que o conteúdo do texto é finalizado. |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto finalizado. |
Yes | |
| tipo | enumeração | O tipo do evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseUsage
Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | Yes | |
| output_tokens | inteiro | O número de tokens de saída. | Yes | |
| output_tokens_details | objeto | Um detalhamento dos tokens de saída. | Yes | |
| └─ reasoning_tokens | inteiro | O número de tokens de raciocínio. | No | |
| total_tokens | inteiro | O número total de tokens usados. | Yes |
Screenshot
Uma ação de captura de tela.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.Valores possíveis: screenshot |
Yes |
Scroll
Uma ação de rolagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | inteiro | A distância de rolagem horizontal. |
Yes | |
| scroll_y | inteiro | A distância de rolagem vertical. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.Valores possíveis: scroll |
Yes | |
| x | inteiro | A coordenada x em que a rolagem ocorreu. |
Yes | |
| y | inteiro | A coordenada y em que a rolagem ocorreu. |
Yes |
StopConfiguration
Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção.
Esse componente pode ser um dos seguintes:
TextResponseFormatConfiguration
Um objeto que especifica o formato que o modelo deve gerar.
A configuração { "type": "json_schema" } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.
O formato padrão não tem { "type": "text" } opções adicionais.
Não recomendado para modelos gpt-4o e mais recentes:
A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
Esse componente pode ser um dos seguintes:
TextResponseFormatJsonSchema
Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre saídas estruturadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato. |
No | |
| name | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
No | |
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | Yes | |
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Yes |
Tool
Esse componente pode ser um dos seguintes:
ToolChoiceFunction
Use essa opção para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes | |
| tipo | enumeração | Para a chamada de função, o tipo é sempre function.Valores possíveis: function |
Yes |
ToolChoiceOptions
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
| Property | Value |
|---|---|
| Description | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
| Type | cadeia |
| Values | noneautorequired |
ToolChoiceTypes
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são: - file_search- computer_use_previewValores possíveis: file_search, computer_use_preview |
Yes |
Tipo
Uma ação para digitar texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O texto a ser digitado. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.Valores possíveis: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. |
Yes |
UrlCitation
Uma citação para um recurso da Web usado para gerar uma resposta de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | O índice do último caractere da citação de URL na mensagem. |
Yes | |
| start_index | inteiro | O índice do primeiro caractere da citação de URL na mensagem. |
Yes | |
| title | cadeia | O título do recurso da Web. |
Yes | |
| tipo | enumeração | O tipo da citação de URL. Sempre url_citation.Valores possíveis: url_citation |
Yes | |
| url | cadeia | A URL do recurso da Web. |
Yes |
VectorStoreFileAttributes
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Nenhuma propriedade definida para esse componente.
VectorStoreFileContentResponse
Representa o conteúdo analisado de um arquivo de repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Conteúdo analisado do arquivo. | Yes | |
| has_more | boolean | Indica se há mais páginas de conteúdo a serem buscadas. | Yes | |
| next_page | cadeia | O token para a próxima página, se houver. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file_content.pageValores possíveis: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. | No | 10 |
| consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Yes | |
| ranking_options | objeto | Opções de classificação para pesquisa. | No | |
| └─ ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se deseja reescrever a consulta de linguagem natural para pesquisa de vetor. | No | False |
VectorStoreSearchResultContentObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto retornado da pesquisa. | Yes | |
| tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Yes |
VectorStoreSearchResultItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. |
Yes | |
| conteúdo | matriz | Partes de conteúdo do arquivo. | Yes | |
| file_id | cadeia | A ID do arquivo do repositório de vetores. | Yes | |
| filename | cadeia | O nome do arquivo de repositório de vetores. | Yes | |
| pontuação | number | A pontuação de similaridade para o resultado. | Yes |
VectorStoreSearchResultsPage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | A lista de itens de resultado da pesquisa. | Yes | |
| has_more | boolean | Indica se há mais resultados a serem buscados. | Yes | |
| next_page | cadeia | O token para a próxima página, se houver. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.pageValores possíveis: vector_store.search_results.page |
Yes | |
| search_query | matriz | Yes |
VoiceIdsShared
Nenhuma propriedade definida para esse componente.
Wait
Uma ação de espera.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.Valores possíveis: wait |
Yes |
ReasoningEffort
Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
| Property | Value |
|---|---|
| Description | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são low, mediume high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
| Type | cadeia |
| Default | meio |
| Values | lowmediumhigh |
errorEvent
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | error | Yes | ||
| evento | cadeia | Yes |
Enumeração de evento: ErrorEventEnum
| Value | Description |
|---|---|
| erro |
doneEvent
Ocorre quando um fluxo termina.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Yes | ||
| evento | cadeia | Yes |
Enumeração de evento: DoneEventEnum
| Value | Description |
|---|---|
| done |
Enumeração de dados: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Saiba mais sobre modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.