Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para Azure OpenAI.
API specs
O gerenciamento e a interação com Azure os modelos e recursos do OpenAI são divididos em três superfícies de API primária:
- Control plane
- Plano de dados – criação
- Plano de dados – inferência
Cada superfície/especificação da API encapsula um conjunto diferente de Azure recursos openai. Cada API tem seu próprio conjunto exclusivo de versões de API GA (versão prévia e estável/geralmente disponível). Versões prévias atualmente tendem a seguir uma cadência mensal.
Important
Agora há uma nova API de inferência de visualização. Saiba mais em nosso guia de ciclo de vida da API.
| API | Versão prévia mais recente | Versão mais recente do GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | A API do painel de controle é usada para operações como a criação de recursos, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também rege o que é possível fazer com recursos como Azure Resource Manager, Bicep, Terraform e CLI do Azure. |
| Data plane | v1 preview |
v1 |
Spec files | A API do plano de dados controla operações de inferência e criação. |
Authentication
Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou Microsoft Entra ID.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a Chave de API no
api-keycabeçalho HTTP. O Início Rápido fornece diretrizes sobre como fazer chamadas com esse tipo de autenticação.Microsoft Entra ID autenticação: você pode autenticar uma chamada de API usando um token de Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o
Authorizationcabeçalho. O token fornecido deve ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN. Você pode ler nosso guia de instruções sobre authenticating com Microsoft Entra ID.
Controle de versão da API REST
As APIs de serviço são usadas com versão usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de data deMM-DD YYYY. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a versão ga da especificação de inferência do plano de dados Azure OpenAI, 2024-10-21.
Se você estiver procurando documentação sobre a versão mais recente da API de visualização, consulte a API de inferência do plano de dados de versão prévia mais recente
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Com suporte Azure pontos de extremidade OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo Azure nome do recurso OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | ID de implantação do modelo que foi implantado. |
| api-version | consulta | Yes | cadeia | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia | Forneça Azure chave de API openai aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| solicitação | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento. |
Yes | |
| best_of | inteiro | Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos para retornar " best_of devem ser maiores que n.Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Ecoe novamente o prompt, além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo é logprobs 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens da sua adição max_tokens de prompt não pode exceder o tamanho do contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusões serão geradas para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| seed | inteiro | Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção. |
No | |
| fluxo | boolean | Se o progresso parcial deve ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade de chat). |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Obtenha uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Com suporte Azure pontos de extremidade OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo Azure nome do recurso OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia | Forneça Azure chave de API openai aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia de caracteres ou matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. |
Yes | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No | |
| input_type | cadeia | tipo de entrada de pesquisa de inserção a ser usada | No | |
| encoding_format | cadeia | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64. O padrão é float. |
No | |
| dimensions | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores. |
No |
Responses
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| objeto | cadeia | Yes | ||
| modelo | cadeia | Yes | ||
| dados | matriz | Yes | ||
| uso | objeto | Yes |
Propriedades para uso
prompt_tokens
| Name | Tipo | Description | Default |
|---|---|---|---|
| prompt_tokens | inteiro |
total_tokens
| Name | Tipo | Description | Default |
|---|---|---|---|
| total_tokens | inteiro |
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Examples
Example
Retorne as inserções para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Respostas: Código de Status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Cria uma conclusão para a mensagem de chat
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Com suporte Azure pontos de extremidade OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo Azure nome do recurso OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | ID de implantação do modelo que foi implantado. |
| api-version | consulta | Yes | cadeia | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia | Forneça Azure chave de API openai aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar tokens adicionais. |
No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. | Yes | |
| data_sources | matriz | As entradas de configuração para Azure extensões de chat do OpenAI que as usam. Essa especificação adicional só é compatível com Azure OpenAI. |
No | |
| logprobs | boolean | Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content valor de message. |
No | False |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
logprobs deve ser definido como true se esse parâmetro for usado. |
No | |
| n | inteiro | Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponderá ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Beta. Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt, os parâmetros e o modelo escolhido fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados de pesquisa Azure e na identidade gerenciada atribuída pelo sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base em dados de vetor de pesquisa Azure, mensagem anterior do assistente e identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcreve o áudio no idioma de entrada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Com suporte Azure pontos de extremidade OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo Azure nome do recurso OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | ID de implantação do modelo de conversão de fala em texto. Para obter informações sobre modelos com suporte, consulte [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | consulta | Yes | cadeia | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia | Forneça Azure chave de API openai aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O objeto de arquivo de áudio a ser transcrever. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse ou audioVerboseResponse | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era um de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcreve e converte o áudio de entrada em texto em inglês.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Com suporte Azure pontos de extremidade OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo Azure nome do recurso OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | ID de implantação do modelo whisper que foi implantado. Para obter informações sobre modelos com suporte, consulte [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | consulta | Yes | cadeia | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia | Forneça Azure chave de API openai aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio a ser convertido. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse ou audioVerboseResponse | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era um de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Gera um lote de imagens de uma legenda de texto em uma determinada implantação de modelo dall-e
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | cadeia url |
Com suporte Azure pontos de extremidade OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo Azure nome do recurso OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | ID de implantação do modelo dall-e que foi implantado. |
| api-version | consulta | Yes | cadeia | API version |
Request Header
| Name | Required | Tipo | Description |
|---|---|---|---|
| api-key | True | cadeia | Forneça Azure chave de API openai aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 4.000 caracteres. | Yes | |
| n | inteiro | O número de imagens a serem geradas. | No | 1 |
| size | imageSize | O tamanho das imagens geradas. | No | 1024x1024 |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | padrão |
| estilo | imageStyle | O estilo das imagens geradas. | No | vivid |
Responses
Código de status: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Cria imagens fornecidas por um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | error | No |
errorBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | No | ||
| mensagem | cadeia | No |
erro
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| param | cadeia | No | ||
| tipo | cadeia | No | ||
| inner_error | innerError | Erro interno com detalhes adicionais. | No |
innerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No |
innerErrorCode
Códigos de erro para o objeto de erro interno.
Descrição: códigos de erro para o objeto de erro interno.
Type: string
Default:
Nome da enumeração: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | O prompt violou uma das mais regras de filtro de conteúdo. |
dalleErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | dalleError | No |
dalleError
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| param | cadeia | No | ||
| tipo | cadeia | No | ||
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | No |
dalleInnerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| revised_prompt | cadeia | O prompt que foi usado para gerar a imagem, se houve alguma revisão no prompt. | No |
contentFilterResultBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | cadeia | No |
contentFilterDetectedResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citation | objeto | No |
Propriedades para citação
URL
| Name | Tipo | Description | Default |
|---|---|---|---|
| URL | cadeia |
licença
| Name | Tipo | Description | Default |
|---|---|---|---|
| licença | cadeia |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| erro | errorBase | No |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| erro | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto e palavrões de terceiros, se tiver sido detectado e se tiver sido filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| erro | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Os resultados da filtragem de conteúdo para um único prompt na solicitação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | inteiro | No | ||
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No |
promptFilterResults
Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes.
Nenhuma propriedade definida para esse componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar tokens adicionais. | No | |
| max_tokens | inteiro | O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 – tokens de prompt). Esse valor agora foi preterido em favor de max_completion_tokens, e não é compatível com modelos da série o1. |
No | 4096 |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | No | 0 |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. | No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. | No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a Azure o OpenAI para monitorar e detectar abusos. | No |
createCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| solicitação | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento. |
Yes | |
| best_of | inteiro | Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos para retornar " best_of devem ser maiores que n.Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Ecoe novamente o prompt, além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo é logprobs 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens da sua adição max_tokens de prompt não pode exceder o tamanho do contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusões serão geradas para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| seed | inteiro | Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção. |
No | |
| fluxo | boolean | Se o progresso parcial deve ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No |
createCompletionResponse
Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade de chat).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | Um identificador exclusivo para a conclusão. | Yes | |
| choices | matriz | A lista de opções de conclusão que o modelo gerou para o prompt de entrada. | Yes | |
| created | inteiro | O carimbo de data/hora Unix (em segundos) de quando a conclusão foi criada. | Yes | |
| modelo | cadeia | O modelo usado para conclusão. | Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo. |
No | |
| objeto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Yes | |
| uso | completionUsage | Estatísticas de uso para a solicitação de conclusão. | No |
createChatCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
No | 1 |
| fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar tokens adicionais. |
No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. |
No | 0 |
| logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. | Yes | |
| data_sources | matriz | As entradas de configuração para Azure extensões de chat do OpenAI que as usam. Essa especificação adicional só é compatível com Azure OpenAI. |
No | |
| logprobs | boolean | Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content valor de message. |
No | False |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
logprobs deve ser definido como true se esse parâmetro for usado. |
No | |
| n | inteiro | Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponderá ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Beta. Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No |
chatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
chatCompletionFunctionCallOption
Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes |
chatCompletionRequestMessage
Esse componente pode ser um dos seguintes:
chatCompletionRequestSystemMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso system.Valores possíveis: sistema |
Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No |
chatCompletionRequestUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso user.Valores possíveis: usuário |
Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No |
chatCompletionRequestAssistantMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado. |
No | |
| refusal | cadeia | A mensagem de recusa do assistente. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso assistant.Valores possíveis: assistente |
Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No |
Propriedades para function_call
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. |
chatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | enumeração | A função do autor das mensagens, nesse caso tool.Valores possíveis: ferramenta |
Yes | |
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Yes | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | enumeração | A função do autor das mensagens, nesse caso function.Valores possíveis: função |
Yes | |
| conteúdo | cadeia | O conteúdo da mensagem de função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes |
chatCompletionRequestSystemMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestAssistantMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: texto |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Yes | |
| image_url | objeto | Yes |
Propriedades para image_url
url
| Name | Tipo | Description | Default |
|---|---|---|---|
| url | cadeia | Uma URL da imagem ou os dados de imagem codificados em base64. |
detail
| Name | Tipo | Description | Default |
|---|---|---|---|
| detail | cadeia | Especifica o nível de detalhes da imagem. Saiba mais no guia de Visão. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: recusa |
Yes | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar Azure extensões de chat openai para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um chat solicitação de conclusão que deve usar Azure extensões de chat openai para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com Azure OpenAI. |
Yes |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar Azure extensões de chat openai para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com Azure OpenAI.
Description: uma representação de dados de configuração para uma única extensão de chat Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar Azure extensões de chat openai para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com Azure OpenAI.
Type: string
Default:
Nome da enumeração: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Representa o uso do Azure Search como uma extensão de chat Azure OpenAI. |
| azure_cosmos_db | Representa o uso de Azure Cosmos DB como uma extensão de chat Azure OpenAI. |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para Azure Pesquisar ao usá-la como uma extensão de chat Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um chat solicitação de conclusão que deve usar Azure extensões de chat openai para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parâmetros para pesquisa de Azure quando usado como uma extensão de chat Azure OpenAI. | No |
azureSearchChatExtensionParameters
Parâmetros para pesquisa de Azure quando usado como uma extensão de chat Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| role_information | cadeia | Forneça as instruções do modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e informá-la como formatar respostas. Há um limite de 100 tokens para ele e ele conta em relação ao limite geral do token. | No | |
| ponto de extremidade | cadeia | O caminho de ponto de extremidade absoluto para o recurso Azure Search a ser usado. | Yes | |
| index_name | cadeia | O nome do índice a ser usado conforme disponível no recurso de pesquisa de Azure referenciado. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de pesquisa de Azure configurado. | No | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação de pesquisa Azure que deve ser executada ao usá-la como uma extensão de chat Azure OpenAI. | No | |
| semantic_configuration | cadeia | A configuração semântica adicional para a consulta. | No | |
| filtro | cadeia | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de pesquisa de Azure configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados de vetor. | No |
azureSearchQueryType
O tipo de consulta de recuperação de pesquisa Azure que deve ser executada ao usá-la como uma extensão de chat Azure OpenAI.
Description: o tipo de consulta de recuperação de pesquisa de Azure que deve ser executada ao usá-la como uma extensão de chat Azure OpenAI.
Type: string
Default:
Nome da enumeração: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Representa o analisador de consulta simples e padrão. |
| semantic | Representa o analisador de consulta semântica para modelagem semântica avançada. |
| vetor | Representa a pesquisa de vetor em relação aos dados computados. |
| vector_simple_hybrid | Representa uma combinação da estratégia de consulta simples com dados de vetor. |
| vector_semantic_hybrid | Representa uma combinação de pesquisa semântica e consulta de dados de vetor. |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para Azure Cosmos DB ao usá-la como uma extensão de chat Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um chat solicitação de conclusão que deve usar Azure extensões de chat openai para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar Azure o OpenAI em suas extensões de chat de dados ao usar Azure Cosmos DB para MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar Azure extensões de chat openai em seus dados ao usar Azure Cosmos DB para MongoDB vCore.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação para Azure OpenAI em seus dados ao usar um cadeia de conexão. | Yes | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| strictness | inteiro | A rigidez configurada da filtragem de relevância da pesquisa. Quanto maior a rigidez, maior a precisão, mas menor a recuperação da resposta. | No | |
| role_information | cadeia | Forneça as instruções do modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e informá-la como formatar respostas. Há um limite de 100 tokens para ele e ele conta em relação ao limite geral do token. | No | |
| database_name | cadeia | O nome do banco de dados vCore do MongoDB a ser usado com Azure Cosmos DB. | Yes | |
| container_name | cadeia | O nome do contêiner de recursos Azure Cosmos DB. | Yes | |
| index_name | cadeia | O nome do índice vCore do MongoDB a ser usado com Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de Azure Cosmos DB configurado. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de Azure Cosmos DB configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| title_field | cadeia | O nome do campo de índice a ser usado como um título. | No | |
| url_field | cadeia | O nome do campo de índice a ser usado como UMA URL. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados de vetor. | Yes |
onYourDataAuthenticationOptions
As opções de autenticação para Azure OpenAI em seus dados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com Azure OpenAI em seus dados. | Yes |
onYourDataAuthenticationType
Os tipos de autenticação compatíveis com Azure OpenAI em seus dados.
Description: os tipos de autenticação compatíveis com Azure OpenAI em seus dados.
Type: string
Default:
Nome da enumeração: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autenticação por meio da chave de API. |
| connection_string | Autenticação via cadeia de conexão. |
| system_assigned_managed_identity | Autenticação por meio da identidade gerenciada atribuída pelo sistema. |
| user_assigned_managed_identity | Autenticação por meio da identidade gerenciada atribuída pelo usuário. |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI em seus dados ao usar uma chave de API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com Azure OpenAI em seus dados. | Yes | |
| chave | cadeia | A chave de API a ser usada para autenticação. | No |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação para Azure OpenAI em seus dados ao usar um cadeia de conexão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com Azure OpenAI em seus dados. | Yes | |
| connection_string | cadeia | O cadeia de conexão a ser usado para autenticação. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI em seus dados ao usar uma identidade gerenciada atribuída pelo sistema.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com Azure OpenAI em seus dados. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI em seus dados ao usar uma identidade gerenciada atribuída pelo usuário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação compatíveis com Azure OpenAI em seus dados. | Yes | |
| managed_identity_resource_id | cadeia | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | No |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetor para Azure OpenAI em seus dados com pesquisa de vetor.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com vector search. |
Yes |
onYourDataVectorizationSourceType
Representa as fontes disponíveis Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com a pesquisa de vetor.
Description: representa as fontes disponíveis Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com
vector search.
Type: string
Default:
Nome da enumeração: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| ponto de extremidade | Representa a vetorização executada por chamadas de serviço público para um modelo de inserção Azure OpenAI. |
| deployment_name | Representa um nome de implantação de modelo do Ada a ser usado. Essa implantação de modelo deve estar no mesmo Azure recurso OpenAI, mas Em Seus Dados usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, que habilita o vetor pesquisar até mesmo em redes privadas. |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa de vetor, que se baseia em um nome de implantação de modelo de inserções internas no mesmo Azure recurso OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com vector search. |
Yes | |
| deployment_name | cadeia | Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo Azure recurso OpenAI, mas Em Seus Dados usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a pesquisa de vetor mesmo em redes privadas. | No |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada por Azure OpenAI Em Seus Dados ao aplicar a pesquisa de vetor, que se baseia em uma chamada de ponto de extremidade openai Azure pública para inserções.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis Azure OpenAI Em Seus Dados pode usar para configurar a vetorização de dados para uso com vector search. |
Yes | |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para Azure OpenAI em seus dados ao usar uma chave de API. | No | |
| ponto de extremidade | cadeia | Especifica o ponto de extremidade a ser usado para vetorização. Esse ponto de extremidade deve estar no mesmo Azure recurso OpenAI, mas Em Seus Dados usará esse ponto de extremidade por meio de uma chamada interna em vez de uma pública, o que permite a pesquisa de vetor mesmo em redes privadas. | No |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando Azure extensões de chat do OpenAI estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar um Azure solicitação OpenAI configurada para usar uma extensão correspondente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citations | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | No | |
| intenção | cadeia | A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. | No |
citation
informações de citação para uma mensagem de resposta de conclusões de chat.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| chunk_id | cadeia | A ID da parte da citação. | No |
chatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | A ID da chamada da ferramenta. | Yes | |
| tipo | toolCallType | O tipo da chamada de ferramenta, nesse caso function. |
Yes | |
| função | objeto | A função chamada pelo modelo. | Yes |
Propriedades da função
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. |
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
toolCallType
O tipo da chamada de ferramenta, nesse caso function.
Descrição: o tipo da chamada de ferramenta, nesse caso function.
Type: string
Default:
Nome da enumeração: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| função | O tipo de chamada de ferramenta é função. |
chatCompletionRequestMessageTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | No |
chatCompletionRequestMessageFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | enumeração | A função do autor das mensagens, nesse caso function.Valores possíveis: função |
No | |
| name | cadeia | O conteúdo da mensagem. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | No |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | Um identificador exclusivo para a conclusão do chat. | Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em pedidos diferentes. | No | |
| choices | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de data/hora unix (em segundos) de quando a conclusão do chat foi criada. | Yes | |
| modelo | cadeia | O modelo usado para a conclusão do chat. | Yes | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo. |
No | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| uso | completionUsage | Estatísticas de uso para a solicitação de conclusão. | No |
createChatCompletionStreamResponse
Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | Um identificador exclusivo para a conclusão do chat. Cada parte tem a mesma ID. | Yes | |
| choices | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de data/hora unix (em segundos) de quando a conclusão do chat foi criada. Cada parte tem o mesmo carimbo de data/hora. | Yes | |
| modelo | cadeia | O modelo para gerar a conclusão. | Yes | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro de solicitação seed para entender quando foram feitas alterações de back-end que podem afetar o determinismo. |
No | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem de parte. | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| tool_calls | matriz | No | ||
| função | enumeração | A função do autor desta mensagem. Valores possíveis: sistema, usuário, assistente, ferramenta |
No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | No |
Propriedades para function_call
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. |
chatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | Yes | ||
| id | cadeia | A ID da chamada da ferramenta. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: função |
No | |
| função | objeto | No |
Propriedades da função
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. |
arguments
| Name | Tipo | Description | Default |
|---|---|---|---|
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se definido, uma parte adicional será transmitida antes da data: [DONE] mensagem. O usage campo nessa parte mostra as estatísticas de uso do token para toda a solicitação e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo. |
No |
chatCompletionChoiceLogProbs
Informações de probabilidade de log para a escolha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo de mensagens com informações de probabilidade de log. | Yes | |
| refusal | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade de log. | No |
chatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| símbolo | cadeia | The token. | Yes | |
| logprob | number | A probabilidade de log desse token. | Yes | |
| bytes | matriz | Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de solicitados retornados top_logprobs . |
Yes |
chatCompletionResponseMessage
Uma mensagem de conclusão de chat gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | chatCompletionResponseMessageRole | A função do autor da mensagem de resposta. | Yes | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No | |
| function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando Azure extensões de chat do OpenAI estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas quando usando uma solicitação Azure OpenAI configurada para usar uma extensão correspondente. |
No |
chatCompletionResponseMessageRole
A função do autor da mensagem de resposta.
Descrição: a função do autor da mensagem de resposta.
Type: string
Default:
Enum Values:
- assistente
chatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes.
Esse componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: função |
Yes | |
| função | objeto | Yes |
Propriedades da função
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. |
ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Nenhuma propriedade definida para esse componente.
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para esse componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes | |
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Yes |
completionUsage
Estatísticas de uso para a solicitação de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | inteiro | Número de tokens no prompt. | Yes | |
| completion_tokens | inteiro | Número de tokens na conclusão gerada. | Yes | |
| total_tokens | inteiro | Número total de tokens usados na solicitação (prompt + conclusão). | Yes | |
| completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | No |
Propriedades para completion_tokens_details
reasoning_tokens
| Name | Tipo | Description | Default |
|---|---|---|---|
| reasoning_tokens | inteiro | Tokens gerados pelo modelo para raciocínio. |
chatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: função |
Yes | |
| função | FunctionObject | Yes |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para esse componente.
FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No | |
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
ResponseFormatText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: textValores possíveis: texto |
Yes |
ResponseFormatJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_objectValores possíveis: json_object |
Yes |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para esse componente.
ResponseFormatJsonSchema
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schemaValores possíveis: json_schema |
Yes | |
| json_schema | objeto | Yes |
Propriedades para json_schema
description
| Name | Tipo | Description | Default |
|---|---|---|---|
| description | cadeia | Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato. |
name
| Name | Tipo | Description | Default |
|---|---|---|---|
| name | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
esquema
| Name | Tipo | Description | Default |
|---|---|---|---|
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. |
strict
| Name | Tipo | Description | Default |
|---|---|---|---|
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
False |
chatCompletionChoiceCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | No | ||
| finish_reason | cadeia | No |
createTranslationRequest
Translation request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio a ser convertido. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
audioResponse
Resposta de translação ou transcrição quando response_format era json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes |
audioVerboseResponse
Resposta de translação ou transcrição quando response_format foi verbose_json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes | |
| tarefa | cadeia | Tipo de tarefa de áudio. | No | |
| linguagem | cadeia | Language. | No | |
| duration | number | Duration. | No | |
| segments | matriz | No |
audioResponseFormat
Define o formato da saída.
Descrição: define o formato da saída.
Type: string
Default:
Enum Values:
- json
- enviar SMS
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O objeto de arquivo de áudio a ser transcrever. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma de áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | No |
audioSegment
Transcrição ou segmento de tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | inteiro | Segment identifier. | No | |
| seek | number | Deslocamento do segmento. | No | |
| start | number | Deslocamento de início do segmento. | No | |
| end | number | Deslocamento final do segmento. | No | |
| enviar SMS | cadeia | Segment text. | No | |
| tokens | matriz | Tokens do texto. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Probabilidade média do log. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Probabilidade de no speech. |
No |
imageQuality
A qualidade da imagem que será gerada.
Descrição: a qualidade da imagem que será gerada.
Type: string
Default: standard
Nome da enumeração: Qualidade
Enum Values:
| Value | Description |
|---|---|
| padrão | A qualidade padrão cria imagens com qualidade padrão. |
| hd | A qualidade hd cria imagens com detalhes mais finos e maior consistência em toda a imagem. |
imagesResponseFormat
O formato no qual as imagens geradas são retornadas.
Descrição: o formato no qual as imagens geradas são retornadas.
Type: string
Default: url
Nome da enumeração: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | A URL que fornece acesso temporário para baixar as imagens geradas. |
| b64_json | As imagens geradas são retornadas como cadeia de caracteres codificada em base64. |
imageSize
O tamanho das imagens geradas.
Descrição: o tamanho das imagens geradas.
Type: string
Default: 1024x1024
Nome da enumeração: Tamanho
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | O tamanho desejado da imagem gerada é de 1792 x 1024 pixels. |
| 1024x1792 | O tamanho desejado da imagem gerada é de 1024 x 1792 pixels. |
| 1024x1024 | O tamanho desejado da imagem gerada é de 1024 x 1024 pixels. |
imageStyle
O estilo das imagens geradas.
Descrição: o estilo das imagens geradas.
Type: string
Default: vivid
Nome da enumeração: Estilo
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid cria imagens hiper-realistas e dramáticas. |
| natural | Natural cria imagens mais naturais e menos hiper-realistas. |
imageGenerationsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 4.000 caracteres. | Yes | |
| n | inteiro | O número de imagens a serem geradas. | No | 1 |
| size | imageSize | O tamanho das imagens geradas. | No | 1024x1024 |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. | No | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | padrão |
| estilo | imageStyle | O estilo das imagens geradas. | No | vivid |
generateImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | inteiro | O carimbo de data/hora unix quando a operação foi criada. | Yes | |
| dados | matriz | Os dados de resultado da operação, se bem-sucedidos | Yes |
imageResult
A url da imagem ou a imagem codificada se bem-sucedida e um erro de outra forma.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| url | cadeia | A URL da imagem. | No | |
| b64_json | cadeia | A imagem codificada em base64 | No | |
| content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | No | |
| revised_prompt | cadeia | O prompt que foi usado para gerar a imagem, se houve alguma revisão no prompt. | No | |
| prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se ele foi detectado e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No |
Completions extensions
As extensões de conclusão não fazem parte da versão mais recente de GA da especificação de inferência do plano de dados Azure OpenAI.
Chatmessage
O objeto de mensagem de chat não faz parte da versão ga mais recente da especificação de inferência do plano de dados Azure OpenAI.
Conversão de texto em fala (versão prévia)
Atualmente, não faz parte do Azure versão mais recente do OpenAI GA da especificação de inferência do plano de dados Azure OpenAI. Consulte a versão mais recente preview para essa funcionalidade.
Next steps
Saiba mais sobre modelos e ajuste fino com a API REST. Saiba mais sobre os modelos underlying que alimentam Azure OpenAI.