Azure OpenAI (anteprima)
Integrare facilmente Azure funzionalità di intelligenza artificiale all'avanguardia di OpenAI nei flussi di lavoro
Questo connettore è disponibile nei prodotti e nelle aree seguenti:
| Servizio | Class | Regions |
|---|---|---|
| Copilot Studio | Di alta qualità | Tutte le aree Power Automate ad eccezione delle seguenti: - Governo degli Stati Uniti (GCC) - Us Government (GCC High) - China Cloud gestito da 21Vianet - Dipartimento della Difesa degli Stati Uniti (DoD) |
| App per la logica | Normale | Tutte le aree di App per la logica , ad eccezione delle seguenti: - aree Azure per enti pubblici - Azure cina - Dipartimento della Difesa degli Stati Uniti (DoD) |
| Power Apps | Di alta qualità | Tutte le aree Power Apps ad eccezione delle seguenti: - Governo degli Stati Uniti (GCC) - Us Government (GCC High) - China Cloud gestito da 21Vianet - Dipartimento della Difesa degli Stati Uniti (DoD) |
| Power Automate | Di alta qualità | Tutte le aree Power Automate ad eccezione delle seguenti: - Governo degli Stati Uniti (GCC) - Us Government (GCC High) - China Cloud gestito da 21Vianet - Dipartimento della Difesa degli Stati Uniti (DoD) |
| Contatto | |
|---|---|
| Nome | Microsoft |
| URL | https://support.microsoft.com |
| Metadati del connettore | |
|---|---|
| Publisher | Microsoft |
| Sito web | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Informativa sulla privacy | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Categorie | IA; Business intelligence |
Azure OpenAI On Your Data consente di eseguire modelli avanzati di intelligenza artificiale, ad esempio GPT-35-Turbo e GPT-4 sui propri dati aziendali senza dover eseguire il training o l'ottimizzazione dei modelli. È possibile chattare e analizzare i dati con maggiore precisione. È anche possibile specificare le origini per supportare le risposte del modello in base alle informazioni più recenti disponibili nelle origini dati designate oppure omettere l'origine dati per chiamare il modello OpenAI Azure senza terra dati.
Prerequisiti
- sottoscrizione Azure: Crearne una gratuitamente.
- Apply per ottenere l'accesso a Azure OpenAI. Azure OpenAI richiede la registrazione ed è attualmente disponibile solo per i clienti e i partner aziendali approvati. Per altre informazioni, vedere Accesso limitato a Servizio Azure OpenAI.
-
Creare una risorsa OpenAI Azure nel portale di Azure. Assicurarsi di creare la risorsa in un'area supportata con un modello supportato.
- Assicurarsi di aver assegnato almeno il ruolo collaboratore Cognitive Services Contributor per la risorsa OpenAI Azure.
- Creare una risorsa Azure AI Search nel portale di Azure e seguire le procedure best per la preparazione dei dati nell'istanza di Azure AI Search da usare con il servizio Azure OpenAI nel servizio dati.
Suggerimento
Se è la prima volta che si usa Azure OpenAI sui dati, provare a usare quickstart per iniziare a usare il servizio.
Ottenere le credenziali
Per autenticare le richieste API, sono necessari la chiave e l'endpoint per le risorse Azure OpenAI e Azure AI Search.
Per la risorsa OpenAI Azure:
- Passare alla risorsa nel portale Azure.
- Nella pagina della risorsa selezionare Chiavi ed endpoint nel menu di spostamento a sinistra. Prendere nota delle credenziali. Si userà una delle chiavi e l'endpoint.
Per la risorsa Azure AI Search:
- Passare alla risorsa nel portale Azure.
- Nella pagina Panoramica della risorsa prendere nota dell'URL.
- Selezionare Chiavi nel menu di spostamento a sinistra. Si userà una delle chiavi di amministratore.
Problemi noti e limitazioni
- Solo Azure AI Search è supportato come origine dati per l'uso di Azure OpenAI nei dati con questo connettore Power Platform.
- La chiamata a funzioni non è supportata.
- Le immagini non sono supportate nel contenuto del messaggio.
Creazione di una connessione
Il connettore supporta i tipi di autenticazione seguenti:
| Chiave API | Fornire Azure nome della risorsa OpenAI e chiave API per accedere al Azure OpenAI che ospita il modello di intelligenza artificiale. | Tutte le aree geografiche | Condivisibile |
| Identità gestita di App per la logica | Creare una connessione usando un'identità gestita di LogicApps | Solo LOGICAPPS | Condivisibile |
| Impostazione predefinita [DEPRECATO] | Questa opzione è solo per le connessioni meno recenti senza un tipo di autenticazione esplicito e viene fornita solo per la compatibilità con le versioni precedenti. | Tutte le aree geografiche | Non condivisibile |
Chiave API
ID autenticazione: keyBasedAuth
Applicabile: tutte le aree
Fornire Azure nome della risorsa OpenAI e chiave API per accedere al Azure OpenAI che ospita il modello di intelligenza artificiale.
Si tratta di una connessione condivisibile. Se l'app per l'alimentazione viene condivisa con un altro utente, anche la connessione viene condivisa. Per altre informazioni, vedere la panoramica di Connectors per le app canvas - Power Apps | Microsoft Docs
| Nome | TIPO | Description | Obbligatorio |
|---|---|---|---|
| Azure nome della risorsa OpenAI | corda | Nome della risorsa OpenAI Azure che ospita il modello di intelligenza artificiale | Vero |
| Azure chiave API OpenAI | securestring | Chiave API per accedere alla risorsa OpenAI Azure che ospita il modello di intelligenza artificiale | Vero |
| URL dell'endpoint Ricerca cognitiva di Azure | corda | URL dell'endpoint Ricerca cognitiva di Azure che indicizza i dati | |
| Ricerca cognitiva di Azure chiave API | securestring | Chiave API per accedere all'endpoint Ricerca cognitiva di Azure che indicizza i dati |
Identità gestita di App per la logica
ID autenticazione: managedIdentityAuth
Applicabile: solo LOGICAPPS
Creare una connessione usando un'identità gestita di LogicApps
Si tratta di una connessione condivisibile. Se l'app per l'alimentazione viene condivisa con un altro utente, anche la connessione viene condivisa. Per altre informazioni, vedere la panoramica di Connectors per le app canvas - Power Apps | Microsoft Docs
| Nome | TIPO | Description | Obbligatorio |
|---|---|---|---|
| Identità gestita di LogicApps | Identità gestita | Accedere con un'identità gestita di App per la logica | Vero |
| Azure nome della risorsa OpenAI | corda | Nome della risorsa OpenAI Azure che ospita il modello di intelligenza artificiale | Vero |
Impostazione predefinita [DEPRECATO]
Applicabile: tutte le aree
Questa opzione è solo per le connessioni meno recenti senza un tipo di autenticazione esplicito e viene fornita solo per la compatibilità con le versioni precedenti.
Questa non è una connessione condivisibile. Se l'app power viene condivisa con un altro utente, verrà richiesto a un altro utente di creare una nuova connessione in modo esplicito.
| Nome | TIPO | Description | Obbligatorio |
|---|---|---|---|
| Azure nome della risorsa OpenAI | corda | Nome della risorsa OpenAI Azure che ospita il modello di intelligenza artificiale | Vero |
| Azure chiave API OpenAI | securestring | Chiave API per accedere alla risorsa OpenAI Azure che ospita il modello di intelligenza artificiale | Vero |
| URL dell'endpoint Ricerca cognitiva di Azure | corda | URL dell'endpoint Ricerca cognitiva di Azure che indicizza i dati | |
| Ricerca cognitiva di Azure chiave API | securestring | Chiave API per accedere all'endpoint Ricerca cognitiva di Azure che indicizza i dati |
Limiti per la limitazione delle richieste
| Nome | Chiamate | Periodo di rinnovo |
|---|---|---|
| Chiamate API per connessione | 1000 | 60 secondi |
Azioni
| Crea un completamento per il messaggio di chat |
Crea un completamento per il messaggio di chat |
| Ottenere più incorporamenti |
Ottenere rappresentazioni vettoriali di una determinata matrice di input che possono essere facilmente utilizzate da modelli e algoritmi di Machine Learning |
| Ottenere un incorporamento |
Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da modelli e algoritmi di Machine Learning |
| Uso delle estensioni per creare un completamento per i messaggi di chat |
Uso delle estensioni per creare un completamento per i messaggi di chat |
Crea un completamento per il messaggio di chat
Crea un completamento per il messaggio di chat
Parametri
| Nome | Chiave | Necessario | Tipo | Descrizione |
|---|---|---|---|---|
|
ID distribuzione del modello distribuito
|
deployment-id | True | string |
ID distribuzione del modello distribuito |
|
Versione dell'API
|
api-version | True | string |
Versione dell'API |
|
temperatura
|
temperature | number |
Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o |
|
|
top_p
|
top_p | number |
Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.
In genere si consiglia di modificare questo valore o |
|
|
torrente
|
stream | boolean |
Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati mano a mano che diventano disponibili, con il flusso terminato da un messaggio |
|
|
stop
|
stop | array of string |
Fino a 4 sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione. |
|
|
numero massimo di token
|
max_tokens | integer |
Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). |
|
|
penalità_di_presenza
|
presence_penalty | number |
Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
|
|
penalità di frequenza
|
frequency_penalty | number |
Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
|
|
bias del logit
|
logit_bias | object |
Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
|
|
utente
|
user | string |
Identificatore univoco che rappresenta l'utente finale, che consente di Azure OpenAI per monitorare e rilevare abusi. |
|
|
ruolo
|
role | True | string |
Ruolo dell'autore dei messaggi. |
|
contenuto
|
content | True | string |
Matrice di parti di contenuto con un tipo definito, ognuna può essere di tipo |
|
type
|
type | True | string |
Rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questa operazione verrà usata da una richiesta di completamento della chat che deve usare Azure estensioni della chat OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
|
top_n_documents
|
top_n_documents | integer |
Numero massimo di documenti configurato per la funzionalità per la query configurata. |
|
|
in_scope
|
in_scope | boolean |
Indica se le query devono essere limitate all'uso di dati indicizzati. |
|
|
strictness
|
strictness | integer |
La rigidità configurata del filtro di pertinenza della ricerca. Maggiore è la rigidità, maggiore sarà la precisione, ma minore il richiamo della risposta. |
|
|
informazioni_sul_ruolo
|
role_information | string |
Fornire al modello le istruzioni sul comportamento e su qualsiasi contesto a cui deve fare riferimento durante la generazione di una risposta. È possibile descrivere la personalità dell'assistente e indicargli come formattare le risposte. Esiste un limite di 100 token e viene conteggiato rispetto al limite di token complessivo. |
|
|
index_name
|
index_name | True | string |
Nome dell'indice da usare come disponibile nella risorsa di ricerca di Azure a cui si fa riferimento. |
|
campo_titolo
|
title_field | string |
Il nome del campo indice da usare come titolo. |
|
|
url_field
|
url_field | string |
Nome del campo di indice da usare come URL. |
|
|
filepath_field
|
filepath_field | string |
Il nome del campo di indice da usare come percorso file. |
|
|
content_fields
|
content_fields | array of string |
I nomi dei campi di indice che devono essere gestiti come contenuto. |
|
|
content_fields_separator
|
content_fields_separator | string |
Il modello separatore che devono usare i campi di contenuto. |
|
|
campi vettoriali
|
vector_fields | array of string |
Nomi dei campi che rappresentano dati vettoriali. |
|
|
tipo di query
|
query_type | string |
Tipo di Azure query di recupero della ricerca che deve essere eseguita quando viene usata come estensione di chat OpenAI Azure. |
|
|
configurazione_semantica
|
semantic_configuration | string |
La configurazione semantica aggiuntiva per la query. |
|
|
filtro
|
filter | string |
Filtro di ricerca. |
|
|
type
|
type | string |
Rappresenta le origini disponibili Azure OpenAI sui dati può usare per configurare la vettorizzazione dei dati da usare con la ricerca vettoriale. |
|
|
nome_di_distribuzione
|
deployment_name | True | string |
Specifica il nome della distribuzione del modello da usare per la vettorializzazione. Questa distribuzione del modello deve trovarsi nella stessa Azure risorsa OpenAI, ma In i dati userà questa distribuzione del modello tramite una chiamata interna anziché una chiamata pubblica, che consente la ricerca vettoriale anche nelle reti private. |
|
n
|
n | integer |
Quante opzioni di completamento della chat generare per ogni messaggio di input. |
|
|
seed
|
seed | integer |
Se specificato, il sistema eseguirà un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi |
|
|
logprobs
|
logprobs | boolean |
Indica se restituire o non restituire le probabilità di log dei token di output. Se true, restituisce le probabilità di log di ogni token di output restituito in |
|
|
top_logprobs
|
top_logprobs | integer |
Numero intero compreso tra 0 e 5 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata.
|
|
|
type
|
type | string |
L'impostazione di per abilitare |
Valori restituiti
Ottenere più incorporamenti
Ottenere rappresentazioni vettoriali di una determinata matrice di input che possono essere facilmente utilizzate da modelli e algoritmi di Machine Learning
Parametri
| Nome | Chiave | Necessario | Tipo | Descrizione |
|---|---|---|---|---|
|
ID distribuzione del modello distribuito
|
deployment-id | True | string |
ID distribuzione del modello distribuito |
|
Versione dell'API
|
api-version | True | string |
Versione dell'API |
|
ingresso
|
input | True | array of string |
Matrice di testi di input per cui ottenere incorporamenti, codificati come stringa. Ogni stringa di input non deve superare i 2048 token di lunghezza |
|
utente
|
user | string |
Identificatore univoco che rappresenta l'utente finale, che consente di Azure OpenAI per monitorare e rilevare abusi. |
|
|
input_type
|
input_type | string |
Tipo di input della ricerca di incorporamento da usare. |
Valori restituiti
Ottenere un incorporamento
Ottenere una rappresentazione vettoriale di un determinato input che può essere facilmente utilizzato da modelli e algoritmi di Machine Learning
Parametri
| Nome | Chiave | Necessario | Tipo | Descrizione |
|---|---|---|---|---|
|
ID distribuzione del modello distribuito
|
deployment-id | True | string |
ID distribuzione del modello distribuito |
|
Versione dell'API
|
api-version | True | string |
Versione dell'API |
|
ingresso
|
input | True | string |
Testo di input per cui ottenere incorporamenti, codificati come stringa. La stringa di input non deve superare i 2048 token di lunghezza |
|
utente
|
user | string |
Identificatore univoco che rappresenta l'utente finale, che consente di Azure OpenAI per monitorare e rilevare abusi. |
|
|
input_type
|
input_type | string |
Tipo di input della ricerca di incorporamento da usare. |
Valori restituiti
Uso delle estensioni per creare un completamento per i messaggi di chat
Uso delle estensioni per creare un completamento per i messaggi di chat
Parametri
| Nome | Chiave | Necessario | Tipo | Descrizione |
|---|---|---|---|---|
|
ID distribuzione del modello distribuito
|
deployment-id | True | string |
ID distribuzione del modello distribuito |
|
Confermare l'ID distribuzione del modello distribuito
|
deploymentId | True | string |
Confermare l'ID distribuzione del modello distribuito |
|
Versione dell'API
|
api-version | True | string |
Versione dell'API |
|
index
|
index | integer |
Indice del messaggio nella conversazione. |
|
|
ruolo
|
role | True | string |
Ruolo dell'autore del messaggio. |
|
destinatario
|
recipient | string |
Destinatario del messaggio nel formato dello spazio dei <nomi>.<operazione>. Presente se e solo se il destinatario è uno strumento. |
|
|
contenuto
|
content | True | string |
Contenuto del messaggio |
|
end_turn
|
end_turn | boolean |
Indica se il messaggio termina il turno. |
|
|
type
|
type | True | string |
Tipo di origine dati. |
|
parameters
|
parameters | object |
Parametri da usare per l'origine dati in fase di esecuzione. |
|
|
temperatura
|
temperature | number |
Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o |
|
|
top_p
|
top_p | number |
Un'alternativa al campionamento con temperatura, denominata campionamento del nucleo, in cui il modello considera i risultati dei token con massa di probabilità top_p. Quindi 0,1 significa che vengono considerati solo i token che comprendono la massa di probabilità superiore del 10%.
In genere si consiglia di modificare questo valore o |
|
|
torrente
|
stream | boolean |
Se impostato, verranno inviati delta di messaggi parziali, come in ChatGPT. I token verranno inviati come eventi inviati dal server di soli dati mano a mano che diventano disponibili, con il flusso terminato da un messaggio |
|
|
stop
|
stop | array of string |
Dimensioni minime della matrice pari a 1 e massimo 4 |
|
|
numero massimo di token
|
max_tokens | integer |
Numero massimo di token consentiti per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token di richiesta). |
|
|
penalità_di_presenza
|
presence_penalty | number |
Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base al fatto che vengano visualizzati o meno nel testo fino a questo momento, aumentando la probabilità del modello di parlare di nuovi argomenti. |
|
|
penalità di frequenza
|
frequency_penalty | number |
Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo fino a quel momento, riducendo la probabilità che il modello ripeta testualmente la stessa riga. |
|
|
bias del logit
|
logit_bias | object |
Modificare la probabilità che i token specificati vengano visualizzati nel completamento. Accetta un oggetto JSON che esegue il mapping dei token (specificato dal relativo ID token nel tokenizer) con un valore di distorsione associato compreso tra -100 e 100. Matematicamente, la distorsione viene aggiunta ai logits generati dal modello prima del campionamento. L'effetto esatto varia per modello, ma i valori compresi tra -1 e 1 devono diminuire o aumentare la probabilità di selezione; i valori come -100 o 100 devono comportare un divieto o una selezione esclusiva del token pertinente. |
|
|
utente
|
user | string |
Identificatore univoco che rappresenta l'utente finale, che consente di Azure OpenAI per monitorare e rilevare abusi. |
Valori restituiti
Risposta dei completamenti della chat delle estensioni.
Definizioni
Message
Un messaggio di chat.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
index
|
index | integer |
Indice del messaggio nella conversazione. |
|
ruolo
|
role | string |
Ruolo dell'autore del messaggio. |
|
destinatario
|
recipient | string |
Destinatario del messaggio nel formato dello spazio dei <nomi>.<operazione>. Presente se e solo se il destinatario è uno strumento. |
|
contenuto
|
content | string |
Contenuto del messaggio |
|
end_turn
|
end_turn | boolean |
Indica se il messaggio termina il turno. |
ExtensionsChatCompletionsResponse
Risposta dei completamenti della chat delle estensioni.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
id
|
id | string | |
|
oggetto
|
object | string | |
|
creato
|
created | integer | |
|
model
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
index
|
index | integer | |
|
finish_reason
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. |
|
messages
|
messages | array of Message |
Elenco di messaggi restituiti dal servizio. |
contentFilterResult
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
severità
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
Errore
|
error | errorBase |
promptFilterResult
Risultati del filtro dei contenuti per un singolo prompt nella richiesta.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. |
promptFilterResults
Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
Elementi
|
promptFilterResult |
Risultati del filtro dei contenuti per un singolo prompt nella richiesta. |
errorBase
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
codice
|
code | string | |
|
message
|
message | string |
errorBase_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
codice
|
code | string | |
|
message
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severità
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
Licenza
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
id
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
Errore
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
Errore
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Risultati del filtro dei contenuti per un singolo prompt nella richiesta.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni su contenuti jailbreak e profanity, se sono stati rilevati, e se sono stati filtrati o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. |
promptFilterResults_2024Feb15Preview
Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
Elementi
|
promptFilterResult_2024Feb15Preview |
Risultati del filtro dei contenuti per un singolo prompt nella richiesta. |
azureChatExtensionsMessageContext_2024Feb15Preview
Rappresentazione delle informazioni di contesto aggiuntive disponibili quando Azure estensioni di chat OpenAI sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI Azure configurata per l'uso di un'estensione corrispondente.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
Ili risultato del recupero dell'origine dati, usato per generare il messaggio dell'assistente nella risposta. |
|
intento
|
intent | string |
L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo per trasferire il contesto. |
citation_2024Feb15Preview
Informazioni sulla citazione per un messaggio di risposta di completamento chat.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
contenuto
|
content | string |
Il contenuto della citazione. |
|
title
|
title | string |
Il titolo della citazione. |
|
URL
|
url | string |
L'URL della citazione. |
|
percorso del file
|
filepath | string |
Il percorso del file della citazione. |
|
chunk_id
|
chunk_id | string |
L'ID blocco della citazione. |
createChatCompletionResponse_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
id
|
id | string |
Identificatore univoco per il completamento della chat. |
|
oggetto
|
object | chatCompletionResponseObject_2024Feb15Preview |
Tipo dell'oggetto. |
|
creato
|
created | integer |
Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. |
|
model
|
model | string |
Modello usato per il completamento della chat. |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Statistiche di utilizzo per la richiesta di completamento. |
|
system_fingerprint
|
system_fingerprint | string |
Può essere usata insieme al parametro di richiesta |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Risultati del filtro del contenuto per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi potrebbero arrivare in momenti diversi o in ordini diversi. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
finish_reason
|
choices.finish_reason | string | |
|
message
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Messaggio di completamento della chat generato dal modello. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informazioni sulla categoria di filtro dei contenuti (hate, sexual, violence, self_harm), se sono stati rilevati, nonché sul livello di gravità (molto basso, basso, medio, su larga scala che determina l'intensità e il livello di rischio di contenuti dannosi) e se sono stati filtrati o meno. Informazioni sul testo di terze parti e sul contenuto volgare, se è stato rilevato, e se è stato filtrato o meno. Informazioni sull'elenco elementi bloccati dal cliente, se è stato filtrato, e il relativo ID. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Informazioni sulla probabilità di log per la scelta. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Informazioni sulla probabilità di log per la scelta.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
contenuto
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Un elenco di token di contenuto del messaggio con informazioni sulla probabilità di log. |
chatCompletionTokenLogprob_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
token
|
token | string |
Token. |
|
logprob
|
logprob | number |
La probabilità di log di questo token. |
|
bytes
|
bytes | array of integer |
Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere |
|
top_logprobs
|
top_logprobs | array of object |
Elenco dei token più probabili e della loro probabilità di log, in questa posizione del token. In rari casi, potrebbe venire restituito un numero di |
|
token
|
top_logprobs.token | string |
Token. |
|
logprob
|
top_logprobs.logprob | number |
La probabilità di log di questo token. |
|
bytes
|
top_logprobs.bytes | array of integer |
Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere |
chatCompletionResponseMessage_2024Feb15Preview
Messaggio di completamento della chat generato dal modello.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
ruolo
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Il ruolo dell'autore del messaggio di risposta. |
|
contenuto
|
content | string |
Contenuto del messaggio. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Rappresentazione delle informazioni di contesto aggiuntive disponibili quando Azure estensioni di chat OpenAI sono coinvolte nella generazione di una risposta di completamento della chat corrispondente. Queste informazioni di contesto vengono popolate solo quando si usa una richiesta OpenAI Azure configurata per l'uso di un'estensione corrispondente. |
chatCompletionResponseMessageRole_2024Feb15Preview
Il ruolo dell'autore del messaggio di risposta.
Il ruolo dell'autore del messaggio di risposta.
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Statistiche di utilizzo per la richiesta di completamento.
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Numero di token nel prompt. |
|
completion_tokens
|
completion_tokens | integer |
Numero di token nel completamento generato. |
|
total_tokens
|
total_tokens | integer |
Numero totale di token usati nella richiesta (prompt + completamento). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
oggetto
|
object | string |
Dettagli del tipo di oggetto risposta |
|
model
|
model | string |
Nome del modello |
|
embedding
|
embedding | array of number |
Matrice di float che rappresentano gli incorporamenti calcolati per gli input specificati |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Numero di token usati nell'input |
|
total_tokens
|
usage.total_tokens | integer |
Token totali usati |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Nome | Percorso | Tipo | Descrizione |
|---|---|---|---|
|
oggetto
|
object | string |
Dettagli del tipo di oggetto risposta |
|
model
|
model | string |
Nome del modello |
|
embeddings
|
embeddings | array of array |
Matrice con matrici di valori float che rappresentano gli incorporamenti calcolati della raccolta di stringhe di input |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Numero di token usati nell'input |
|
total_tokens
|
usage.total_tokens | integer |
Token totali usati |