Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce dettagli sugli endpoint REST API di inferenza per Azure OpenAI.
API specs
La gestione e l'interazione con i modelli e le risorse OpenAI di Azure sono suddivise in tre superfici API principali:
- Control plane
- Piano dati - authoring
- Piano dati - inferenza
Ogni superficie/specifica API racchiude un diverso insieme di funzionalità di Azure OpenAI. Ogni API ha un proprio set unico di versioni di anteprima e di API stabili/generalmente disponibili (GA). Le uscite in anteprima tendono attualmente a seguire un ritmo mensile.
Important
Ora esiste una nuova API di anteprima per inferenza. Scopri di più nella nostra guida al ciclo di vita delle API.
| API | Ultima pubblicazione di anteprima | Ultima uscita di GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | L'API del piano di controllo viene utilizzata per operazioni come la creazione di risorse, il deployment dei modelli e altri compiti di gestione delle risorse di livello superiore. Il piano di controllo regola anche cosa è possibile fare con funzionalità come Azure Resource Manager, Bicep, Terraform e interfaccia della riga di comando di Azure. |
| Data plane | v1 preview |
v1 |
Spec files | L'API del piano dati controlla le operazioni di inferenza e authoring. |
Authentication
Azure OpenAI fornisce due metodi di autenticazione. Puoi usare sia API Keys che Microsoft Entra ID.
Autenticazione della chiave API: Per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione
api-keyHTTP. Il Quickstart fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.Microsoft Entra ID: Puoi autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come Authorizationintestazione. Il token fornito deve essere preceduto daBearer, ad esempioBearer YOUR_AUTH_TOKEN. Puoi leggere la nostra guida pratica su autenticare con Microsoft Entra ID.
Versionamento delle API REST
Le API dei servizi sono versionate utilizzando il api-version parametro di query. Tutte le versioni seguono la struttura delle date YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenza del piano dati
Il resto dell'articolo tratta la release GA della specifica di inferenza Azure OpenAI data plane 2024-10-21.
Se stai cercando documentazione sull'ultima versione dell'API di anteprima, consulta l'ultima API di inferenza dati dei piani di anteprima
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Crea un completamento per il prompt fornito, i parametri e il modello scelto.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID di distribuzione del modello che è stato implementato. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | stringa o array | Il/i prompt/i per generare completi, codificati come stringa, array di stringhe, array di token o array di token. Nota che <|endoftext|> è il separatore del documento che il modello vede durante l'addestramento, quindi se non viene specificato un prompt, il modello verrà generato come se fosse dall'inizio di un nuovo documento. |
Yes | |
| best_of | integer | Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.Quando usato con n, best_of controlla il numero di completamenti candidati e n specifica quante restituire â€" best_of devono essere maggiori di n.Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripeti il prompt oltre al completamento |
No | False |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato. |
No | None |
| logprobs | integer | Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento. Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello. |
No | 16 |
| n | integer | Quante completazioni generare per ogni prompt. Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| seed | integer | Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| stop | stringa o array | Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop. |
No | |
| stream | boolean | Se riportare indietro un progresso parziale. Se impostato, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| suffix | string | Il suffisso che arriva dopo il completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta streamati che quelli non streamati condividono la stessa forma (a differenza dell'endpoint chat). |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt fornito, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Risposte: Codice di stato: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Ottieni una rappresentazione vettoriale di un dato input che possa essere facilmente consumata da modelli e algoritmi di machine learning.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | stringa o array | Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'ingresso non deve superare il massimo dei token di ingresso per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota, e qualsiasi array deve avere 2.048 dimensioni o meno. |
Yes | |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No | |
| input_type | string | Tipo di input di ricerca embedding da utilizzare | No | |
| encoding_format | string | Il formato per restituire gli embedding. Può essere uno o base64l'altro float o . Di default è float. |
No | |
| dimensions | integer | Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Proprietà per l'uso
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Restituisci gli embeddings per un determinato prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Risposte: Codice di stato: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Crea una completazione per il messaggio della chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID di distribuzione del modello che è stato implementato. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| stream | boolean | Se impostato, verranno inviati delta parziali del messaggio, come in ChatGPT. I token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| stop | stringa o array | Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. |
No | |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello. |
No | |
| max_completion_tokens | integer | Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. | No | |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. |
No | None |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No | |
| messages | array | Un elenco dei messaggi che compongono la conversazione finora. | Yes | |
| data_sources | array | Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| logprobs | boolean | Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message |
No | False |
| top_logprobs | integer | Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata.
logprobs deve essere impostato a true se questo parametro viene utilizzato. |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di token generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponderà allo schema JSON fornito.Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzione è in fase Beta. Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| tools | array | Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti. |
No | |
| function_call | stringa o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla quale funzione (se ce n'è) chiamata dal modello. none significa che il modello non chiamerà una funzione ma genera invece un messaggio.auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.none è il valore predefinito quando non sono presenti funzioni.
auto è la predefinita se sono presenti delle funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco delle funzioni per cui il modello può generare input JSON. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse o createChatCompletionStreamResponse |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt fornito, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati di ricerca Azure e sull'identità gestita assegnata al sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati vettoriali di ricerca Azure, sul messaggio dell'assistente precedente e sull'identità gestita assegnata dall'utente.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per il Azure Cosmos DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Trascrizioni - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Trascrive l'audio nella lingua di input.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID di distribuzione del modello vocale a testo. Per informazioni sui modelli supportati, vedi [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio oggetto da trascrivere. | Yes | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
| language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliorerà precisione e latenza. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioRisposta o audioVerboseResponse | |
| text/plain | string | Testo trascritto nel formato di uscita (quando response_format era di testo, vtt o srt). |
Examples
Example
Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduzioni - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Trascrive e traduce l'audio in ingresso in testo inglese.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID di distribuzione del modello whisper che è stato implementato. Per informazioni sui modelli supportati, vedi [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio da tradurre. | Yes | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioRisposta o audioVerboseResponse | |
| text/plain | string | Testo trascritto nel formato di uscita (quando response_format era di testo, vtt o srt). |
Examples
Example
Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genera un lotto di immagini da una didascalia di testo su una data distribuzione del modello dall-e
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID di implementazione del modello dall-e che è stato implementato. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 4.000 caratteri. | Yes | |
| n | integer | Il numero di immagini da generare. | No | 1 |
| size | imageSize | La dimensione delle immagini generate. | No | 1024x1024 |
| response_format | imagesResponseFormat | Il formato in cui vengono restituite le immagini generate. | No | url |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No | |
| quality | imageQuality | La qualità dell'immagine che verrà generata. | No | standard |
| style | imageStyle | Lo stile delle immagini generate. | No | vivid |
Responses
Codice di stato: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: predefinito
Descrizione: Si è verificato un errore.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea immagini con un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Risposte: Codice di stato: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Errore interiore con ulteriori dettagli. | No |
innerError
Errore interiore con ulteriori dettagli.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto di errore interno. | No | |
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. | No |
innerErrorCode
Codici di errore per l'oggetto di errore interno.
Descrizione: Codici di errore per l'oggetto di errore interno.
Type: string
Default:
Nome Enum: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | Il prompt violava una delle altre regole del filtro dei contenuti. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Errore interiore con ulteriori dettagli. | No |
dalleInnerError
Errore interiore con ulteriori dettagli.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto di errore interno. | No | |
| content_filter_results | dalleFilterResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. | No | |
| revised_prompt | string | Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Proprietà della citazione
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Informazioni sui risultati del filtraggio dei contenuti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni su testi di terze parti e parolacce, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Filtraggio dei contenuti risulta per un singolo prompt nella richiesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. | No |
promptFilterResults
Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti.
Nessuna proprietà definita per questo componente.
dalleContentFilterResults
Informazioni sui risultati del filtraggio dei contenuti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| stream | boolean | Se impostato, verranno inviati delta parziali del messaggio, come in ChatGPT. I token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| stop | stringa o array | Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. | No | |
| max_tokens | integer | Il numero massimo di token consentito per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token prompt). Questo valore è ora deprecato a favore di max_completion_tokens, e non è compatibile con i modelli della serie O1. |
No | 4096 |
| max_completion_tokens | integer | Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. | No | |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. | No | 0 |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. | No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto json che mappa i token (specificati dal loro ID token nel tokenizer) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. | No | |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare Azure OpenAI a monitorare e rilevare abusi. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | stringa o array | Il/i prompt/i per generare completi, codificati come stringa, array di stringhe, array di token o array di token. Nota che <|endoftext|> è il separatore del documento che il modello vede durante l'addestramento, quindi se non viene specificato un prompt, il modello verrà generato come se fosse dall'inizio di un nuovo documento. |
Yes | |
| best_of | integer | Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.Quando usato con n, best_of controlla il numero di completamenti candidati e n specifica quante restituire â€" best_of devono essere maggiori di n.Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripeti il prompt oltre al completamento |
No | False |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato. |
No | None |
| logprobs | integer | Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento. Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello. |
No | 16 |
| n | integer | Quante completazioni generare per ogni prompt. Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| seed | integer | Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| stop | stringa o array | Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop. |
No | |
| stream | boolean | Se riportare indietro un progresso parziale. Se impostato, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| suffix | string | Il suffisso che arriva dopo il completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No |
createCompletionResponse
Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta streamati che quelli non streamati condividono la stessa forma (a differenza dell'endpoint chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Un identificatore unico per il completamento. | Yes | |
| choices | array | L'elenco delle scelte di completamento generato dal modello per il prompt di input. | Yes | |
| created | integer | Il timestamp Unix (in secondi) di quando è stato creato il completamento. | Yes | |
| model | string | Il modello utilizzato per il completamento. | Yes | |
| prompt_filter_results | promptFilterResults | Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. | No | |
| system_fingerprint | string | Questa impronta rappresenta la configurazione backend con cui il modello gira. Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo. |
No | |
| object | enum | Il tipo di oggetto, che è sempre "text_completion" Valori possibili: text_completion |
Yes | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| stream | boolean | Se impostato, verranno inviati delta parziali del messaggio, come in ChatGPT. I token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. |
No | False |
| stop | stringa o array | Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. |
No | |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello. |
No | |
| max_completion_tokens | integer | Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. | No | |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. |
No | None |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No | |
| messages | array | Un elenco dei messaggi che compongono la conversazione finora. | Yes | |
| data_sources | array | Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| logprobs | boolean | Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message |
No | False |
| top_logprobs | integer | Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata.
logprobs deve essere impostato a true se questo parametro viene utilizzato. |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di token generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponderà allo schema JSON fornito.Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzione è in fase Beta. Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| tools | array | Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti. |
No | |
| function_call | stringa o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla quale funzione (se ce n'è) chiamata dal modello. none significa che il modello non chiamerà una funzione ma genera invece un messaggio.auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.none è il valore predefinito quando non sono presenti funzioni.
auto è la predefinita se sono presenti delle funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco delle funzioni per cui il modello può generare input JSON. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| name | string | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema.
Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota. |
No |
chatCompletionFunctionCallOption
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Il nome della funzione da chiamare. | Yes |
chatCompletionRequestMessage
Questo componente può essere uno dei seguenti:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio di sistema. | Yes | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso system.Valori possibili: sistema |
Yes | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio utente. |
Yes | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso user.Valori possibili: utente |
Yes | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio dell'assistente. Richiesto a meno che tool_calls non venga specificato.function_call |
No | |
| refusal | string | Il messaggio di rifiuto dell'assistente. | No | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso assistant.Possibili valori: assistente |
Yes | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| tool_calls | chatCompletionMessageToolCalls | Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. | No | |
| function_call | object | Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. |
No |
Proprietà per function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Il nome della funzione da chiamare. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso tool.Valori possibili: strumento |
Yes | |
| content | stringa o array | Il contenuto del messaggio dello strumento. | Yes | |
| tool_call_id | string | Chiamata dello strumento a cui questo messaggio sta rispondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: funzione |
Yes | |
| content | string | Il contenuto del messaggio funzionale. | Yes | |
| name | string | Il nome della funzione da chiamare. | Yes |
chatCompletionRequestSystemMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestUserMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestAssistantMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestToolMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | La parte del tipo di contenuto. Valori possibili: testo |
Yes | |
| text | string | Il contenuto del testo. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | La parte del tipo di contenuto. Valori possibili: image_url |
Yes | |
| image_url | object | Yes |
Proprietà per image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | O un URL dell'immagine o i dati dell'immagine codificata in base64. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Specifica il livello di dettaglio dell'immagine. Scopri di più nella guida Vision. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | La parte del tipo di contenuto. Valori possibili: rifiuto |
Yes | |
| refusal | string | Il messaggio di rifiuto generato dal modello. | Yes |
azureChatExtensionConfiguration
Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo verrà usato da una chat completions richiedono che dovrebbero utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureChatExtensionType
Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Description: Una rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Type: string
Default:
Enum Name: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Rappresenta l'uso di Azure Search come estensione di chat di Azure OpenAI. |
| azure_cosmos_db | Rappresenta l'uso di Azure Cosmos DB come estensione di chat di Azure OpenAI. |
azureSearchChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Azure Search quando lo si utilizza come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo verrà usato da una chat completions richiedono che dovrebbero utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI. | No |
azureSearchChatExtensionParameters
Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptionsoppure onYourDataSystemAssignedManaged IdentityAuthenticationOptionsoppure onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| role_information | string | Fornisci al modello istruzioni su come dovrebbe comportarsi e qualsiasi contesto che dovrebbe consultare quando genera una risposta. Puoi descrivere la personalità dell'assistente e spiegargli come formattare le risposte. C'è un limite di 100 token per questo, e conta contro il limite complessivo di token. | No | |
| endpoint | string | Il percorso finale assoluto per la risorsa di ricerca Azure da utilizzare. | Yes | |
| index_name | string | Il nome dell'indice da utilizzare è disponibile nella risorsa Azure Search citata. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata. | No | |
| query_type | azureSearchQueryType | Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. | No | |
| semantic_configuration | string | La configurazione semantica aggiuntiva per la query. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | No | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| vector_fields | array | I nomi dei campi che rappresentano dati vettoriali. | No |
azureSearchQueryType
Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.
Description: Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat Azure OpenAI.
Type: string
Default:
Enum Name: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Rappresenta il parser di query predefinito e semplice. |
| semantic | Rappresenta il parser semantico delle query per la modellazione semantica avanzata. |
| vector | Rappresenta la ricerca vettoriale su dati calcolati. |
| vector_simple_hybrid | Rappresenta una combinazione della strategia di query semplice con dati vettoriali. |
| vector_semantic_hybrid | Rappresenta una combinazione di ricerca semantica e interrogazione di dati vettoriali. |
azureCosmosDBChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando lo si utilizza come estensione chat di Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo verrà usato da una chat completions richiedono che dovrebbero utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione. | Yes | |
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| role_information | string | Fornisci al modello istruzioni su come dovrebbe comportarsi e qualsiasi contesto che dovrebbe consultare quando genera una risposta. Puoi descrivere la personalità dell'assistente e spiegargli come formattare le risposte. C'è un limite di 100 token per questo, e conta contro il limite complessivo di token. | No | |
| database_name | string | Il nome del database MongoDB vCore da usare con Azure Cosmos DB. | Yes | |
| container_name | string | Il nome del container di risorse Azure Cosmos DB. | Yes | |
| index_name | string | Il nome dell'indice MongoDB vCore da usare con Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | Yes | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| vector_fields | array | I nomi dei campi che rappresentano dati vettoriali. | Yes |
onYourDataAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataAuthenticationType
I tipi di autenticazione supportati da Azure OpenAI On Your Data.
Description: I tipi di autenticazione supportati da Azure OpenAI On Your Data.
Type: string
Default:
Nome Enum: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autenticazione tramite chiave API. |
| connection_string | Autenticazione tramite stringa di connessione. |
| system_assigned_managed_identity | Autenticazione tramite identità gestita assegnata al sistema. |
| user_assigned_managed_identity | Autenticazione tramite identità gestita assegnata dall'utente. |
onYourDataApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes | |
| key | string | La chiave API da usare per l'autenticazione. | No |
onYourDataConnectionStringAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes | |
| connection_string | string | La stringa di connessione da usare per l'autenticazione. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata al sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata dall'utente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes | |
| managed_identity_resource_id | string | L'ID risorsa dell'identità gestita assegnata dall'utente da utilizzare per l'autenticazione. | No |
onYourDataVectorizationSource
Una rappresentazione astratta di una sorgente di vettorizzazione per Azure OpenAI sui tuoi dati con ricerca vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con vector search. |
Yes |
onYourDataVectorizationSourceType
Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale.
Description: Rappresenta le fonti disponibili Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con
vector search.
Type: string
Default:
Nome enum: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Rappresenta la vettorizzazione effettuata tramite chiamate di servizio pubblico a un modello di embedding Azure OpenAI. |
| deployment_name | Rappresenta il nome di un modello di distribuzione Ada da utilizzare. La distribuzione di questo modello deve essere nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questo modello tramite una chiamata interna anziché pubblica, che abilita il vettore Cerca anche nelle reti private. |
onYourDataDeploymentNameVectorizationSource
I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un nome di deployment interno di un modello di embedding nella stessa risorsa Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con vector search. |
Yes | |
| deployment_name | string | Specifica il nome del deployment del modello da utilizzare per la vettorizzazione. Questa distribuzione del modello deve avvenire nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questa distribuzione tramite una chiamata interna anziché pubblica, che consente la ricerca vettoriale anche nelle reti private. | No |
onYourDataEndpointVectorizationSource
I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando applica la ricerca vettoriale, basata su una chiamata endpoint pubblica di Azure OpenAI per gli embedding.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API. | No | |
| endpoint | string | Specifica l'endpoint da utilizzare per la vettorizzazione. Questo endpoint deve trovarsi nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questo endpoint tramite una chiamata interna anziché pubblica, che consente la ricerca vettoriale anche nelle reti private. | No |
azureChatExtensionsMessageContext
Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando le estensioni di chat di Azure OpenAI sono coinvolte nella generazione di una risposta corrispondente alle chat completes. Queste informazioni contestuali vengono inserite solo quando si utilizza una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | Il risultato del recupero della sorgente dati, utilizzato per generare il messaggio assistente nella risposta. | No | |
| intent | string | L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo e trasmettere il contesto. | No |
citation
Informazioni di citazione per un messaggio di risposta al completamento della chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Il contenuto della citazione. | Yes | |
| title | string | Il titolo della citazione. | No | |
| url | string | L'URL della citazione. | No | |
| filepath | string | Il percorso del file della citazione. | No | |
| chunk_id | string | L'ID del blocco della citazione. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | L'ID della chiamata dello strumento. | Yes | |
| type | toolCallType | Il tipo di chiamata dello strumento, in questo caso function. |
Yes | |
| function | object | La funzione che il modello ha chiamato. | Yes |
Proprietà della funzione
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Il nome della funzione da chiamare. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. |
toolCallType
Il tipo di chiamata dello strumento, in questo caso function.
Descrizione: Il tipo di chiamata dello strumento, in questo caso function.
Type: string
Default:
Nome enum: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | Il tipo di chiamata dello strumento è funzione. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Chiamata dello strumento a cui questo messaggio sta rispondendo. | No | |
| content | string | Il contenuto del messaggio. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: funzione |
No | |
| name | string | Il contenuto del messaggio. | No | |
| content | string | Il contenuto del messaggio. | No |
createChatCompletionResponse
Rappresenta una risposta di completamento della chat restituita dal modello, basata sull'input fornito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Un identificatore unico per il completamento della chat. | Yes | |
| prompt_filter_results | promptFilterResults | Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. | No | |
| choices | array | Una lista delle opzioni per completare la chat. Può essere più di uno se n è maggiore di 1. |
Yes | |
| created | integer | Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. | Yes | |
| model | string | Il modello usato per completare la chat. | Yes | |
| system_fingerprint | string | Questa impronta rappresenta la configurazione backend con cui il modello gira. Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo. |
No | |
| object | enum | Il tipo di oggetto, che è sempre chat.completion.Valori possibili: chat.completion |
Yes | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionStreamResponse
Rappresenta un blocco streamlato di una risposta di completamento della chat restituita dal modello, basato sull'input fornito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Un identificatore unico per il completamento della chat. Ogni blocco ha lo stesso ID. | Yes | |
| choices | array | Una lista delle opzioni per completare la chat. Può contenere più di un elemento se n è maggiore di 1. |
Yes | |
| created | integer | Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. Ogni blocco ha lo stesso timestamp. | Yes | |
| model | string | Il modello per generare la completezza. | Yes | |
| system_fingerprint | string | Questa impronta rappresenta la configurazione backend con cui il modello gira. Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo. |
No | |
| object | enum | Il tipo di oggetto, che è sempre chat.completion.chunk.Valori possibili: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Un delta di completamento della chat generato dalle risposte del modello in streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Il contenuto del messaggio a pezzi. | No | |
| function_call | object | Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. |
No | |
| tool_calls | array | No | ||
| role | enum | Il ruolo dell'autore di questo messaggio. Valori possibili: sistema, utente, assistente, strumento |
No | |
| refusal | string | Il messaggio di rifiuto generato dal modello. | No |
Proprietà per function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Il nome della funzione da chiamare. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | L'ID della chiamata dello strumento. | No | |
| type | enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: funzione |
No | |
| function | object | No |
Proprietà della funzione
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Il nome della funzione da chiamare. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. |
chatCompletionStreamOptions
Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se impostato, un ulteriore chunk verrà trasmesso prima del data: [DONE] messaggio. Il usage campo su questo chunk mostra le statistiche di utilizzo dei token per l'intera richiesta, e il choices campo sarà sempre un array vuoto. Tutti gli altri chunk includeranno anch'essi un usage campo, ma con valore nullo. |
No |
chatCompletionChoiceLogProbs
Registra le informazioni di probabilità per la scelta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Un elenco dei token di contenuto dei messaggi con informazioni sulla probabilità log. | Yes | |
| refusal | array | Un elenco di token di rifiuto di messaggi con informazioni di probabilità logaritaria. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | La probabilità logaritmica di questo token. | Yes | |
| bytes | array | Un elenco di interi che rappresenta la rappresentazione UTF-8 byte del token. Utile in situazioni in cui i caratteri sono rappresentati da più token e le loro rappresentazioni in byte devono essere combinate per generare la rappresentazione testuale corretta. Può esserlo null se non c'è una rappresentazione in byte per il token. |
Yes | |
| top_logprobs | array | Elenco dei token più probabili e della loro probabilità logarithmita, in questa posizione del token. In rari casi, potrebbero esserci meno del numero di richieste top_logprobs restituite. |
Yes |
chatCompletionResponseMessage
Un messaggio di completamento della chat generato dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | Il ruolo dell'autore del messaggio di risposta. | Yes | |
| refusal | string | Il messaggio di rifiuto generato dal modello. | Yes | |
| content | string | Il contenuto del messaggio. | Yes | |
| tool_calls | array | Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. | No | |
| function_call | chatCompletionFunctionCall | Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. |
No | |
| context | azureChatExtensionsMessageContext | Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte estensioni di chat di Azure OpenAI nella generazione di una corrispondente risposta di completamento della chat. Queste informazioni contestuali vengono popolate solo quando utilizzando una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente. |
No |
chatCompletionResponseMessageRole
Il ruolo dell'autore del messaggio di risposta.
Descrizione: Il ruolo dell'autore del messaggio di risposta.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti.
Questo componente può essere uno dei seguenti:
chatCompletionNamedToolChoice
Specifica uno strumento che il modello dovrebbe utilizzare. Usa per forzare il modello a chiamare una funzione specifica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: funzione |
Yes | |
| function | object | Yes |
Proprietà della funzione
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Il nome della funzione da chiamare. |
ParallelToolCalls
Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento.
Nessuna proprietà definita per questo componente.
chatCompletionMessageToolCalls
Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.
Nessuna proprietà definita per questo componente.
chatCompletionFunctionCall
Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Il nome della funzione da chiamare. | Yes | |
| arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. | Yes |
completionUsage
Statistiche di utilizzo per la richiesta di completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Numero di gettoni nel prompt. | Yes | |
| completion_tokens | integer | Numero di gettoni nel completamento generato. | Yes | |
| total_tokens | integer | Numero totale di token utilizzati nella richiesta (prompt + completamento). | Yes | |
| completion_tokens_details | object | Suddivisione dei gettoni usati in una completazione. | No |
Proprietà per completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Token generati dal modello per ragionamento. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: funzione |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.
Omettere parameters definisce una funzione con una lista di parametri vuota.
Nessuna proprietà definita per questo componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| name | string | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema.
Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota. |
No | |
| strict | boolean | Se abilitare una rigorosa aderenza allo schema durante la generazione della chiamata di funzione. Se impostato su vero, il modello seguirà esattamente lo schema definito nel parameters campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di formato di risposta definito: textValori possibili: testo |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di formato di risposta definito: json_objectValori possibili: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.
Nessuna proprietà definita per questo componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di formato di risposta definito: json_schemaValori possibili: json_schema |
Yes | |
| json_schema | object | Yes |
Proprietà per json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | Una descrizione del motivo del formato di risposta, usata dal modello per determinare come rispondere nel formato. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Il nome del formato della risposta. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Se abilitare una rigorosa aderenza allo schema durante la generazione dell'output. Se impostato su vero, il modello seguirà sempre esattamente lo schema definito nel schema campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio da tradurre. | Yes | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
audioResponse
Risposta alla traduzione o trascrizione quando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo tradotto o trascritto. | Yes |
audioVerboseResponse
Risposta alla traduzione o trascrizione quando response_format era verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo tradotto o trascritto. | Yes | |
| task | string | Tipo di compito audio. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Definisce il formato dell'output.
Descrizione: Definisce il formato dell'output.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio oggetto da trascrivere. | Yes | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
| language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliorerà precisione e latenza. | No |
audioSegment
Segmento di trascrizione o traduzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Offset rispetto al segmento. | No | |
| start | number | Offset di inizio segmento. | No | |
| end | number | Offset di fine segmento. | No | |
| text | string | Segment text. | No | |
| tokens | array | Simboli del testo. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Probabilità logaritmica media. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Probabilità di no speech. |
No |
imageQuality
La qualità dell'immagine che verrà generata.
Descrizione: La qualità dell'immagine che verrà generata.
Type: string
Default: standard
Nome Enum: Quality
Enum Values:
| Value | Description |
|---|---|
| standard | La qualità standard crea immagini con qualità standard. |
| hd | La qualità HD crea immagini con dettagli più fini e maggiore coerenza su tutta l'immagine. |
imagesResponseFormat
Il formato in cui vengono restituite le immagini generate.
Descrizione: Il formato in cui vengono restituite le immagini generate.
Type: string
Default: url
Nome Enum: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | L'URL che fornisce un accesso temporaneo per scaricare le immagini generate. |
| b64_json | Le immagini generate vengono restituite come stringa codificata in base64. |
imageSize
La dimensione delle immagini generate.
Descrizione: La dimensione delle immagini generate.
Type: string
Default: 1024x1024
Nome Enum: Dimensione
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | La dimensione desiderata dell'immagine generata è 1792x1024 pixel. |
| 1024x1792 | La dimensione desiderata dell'immagine generata è 1024x1792 pixel. |
| 1024x1024 | La dimensione desiderata dell'immagine generata è 1024x1024 pixel. |
imageStyle
Lo stile delle immagini generate.
Descrizione: Lo stile delle immagini generate.
Type: string
Default: vivid
Nome Enum: Style
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid crea immagini iperrealistiche e drammatiche. |
| natural | Natural crea immagini più naturali e meno iperrealistiche. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 4.000 caratteri. | Yes | |
| n | integer | Il numero di immagini da generare. | No | 1 |
| size | imageSize | La dimensione delle immagini generate. | No | 1024x1024 |
| response_format | imagesResponseFormat | Il formato in cui vengono restituite le immagini generate. | No | url |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No | |
| quality | imageQuality | La qualità dell'immagine che verrà generata. | No | standard |
| style | imageStyle | Lo stile delle immagini generate. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Il timestamp di unix quando è stata creata l'operazione. | Yes | |
| data | array | I dati di risultato dell'operazione, se riusciti | Yes |
imageResult
L'URL dell'immagine o l'immagine codificata se riuscite, e un errore altrimenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | L'URL dell'immagine. | No | |
| b64_json | string | L'immagine codificata base64 | No | |
| content_filter_results | dalleContentFilterResults | Informazioni sui risultati del filtraggio dei contenuti. | No | |
| revised_prompt | string | Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. | No | |
| prompt_filter_results | dalleFilterResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. | No |
Completions extensions
Le estensioni di completamento non fanno parte dell'ultima versione GA della specifica di inferenza del piano dati di Azure OpenAI.
Chatmessage
L'oggetto messaggio Chat non fa parte dell'ultima versione GA della specifica di inferenza del piano dati di Azure OpenAI.
Sintesi vocali (Anteprima)
Attualmente non fa parte dell'ultima versione Azure OpenAI GA della specifica di inferenza Azure OpenAI data plane. Consulta l'ultima versione anteprima per questa funzionalità.
Next steps
Impara i modelli e il fine-tuning con l'API REST. Scopri di più sui modelli sottostante che alimentano Azure OpenAI.