Azure OpenAI in Microsoft Foundry Models riferimento REST API

Questo articolo fornisce dettagli sugli endpoint REST API di inferenza per Azure OpenAI.

API specs

La gestione e l'interazione con i modelli e le risorse OpenAI di Azure sono suddivise in tre superfici API principali:

  • Control plane
  • Piano dati - authoring
  • Piano dati - inferenza

Ogni superficie/specifica API racchiude un diverso insieme di funzionalità di Azure OpenAI. Ogni API ha un proprio set unico di versioni di anteprima e di API stabili/generalmente disponibili (GA). Le uscite in anteprima tendono attualmente a seguire un ritmo mensile.

Important

Ora esiste una nuova API di anteprima per inferenza. Scopri di più nella nostra guida al ciclo di vita delle API.

API Ultima pubblicazione di anteprima Ultima uscita di GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files L'API del piano di controllo viene utilizzata per operazioni come la creazione di risorse, il deployment dei modelli e altri compiti di gestione delle risorse di livello superiore. Il piano di controllo regola anche cosa è possibile fare con funzionalità come Azure Resource Manager, Bicep, Terraform e interfaccia della riga di comando di Azure.
Data plane v1 preview v1 Spec files L'API del piano dati controlla le operazioni di inferenza e authoring.

Authentication

Azure OpenAI fornisce due metodi di autenticazione. Puoi usare sia API Keys che Microsoft Entra ID.

  • Autenticazione della chiave API: Per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione api-key HTTP. Il Quickstart fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.

  • Microsoft Entra ID: Puoi autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come Authorization intestazione. Il token fornito deve essere preceduto da Bearer, ad esempio Bearer YOUR_AUTH_TOKEN. Puoi leggere la nostra guida pratica su autenticare con Microsoft Entra ID.

Versionamento delle API REST

Le API dei servizi sono versionate utilizzando il api-version parametro di query. Tutte le versioni seguono la struttura delle date YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenza del piano dati

Il resto dell'articolo tratta la release GA della specifica di inferenza Azure OpenAI data plane 2024-10-21.

Se stai cercando documentazione sull'ultima versione dell'API di anteprima, consulta l'ultima API di inferenza dati dei piani di anteprima

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Crea un completamento per il prompt fornito, i parametri e il modello scelto.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID di distribuzione del modello che è stato implementato.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt stringa o array Il/i prompt/i per generare completi, codificati come stringa, array di stringhe, array di token o array di token.

Nota che <|endoftext|> è il separatore del documento che il modello vede durante l'addestramento, quindi se non viene specificato un prompt, il modello verrà generato come se fosse dall'inizio di un nuovo documento.
Yes
best_of integer Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.

Quando usato con n, best_of controlla il numero di completamenti candidati e n specifica quante restituire â€" best_of devono essere maggiori di n.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
echo boolean Ripeti il prompt oltre al completamento
No False
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.

Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato.
No None
logprobs integer Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.

Il valore massimo per logprobs è 5.
No None
max_tokens integer Il numero massimo di token che possono essere generati nel completamento.

Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello.
No 16
n integer Quante completazioni generare per ogni prompt.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
seed integer Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.

Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
stop stringa o array Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.
No
stream boolean Se riportare indietro un progresso parziale. Se impostato, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. No False
suffix string Il suffisso che arriva dopo il completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta streamati che quelli non streamati condividono la stessa forma (a differenza dell'endpoint chat).

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea un completamento per il prompt fornito, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Ottieni una rappresentazione vettoriale di un dato input che possa essere facilmente consumata da modelli e algoritmi di machine learning.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
input stringa o array Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'ingresso non deve superare il massimo dei token di ingresso per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota, e qualsiasi array deve avere 2.048 dimensioni o meno. Yes
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No
input_type string Tipo di input di ricerca embedding da utilizzare No
encoding_format string Il formato per restituire gli embedding. Può essere uno o base64l'altro float o . Di default è float. No
dimensions integer Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. No

Responses

Name Type Description Required Default
object string Yes
model string Yes
data array Yes
usage object Yes

Proprietà per l'uso

prompt_tokens

Name Type Description Default
prompt_tokens integer

total_tokens

Name Type Description Default
total_tokens integer

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Restituisci gli embeddings per un determinato prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Crea una completazione per il messaggio della chat

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID di distribuzione del modello che è stato implementato.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
stream boolean Se impostato, verranno inviati delta parziali del messaggio, come in ChatGPT. I token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. No False
stop stringa o array Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token.
No
max_tokens integer Il numero massimo di token che possono essere generati nel completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello.
No
max_completion_tokens integer Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. No
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.
No None
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No
messages array Un elenco dei messaggi che compongono la conversazione finora. Yes
data_sources array Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
No
logprobs boolean Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message No False
top_logprobs integer Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata. logprobs deve essere impostato a true se questo parametro viene utilizzato. No
n integer Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di token generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. No 1
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponderà allo schema JSON fornito.

Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
seed integer Questa funzione è in fase Beta.
Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.
Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
tools array Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni.
No
tool_choice chatCompletionToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti. No
function_call stringa o chatCompletionFunctionCallOption Deprecato a favore di tool_choice.

Controlla quale funzione (se ce n'è) chiamata dal modello.
none significa che il modello non chiamerà una funzione ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

none è il valore predefinito quando non sono presenti funzioni. auto è la predefinita se sono presenti delle funzioni.
No
functions array Deprecato a favore di tools.

Un elenco delle funzioni per cui il modello può generare input JSON.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json createChatCompletionResponse o createChatCompletionStreamResponse

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea un completamento per il prompt fornito, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati di ricerca Azure e sull'identità gestita assegnata al sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati vettoriali di ricerca Azure, sul messaggio dell'assistente precedente e sull'identità gestita assegnata dall'utente.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per il Azure Cosmos DB fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Trascrizioni - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Trascrive l'audio nella lingua di input.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID di distribuzione del modello vocale a testo.

Per informazioni sui modelli supportati, vedi [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Il file audio oggetto da trascrivere. Yes
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0
language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliorerà precisione e latenza. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json audioRisposta o audioVerboseResponse
text/plain string Testo trascritto nel formato di uscita (quando response_format era di testo, vtt o srt).

Examples

Example

Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduzioni - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Trascrive e traduce l'audio in ingresso in testo inglese.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID di distribuzione del modello whisper che è stato implementato.

Per informazioni sui modelli supportati, vedi [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Il file audio da tradurre. Yes
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json audioRisposta o audioVerboseResponse
text/plain string Testo trascritto nel formato di uscita (quando response_format era di testo, vtt o srt).

Examples

Example

Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Genera un lotto di immagini da una didascalia di testo su una data distribuzione del modello dall-e

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID di implementazione del modello dall-e che è stato implementato.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 4.000 caratteri. Yes
n integer Il numero di immagini da generare. No 1
size imageSize La dimensione delle immagini generate. No 1024x1024
response_format imagesResponseFormat Il formato in cui vengono restituite le immagini generate. No url
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No
quality imageQuality La qualità dell'immagine che verrà generata. No standard
style imageStyle Lo stile delle immagini generate. No vivid

Responses

Codice di stato: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Codice di stato: predefinito

Descrizione: Si è verificato un errore.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crea immagini con un prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Risposte: Codice di stato: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
param string No
type string No
inner_error innerError Errore interiore con ulteriori dettagli. No

innerError

Errore interiore con ulteriori dettagli.

Name Type Description Required Default
code innerErrorCode Codici di errore per l'oggetto di errore interno. No
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. No

innerErrorCode

Codici di errore per l'oggetto di errore interno.

Descrizione: Codici di errore per l'oggetto di errore interno.

Type: string

Default:

Nome Enum: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation Il prompt violava una delle altre regole del filtro dei contenuti.

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
param string No
type string No
inner_error dalleInnerError Errore interiore con ulteriori dettagli. No

dalleInnerError

Errore interiore con ulteriori dettagli.

Name Type Description Required Default
code innerErrorCode Codici di errore per l'oggetto di errore interno. No
content_filter_results dalleFilterResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. No
revised_prompt string Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. No

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No

Proprietà della citazione

URL

Name Type Description Default
URL string

license

Name Type Description Default
license string

contentFilterResultsBase

Informazioni sui risultati del filtraggio dei contenuti.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni su testi di terze parti e parolacce, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Filtraggio dei contenuti risulta per un singolo prompt nella richiesta.

Name Type Description Required Default
prompt_index integer No
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. No

promptFilterResults

Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti.

Nessuna proprietà definita per questo componente.

dalleContentFilterResults

Informazioni sui risultati del filtraggio dei contenuti.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Type Description Required Default
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
stream boolean Se impostato, verranno inviati delta parziali del messaggio, come in ChatGPT. I token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. No False
stop stringa o array Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. No
max_tokens integer Il numero massimo di token consentito per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token prompt). Questo valore è ora deprecato a favore di max_completion_tokens, e non è compatibile con i modelli della serie O1. No 4096
max_completion_tokens integer Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. No
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. No 0
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto json che mappa i token (specificati dal loro ID token nel tokenizer) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. No
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare Azure OpenAI a monitorare e rilevare abusi. No

createCompletionRequest

Name Type Description Required Default
prompt stringa o array Il/i prompt/i per generare completi, codificati come stringa, array di stringhe, array di token o array di token.

Nota che <|endoftext|> è il separatore del documento che il modello vede durante l'addestramento, quindi se non viene specificato un prompt, il modello verrà generato come se fosse dall'inizio di un nuovo documento.
Yes
best_of integer Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.

Quando usato con n, best_of controlla il numero di completamenti candidati e n specifica quante restituire â€" best_of devono essere maggiori di n.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
echo boolean Ripeti il prompt oltre al completamento
No False
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.

Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato.
No None
logprobs integer Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà un elenco dei cinque token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.

Il valore massimo per logprobs è 5.
No None
max_tokens integer Il numero massimo di token che possono essere generati nel completamento.

Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello.
No 16
n integer Quante completazioni generare per ogni prompt.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
seed integer Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.

Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
stop stringa o array Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.
No
stream boolean Se riportare indietro un progresso parziale. Se impostato, i token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. No False
suffix string Il suffisso che arriva dopo il completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No

createCompletionResponse

Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta streamati che quelli non streamati condividono la stessa forma (a differenza dell'endpoint chat).

Name Type Description Required Default
id string Un identificatore unico per il completamento. Yes
choices array L'elenco delle scelte di completamento generato dal modello per il prompt di input. Yes
created integer Il timestamp Unix (in secondi) di quando è stato creato il completamento. Yes
model string Il modello utilizzato per il completamento. Yes
prompt_filter_results promptFilterResults Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. No
system_fingerprint string Questa impronta rappresenta la configurazione backend con cui il modello gira.

Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo.
No
object enum Il tipo di oggetto, che è sempre "text_completion"
Valori possibili: text_completion
Yes
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. No

createChatCompletionRequest

Name Type Description Required Default
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
stream boolean Se impostato, verranno inviati delta parziali del messaggio, come in ChatGPT. I token verranno inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. No False
stop stringa o array Fino a quattro sequenze in cui l'API smetterà di generare ulteriori token.
No
max_tokens integer Il numero massimo di token che possono essere generati nel completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello.
No
max_completion_tokens integer Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. No
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varierà a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.
No None
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No
messages array Un elenco dei messaggi che compongono la conversazione finora. Yes
data_sources array Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
No
logprobs boolean Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message No False
top_logprobs integer Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata. logprobs deve essere impostato a true se questo parametro viene utilizzato. No
n integer Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di token generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. No 1
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponderà allo schema JSON fornito.

Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
seed integer Questa funzione è in fase Beta.
Se specificato, il nostro sistema farà il miglior sforzo per campionare deterministicamente, in modo che le richieste ripetute con gli stessi seed parametri e restituiscano lo stesso risultato.
Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
tools array Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni.
No
tool_choice chatCompletionToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti. No
function_call stringa o chatCompletionFunctionCallOption Deprecato a favore di tool_choice.

Controlla quale funzione (se ce n'è) chiamata dal modello.
none significa che il modello non chiamerà una funzione ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

none è il valore predefinito quando non sono presenti funzioni. auto è la predefinita se sono presenti delle funzioni.
No
functions array Deprecato a favore di tools.

Un elenco delle funzioni per cui il modello può generare input JSON.
No

chatCompletionFunctions

Name Type Description Required Default
description string Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
name string Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. Yes
parameters FunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Omettere parameters definisce una funzione con una lista di parametri vuota.
No

chatCompletionFunctionCallOption

Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

Name Type Description Required Default
name string Il nome della funzione da chiamare. Yes

chatCompletionRequestMessage

Questo componente può essere uno dei seguenti:

chatCompletionRequestSystemMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio di sistema. Yes
role enum Il ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: sistema
Yes
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No

chatCompletionRequestUserMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio utente.
Yes
role enum Il ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: utente
Yes
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio dell'assistente. Richiesto a meno che tool_calls non venga specificato.function_call
No
refusal string Il messaggio di rifiuto dell'assistente. No
role enum Il ruolo dell'autore dei messaggi, in questo caso assistant.
Possibili valori: assistente
Yes
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
tool_calls chatCompletionMessageToolCalls Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. No
function_call object Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. No

Proprietà per function_call

arguments

Name Type Description Default
arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione.

name

Name Type Description Default
name string Il nome della funzione da chiamare.

chatCompletionRequestToolMessage

Name Type Description Required Default
role enum Il ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: strumento
Yes
content stringa o array Il contenuto del messaggio dello strumento. Yes
tool_call_id string Chiamata dello strumento a cui questo messaggio sta rispondendo. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
role enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: funzione
Yes
content string Il contenuto del messaggio funzionale. Yes
name string Il nome della funzione da chiamare. Yes

chatCompletionRequestSystemMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestUserMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestAssistantMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestToolMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
type enum La parte del tipo di contenuto.
Valori possibili: testo
Yes
text string Il contenuto del testo. Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
type enum La parte del tipo di contenuto.
Valori possibili: image_url
Yes
image_url object Yes

Proprietà per image_url

url

Name Type Description Default
url string O un URL dell'immagine o i dati dell'immagine codificata in base64.

detail

Name Type Description Default
detail string Specifica il livello di dettaglio dell'immagine. Scopri di più nella guida Vision. auto

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
type enum La parte del tipo di contenuto.
Valori possibili: rifiuto
Yes
refusal string Il messaggio di rifiuto generato dal modello. Yes

azureChatExtensionConfiguration

Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo verrà usato da una chat
completions richiedono che dovrebbero utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureChatExtensionType

Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Description: Una rappresentazione dei dati di configurazione per una singola estensione di chat OpenAI Azure. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Type: string

Default:

Enum Name: AzureChatExtensionType

Enum Values:

Value Description
azure_search Rappresenta l'uso di Azure Search come estensione di chat di Azure OpenAI.
azure_cosmos_db Rappresenta l'uso di Azure Cosmos DB come estensione di chat di Azure OpenAI.

azureSearchChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Azure Search quando lo si utilizza come estensione di chat OpenAI di Azure.

Name Type Description Required Default
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo verrà usato da una chat
completions richiedono che dovrebbero utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes
parameters azureSearchChatExtensionParameters Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI. No

azureSearchChatExtensionParameters

Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptionsoppure onYourDataSystemAssignedManaged IdentityAuthenticationOptionsoppure onYourDataUserAssignedManagedIdentityAuthenticationOptions Yes
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
role_information string Fornisci al modello istruzioni su come dovrebbe comportarsi e qualsiasi contesto che dovrebbe consultare quando genera una risposta. Puoi descrivere la personalità dell'assistente e spiegargli come formattare le risposte. C'è un limite di 100 token per questo, e conta contro il limite complessivo di token. No
endpoint string Il percorso finale assoluto per la risorsa di ricerca Azure da utilizzare. Yes
index_name string Il nome dell'indice da utilizzare è disponibile nella risorsa Azure Search citata. Yes
fields_mapping azureSearchIndexFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata. No
query_type azureSearchQueryType Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. No
semantic_configuration string La configurazione semantica aggiuntiva per la query. No
filter string Search filter. No
embedding_dependency onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata.

Name Type Description Required Default
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No
filepath_field string Il nome del campo indice da usare come percorso file. No
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. No
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
vector_fields array I nomi dei campi che rappresentano dati vettoriali. No

azureSearchQueryType

Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.

Description: Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat Azure OpenAI.

Type: string

Default:

Enum Name: AzureSearchQueryType

Enum Values:

Value Description
simple Rappresenta il parser di query predefinito e semplice.
semantic Rappresenta il parser semantico delle query per la modellazione semantica avanzata.
vector Rappresenta la ricerca vettoriale su dati calcolati.
vector_simple_hybrid Rappresenta una combinazione della strategia di query semplice con dati vettoriali.
vector_semantic_hybrid Rappresenta una combinazione di ricerca semantica e interrogazione di dati vettoriali.

azureCosmosDBChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando lo si utilizza come estensione chat di Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo verrà usato da una chat
completions richiedono che dovrebbero utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes
parameters azureCosmosDBChatExtensionParameters Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore.

Name Type Description Required Default
authentication onYourDataConnectionStringAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione. Yes
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
role_information string Fornisci al modello istruzioni su come dovrebbe comportarsi e qualsiasi contesto che dovrebbe consultare quando genera una risposta. Puoi descrivere la personalità dell'assistente e spiegargli come formattare le risposte. C'è un limite di 100 token per questo, e conta contro il limite complessivo di token. No
database_name string Il nome del database MongoDB vCore da usare con Azure Cosmos DB. Yes
container_name string Il nome del container di risorse Azure Cosmos DB. Yes
index_name string Il nome dell'indice MongoDB vCore da usare con Azure Cosmos DB. Yes
fields_mapping azureCosmosDBFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata. Yes
embedding_dependency onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource Yes

azureCosmosDBFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata.

Name Type Description Required Default
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No
filepath_field string Il nome del campo indice da usare come percorso file. No
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. Yes
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
vector_fields array I nomi dei campi che rappresentano dati vettoriali. Yes

onYourDataAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati.

Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataAuthenticationType

I tipi di autenticazione supportati da Azure OpenAI On Your Data.

Description: I tipi di autenticazione supportati da Azure OpenAI On Your Data.

Type: string

Default:

Nome Enum: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Autenticazione tramite chiave API.
connection_string Autenticazione tramite stringa di connessione.
system_assigned_managed_identity Autenticazione tramite identità gestita assegnata al sistema.
user_assigned_managed_identity Autenticazione tramite identità gestita assegnata dall'utente.

onYourDataApiKeyAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API.

Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes
key string La chiave API da usare per l'autenticazione. No

onYourDataConnectionStringAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione.

Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes
connection_string string La stringa di connessione da usare per l'autenticazione. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata al sistema.

Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata dall'utente.

Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes
managed_identity_resource_id string L'ID risorsa dell'identità gestita assegnata dall'utente da utilizzare per l'autenticazione. No

onYourDataVectorizationSource

Una rappresentazione astratta di una sorgente di vettorizzazione per Azure OpenAI sui tuoi dati con ricerca vettoriale.

Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con
vector search.
Yes

onYourDataVectorizationSourceType

Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale.

Description: Rappresenta le fonti disponibili Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con
vector search.

Type: string

Default:

Nome enum: OnYourDataVectorizationSourceType

Enum Values:

Value Description
endpoint Rappresenta la vettorizzazione effettuata tramite chiamate di servizio pubblico a un modello di embedding Azure OpenAI.
deployment_name Rappresenta il nome di un modello di distribuzione Ada da utilizzare. La distribuzione di questo modello deve essere nella stessa risorsa Azure OpenAI, ma
On Your Data utilizzerà questo modello tramite una chiamata interna anziché pubblica, che abilita il vettore
Cerca anche nelle reti private.

onYourDataDeploymentNameVectorizationSource

I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un nome di deployment interno di un modello di embedding nella stessa risorsa Azure OpenAI.

Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con
vector search.
Yes
deployment_name string Specifica il nome del deployment del modello da utilizzare per la vettorizzazione. Questa distribuzione del modello deve avvenire nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questa distribuzione tramite una chiamata interna anziché pubblica, che consente la ricerca vettoriale anche nelle reti private. No

onYourDataEndpointVectorizationSource

I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando applica la ricerca vettoriale, basata su una chiamata endpoint pubblica di Azure OpenAI per gli embedding.

Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con
vector search.
Yes
authentication onYourDataApiKeyAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API. No
endpoint string Specifica l'endpoint da utilizzare per la vettorizzazione. Questo endpoint deve trovarsi nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questo endpoint tramite una chiamata interna anziché pubblica, che consente la ricerca vettoriale anche nelle reti private. No

azureChatExtensionsMessageContext

Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando le estensioni di chat di Azure OpenAI sono coinvolte nella generazione di una risposta corrispondente alle chat completes. Queste informazioni contestuali vengono inserite solo quando si utilizza una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente.

Name Type Description Required Default
citations array Il risultato del recupero della sorgente dati, utilizzato per generare il messaggio assistente nella risposta. No
intent string L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo e trasmettere il contesto. No

citation

Informazioni di citazione per un messaggio di risposta al completamento della chat.

Name Type Description Required Default
content string Il contenuto della citazione. Yes
title string Il titolo della citazione. No
url string L'URL della citazione. No
filepath string Il percorso del file della citazione. No
chunk_id string L'ID del blocco della citazione. No

chatCompletionMessageToolCall

Name Type Description Required Default
id string L'ID della chiamata dello strumento. Yes
type toolCallType Il tipo di chiamata dello strumento, in questo caso function. Yes
function object La funzione che il modello ha chiamato. Yes

Proprietà della funzione

name

Name Type Description Default
name string Il nome della funzione da chiamare.

arguments

Name Type Description Default
arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione.

toolCallType

Il tipo di chiamata dello strumento, in questo caso function.

Descrizione: Il tipo di chiamata dello strumento, in questo caso function.

Type: string

Default:

Nome enum: ToolCallType

Enum Values:

Value Description
function Il tipo di chiamata dello strumento è funzione.

chatCompletionRequestMessageTool

Name Type Description Required Default
tool_call_id string Chiamata dello strumento a cui questo messaggio sta rispondendo. No
content string Il contenuto del messaggio. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
role enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: funzione
No
name string Il contenuto del messaggio. No
content string Il contenuto del messaggio. No

createChatCompletionResponse

Rappresenta una risposta di completamento della chat restituita dal modello, basata sull'input fornito.

Name Type Description Required Default
id string Un identificatore unico per il completamento della chat. Yes
prompt_filter_results promptFilterResults Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. No
choices array Una lista delle opzioni per completare la chat. Può essere più di uno se n è maggiore di 1. Yes
created integer Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. Yes
model string Il modello usato per completare la chat. Yes
system_fingerprint string Questa impronta rappresenta la configurazione backend con cui il modello gira.

Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo.
No
object enum Il tipo di oggetto, che è sempre chat.completion.
Valori possibili: chat.completion
Yes
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. No

createChatCompletionStreamResponse

Rappresenta un blocco streamlato di una risposta di completamento della chat restituita dal modello, basato sull'input fornito.

Name Type Description Required Default
id string Un identificatore unico per il completamento della chat. Ogni blocco ha lo stesso ID. Yes
choices array Una lista delle opzioni per completare la chat. Può contenere più di un elemento se n è maggiore di 1.
Yes
created integer Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. Ogni blocco ha lo stesso timestamp. Yes
model string Il modello per generare la completezza. Yes
system_fingerprint string Questa impronta rappresenta la configurazione backend con cui il modello gira.
Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo.
No
object enum Il tipo di oggetto, che è sempre chat.completion.chunk.
Valori possibili: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Un delta di completamento della chat generato dalle risposte del modello in streaming.

Name Type Description Required Default
content string Il contenuto del messaggio a pezzi. No
function_call object Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. No
tool_calls array No
role enum Il ruolo dell'autore di questo messaggio.
Valori possibili: sistema, utente, assistente, strumento
No
refusal string Il messaggio di rifiuto generato dal modello. No

Proprietà per function_call

arguments

Name Type Description Default
arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione.

name

Name Type Description Default
name string Il nome della funzione da chiamare.

chatCompletionMessageToolCallChunk

Name Type Description Required Default
index integer Yes
id string L'ID della chiamata dello strumento. No
type enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: funzione
No
function object No

Proprietà della funzione

name

Name Type Description Default
name string Il nome della funzione da chiamare.

arguments

Name Type Description Default
arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione.

chatCompletionStreamOptions

Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.

Name Type Description Required Default
include_usage boolean Se impostato, un ulteriore chunk verrà trasmesso prima del data: [DONE] messaggio. Il usage campo su questo chunk mostra le statistiche di utilizzo dei token per l'intera richiesta, e il choices campo sarà sempre un array vuoto. Tutti gli altri chunk includeranno anch'essi un usage campo, ma con valore nullo.
No

chatCompletionChoiceLogProbs

Registra le informazioni di probabilità per la scelta.

Name Type Description Required Default
content array Un elenco dei token di contenuto dei messaggi con informazioni sulla probabilità log. Yes
refusal array Un elenco di token di rifiuto di messaggi con informazioni di probabilità logaritaria. No

chatCompletionTokenLogprob

Name Type Description Required Default
token string The token. Yes
logprob number La probabilità logaritmica di questo token. Yes
bytes array Un elenco di interi che rappresenta la rappresentazione UTF-8 byte del token. Utile in situazioni in cui i caratteri sono rappresentati da più token e le loro rappresentazioni in byte devono essere combinate per generare la rappresentazione testuale corretta. Può esserlo null se non c'è una rappresentazione in byte per il token. Yes
top_logprobs array Elenco dei token più probabili e della loro probabilità logarithmita, in questa posizione del token. In rari casi, potrebbero esserci meno del numero di richieste top_logprobs restituite. Yes

chatCompletionResponseMessage

Un messaggio di completamento della chat generato dal modello.

Name Type Description Required Default
role chatCompletionResponseMessageRole Il ruolo dell'autore del messaggio di risposta. Yes
refusal string Il messaggio di rifiuto generato dal modello. Yes
content string Il contenuto del messaggio. Yes
tool_calls array Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. No
function_call chatCompletionFunctionCall Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. No
context azureChatExtensionsMessageContext Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando sono coinvolte estensioni di chat di Azure OpenAI
nella generazione di una corrispondente risposta di completamento della chat. Queste informazioni contestuali vengono popolate solo quando
utilizzando una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente.
No

chatCompletionResponseMessageRole

Il ruolo dell'autore del messaggio di risposta.

Descrizione: Il ruolo dell'autore del messaggio di risposta.

Type: string

Default:

Enum Values:

  • assistant

chatCompletionToolChoiceOption

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti.

Questo componente può essere uno dei seguenti:

chatCompletionNamedToolChoice

Specifica uno strumento che il modello dovrebbe utilizzare. Usa per forzare il modello a chiamare una funzione specifica.

Name Type Description Required Default
type enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: funzione
Yes
function object Yes

Proprietà della funzione

name

Name Type Description Default
name string Il nome della funzione da chiamare.

ParallelToolCalls

Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento.

Nessuna proprietà definita per questo componente.

chatCompletionMessageToolCalls

Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.

Nessuna proprietà definita per questo componente.

chatCompletionFunctionCall

Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello.

Name Type Description Required Default
name string Il nome della funzione da chiamare. Yes
arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può generare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. Yes

completionUsage

Statistiche di utilizzo per la richiesta di completamento.

Name Type Description Required Default
prompt_tokens integer Numero di gettoni nel prompt. Yes
completion_tokens integer Numero di gettoni nel completamento generato. Yes
total_tokens integer Numero totale di token utilizzati nella richiesta (prompt + completamento). Yes
completion_tokens_details object Suddivisione dei gettoni usati in una completazione. No

Proprietà per completion_tokens_details

reasoning_tokens

Name Type Description Default
reasoning_tokens integer Token generati dal modello per ragionamento.

chatCompletionTool

Name Type Description Required Default
type enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: funzione
Yes
function FunctionObject Yes

FunctionParameters

I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Omettere parameters definisce una funzione con una lista di parametri vuota.

Nessuna proprietà definita per questo componente.

FunctionObject

Name Type Description Required Default
description string Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
name string Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. Yes
parameters FunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Omettere parameters definisce una funzione con una lista di parametri vuota.
No
strict boolean Se abilitare una rigorosa aderenza allo schema durante la generazione della chiamata di funzione. Se impostato su vero, il modello seguirà esattamente lo schema definito nel parameters campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. No False

ResponseFormatText

Name Type Description Required Default
type enum Il tipo di formato di risposta definito: text
Valori possibili: testo
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Il tipo di formato di risposta definito: json_object
Valori possibili: json_object
Yes

ResponseFormatJsonSchemaSchema

Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.

Nessuna proprietà definita per questo componente.

ResponseFormatJsonSchema

Name Type Description Required Default
type enum Il tipo di formato di risposta definito: json_schema
Valori possibili: json_schema
Yes
json_schema object Yes

Proprietà per json_schema

description

Name Type Description Default
description string Una descrizione del motivo del formato di risposta, usata dal modello per determinare come rispondere nel formato.

name

Name Type Description Default
name string Il nome del formato della risposta. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64.

schema

Name Type Description Default
schema ResponseFormatJsonSchemaSchema Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.

strict

Name Type Description Default
strict boolean Se abilitare una rigorosa aderenza allo schema durante la generazione dell'output. Se impostato su vero, il modello seguirà sempre esattamente lo schema definito nel schema campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. False

chatCompletionChoiceCommon

Name Type Description Required Default
index integer No
finish_reason string No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Il file audio da tradurre. Yes
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0

audioResponse

Risposta alla traduzione o trascrizione quando response_format era json

Name Type Description Required Default
text string Testo tradotto o trascritto. Yes

audioVerboseResponse

Risposta alla traduzione o trascrizione quando response_format era verbose_json

Name Type Description Required Default
text string Testo tradotto o trascritto. Yes
task string Tipo di compito audio. No
language string Language. No
duration number Duration. No
segments array No

audioResponseFormat

Definisce il formato dell'output.

Descrizione: Definisce il formato dell'output.

Type: string

Default:

Enum Values:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Il file audio oggetto da trascrivere. Yes
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizzerà la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0
language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliorerà precisione e latenza. No

audioSegment

Segmento di trascrizione o traduzione.

Name Type Description Required Default
id integer Segment identifier. No
seek number Offset rispetto al segmento. No
start number Offset di inizio segmento. No
end number Offset di fine segmento. No
text string Segment text. No
tokens array Simboli del testo. No
temperature number Temperature. No
avg_logprob number Probabilità logaritmica media. No
compression_ratio number Compression ratio. No
no_speech_prob number Probabilità di no speech. No

imageQuality

La qualità dell'immagine che verrà generata.

Descrizione: La qualità dell'immagine che verrà generata.

Type: string

Default: standard

Nome Enum: Quality

Enum Values:

Value Description
standard La qualità standard crea immagini con qualità standard.
hd La qualità HD crea immagini con dettagli più fini e maggiore coerenza su tutta l'immagine.

imagesResponseFormat

Il formato in cui vengono restituite le immagini generate.

Descrizione: Il formato in cui vengono restituite le immagini generate.

Type: string

Default: url

Nome Enum: ImagesResponseFormat

Enum Values:

Value Description
url L'URL che fornisce un accesso temporaneo per scaricare le immagini generate.
b64_json Le immagini generate vengono restituite come stringa codificata in base64.

imageSize

La dimensione delle immagini generate.

Descrizione: La dimensione delle immagini generate.

Type: string

Default: 1024x1024

Nome Enum: Dimensione

Enum Values:

Value Description
1792x1024 La dimensione desiderata dell'immagine generata è 1792x1024 pixel.
1024x1792 La dimensione desiderata dell'immagine generata è 1024x1792 pixel.
1024x1024 La dimensione desiderata dell'immagine generata è 1024x1024 pixel.

imageStyle

Lo stile delle immagini generate.

Descrizione: Lo stile delle immagini generate.

Type: string

Default: vivid

Nome Enum: Style

Enum Values:

Value Description
vivid Vivid crea immagini iperrealistiche e drammatiche.
natural Natural crea immagini più naturali e meno iperrealistiche.

imageGenerationsRequest

Name Type Description Required Default
prompt string Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 4.000 caratteri. Yes
n integer Il numero di immagini da generare. No 1
size imageSize La dimensione delle immagini generate. No 1024x1024
response_format imagesResponseFormat Il formato in cui vengono restituite le immagini generate. No url
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No
quality imageQuality La qualità dell'immagine che verrà generata. No standard
style imageStyle Lo stile delle immagini generate. No vivid

generateImagesResponse

Name Type Description Required Default
created integer Il timestamp di unix quando è stata creata l'operazione. Yes
data array I dati di risultato dell'operazione, se riusciti Yes

imageResult

L'URL dell'immagine o l'immagine codificata se riuscite, e un errore altrimenti.

Name Type Description Required Default
url string L'URL dell'immagine. No
b64_json string L'immagine codificata base64 No
content_filter_results dalleContentFilterResults Informazioni sui risultati del filtraggio dei contenuti. No
revised_prompt string Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. No
prompt_filter_results dalleFilterResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti, se è stata filtrata e il suo id. No

Completions extensions

Le estensioni di completamento non fanno parte dell'ultima versione GA della specifica di inferenza del piano dati di Azure OpenAI.

Chatmessage

L'oggetto messaggio Chat non fa parte dell'ultima versione GA della specifica di inferenza del piano dati di Azure OpenAI.

Sintesi vocali (Anteprima)

Attualmente non fa parte dell'ultima versione Azure OpenAI GA della specifica di inferenza Azure OpenAI data plane. Consulta l'ultima versione anteprima per questa funzionalità.

Next steps

Impara i modelli e il fine-tuning con l'API REST. Scopri di più sui modelli sottostante che alimentano Azure OpenAI.