Azure OpenAI in Microsoft Foundry Models REST API preview reference

Questo articolo fornisce dettagli sugli endpoint REST API di inferenza per Azure OpenAI.

API specs

La gestione e l'interazione con i modelli e le risorse OpenAI di Azure sono suddivise in tre superfici API principali:

  • Control plane
  • Piano dati - authoring
  • Piano dati - inferenza

Ogni superficie/specifica API racchiude un diverso insieme di funzionalità di Azure OpenAI. Ogni API ha un proprio set unico di versioni di anteprima e di API stabili/generalmente disponibili (GA). Le uscite in anteprima tendono attualmente a seguire un ritmo mensile.

Important

Ora esiste una nuova API di anteprima per inferenza. Scopri di più nella nostra guida al ciclo di vita delle API.

API Ultima pubblicazione di anteprima Ultima uscita di GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files L'API del piano di controllo viene utilizzata per operazioni come la creazione di risorse, il deployment dei modelli e altri compiti di gestione delle risorse di livello superiore. Il piano di controllo regola anche cosa è possibile fare con funzionalità come Azure Resource Manager, Bicep, Terraform e interfaccia della riga di comando di Azure.
Data plane v1 preview v1 Spec files L'API del piano dati controlla le operazioni di inferenza e authoring.

Authentication

Azure OpenAI fornisce due metodi di autenticazione. Puoi usare sia API Keys che Microsoft Entra ID.

  • Autenticazione della chiave API: Per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione api-key HTTP. Il Quickstart fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.

  • Microsoft Entra ID: Puoi autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come Authorization intestazione. Il token fornito deve essere preceduto da Bearer, ad esempio Bearer YOUR_AUTH_TOKEN. Puoi leggere la nostra guida pratica su autenticare con Microsoft Entra ID.

Versionamento delle API REST

Le API dei servizi sono versionate utilizzando il api-version parametro di query. Tutte le versioni seguono la struttura delle date YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenza del piano dati

Il resto dell'articolo tratta la versione preliminare 2025-04-01-preview della specifica di inferenza Azure OpenAI data plane.

Se stai cercando documentazione sull'ultima release dell'API GA, consulta l'ultima API di inferenza dei piani dati GA

Completamenti - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Crea un completamento per il prompt fornito, i parametri e il modello scelto.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
best_of integer Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.

Quando usato con n, best_of controlla il numero di candidati completi e n specifica quante restituire ââ'¬â€œ best_of devono essere maggiori di n.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
echo boolean Ripeti il prompt oltre al completamento No False
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.

Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato.
No None
logprobs integer Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituisce una lista dei 5 token più probabili. L'API restituisce sempre il logprob token campionato, quindi possono esserci fino a un logprobs+1 massimo di elementi nella risposta.

Il valore massimo per logprobs è 5.
No None
max_tokens integer Il numero massimo di token che possono essere generati nel completamento.

Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello.
No 16
n integer Quante completazioni generare per ogni prompt.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. No 0
prompt stringa o array Il prompt per generare completazioni per , codificato come stringa, array di stringhe, array di token o array di token.

Si noti che <|endoftext|> è il separatore di documento che il modello vede durante l'addestramento, quindi se un prompt non viene specificato, il modello viene generato come se fosse dall'inizio di un nuovo documento.
Yes
seed integer Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.

Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
stop stringa o array Fino a quattro sequenze in cui l'API smette di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop. No
stream boolean Se riportare indietro un progresso parziale. Se impostati, i token vengono inviati come eventi inviati solo dai dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Esempio Python codice.
No False
suffix string Il suffisso che arriva dopo il completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 la rendono più focalizzata e deterministica.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea un completamento per il prompt fornito, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Ottieni una rappresentazione vettoriale di un dato input che possa essere facilmente consumata da modelli e algoritmi di machine learning.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string L'ID di distribuzione del modello che è stato implementato.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. No
encoding_format string Il formato per restituire gli embedding. Può essere uno o base64l'altro float o . Di default è float. No
input stringa o array Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'ingresso non deve superare il massimo dei token di ingresso per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota, e qualsiasi array deve avere 2.048 dimensioni o meno. Yes
input_type string Tipo di input di ricerca embedding da utilizzare No
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Restituisci gli embeddings per un determinato prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Completamento delle chat - Crea

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Crea una completazione per il messaggio della chat

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Parametri per l'uscita audio. Richiesto quando l'uscita audio viene richiesta con modalities: ["audio"]. No
└─ format enum Specifica il formato audio in uscita. Deve essere uno di wav, mp3, flac, opus, o pcm16.

Valori possibili: wav, mp3, flac, opus, pcm16
No
└─ voice enum Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, nova, e shimmer.

Valori possibili: alloy, echo, fable, onyx, nova, shimmer
No
data_sources array Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
No
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
function_call stringa o chatCompletionFunctionCallOption Deprecato a favore di tool_choice.

Controlla quale funzione (se ce n'è) chiamata dal modello.
none significa che il modello non chiamerà una funzione ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

none è il valore predefinito quando non sono presenti funzioni. auto è la predefinita se sono presenti delle funzioni.
No
functions array Deprecato a favore di tools.

Un elenco delle funzioni per cui il modello può generare input JSON.
No
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.
No None
logprobs boolean Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message No False
max_completion_tokens integer Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. No
max_tokens integer Il numero massimo di token che possono essere generati nel completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello.
No
messages array Un elenco dei messaggi che compongono la conversazione finora. Esempio Python codice. Yes
metadata object Tag e valori definiti dagli sviluppatori usati per filtrare le completazioni nella dashboard delle completions memorizzate. No
modalities ChatCompletionModalities Tipi di output che vorresti che il modello generasse per questa richiesta.
La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:

["text"]

Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:

["text", "audio"]
No
n integer Quante opzioni di completamento della chat generare per ogni messaggio di input. Verrai addebitato in base al numero di gettoni generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. No 1
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
prediction PredictionContent Configurazione per un Output Previsto, che può migliorare notevolmente i tempi di risposta quando gran parte della risposta del modello è nota in anticipo. Questo è più comune quando rigeneri un file con solo modifiche minori alla maggior parte dei contenuti. No
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
reasoning_effort enum Solo modelli O1

Limita lo sforzo sul ragionamento per i modelli di ragionamento.

I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.
Valori possibili: low, medium, high
No
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.

Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
seed integer Questa funzione è in fase Beta.
Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.
Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
stop stringa o array Fino a 4 sequenze in cui l'API smette di generare ulteriori token.
No
store boolean Se memorizzare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di distillazione o valutazione del modello. No
stream boolean Se impostato, vengono inviati delta parziali del messaggio, come in ChatGPT. I token vengono inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con lo stream terminato da un data: [DONE] messaggio. Esempio Python codice.
No False
stream_options chatCompletionStreamOptions Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 la rendono più focalizzata e deterministica.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
tool_choice chatCompletionToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti. No
tools array Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni.
No
top_logprobs integer Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata. logprobs deve essere impostato a true se questo parametro viene utilizzato. No
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No
user_security_context userSecurityContext Il contesto di sicurezza dell'utente contiene diversi parametri che descrivono l'applicazione AI stessa e l'utente finale che interagisce con l'applicazione IA. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Scopri di più sulla protezione delle applicazioni di IA che utilizzano Microsoft Defender per il cloud. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Examples

Example

Crea un completamento per il prompt fornito, i parametri e il modello scelto.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati di ricerca Azure e sull'identità gestita assegnata al sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato su dati vettoriali immagine di Azure Search.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento basato sui dati vettoriali di ricerca Azure, sul messaggio dell'assistente precedente e sull'identità gestita assegnata dall'utente.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per il Azure Cosmos DB fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per il database Mongo fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per l'Elasticsearch fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crea un completamento per la risorsa Pinecone fornita.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Trascrizioni - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Trascrive l'audio nella lingua di input.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
model string ID del modello da utilizzare. Le opzioni sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. Yes
file string Il file audio oggetto da trascrivere. Yes
language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliora accuratezza e latenza. No
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0
timestamp_granularities[] array Le granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato verbose_json per utilizzare granularità di timestamp. Una o entrambe queste opzioni sono supportate: word, oppure segment. Nota: Non c'è latenza aggiuntiva per i timestamp dei segmenti, ma generare timestamp di parole comporta latenza aggiuntiva. No ['segment']

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Testo trascritto nel formato di output (quando response_format era uno di text, vtt o srt).

Examples

Example

Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduzioni - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Trascrive e traduce l'audio in ingresso in testo inglese.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Il file audio da tradurre. Yes
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt).

Examples

Example

Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Risposte: Codice di stato: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Parlato - Crea

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Genera audio dal testo di input.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Il testo per sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. Yes
response_format enum Il formato in cui sintetizzare l'audio.
Valori possibili: mp3, opus, aac, flac, wav, pcm
No
speed number La velocità dell'audio sintetizzato. Seleziona un valore da 0.25 a 4.0. 1.0 è la norma predefinita. No 1.0
voice enum La voce da usare per la sintesi vocale.
Valori possibili: alloy, echo, fable, onyx, nova, shimmer
Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Sintetizza audio dal testo fornito.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Risposte: Codice di stato: 200

{
  "body": "101010101"
}

Generazioni immagini - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Genera un lotto di immagini da una didascalia testuale su una data distribuzione di modelli di generazione di immagini

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
background imageBackground Permette di impostare trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1. No auto
n integer Il numero di immagini da generare. Per dall-e-3, è supportato solo n=1. No 1
output_compression integer Il livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per modelli della serie gpt-image-1 con il formato di uscita jpeg. No 100
output_format imagesOutputFormat Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli della serie GPT-image-1. No png
prompt string Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32.000 caratteri per la serie gpt-image-1 e 4.000 caratteri per la dall-e-3 Yes
partial_images integer Il numero di immagini parziali da generare. Questo parametro viene utilizzato per le risposte in streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Quando impostato a 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generata l'intero numero di immagini parziali se l'immagine completa viene generata più rapidamente. 0
stream boolean Modifica l'immagine in modalità streaming. no false
quality imageQuality La qualità dell'immagine che verrà generata. No auto
response_format imagesResponseFormat Il formato in cui vengono restituite le immagini generate. Questo parametro non è supportato per gpt-image-1i modelli in serie che restituiscono sempre immagini codificate in base64.
Valori possibili: url, b64_json.
No url
size imageSize La dimensione delle immagini generate. No auto
style imageStyle Lo stile delle immagini generate. Supportato solo per DALL-E-3. No vivid
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No

Responses

Codice di stato: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Codice di stato: predefinito

Descrizione: Si è verificato un errore.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crea immagini con un prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Risposte: Codice di stato: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Generazioni immagini - Modifica

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Modifica un'immagine da una didascalia di testo su un dato deployment di modello gpt-image-1

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
image stringa o array L'immagine o le immagini da modificare. Deve essere un file immagine supportato o un array di immagini. Ogni immagine dovrebbe essere un file png o jpg inferiore a 50MB. Yes
input_fidelity string Controlla quanto sforzo il modello applicherà per adattarsi allo stile e alle caratteristiche, soprattutto ai tratti facciali, delle immagini di input. Questo parametro è supportato solo per i modelli serie gpt-image-1. Supporti high e low. no low.
mask string Un'immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indica dove l'immagine dovrebbe essere modificata. Se sono fornite più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, inferiore a 4MB, e avere le stesse dimensioni dell'immagine. No
n integer Il numero di immagini da generare. Deve essere tra 1 e 10. No 1
prompt string Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32000 caratteri. Yes
quality imageQuality La qualità dell'immagine che verrà generata. No auto
partial_images Il numero di immagini parziali da generare. Questo parametro viene utilizzato per le risposte in streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Quando impostato a 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generata l'intero numero di immagini parziali se l'immagine completa viene generata più rapidamente.
stream boolean Modifica l'immagine in modalità streaming. no false
response_format imagesResponseFormat Il formato in cui vengono restituite le immagini generate. No url
size imageSize La dimensione delle immagini generate. No auto
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No

Responses

Codice di stato: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Codice di stato: predefinito

Descrizione: Si è verificato un errore.

Content-Type Type Description
application/json dalleErrorResponse

Elenco - Assistenti

Note

L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Restituisce una lista di assistenti.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Restituisce una lista di assistenti.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Create - Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Crea un assistente con un modello e istruzioni.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
description string La descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 256.000 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string Yes
name string Il nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
└─ vector_stores array Un aiutante per creare un vettoriale store con file_ids e collegarlo a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function.
No []
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Crea un assistente con un modello e istruzioni.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Ricevi - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Recupera un assistente.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string L'ID dell'assistente da recuperare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Recupera un assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modifica - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica un assistente.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string L'ID dell'assistente da modificare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
description string La descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 32768 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string No
name string Il nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Sovrascrive l'elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Sovrascrive il vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function.
No []
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifica un assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Elimina - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Elimina un assistente.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string L'ID dell'assistente da cancellare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Elimina un assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Create - Thread

Note

L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Crea un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
messages array Una lista di messaggi per iniziare la discussione. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
tool_resources object Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No
└─ vector_stores array Un aiutante per creare un vettoriale store con file_ids e allegarlo a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Crea un thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Prendi - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera un filo.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread da recuperare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Recupera un filo.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifica - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread da modificare. Solo quelle metadata possono essere modificate.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
tool_resources object Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifica un thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Elimina - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Cancella un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread da eliminare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Cancella un thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Elenco - Messaggi

Note

L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Restituisce una lista di messaggi per un determinato thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID dei thread a cui appartengono i messaggi.
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
run_id query No string Filtra i messaggi in base all'ID di esecuzione che li ha generati.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Crea - Messaggio

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Crea un messaggio.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID dei thread per creare un messaggio.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
attachments array Un elenco dei file allegati al messaggio e gli strumenti a cui dovrebbero essere aggiunti. No
content string Il contenuto del messaggio. Yes
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
role string Il ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.
- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione.
Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Crea un messaggio.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Ricevi - Messaggio

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recupera un messaggio.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID dei thread a cui appartiene questo messaggio.
message_id path Yes string L'ID del messaggio da recuperare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Recupera un messaggio.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifica - Messaggio

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica un messaggio.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread a cui appartiene questo messaggio.
message_id path Yes string L'ID del messaggio da modificare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modifica un messaggio.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Crea - Thread e Run

Note

L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Crea un thread e gestilo in un'unica richiesta.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
assistant_id string L'ID dell'assistente da usare per eseguire questa corsa. Yes
instructions string Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
max_prompt_tokens integer Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string L'ID dei modelli da utilizzare per eseguire questa corsa. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio.
No
stream_options chatCompletionStreamOptions Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.
auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array L'ID del vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crea un thread e gestilo in un'unica richiesta.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Elenco - Run

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Restituisce un elenco delle run appartenenti a un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread a cui appartiene la run.
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Restituisce un elenco delle run appartenenti a un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Crea - Run

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Crea una run.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread da eseguire.
include[] query No array Un elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato è step_details.tool_calls[*].file_search.results[*].content recuperare il contenuto dei risultati di ricerca del file.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. No
additional_messages array Aggiunge messaggi aggiuntivi al thread prima di creare la run. No
assistant_id string L'ID dell'assistente da usare per eseguire questa corsa. Yes
instructions string Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
max_prompt_tokens integer Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string L'ID del Modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_choice assistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.
auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
tools array Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crea una run.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Scappa - Corri

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera una corsa.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID dei thread che sono stati eseguiti.
run_id path Yes string L'ID della corsa da recuperare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Va a correre.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifica - Run

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica una corsa.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID dei thread che sono stati eseguiti.
run_id path Yes string L'ID della corsa da modificare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifica una corsa.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Invia - Output degli strumenti da eseguire

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando una run ha e status: "requires_action"required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate agli strumenti una volta completati. Tutti i risultati devono essere inviati in un'unica richiesta.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID dei thread a cui appartiene questa corsa.
run_id path Yes string L'ID della run che richiede l'invio dell'output dello strumento.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
stream boolean Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio.
No
tool_outputs array Un elenco degli strumenti per cui vengono inviati i risultati. Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Quando una run ha e status: "requires_action"required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate agli strumenti una volta completati. Tutti i risultati devono essere inviati in un'unica richiesta.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annulla - Run

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Annulla una run che è in_progress.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread a cui appartiene questa corsa.
run_id path Yes string L'ID della corsa da cancellare.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Annulla una run che è in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Elenco - Scale di corsa

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Restituisce un elenco dei passaggi di esecuzione appartenenti a una run.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread a cui appartengono i passaggi run e run.
run_id path Yes string L'ID dell'esecuzione a cui appartengono i passaggi di run.
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
api-version query Yes string
include[] query No array Un elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato è step_details.tool_calls[*].file_search.results[*].content recuperare il contenuto dei risultati di ricerca del file.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Restituisce un elenco dei passaggi di esecuzione appartenenti a una run.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Scorri - Passo

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera un gradino di corsa.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID del thread a cui appartiene il passo run e run.
run_id path Yes string L'ID della run a cui appartiene il run step.
step_id path Yes string L'ID del passo di esecuzione da recuperare.
include[] query No array Un elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato è step_details.tool_calls[*].file_search.results[*].content recuperare il contenuto dei risultati di ricerca del file.
api-version query Yes string

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Recupera un gradino di corsa.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Elenco - Store-vettoriali

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Restituisce un elenco di store vettoriali.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Restituisce un elenco di store vettoriali.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Create - Vector Store

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Crea un archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
expires_after vectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
file_ids array Un elenco degli ID file che il vettore store dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
name string Il nome del negozio vettoriale. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Crea un vettoriale store.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Ottieni - Vector Store

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera un vettoriale store.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale da recuperare.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Recupera un vettoriale store.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifica - Archivio vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica un vettoriale store.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID del vettore memorizza da modificare.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
name string Il nome del negozio vettoriale. No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifica un vettoriale store.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Elimina - Vettoriale Memoria

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Elimina uno store vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale da eliminare.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Elimina uno store vettoriale.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Elenco - File di Archiviazione Vetoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Restituisce un elenco di file di vettorio store.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID della memoria vettoriale a cui appartengono i file.
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
filter query No string
Valori possibili: in_progress, completed, failed, cancelled
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Restituisce un elenco di file di vettorio store.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create - File di Archivio Vetoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Crea un file di vettorio di archiviazione allegando un file a un vettoriale store.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID del vettore store per cui creare un File.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . No
file_id string Un ID file che il vettoriale storage dovrebbe usare. Utile per strumenti come file_search questo che può accedere ai file. Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Crea un file di vettorio di archiviazione allegando un file a un vettoriale store.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Get - File Vettoriale di Archivio

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera un file di archivio vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale a cui appartiene il file.
file_id path Yes string L'ID del file che viene recuperato.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Recupera un file di archivio vettoriale.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Elimina - File di Archivio Vetoriale

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Elimina un file di vettorio store. Questo rimuoverà il file dal vettoriale store, ma il file stesso non verrà cancellato. Per eliminare il file, usa l'endpoint elimina file.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale a cui appartiene il file.
file_id path Yes string L'ID del file da eliminare.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Elimina un file di vettorio store. Questo rimuoverà il file dal vettoriale store, ma il file stesso non verrà cancellato. Per eliminare il file, usa l'endpoint elimina file.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Aggiorna gli attributi su un file vettoriale store.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale a cui appartiene il file.
file_id path Yes string L'ID del file per aggiornare gli attributi.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.
Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Recupero contenuto del file vettoriale di memorizzazione

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recupera il contenuto analizzato di un file di archiviazione vettoriale.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID del vettoriale store.
file_id path Yes string L'ID del file all'interno dello store vettoriale.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Memoria vettoriale di ricerca

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Cerca in un archivio vettoriale i chunk rilevanti basandoti su un filtro di query e attributi del file.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale da cercare.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
filters Filtro di confronto o filtro composto Un filtro da applicare in base agli attributi del file. No
max_num_results integer Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. No 10
query stringa o array Una stringa di query per una ricerca Yes
ranking_options object Opzioni di classifica per la ricerca. No
└─ ranker enum
Valori possibili: auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No False

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Create - Vettoriale Storage File Batch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Crea un batch di file vettoriali.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale per cui creare un File Batch.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . No
file_ids array Un elenco degli ID file che lo store vettoriale dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. Yes

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Crea un batch di file vettoriali.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Risposte: Codice di stato: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Get - Lotto di file di archiviazione vettoriale

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera un file vettoriale store batch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale a cui appartiene il file batch.
batch_id path Yes string L'ID del file batch che viene recuperato.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Recupera un file vettoriale store batch.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annulla - Lotto di file di archiviazione vettoriale

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Annulla un lotto di file vettoriale. Questo tenta di annullare l'elaborazione dei file in questo lotto il prima possibile.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID dello store vettoriale a cui appartiene il file batch.
batch_id path Yes string L'ID del file batch da annullare.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Annulla un lotto di file vettoriale. Questo tenta di annullare l'elaborazione dei file in questo lotto il prima possibile.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Elenco - File batch di file vettoriali

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Restituisce un elenco di file di vettorio store in un batch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID della memoria vettoriale a cui appartengono i file.
batch_id path Yes string L'ID del lotto di file a cui appartengono i file.
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
Ordina in base al created_at timestamp degli oggetti. asc per l'ordine crescente e desc per l'ordine discendente.
after query No string Un cursore per l'uso nella paginazione. after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista.
before query No string Un cursore per l'uso nella paginazione. before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista.
filter query No string
Valori possibili: in_progress, completed, failed, cancelled
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Restituisce un elenco di file di vettorio store.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Risposte: Codice di stato: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create - Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Crea un token API effimero da utilizzare nelle applicazioni lato client con l'API Realtime. Può essere configurato con gli stessi parametri di sessione dell'evento session.update client. Risponde con un oggetto sessione, più una client_secret chiave che contiene un token API effimero utilizzabile che può essere utilizzato per autenticare i client browser per l'API Realtime.

Request Body

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello.
Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio in ingresso, imposta di default su disattivato e può essere impostata su null spegnersi una volta acceso. La trascrizione audio in ingresso non è nativa del modello, poiché il modello consuma audio direttamente. La trascrizione viene eseguita in modo asincrono attraverso l'endpoint delle trascrizioni e dovrebbe essere trattata come una guida del contenuto audio in input piuttosto che come esattamente ciò che il modello ha ascoltato. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione.
No
└─ language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza.
No
└─ model string Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.
No
└─ prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia".
No
instructions string Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere istruito sul contenuto e sul formato delle risposte (ad esempio "sii estremamente conciso", "agisci amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parla velocemente", "inietti emozione nella tua voce", "ridi frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.

Nota che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento session.created all'inizio della sessione.
No
max_response_output_tokens intero o stringa Numero massimo di token di output per una singola risposta di assistente, inclusi i call degli strumenti. Fornire un intero compreso tra 1 e 4096 per limitare i token di output, o inf per i token massimi disponibili per un dato modello. Di default è inf.
No
modalities L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"].
No
model string Il nome della distribuzione utilizzata per questa sessione.
No
output_audio_format enum Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio in uscita viene campionato a una velocità di 24kHz.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
temperature number La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Per i modelli audio è altamente consigliata una temperatura di 0,8 per le migliori prestazioni.
No 0.8
tool_choice string Come il modello sceglie gli strumenti. Le opzioni sono auto, none, required, oppure specificare una funzione.
No auto
tools array Strumenti (funzioni) disponibili per il modello. No
turn_detection object Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.
Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente.
Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta.
No
└─ create_response boolean Se generare automaticamente una risposta quando si verifica un evento di stop VAD.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere. low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente. auto è il valore predefinito ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente.
No
└─ threshold number Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento delle virate.

Valori possibili: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Codice di stato: 200

Descrizione: Sessione creata con successo.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Create - Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Crea un token API effimero da utilizzare in applicazioni lato client con l'API Realtime specificamente per trascrizioni in tempo reale. Può essere configurato con gli stessi parametri di sessione dell'evento transcription_session.update client. Risponde con un oggetto sessione, più una client_secret chiave che contiene un token API effimero utilizzabile che può essere utilizzato per autenticare i client browser per l'API Realtime.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello.
Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio in ingresso. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione.
No
└─ language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza.
No
└─ model enum Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia".
No
modalities L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"].
No
turn_detection object Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.
Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente.
Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta.
No
└─ create_response boolean Se generare automaticamente una risposta quando si verifica un evento di stop VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere. low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente. auto è il valore predefinito ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente.
No
└─ threshold number Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento delle virate.

Valori possibili: server_vad, semantic_vad
No

Responses

Codice di stato: 200

Descrizione: Sessione creata con successo.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Crea una risposta modello.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array No
input stringa o array Model inputs Yes
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte.
No
max_output_tokens integer Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
No
parallel_tool_calls boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo.
No True
previous_response_id string L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. Scopri di più sullo stato della conversazione.
No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento. No
store boolean Se memorizzare la risposta generata del modello per un successivo recupero tramite API.
No True
stream boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client man mano che vengono generati tramite eventi inviati dal server.
Consulta la sezione Streaming qui sotto per maggiori informazioni.
No False
text object Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more:
- Input e output di testo
- Output strutturati
No
└─ format TextResponseFormatConfiguration Un oggetto che specifica il formato che il modello deve generare.

La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per GPT-4O e modelli più recenti:

Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
No
tool_choice OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare.
No
tools array Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.

Le due categorie di strumenti che puoi fornire al modello sono:

- Strumenti integrati: Strumenti forniti da OpenAI che estendono la
model's capabilities
No
truncation enum La strategia di troncamento da utilizzare per la risposta del modello.
- auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra contestuale del modello, il modello troncherà la risposta per adattarla alla finestra contestuale scartando elementi di input nel mezzo della conversazione.
- disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.

Valori possibili: auto, disabled
No

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

API Risposte - elementi di input

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera una risposta del modello con l'ID fornito.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L'ID della risposta da recuperare.
include query No array Campi aggiuntivi da includere nella risposta. Consulta il include parametro per la creazione della risposta sopra per maggiori informazioni.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json response

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Elimina una risposta del modello con l'ID indicato.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L'ID della risposta da cancellare.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Codice di stato: 404

Descrizione: Non trovato

Content-Type Type Description
application/json error

Codice di stato: predefinito

Descrizione: Servizio non disponibile

Content-Type Type Description
application/json errorResponse

API Risposte - elenco degli elementi di risposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Restituisce un elenco di elementi di input per una data risposta.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L'ID della risposta per recuperare gli elementi di input per.
limit query No integer Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20.
order query No string
Valori possibili: asc, desc
L'ordine per restituire gli elementi di input. Il valore predefinito è asc.
- asc: Restituire gli elementi in input in ordine crescente.
- desc: Restituire gli elementi in input in ordine decrescente.
after query No string Un ID elemento per elencare gli elementi dopo, usato nella paginazione.
before query No string Un ID elemento per elencare gli elementi precedenti, usato nella paginazione.

Request Header

Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ambito: https://ai.azure.com/.default
api-key True string Fornisci qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Errore interiore con ulteriori dettagli. No
param string No
type string No

innerError

Errore interiore con ulteriori dettagli.

Name Type Description Required Default
code innerErrorCode Codici di errore per l'oggetto di errore interno. No
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. No

innerErrorCode

Codici di errore per l'oggetto di errore interno.

Property Value
Description Codici di errore per l'oggetto di errore interno.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Errore interiore con ulteriori dettagli. No
param string No
type string No

dalleInnerError

Errore interiore con ulteriori dettagli.

Name Type Description Required Default
code innerErrorCode Codici di errore per l'oggetto di errore interno. No
content_filter_results dalleFilterResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. No
revised_prompt string Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. No

contentFilterCompletionTextSpan

Descrive un intervallo all'interno del testo di completamento generato. Offset 0 è il primo punto di codice UTF32 del testo di completamento.

Name Type Description Required Default
completion_end_offset integer Offset rispetto al primo punto codice UTF32 che viene escluso dalla campata. Questo campo è sempre uguale a completion_start_offset per le campate vuote. Questo campo è sempre più grande di completion_start_offset per le campate non vuote. Yes
completion_start_offset integer Offset rispetto al punto di codice UTF32 che inizia la campata. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└─ URL string No
└─ license string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informazioni sui risultati del filtraggio dei contenuti.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni su testi di terze parti e parolacce, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Filtraggio dei contenuti risulta per un singolo prompt nella richiesta.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. No
prompt_index integer No

promptFilterResults

Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti.

Nessuna proprietà definita per questo componente.

dalleContentFilterResults

Informazioni sui risultati del filtraggio dei contenuti.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto json che mappa i token (specificati dal loro ID token nel tokenizer) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. No
max_completion_tokens integer Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. No
max_tokens integer Il numero massimo di token consentito per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token prompt). Questo non è compatibile con i modelli della serie O1. No 4096
metadata object Tag e valori definiti dagli sviluppatori usati per filtrare le completazioni nella dashboard delle completions memorizzate. No
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. No 0
stop stringa o array Fino a 4 sequenze in cui l'API smette di generare ulteriori token. No
store boolean Se memorizzare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di distillazione o valutazione del modello. No
stream boolean Se impostato, vengono inviati delta parziali del messaggio, come in ChatGPT. I token vengono inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con lo stream terminato da un data: [DONE] messaggio. No False
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.
Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare Azure OpenAI a monitorare e rilevare abusi. No

createCompletionRequest

Name Type Description Required Default
best_of integer Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.

Quando usato con n, best_of controlla il numero di completamenti candidati e n specifica quanti restituire. best_of deve essere maggiore di n.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
echo boolean Ripeti il prompt oltre al completamento
No False
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.

Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato.
No None
logprobs integer Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà una lista dei 5 token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.

Il valore massimo per logprobs è 5.
No None
max_tokens integer Il numero massimo di token che può essere generato nel completamento.

Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello.
No 16
n integer Quante completazioni generare per ogni prompt.

Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop.
No 1
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
prompt stringa o array Il/i prompt/i per generare completi, codificati come stringa, array di stringhe, array di token o array di token.

Nota che <|endoftext|> è il separatore del documento che il modello vede durante l'addestramento, quindi se non viene specificato un prompt, il modello verrà generato come se fosse dall'inizio di un nuovo documento.
Yes
seed integer Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.

Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
stop stringa o array Fino a 4 sequenze in cui l'API smette di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.
No
stream boolean Se riportare indietro un progresso parziale. Se impostati, i token vengono inviati come eventi inviati solo dai dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio. Esempio Python codice.
No False
suffix string Il suffisso che arriva dopo il completamento del testo inserito.

Questo parametro è supportato solo per gpt-3.5-turbo-instruct.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No

createCompletionResponse

Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta streamati che quelli non streamati condividono la stessa forma (a differenza dell'endpoint chat).

Name Type Description Required Default
choices array L'elenco delle scelte di completamento generato dal modello per il prompt di input. Yes
created integer Il timestamp Unix (in secondi) di quando è stato creato il completamento. Yes
id string Un identificatore unico per il completamento. Yes
model string Il modello utilizzato per il completamento. Yes
object enum Il tipo di oggetto, che è sempre "text_completion"
Valori possibili: text_completion
Yes
prompt_filter_results promptFilterResults Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. No
system_fingerprint string Questa impronta rappresenta la configurazione backend con cui il modello gira.

Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo.
No
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. No

createChatCompletionRequest

Name Type Description Required Default
audio object Parametri per l'uscita audio. Richiesto quando l'uscita audio viene richiesta con modalities: ["audio"]. No
└─ format enum Specifica il formato audio in uscita. Deve essere uno di wav, mp3, flac, opus, o pcm16.

Valori possibili: wav, mp3, flac, opus, pcm16
No
└─ voice enum Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, nova, e shimmer.

Valori possibili: alloy, echo, fable, onyx, nova, shimmer
No
data_sources array Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano.
Questa specifica aggiuntiva è compatibile solo con Azure OpenAI.
No
frequency_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola.
No 0
function_call stringa o chatCompletionFunctionCallOption Deprecato a favore di tool_choice.

Controlla quale funzione (se ce n'è) chiamata dal modello.
none significa che il modello non chiamerà una funzione ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

none è il valore predefinito quando non sono presenti funzioni. auto è la predefinita se sono presenti delle funzioni.
No
functions array Deprecato a favore di tools.

Un elenco delle funzioni per cui il modello può generare input JSON.
No
logit_bias object Modifica la probabilità che i token specificati compaiano nel completamento.

Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante.
No None
logprobs boolean Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message No False
max_completion_tokens integer Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. No
max_tokens integer Il numero massimo di token che possono essere generati nel completamento della chat.

La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello.
No
messages array Un elenco dei messaggi che compongono la conversazione finora. Esempio Python codice. Yes
metadata object Tag e valori definiti dagli sviluppatori usati per filtrare le completazioni nella dashboard delle completions memorizzate. No
modalities ChatCompletionModalities Tipi di output che vorresti che il modello generasse per questa richiesta.
La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:

["text"]

Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:

["text", "audio"]
No
n integer Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di gettoni generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. No 1
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
prediction PredictionContent Configurazione per un Output Previsto, che può migliorare notevolmente i tempi di risposta quando gran parte della risposta del modello è nota in anticipo. Questo è più comune quando rigeneri un file con solo modifiche minori alla maggior parte dei contenuti. No
presence_penalty number Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti.
No 0
reasoning_effort enum Solo modelli O1

Limita lo sforzo sul ragionamento per i modelli di ragionamento.

I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.
Valori possibili: low, medium, high
No
response_format ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita i Structured Outputs che garantiscono che il modello corrisponda allo schema JSON fornito.

Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
seed integer Questa funzione è in fase Beta.
Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.
Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend.
No
stop stringa o array Fino a 4 sequenze in cui l'API smette di generare ulteriori token.
No
store boolean Se memorizzare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di distillazione o valutazione del modello. No
stream boolean Se impostato, vengono inviati delta parziali del messaggio, come in ChatGPT. I token vengono inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con lo stream terminato da un data: [DONE] messaggio. Esempio Python codice.
No False
stream_options chatCompletionStreamOptions Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.

Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
tool_choice chatCompletionToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti. No
tools array Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni.
No
top_logprobs integer Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata. logprobs deve essere impostato a true se questo parametro viene utilizzato. No
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi.
No
user_security_context userSecurityContext Il contesto di sicurezza dell'utente contiene diversi parametri che descrivono l'applicazione AI stessa e l'utente finale che interagisce con l'applicazione IA. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Scopri di più sulla protezione delle applicazioni di IA che utilizzano Microsoft Defender per il cloud. No

userSecurityContext

Il contesto di sicurezza dell'utente contiene diversi parametri che descrivono l'applicazione AI stessa e l'utente finale che interagisce con l'applicazione IA. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Scopri di più sulla protezione delle applicazioni di IA che utilizzano Microsoft Defender per il cloud.

Name Type Description Required Default
application_name string Il nome della domanda. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. No
end_user_id string Questo identificatore è l'ID utente Microsoft Entra ID (precedentemente Azure Active Directory) utilizzato per autenticare gli utenti finali all'interno dell'applicazione di IA generativa. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. No
end_user_tenant_id string L'ID tenant Microsoft 365 a cui appartiene l'utente finale. È richiesto quando l'applicazione di IA generativa è multi-inquilin. No
source_ip string Cattura l'indirizzo IP originale del client, accettando sia i formati IPv4 che IPv6. No

chatCompletionFunctions

Name Type Description Required Default
description string Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
name string Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. Yes
parameters FunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Omettere parameters definisce una funzione con una lista di parametri vuota.
No

chatCompletionFunctionCallOption

Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.

Name Type Description Required Default
name string Il nome della funzione da chiamare. Yes

chatCompletionFunctionParameters

I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Nessuna proprietà definita per questo componente.

chatCompletionRequestMessage

Questo componente può essere uno dei seguenti:

ChatCompletionRequestDeveloperMessage

Istruzioni fornite dagli sviluppatori che il modello dovrebbe seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli O1 e quelli più recenti, developer i messaggi sostituiscono quelli precedenti system .

Name Type Description Required Default
content stringa o array Il contenuto del messaggio dello sviluppatore. Yes
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
role enum Il ruolo dell'autore dei messaggi, in questo caso developer.
Valori possibili: developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio di sistema. Yes
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
role enum Il ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio utente.
Yes
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
role enum Il ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio dell'assistente. Richiesto a meno che tool_calls non venga specificato.function_call
No
function_call object Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. No
└─ arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. No
└─ name string Il nome della funzione da chiamare. No
name string Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. No
refusal string Il messaggio di rifiuto dell'assistente. No
role enum Il ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistant
Yes
tool_calls chatCompletionMessageToolCalls Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content stringa o array Il contenuto del messaggio dello strumento. Yes
role enum Il ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: tool
Yes
tool_call_id string Chiamata dello strumento a cui questo messaggio sta rispondendo. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Il contenuto del messaggio funzionale. Yes
name string Il nome della funzione da chiamare. Yes
role enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestSystemMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestUserMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestAssistantMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestToolMessageContentPart

Questo componente può essere uno dei seguenti:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Il contenuto del testo. Yes
type enum La parte del tipo di contenuto.
Valori possibili: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Dati audio codificati in Base64. No
└─ format enum Il formato dei dati audio codificati. Attualmente supporta "wav" e "mp3".

Valori possibili: wav, mp3
No
type enum La parte del tipo di contenuto. Sempre input_audio.
Valori possibili: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Specifica il livello di dettaglio dell'immagine. Scopri di più nella guida Vision.
Valori possibili: auto, low, high
No
└─ url string O un URL dell'immagine o i dati dell'immagine codificata in base64. No
type enum La parte del tipo di contenuto.
Valori possibili: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Il messaggio di rifiuto generato dal modello. Yes
type enum La parte del tipo di contenuto.
Valori possibili: refusal
Yes

azureChatExtensionConfiguration

Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

###Discriminator for azureChatExtensionConfiguration

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureChatExtensionType

Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Property Value
Description Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Azure Search quando lo si utilizza come estensione di chat OpenAI di Azure.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI. No
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI.

Name Type Description Required Default
allow_partial_result boolean Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. No False
authentication onYourDataApiKeyAuthenticationOptions oppure onYourDataSystemAssignedManagedIdentityAuthenticationOptionsoppure onYourDataUserAssignedManagedIdentityAuthenticationOptionsoppure onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSourceoppure onYourDataIntegratedVectorizationSource No
endpoint string Il percorso finale assoluto per la risorsa di ricerca Azure da utilizzare. Yes
fields_mapping azureSearchIndexFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata. No
filter string Search filter. No
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
include_contexts array Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Il nome dell'indice da utilizzare è disponibile nella risorsa Azure Search citata. Yes
max_search_queries integer Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
query_type azureSearchQueryType Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. No
semantic_configuration string La configurazione semantica aggiuntiva per la query. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No

azureSearchIndexFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata.

Name Type Description Required Default
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. No
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
filepath_field string Il nome del campo indice da usare come percorso file. No
image_vector_fields array I nomi dei campi che rappresentano i dati vettoriali dell'immagine. No
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No
vector_fields array I nomi dei campi che rappresentano dati vettoriali. No

azureSearchQueryType

Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.

Property Value
Description Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando lo si utilizza come estensione chat di Azure OpenAI.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore. No
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore.

Name Type Description Required Default
allow_partial_result boolean Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. No False
authentication onYourDataConnectionStringAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione. Yes
container_name string Il nome del container di risorse Azure Cosmos DB. Yes
database_name string Il nome del database MongoDB vCore da usare con Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata. Yes
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
include_contexts array Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Il nome dell'indice MongoDB vCore da usare con Azure Cosmos DB. Yes
max_search_queries integer Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No

azureCosmosDBFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata.

Name Type Description Required Default
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. Yes
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
filepath_field string Il nome del campo indice da usare come percorso file. No
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No
vector_fields array I nomi dei campi che rappresentano dati vettoriali. Yes

elasticsearchChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Elasticsearch quando lo si utilizza come estensione di chat di Azure OpenAI.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Parametri da utilizzare quando si configura Elasticsearch® come estensione di chat OpenAI per Azure. No
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Parametri da utilizzare quando si configura Elasticsearch® come estensione di chat OpenAI per Azure.

Name Type Description Required Default
allow_partial_result boolean Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. No False
authentication onYourDataKeyAndKeyIdAuthenticationOptionsoppure onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSourceoppure onYourDataModelIdVectorizationSource No
endpoint string Il punto finale di Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Elasticsearch® configurata. No
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
include_contexts array Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Il nome indice di Elasticsearch®. Yes
max_search_queries integer Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
query_type elasticsearchQueryType Il tipo di query di recupero Elasticsearch® che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No

elasticsearchIndexFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Elasticsearch® configurata.

Name Type Description Required Default
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. No
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
filepath_field string Il nome del campo indice da usare come percorso file. No
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No
vector_fields array I nomi dei campi che rappresentano dati vettoriali. No

elasticsearchQueryType

Il tipo di query di recupero Elasticsearch® che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.

Property Value
Description Il tipo di query di recupero Elasticsearch® che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Mongo DB quando lo si utilizza come estensione di chat Azure OpenAI.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Mongo DB. No
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Mongo DB.

Name Type Description Required Default
allow_partial_result boolean Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. No False
app_name string Il nome dell'applicazione Mongo DB. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un nome utente e una password. Yes
collection_name string Il nome della Collezione Mongo DB. Yes
database_name string Il nome del database Mongo DB. Yes
embedding_dependency onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource Yes
endpoint string Il nome dell'endpoint del cluster Mongo DB. Yes
fields_mapping mongoDBFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa database Mongo configurata. Yes
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
include_contexts array Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Il nome dell'indice della Base di Dati Mongo. Yes
max_search_queries integer Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No

mongoDBFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa database Mongo configurata.

Name Type Description Required Default
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. Yes
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
filepath_field string Il nome del campo indice da usare come percorso file. No
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No
vector_fields array I nomi dei campi che rappresentano dati vettoriali. Yes

pineconeChatExtensionConfiguration

Una rappresentazione specifica delle opzioni configurabili per Pinecone quando lo si utilizza come estensione di chat di Azure OpenAI.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Parametri per configurare le estensioni di chat Azure OpenAI Pinecone. No
type azureChatExtensionType Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta.
L'uso di questa configurazione è compatibile solo con Azure OpenAI.
Yes

pineconeChatExtensionParameters

Parametri per configurare le estensioni di chat Azure OpenAI Pinecone.

Name Type Description Required Default
allow_partial_result boolean Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. No False
authentication onYourDataApiKeyAuthenticationOptions Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando applica la ricerca vettoriale, basata su un nome di deployment interno di un modello di embedding nella stessa risorsa Azure OpenAI. Yes
environment string Il nome ambientale è Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Pinecone configurata. Yes
in_scope boolean Se le query dovrebbero essere limitate all'uso di dati indicizzati. No
include_contexts array Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. No
index_name string Il nome dell'indice del database Pinecone. Yes
max_search_queries integer Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. No
strictness integer La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. No
top_n_documents integer Il numero superiore configurato di documenti da presentare per la query configurata. No

pineconeFieldMappingOptions

Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Pinecone configurata.

Name Type Description Required Default
content_fields array I nomi dei campi indice che dovrebbero essere trattati come contenuti. Yes
content_fields_separator string Il pattern separatore che i campi di contenuto dovrebbero usare. No
filepath_field string Il nome del campo indice da usare come percorso file. No
title_field string Il nome del campo indice da usare come titolo. No
url_field string Il nome del campo indice da usare come URL. No

onYourDataAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati.

Discriminatore per onYourDataAuthenticationOptions

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataContextProperty

La proprietà contestuale.

Property Value
Description La proprietà contestuale.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

I tipi di autenticazione supportati da Azure OpenAI On Your Data.

Property Value
Description I tipi di autenticazione supportati da Azure OpenAI On Your Data.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API.

Name Type Description Required Default
key string La chiave API da usare per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataConnectionStringAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione.

Name Type Description Required Default
connection_string string La stringa di connessione da usare per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una coppia chiave e ID chiave Elasticsearch.

Name Type Description Required Default
key string La chiave Elasticsearch da usare per l'autenticazione. No
key_id string L'ID della chiave Elasticsearch da usare per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI On Your Data quando si utilizza una chiave API codificata in Elasticsearch.

Name Type Description Required Default
encoded_api_key string La chiave API codificata da Elasticsearch per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataAccessTokenAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza il token di accesso.

Name Type Description Required Default
access_token string Il token di accesso da usare per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata al sistema.

Name Type Description Required Default
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata dall'utente.

Name Type Description Required Default
managed_identity_resource_id string L'ID risorsa dell'identità gestita assegnata dall'utente da utilizzare per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un nome utente e una password.

Name Type Description Required Default
password string The password. da usare per l'autenticazione. No
type onYourDataAuthenticationType I tipi di autenticazione supportati da Azure OpenAI On Your Data. Yes
username string Il nome utente da usare per l'autenticazione. No

onYourDataVectorizationSource

Una rappresentazione astratta di una sorgente di vettorizzazione per Azure OpenAI sui tuoi dati con ricerca vettoriale.

Questa componente utilizza la proprietà type per discriminare tra diversi tipi:

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. Yes

onYourDataVectorizationSourceType

Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale.

Property Value
Description Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando applica la ricerca vettoriale, basata su una chiamata endpoint pubblica di Azure OpenAI per gli embedding.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptionsoppure onYourDataAccessTokenAuthenticationOptions No
dimensions integer Il numero di dimensioni che gli embeddings dovrebbero avere. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. No
endpoint string Specifica l'URL dell'endpoint della risorsa da cui devono essere recuperati gli embedding. Dovrebbe essere nel formato di https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Il parametro di query della versione API non è permesso. No
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. Yes

onYourDataDeploymentNameVectorizationSource

I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un nome di deployment interno di un modello di embedding nella stessa risorsa Azure OpenAI.

Name Type Description Required Default
deployment_name string Specifica il nome del deployment del modello da utilizzare per la vettorizzazione. Questa distribuzione del modello deve avvenire nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questa distribuzione tramite una chiamata interna anziché pubblica, che consente la ricerca vettoriale anche nelle reti private. No
dimensions integer Il numero di dimensioni che gli embeddings dovrebbero avere. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. No
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. Yes

onYourDataIntegratedVectorizationSource

Rappresenta il vettoriatore integrato definito all'interno della risorsa di ricerca.

Name Type Description Required Default
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. Yes

onYourDataModelIdVectorizationSource

I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un ID di modello di servizio di ricerca. Attualmente supportato solo da Elasticsearch®.

Name Type Description Required Default
model_id string Specifica l'ID del modello da utilizzare per la vettorizzazione. Questo ID modello deve essere definito nel servizio di ricerca. No
type onYourDataVectorizationSourceType Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. Yes

azureChatExtensionsMessageContext

Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando le estensioni di chat di Azure OpenAI sono coinvolte nella generazione di una risposta corrispondente alle chat completes. Queste informazioni contestuali vengono inserite solo quando si utilizza una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente.

Name Type Description Required Default
all_retrieved_documents array Tutti i documenti recuperati. No
citations array Il risultato del recupero della sorgente dati, utilizzato per generare il messaggio assistente nella risposta. No
intent string L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo e trasmettere il contesto. No

citation

Informazioni di citazione per un messaggio di risposta al completamento della chat.

Name Type Description Required Default
chunk_id string L'ID del blocco della citazione. No
content string Il contenuto della citazione. Yes
filepath string Il percorso del file della citazione. No
rerank_score number Il punteggio di riclassificazione del documento recuperato. No
title string Il titolo della citazione. No
url string L'URL della citazione. No

retrievedDocument

Il documento recuperato.

Name Type Description Required Default
chunk_id string L'ID del blocco della citazione. No
content string Il contenuto della citazione. Yes
data_source_index integer L'indice della fonte dati. No
filepath string Il percorso del file della citazione. No
filter_reason filterReason La ragione del filtraggio del documento recuperato. No
original_search_score number Il punteggio originale della ricerca del documento recuperato. No
rerank_score number Il punteggio di riclassificazione del documento recuperato. No
search_queries array Le query di ricerca utilizzate per recuperare il documento. No
title string Il titolo della citazione. No
url string L'URL della citazione. No

filterReason

La ragione del filtraggio del documento recuperato.

Property Value
Description La ragione del filtraggio del documento recuperato.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object La funzione che il modello ha chiamato. Yes
└─ arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. No
└─ name string Il nome della funzione da chiamare. No
id string L'ID della chiamata dello strumento. Yes
type toolCallType Il tipo di chiamata dello strumento, in questo caso function. Yes

toolCallType

Il tipo di chiamata dello strumento, in questo caso function.

Property Value
Description Il tipo di chiamata dello strumento, in questo caso function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Il contenuto del messaggio. No
tool_call_id string Chiamata dello strumento a cui questo messaggio sta rispondendo. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Il contenuto del messaggio. No
name string Il contenuto del messaggio. No
role enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function
No

createChatCompletionResponse

Rappresenta una risposta di completamento della chat restituita dal modello, basata sull'input fornito.

Name Type Description Required Default
choices array Una lista delle opzioni per completare la chat. Può essere più di uno se n è maggiore di 1. Yes
created integer Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. Yes
id string Un identificatore unico per il completamento della chat. Yes
model string Il modello usato per completare la chat. Yes
object enum Il tipo di oggetto, che è sempre chat.completion.
Valori possibili: chat.completion
Yes
prompt_filter_results promptFilterResults Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. No
system_fingerprint string Questa impronta rappresenta la configurazione backend con cui il modello gira.

Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo.
No
usage completionUsage Statistiche di utilizzo per la richiesta di completamento. No

createChatCompletionStreamResponse

Rappresenta un blocco streamlato di una risposta di completamento della chat restituita dal modello, basato sull'input fornito.

Name Type Description Required Default
choices array Una lista delle opzioni per completare la chat. Può contenere più di un elemento se n è maggiore di 1.
Yes
created integer Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. Ogni blocco ha lo stesso timestamp. Yes
id string Un identificatore unico per il completamento della chat. Ogni blocco ha lo stesso ID. Yes
model string Il modello per generare la completezza. Yes
object enum Il tipo di oggetto, che è sempre chat.completion.chunk.
Valori possibili: chat.completion.chunk
Yes
system_fingerprint string Questa impronta rappresenta la configurazione backend con cui il modello gira.
Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo.
No

chatCompletionStreamResponseDelta

Un delta di completamento della chat generato dalle risposte del modello in streaming.

Name Type Description Required Default
content string Il contenuto del messaggio a pezzi. No
function_call object Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. No
└─ arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. No
└─ name string Il nome della funzione da chiamare. No
refusal string Il messaggio di rifiuto generato dal modello. No
role enum Il ruolo dell'autore di questo messaggio.
Valori possibili: system, user, assistant, tool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. No
└─ name string Il nome della funzione da chiamare. No
id string L'ID della chiamata dello strumento. No
index integer Yes
type enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: function
No

chatCompletionStreamOptions

Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.

Name Type Description Required Default
include_usage boolean Se impostato, un ulteriore chunk verrà trasmesso prima del data: [DONE] messaggio. Il usage campo su questo chunk mostra le statistiche di utilizzo dei token per l'intera richiesta, e il choices campo sarà sempre un array vuoto. Tutti gli altri chunk includeranno anch'essi un usage campo, ma con valore nullo.
No

chatCompletionChoiceLogProbs

Registra le informazioni di probabilità per la scelta.

Name Type Description Required Default
content array Un elenco dei token di contenuto dei messaggi con informazioni sulla probabilità log. Yes
refusal array Un elenco di token di rifiuto di messaggi con informazioni di probabilità logaritaria. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Un elenco di interi che rappresenta la rappresentazione UTF-8 byte del token. Utile in situazioni in cui i caratteri sono rappresentati da più token e le loro rappresentazioni in byte devono essere combinate per generare la rappresentazione testuale corretta. Può esserlo null se non esiste una rappresentazione in byte per il token. Yes
logprob number La probabilità logaritmica di questo token. Yes
token string The token. Yes
top_logprobs array Elenco dei token più probabili e della loro probabilità logarithmita, in questa posizione del token. In rari casi, potrebbero esserci meno del numero di richieste top_logprobs restituite. Yes

chatCompletionResponseMessage

Un messaggio di completamento della chat generato dal modello.

Name Type Description Required Default
audio object Se viene richiesta la modalità di uscita audio, questo oggetto contiene dati sulla risposta audio dal modello. No
└─ data string Byte audio codificati in Base64 generati dal modello, nel formato specificato nella richiesta.
No
└─ expires_at integer Il timestamp Unix (in secondi) per indicare quando questa risposta audio non sarà più accessibile sul server per l'uso in conversazioni a più turni.
No
└─ id string Identificatore unico per questa risposta audio. No
└─ transcript string Trascrizione dell'audio generato dal modello. No
content string Il contenuto del messaggio. Yes
context azureChatExtensionsMessageContext Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando le estensioni di chat di Azure OpenAI sono coinvolte nella generazione di una risposta corrispondente alle chat completes. Queste informazioni contestuali vengono inserite solo quando si utilizza una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente. No
function_call chatCompletionFunctionCall Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. No
refusal string Il messaggio di rifiuto generato dal modello. Yes
role chatCompletionResponseMessageRole Il ruolo dell'autore del messaggio di risposta. Yes
tool_calls array Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. No

chatCompletionResponseMessageRole

Il ruolo dell'autore del messaggio di risposta.

Property Value
Description Il ruolo dell'autore del messaggio di risposta.
Type string
Values assistant

chatCompletionToolChoiceOption

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio. auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti. required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento. none è il valore predefinito quando non ci sono strumenti presenti. auto è la norma se sono presenti strumenti.

Questo componente può essere uno dei seguenti:

chatCompletionNamedToolChoice

Specifica uno strumento che il modello dovrebbe utilizzare. Usa per forzare il modello a chiamare una funzione specifica.

Name Type Description Required Default
function object Yes
└─ name string Il nome della funzione da chiamare. No
type enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: function
Yes

ParallelToolCalls

Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento.

Nessuna proprietà definita per questo componente.

PredictionContent

Contenuto statico previsto in output, come il contenuto di un file di testo che viene rigenerato.

Name Type Description Required Default
content stringa o array Il contenuto che dovrebbe essere abbinato quando si genera una risposta al modello. Se i token generati corrispondessero a questo contenuto, l'intera risposta del modello potrebbe essere restituita molto più rapidamente. Yes
type enum Il tipo di contenuto previsto che vuoi fornire. Questo tipo è attualmente sempre content.
Valori possibili: content
Yes

chatCompletionMessageToolCalls

Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.

Nessuna proprietà definita per questo componente.

ChatCompletionModalities

Tipi di output che vorresti che il modello generasse per questa richiesta. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:

["text"]

Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:

["text", "audio"]

Nessuna proprietà definita per questo componente.

chatCompletionFunctionCall

Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello.

Name Type Description Required Default
arguments string Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. Yes
name string Il nome della funzione da chiamare. Yes

completionUsage

Statistiche di utilizzo per la richiesta di completamento.

Name Type Description Required Default
completion_tokens integer Numero di gettoni nel completamento generato. Yes
completion_tokens_details object Suddivisione dei gettoni usati in una completazione. No
└─ accepted_prediction_tokens integer Quando si usano i Output Previsti, il numero di token nella previsione che apparve nella completazione. No
└─ audio_tokens integer Token di input audio generati dal modello. No
└─ reasoning_tokens integer Token generati dal modello per ragionamento. No
└─ rejected_prediction_tokens integer Quando si usano i Output Previsti, il numero di token nella previsione che non sono apparsi nel completamento. Tuttavia, come i token di ragionamento, questi token sono comunque conteggiati nel totale dei token di completamento ai fini di fatturazione, output e limiti delle finestre contestuali. No
prompt_tokens integer Numero di gettoni nel prompt. Yes
prompt_tokens_details object Dettagli dei gettoni del prompt. No
└─ audio_tokens integer Token audio di input presenti nel prompt. No
└─ cached_tokens integer Il numero di token prompt memorizzati nella cache. No
total_tokens integer Numero totale di token utilizzati nella richiesta (prompt + completamento). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Il tipo di attrezzo. Attualmente, solo function è supportato.
Valori possibili: function
Yes

FunctionParameters

I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Omettere parameters definisce una funzione con una lista di parametri vuota.

Nessuna proprietà definita per questo componente.

FunctionObject

Name Type Description Required Default
description string Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
name string Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. Yes
parameters FunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.

Omettere parameters definisce una funzione con una lista di parametri vuota.
No
strict boolean Se abilitare una rigorosa aderenza allo schema durante la generazione della chiamata di funzione. Se impostato su vero, il modello seguirà esattamente lo schema definito nel parameters campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. No False

ResponseFormatText

Name Type Description Required Default
type enum Il tipo di formato di risposta definito: text
Valori possibili: text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Il tipo di formato di risposta definito: json_object
Valori possibili: json_object
Yes

ResponseFormatJsonSchemaSchema

Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.

Nessuna proprietà definita per questo componente.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Una descrizione del motivo del formato di risposta, usata dal modello per determinare come rispondere nel formato. No
└─ name string Il nome del formato della risposta. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. No
└─ schema ResponseFormatJsonSchemaSchema Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. No
└─ strict boolean Se abilitare una rigorosa aderenza allo schema durante la generazione dell'output. Se impostato su vero, il modello seguirà sempre esattamente lo schema definito nel schema campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. No False
type enum Il tipo di formato di risposta definito: json_schema
Valori possibili: json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Il file audio da tradurre. Yes
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0

audioResponse

Risposta alla traduzione o trascrizione quando response_format era json

Name Type Description Required Default
text string Testo tradotto o trascritto. Yes

audioVerboseResponse

Risposta alla traduzione o trascrizione quando response_format era verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Tipo di compito audio. No
text string Testo tradotto o trascritto. Yes
words array No

audioResponseFormat

Definisce il formato dell'output.

Property Value
Description Definisce il formato dell'output.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Il file audio oggetto da trascrivere. Yes
language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliora accuratezza e latenza. No
prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. No
response_format audioResponseFormat Definisce il formato dell'output. No
temperature number La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. No 0
timestamp_granularities[] array Le granularità del timestamp da popolare per questa trascrizione. response_format deve essere impostato verbose_json per utilizzare granularità di timestamp. Una o entrambe queste opzioni sono supportate: word, oppure segment. Nota: Non c'è latenza aggiuntiva per i timestamp dei segmenti, ma generare timestamp di parole comporta latenza aggiuntiva. No ['segment']

audioSegment

Segmento di trascrizione o traduzione.

Name Type Description Required Default
avg_logprob number Probabilità logaritmica media. No
compression_ratio number Compression ratio. No
end number Offset di fine segmento. No
id integer Segment identifier. No
no_speech_prob number Probabilità di 'nessun discorso'. No
seek number Offset rispetto al segmento. No
start number Offset di inizio segmento. No
temperature number Temperature. No
text string Segment text. No
tokens array Simboli del testo. No

audioWord

Parola di trascrizione o traduzione.

Name Type Description Required Default
end number Offset di fine Word. No
start number Word start offset. No
word string Word No

createSpeechRequest

Speech request.

Name Type Description Required Default
input string Il testo per sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. Yes
response_format enum Il formato in cui sintetizzare l'audio.
Valori possibili: mp3, opus, aac, flac, wav, pcm
No
speed number La velocità dell'audio sintetizzato. Seleziona un valore da 0.25 a 4.0. 1.0 è la norma predefinita. No 1.0
voice enum La voce da usare per la sintesi vocale.
Valori possibili: alloy, echo, fable, onyx, nova, shimmer
Yes

imageQuality

La qualità dell'immagine che verrà generata.

Property Value
Description La qualità dell'immagine che verrà generata.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Il formato in cui vengono restituite le immagini generate.

Property Value
Description Il formato in cui vengono restituite le immagini generate.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie.

Property Value
Description Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli della serie GPT-image-1.
Type string
Default png
Values png
jpeg

imageSize

La dimensione delle immagini generate.

Property Value
Description La dimensione delle immagini generate.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Lo stile delle immagini generate. Supportato solo per DALL-E-3.

Property Value
Description Lo stile delle immagini generate. Supportato solo per DALL-E-3.
Type string
Default vivid
Values vivid
natural

imageBackground

Permette di impostare trasparenza per lo sfondo dell'immagine o delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1.

Property Value
Description Permette di impostare trasparenza per lo sfondo dell'immagine o delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Permette di impostare trasparenza per lo sfondo dell'immagine o delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1. No auto
n integer Il numero di immagini da generare. Per dall-e-3, è supportato solo n=1. No 1
output_compression integer Il livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per modelli della serie gpt-image-1 con il formato di uscita jpeg. No 100
output_format imagesOutputFormat Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli della serie GPT-image-1. No png
prompt string Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32.000 caratteri per i modelli della serie gpt-image-1 e 4.000 caratteri per dall-e-3 Yes
quality imageQuality La qualità dell'immagine che verrà generata. No auto
response_format imagesResponseFormat Il formato in cui vengono restituite le immagini generate. Supportato solo per DALL-E-3. No url
size imageSize La dimensione delle immagini generate. No auto
style imageStyle Lo stile delle immagini generate. Supportato solo per DALL-E-3. No vivid
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No

imageEditsRequest

Name Type Description Required Default
image stringa o array L'immagine o le immagini da modificare. Deve essere un file immagine supportato o un array di immagini. Ogni immagine dovrebbe essere un file png o jpg inferiore a 25MB. Yes
mask string Un'immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indica dove l'immagine dovrebbe essere modificata. Se sono fornite più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, inferiore a 4MB, e avere le stesse dimensioni dell'immagine. No
n integer Il numero di immagini da generare. No 1
prompt string Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32000 caratteri. Yes
quality imageQuality La qualità dell'immagine che verrà generata. No auto
response_format imagesResponseFormat Il formato in cui vengono restituite le immagini generate. No url
size imageSize La dimensione delle immagini generate. No auto
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. No

generateImagesResponse

Name Type Description Required Default
created integer Il timestamp di unix quando è stata creata l'operazione. Yes
data array I dati di risultato dell'operazione, se riusciti Yes
usage imageGenerationsUsage Rappresenta i dettagli di utilizzo dei token per le richieste di generazione delle immagini. Solo per modelli della serie GPT-image-1. No

imageResult

L'URL dell'immagine o l'immagine codificata se riuscite, e un errore altrimenti.

Name Type Description Required Default
b64_json string L'immagine codificata base64 No
content_filter_results dalleContentFilterResults Informazioni sui risultati del filtraggio dei contenuti. No
prompt_filter_results dalleFilterResults Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. No
revised_prompt string Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. No
url string L'URL dell'immagine. No

imageGenerationsUsage

Rappresenta i dettagli di utilizzo dei token per le richieste di generazione delle immagini. Solo per modelli della serie GPT-image-1.

Name Type Description Required Default
input_tokens integer Il numero di token di input. No
input_tokens_details object Una suddivisione dettagliata dei token di input. No
└─ image_tokens integer Il numero di token immagine. No
└─ text_tokens integer Il numero di gettoni di testo. No
output_tokens integer Il numero di token di output. No
total_tokens integer Il numero totale di gettoni utilizzati. No

line

Un oggetto linea di contenuto costituito da una sequenza adiacente di elementi di contenuto, come parole e segni di selezione.

Name Type Description Required Default
spans array Un array di spazi che rappresentano gli oggetti rilevati e le informazioni sulla loro bounding box. Yes
text string Yes

span

Un oggetto span che rappresenta un oggetto rilevato e le sue informazioni sulla scatola di confine.

Name Type Description Required Default
length integer La lunghezza dello spazio in caratteri, misurata in codici Unicode. Yes
offset integer L'offset del carattere all'interno del testo dove inizia lo span. Questo offset è definito come la posizione del primo carattere dello span, contando dall'inizio del testo come punti codice Unicode. Yes
polygon array Un array di oggetti che rappresentano punti nel poligono che racchiude l'oggetto rilevato. Yes
text string Il contenuto testuale dello span che rappresenta l'oggetto rilevato. Yes

runCompletionUsage

Statistiche di utilizzo relative alla corsa. Questo valore sarà null se la run non è in uno stato terminale (cioè in_progress, queued, ecc.).

Name Type Description Required Default
completion_tokens integer Numero di gettoni di completamento usati durante la run. Yes
prompt_tokens integer Numero di token prompt usati durante la run. Yes
total_tokens integer Numero totale di gettoni utilizzati (prompt + completamento). Yes

runStepCompletionUsage

Statistiche di utilizzo relative al passo di corsa. Questo valore sarà null mentre lo stato del passo di corsa è in_progress.

Name Type Description Required Default
completion_tokens integer Numero di token di completamento utilizzati durante la fase di corsa. Yes
prompt_tokens integer Numero di gettoni di prompt usati durante il passo di corsa. Yes
total_tokens integer Numero totale di gettoni utilizzati (prompt + completamento). Yes

assistantsApiResponseFormatOption

Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.

Questo componente può essere uno dei seguenti:

assistantsApiResponseFormat

Un oggetto che descrive l'output atteso del modello. Se json_object solo function il tipo tools può essere passato alla Run. Se text il modello può restituire testo o qualsiasi valore necessario.

Name Type Description Required Default
type string Deve essere uno di text oppure json_object. No text

tipo Enum: AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Rappresenta un assistant che può chiamare il modello e usare strumenti.

Name Type Description Required Default
created_at integer Il timestamp Unix (in secondi) indica quando l'assistente è stato creato. Yes
description string La descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
Yes
id string L'identificatore, che può essere consultato negli endpoint API. Yes
instructions string Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 256.000 caratteri.
Yes
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
Yes
model string ID del modello da utilizzare. Yes
name string Il nome dell'assistente. La lunghezza massima è di 256 caratteri.
Yes
object string Il tipo di oggetto, che è sempre assistant. Yes
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array L'ID del vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, file_search, o function.
Yes []
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1

object Enum: AssistantObjectType

Value Description
assistant Il tipo di oggetto, che è sempre assistente

createAssistantRequest

Name Type Description Required Default
description string La descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 256.000 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string Yes
name string Il nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
└─ vector_stores array Un aiutante per creare un vettoriale store con file_ids e collegarlo a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function.
No []
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string La descrizione dell'assistente. La lunghezza massima è di 512 caratteri.
No
instructions string Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 32768 caratteri.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string No
name string Il nome dell'assistente. La lunghezza massima è di 256 caratteri.
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Sovrascrive l'elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Sovrascrive il vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function.
No []
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

oggetto Enum: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Il tipo di strumento definito: code_interpreter Yes

tipo Enum: assistenteToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Sovrascrive lo strumento di ricerca file. No
└─ max_num_results integer Il numero massimo di risultati che lo strumento di ricerca file dovrebbe generare. Il valore predefinito è 20 per i modelli gpt-4* e 5 per i gpt-3.5-turbo. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi.

Si noti che lo strumento di ricerca file può fornire meno risultati dei max_num_results risultati.
No
type string Il tipo di strumento definito: file_search Yes

tipo Enum: assistenteToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Il tipo di strumento definito: file_search Yes

tipo Enum: assistenteToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object La definizione della funzione. Yes
└─ description string Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. No
└─ name string Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. No
└─ parameters chatCompletionFunctionParameters I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato. No
type string Il tipo di strumento definito: function Yes

tipo Enum: assistenteStrumentiFunzione

Value Description
function

truncationObject

Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run.

Name Type Description Required Default
last_messages integer Il numero di messaggi più recenti dal thread quando si costruisce il contesto per la run. No
type string La strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Quando impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza contestuale del modello, max_prompt_tokens. Yes

tipo Enum: TroncamentoTipo

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Controlla quale (se presente) strumento viene chiamato dal modello. none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio. auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento. Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.

Questo componente può essere uno dei seguenti:

assistantsNamedToolChoice

Specifica uno strumento che il modello dovrebbe utilizzare. Usalo per forzare il modello a chiamare uno strumento specifico.

Name Type Description Required Default
function object No
└─ name string Il nome della funzione da chiamare. No
type string Il tipo di attrezzo. Se il tipo è function, il nome della funzione deve essere impostato Yes

tipo Enum: AssistentiNominatoSceltaStrumento

Value Description
function
code_interpreter
file_search

runObject

Rappresenta un'esecuzione su un thread.

Name Type Description Required Default
assistant_id string L'ID dell'assistente utilizzato per l'esecuzione di questa corsa. Yes
cancelled_at integer Il timestamp Unix (in pochi secondi) indicava quando l'esecuzione veniva annullata. Yes
completed_at integer Il timestamp Unix (in pochi secondi) indica quando l'esecuzione è stata completata. Yes
created_at integer Il timestamp Unix (in secondi) indicava quando l'esecuzione è stata creata. Yes
expires_at integer Il timestamp Unix (in pochi secondi) indica quando l'esecuzione scaderà. Yes
failed_at integer Il timestamp Unix (in pochi secondi) indica quando l'esecuzione falliva. Yes
id string L'identificatore, che può essere consultato negli endpoint API. Yes
incomplete_details object Dettagli sul perché la run è incompleta. Lo null sarà se la run non è incompleta. Yes
└─ reason string Il motivo per cui la run è incompleta. Questo indicherà quale limite specifico di token è stato raggiunto durante la run. No
instructions string Le istruzioni che l'assistente ha usato per questa corsa. Yes
last_error object L'ultimo errore associato a questa corsa. Lo null sarà se non ci sono errori. Yes
└─ code string Uno di server_error oppure rate_limit_exceeded. No
└─ message string Una descrizione leggibile dall'uomo dell'errore. No
max_completion_tokens integer Il numero massimo di gettoni di completamento specificati da utilizzare durante la corsa.
Yes
max_prompt_tokens integer Il numero massimo di token prompt specificati da utilizzare durante la corsa.
Yes
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
Yes
model string Il modello che l'assistente ha usato per questa corsa. Yes
object string Il tipo di oggetto, che è sempre thread.run. Yes
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
required_action object Dettagli sull'azione necessaria per continuare la corsa. Lo null sarà se non è necessaria alcuna azione. Yes
└─ submit_tool_outputs object Dettagli sugli output degli strumenti necessari affinché questa corsa continui. No
└─ tool_calls array Un elenco delle chiamate degli strumenti rilevanti. No
└─ type enum Per ora, questo è sempre submit_tool_outputs.
Valori possibili: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
Yes
started_at integer Il timestamp Unix (in pochi secondi) indica quando è stata avviata la run. Yes
status string Lo stato della corsa, che può essere o queued, in_progress, requires_action, cancelling, cancelledfailed, , completed, o expired. Yes
temperature number La temperatura di campionamento utilizzata per questa prova. Se non impostato, il valore predefinito è 1. No
thread_id string L'ID dei thread su cui è stato eseguito come parte di questa run. Yes
tool_choice assistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
Yes
tools array L'elenco degli strumenti che l'assistente ha usato per questa corsa. Yes []
top_p number Il valore di campionamento del nucleo utilizzato per questa corsa. Se non impostato, il valore predefinito è 1. No
truncation_strategy truncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. Yes
usage runCompletionUsage Statistiche di utilizzo relative alla corsa. Questo valore sarà null se la run non è in uno stato terminale (cioè in_progress, queued, ecc.). Yes

object Enum: runObjectType

Value Description
thread.run Il tipo di oggetto run che è sempre thread.run

status Enum: RunObjectStatus

Value Description
queued Lo stato in coda
in_progress Lo stato in_progress
requires_action Lo stato required_action
cancelling Lo stato di cancellazione
cancelled Lo stato cancellato
failed Lo stato fallito
completed Lo stato completato
expired Lo stato scaduto

createRunRequest

Name Type Description Required Default
additional_instructions string Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. No
additional_messages array Aggiunge messaggi aggiuntivi al thread prima di creare la run. No
assistant_id string L'ID dell'assistente da usare per eseguire questa corsa. Yes
instructions string Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
max_prompt_tokens integer Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string L'ID del Modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio.
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
tool_choice assistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
tools array Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio.
No
tool_outputs array Un elenco degli strumenti per cui vengono inviati i risultati. Yes

runToolCallObject

Oggetti di chiamata degli strumenti

Name Type Description Required Default
function object La definizione della funzione. Yes
└─ arguments string Gli argomenti che il modello si aspetta che tu passi alla funzione. No
└─ name string Il nome della funzione. No
id string L'ID della chiamata dello strumento. Questo ID deve essere riferito quando invii gli output dello strumento usando gli output dello strumento per eseguire endpointendpoint. Yes
type string Il tipo di chiamata dello strumento per cui è richiesta l'output. Per ora, questo è sempre function. Yes

tipo Enum: RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string L'ID dell'assistente da usare per eseguire questa corsa. Yes
instructions string Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. No
max_completion_tokens integer Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
max_prompt_tokens integer Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni.
No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
model string L'ID dei modelli da utilizzare per eseguire questa corsa. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. No
parallel_tool_calls ParallelToolCalls Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. No True
response_format assistantsApiResponseFormatOption Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.

Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.

Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.

Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
No
stream boolean Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio.
No
stream_options chatCompletionStreamOptions Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
No None
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
No
tool_resources object Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array L'ID del vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente.
No
tools array Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. No
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

In genere consigliamo di modificare questo o la temperatura, ma non entrambi.
No 1
truncation_strategy truncationObject Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. No

threadObject

Rappresenta un thread che contiene messaggi.

Name Type Description Required Default
created_at integer Il timestamp Unix (in pochi secondi) indica quando il thread è stato creato. Yes
id string L'identificatore, che può essere consultato negli endpoint API. Yes
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
Yes
object string Il tipo di oggetto, che è sempre thread. Yes
tool_resources object Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
Yes
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No

object Enum: ThreadObjectType

Value Description
thread Il tipo di oggetto thread che è sempre thread

createThreadRequest

Name Type Description Required Default
messages array Una lista di messaggi per iniziare la discussione. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
tool_resources object Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No
└─ vector_stores array Un aiutante per creare un vettoriale store con file_ids e allegarlo a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
tool_resources object Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale.
No
└─ code_interpreter object No
└─ file_ids array Un elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento.
No []
└─ file_search object No
└─ vector_store_ids array Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum: DeleteThreadResponseObjectState

Value Description
thread.deleted Lo stato dell'oggetto di risposta delete thread che è thread.deleted

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Rappresenta un messaggio all'interno di un thread.

Name Type Description Required Default
assistant_id string Se applicabile, l'ID dell'assistente che ha scritto questo messaggio. Yes
attachments array Un elenco di file allegati al messaggio e gli strumenti a cui sono stati aggiunti. Yes
completed_at integer Il timestamp Unix (in secondi) indicava quando il messaggio era stato completato. Yes
content array Il contenuto del messaggio è formato in un insieme di testo e/o immagini. Yes
created_at integer Il timestamp Unix (in secondi) indica quando il messaggio è stato creato. Yes
id string L'identificatore, che può essere consultato negli endpoint API. Yes
incomplete_at integer Il timestamp Unix (in secondi) indicava quando il messaggio veniva marcato come incompleto. Yes
incomplete_details object Su un messaggio incompleto, dettagli sul motivo per cui il messaggio è incompleto. Yes
└─ reason string Il motivo per cui il messaggio è incompleto. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
Yes
object string Il tipo di oggetto, che è sempre thread.message. Yes
role string L'entità che ha prodotto il messaggio. Uno di user oppure assistant. Yes
run_id string Se applicabile, l'ID della run associata all'authoring di questo messaggio. Yes
status string Lo stato del messaggio, che può essere o in_progress, incomplete, oppure completed. Yes
thread_id string L'ID del thread a cui appartiene questo messaggio. Yes

oggetto Enum: MessageObjectType

Value Description
thread.message Il tipo di oggetto messaggio che è thread.message

status Enum: MessageObjectStatus

Value Description
in_progress
incomplete
completed

ruolo Enum: MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Rappresenta un delta del messaggio, cioè qualsiasi campo modificato su un messaggio durante lo streaming.

Name Type Description Required Default
delta object Il delta contenente i campi che sono cambiati nel Messaggio. Yes
└─ content array Il contenuto del messaggio è formato in un insieme di testo e/o immagini. No
└─ role string L'entità che ha prodotto il messaggio. Uno di user oppure assistant. No
id string L'identificatore del messaggio, che può essere riferito negli endpoint API. Yes
object string Il tipo di oggetto, che è sempre thread.message.delta. Yes

object Enum: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Un elenco dei file allegati al messaggio e gli strumenti a cui dovrebbero essere aggiunti. No
content string Il contenuto del messaggio. Yes
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
role string Il ruolo dell'entità che crea il messaggio. I valori consentiti includono:
- user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.
- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione.
Yes

ruolo Enum: CreaMessaggioRichiestaRuolo

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

oggetto Enum: DeleteMessageResponseObject

Value Description
thread.message.deleted Stato dell'oggetto di risposta del messaggio elimina

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Fa riferimento a un file immagine nel contenuto di un messaggio.

Name Type Description Required Default
image_file object Yes
└─ file_id string L'ID file dell'immagine nel contenuto del messaggio. No
type string Sempre image_file. Yes

tipo Enum: MessageContentImageFileObjectType

Value Description
image_file Il tipo di file immagine del contenuto del messaggio

messageContentTextObject

Il contenuto testuale che fa parte di un messaggio.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ value string I dati che compongono il testo. No
type string Sempre text. Yes

tipo Enum: messaggiContenutoTestoOggTipo

Value Description
text Il contenuto del messaggio testo Tipo di oggetto

messageContentTextAnnotationsFileCitationObject

Una citazione all'interno del messaggio che indica una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento di "recupero" per cercare nei file.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└─ file_id string L'ID del file specifico da cui proviene la citazione. No
start_index integer Yes
text string Il testo nel contenuto del messaggio che deve essere sostituito. Yes
type string Sempre file_citation. Yes

tipo Enum: FileCitationObjectType

Value Description
file_citation Il tipo di oggetto citazione del file

messageContentTextAnnotationsFilePathObject

Un URL per il file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└─ file_id string L'ID del file generato. No
start_index integer Yes
text string Il testo nel contenuto del messaggio che deve essere sostituito. Yes
type string Sempre file_path. Yes

tipo Enum: FilePathObjectType

Value Description
file_path Il tipo di oggetto percorso del file

messageDeltaContentImageFileObject

Fa riferimento a un file immagine nel contenuto di un messaggio.

Name Type Description Required Default
image_file object No
└─ file_id string L'ID file dell'immagine nel contenuto del messaggio. No
index integer L'indice del contenuto nel messaggio. Yes
type string Sempre image_file. Yes

tipo Enum: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Il contenuto testuale che fa parte di un messaggio.

Name Type Description Required Default
index integer L'indice del contenuto nel messaggio. Yes
text object No
└─ annotations array No
└─ value string I dati che compongono il testo. No
type string Sempre text. Yes

tipo Enum: MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Una citazione all'interno del messaggio che indica una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare nei file.

Name Type Description Required Default
end_index integer No
file_citation object No
└─ file_id string L'ID del file specifico da cui proviene la citazione. No
└─ quote string La citazione specifica nel fascicolo. No
index integer L'indice dell'annotazione nella parte di contenuto testuale. Yes
start_index integer No
text string Il testo nel contenuto del messaggio che deve essere sostituito. No
type string Sempre file_citation. Yes

tipo Enum: MessaggiDeltaContenutoTestoAnnotazioniFileCitazioneOggettoTipo

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Un URL per il file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.

Name Type Description Required Default
end_index integer No
file_path object No
└─ file_id string L'ID del file generato. No
index integer L'indice dell'annotazione nella parte di contenuto testuale. Yes
start_index integer No
text string Il testo nel contenuto del messaggio che deve essere sostituito. No
type string Sempre file_path. Yes

tipo Enum: MessageDeltaContentTestoAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Rappresenta un passaggio nell'esecuzione di una corsa.

Name Type Description Required Default
assistant_id string L'ID dell'assistente associato al passo di corsa. Yes
cancelled_at integer Il timestamp Unix (in pochi secondi) indicava quando il run step veniva cancellato. Yes
completed_at integer Il timestamp Unix (in secondi) indica quando il passo di esecuzione è stato completato. Yes
created_at integer Il timestamp Unix (in secondi) indica quando è stato creato il passo di esecuzione. Yes
expired_at integer Il timestamp Unix (in secondi) indica quando il run step è scaduto. Un passaggio è considerato scaduto se la run principale è scaduta. Yes
failed_at integer Il timestamp Unix (in secondi) indica quando il run step fallisce. Yes
id string L'identificatore del passo di esecuzione, che può essere riferito negli endpoint API. Yes
last_error object L'ultimo errore associato a questo passo di esecuzione. Lo null sarà se non ci sono errori. Yes
└─ code string Uno di server_error oppure rate_limit_exceeded. No
└─ message string Una descrizione leggibile dall'uomo dell'errore. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
Yes
object string Il tipo di oggetto, che è sempre assistant.run.step. Yes
run_id string L'ID della run di cui fa parte questo step di run. Yes
status string Lo stato della run, che può essere o in_progress, cancelled, failed, completed, o expired. Yes
step_details runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject I dettagli del passo di corsa. Yes
thread_id string L'ID dei thread che sono stati eseguiti. Yes
type string Il tipo di passo di corsa, che può essere o message_creation o tool_calls. Yes

object Enum: RunStepObjectType

Value Description
assistant.run.step Il tipo oggetto, che è sempre assistant.run.step

tipo Enum: RunStepObjectType

Value Description
message_creation Il passo message_creation corsa
tool_calls Il passo tool_calls corsa

status Enum: RunStepObjectStatus

Value Description
in_progress Lo stato della in_progress
cancelled Stato della corsa annullata
failed Stato della corsa annullata
completed Stato della corsa annullata
expired Stato della corsa annullata

runStepDeltaObject

Rappresenta un delta di run step, cioè qualsiasi campo modificato in un run step durante lo streaming.

Name Type Description Required Default
delta object Il delta contenente i campi che sono cambiati durante il passo di corsa. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject I dettagli del passo di corsa. No
id string L'identificatore del passo di esecuzione, che può essere riferito negli endpoint API. Yes
object string Il tipo di oggetto, che è sempre thread.run.step.delta. Yes

object Enum: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Dettagli della creazione del messaggio per passo di esecuzione.

Name Type Description Required Default
message_creation object Yes
└─ message_id string L'ID del messaggio creato da questo passo di esecuzione. No
type string Sempre message_creation. Yes

tipo Enum: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Dettagli della creazione del messaggio per passo di esecuzione.

Name Type Description Required Default
message_creation object No
└─ message_id string L'ID del messaggio creato da questo passo di esecuzione. No
type string Sempre message_creation. Yes

tipo Enum: RunStepDeltaStepDettagliMessaggioCreazioneOggettoType

Value Description
message_creation

runStepDetailsToolCallsObject

Dettagli della chiamata dello strumento.

Name Type Description Required Default
tool_calls array Una serie di chiamate di strumenti a cui il run step era coinvolto. Questi possono essere associati a uno di tre tipi di strumenti: code_interpreter, retrieval oppure function.
Yes
type string Sempre tool_calls. Yes

tipo Enum: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Dettagli della chiamata dello strumento.

Name Type Description Required Default
tool_calls array Una serie di chiamate di strumenti a cui il run step era coinvolto. Questi possono essere associati a uno di tre tipi di strumenti: code_interpreter, file_search oppure function.
No
type string Sempre tool_calls. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

I dettagli dello strumento Code Interpreter chiamano il passo di esecuzione in cui era coinvolto.

Name Type Description Required Default
code_interpreter object Definizione di chiamata dello strumento Code Interpreter. Yes
└─ input string L'input dello strumento Code Interpreter chiama. No
└─ outputs array Gli output dello strumento Code Interpreter chiamano. L'Interprete di Codice può generare uno o più elementi, inclusi testo (logs) o immagini (image). Ognuno di questi è rappresentato da un diverso tipo di oggetto. No
id string L'ID della chiamata dello strumento. Yes
type string Il tipo di chiamata di attrezzo. Questo sarà code_interpreter sempre per questo tipo di chiamata di strumenti. Yes

tipo Enum: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

I dettagli dello strumento Code Interpreter chiamano il passo di esecuzione in cui era coinvolto.

Name Type Description Required Default
code_interpreter object Definizione di chiamata dello strumento Code Interpreter. No
└─ input string L'input dello strumento Code Interpreter chiama. No
└─ outputs array Gli output dello strumento Code Interpreter chiamano. L'Interprete di Codice può generare uno o più elementi, inclusi testo (logs) o immagini (image). Ognuno di questi è rappresentato da un diverso tipo di oggetto. No
id string L'ID della chiamata dello strumento. No
index integer L'indice della chiamata dello strumento nell'array dello strumento chiama. Yes
type string Il tipo di chiamata di attrezzo. Questo sarà code_interpreter sempre per questo tipo di chiamata di strumenti. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

L'output di testo dallo strumento Code Interpreter chiama come parte di un run step.

Name Type Description Required Default
logs string L'output del testo dallo strumento Code Interpreter chiama. Yes
type string Sempre logs. Yes

Tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

L'output di testo dallo strumento Code Interpreter chiama come parte di un run step.

Name Type Description Required Default
index integer L'indice dell'uscita nell'array di uscite. Yes
logs string L'output del testo dallo strumento Code Interpreter chiama. No
type string Sempre logs. Yes

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└─ file_id string L'ID file dell'immagine. No
type string Sempre image. Yes

tipo Enum: RunStepDettagliStrumentoChiamateCodeOutputImmagineOggettoTipo

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└─ file_id string L'ID file dell'immagine. No
index integer L'indice dell'uscita nell'array di uscite. Yes
type string Sempre image. Yes

Tipo Enum: RunStepDeltaStepDettagliToolChiamateCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Per ora, questo sarà sempre un oggetto vuoto. Yes
└─ results array I risultati della ricerca nei file. No
id string L'ID dell'oggetto di chiamata dello strumento. Yes
type string Il tipo di chiamata di attrezzo. Questo sarà file_search sempre per questo tipo di chiamata di strumenti. Yes

tipo Enum: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Un'istanza risultante della ricerca file.

Name Type Description Required Default
content array Il contenuto del risultato che è stato trovato. Il contenuto è incluso solo se richiesto tramite il parametro di query include. No
file_id string L'ID del file in cui è stato trovato quel risultato. Yes
file_name string Il nome del file in cui è stato trovato quel risultato. Yes
score number Il punteggio del risultato. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Per ora, questo sarà sempre un oggetto vuoto. Yes
id string L'ID dell'oggetto di chiamata dello strumento. No
index integer L'indice della chiamata dello strumento nell'array dello strumento chiama. Yes
type string Il tipo di chiamata di attrezzo. Questo sarà retrieval sempre per questo tipo di chiamata di strumenti. Yes

tipo Enum: RunStepDeltaStepDettagliStrumentoChiamateFileRicercaOggTipo

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object La definizione della funzione che è stata chiamata. Yes
└─ arguments string Gli argomenti passavano alla funzione. No
└─ name string Il nome della funzione. No
└─ output string L'output della funzione. Questo avverrà null se i risultati non sono ancora stati inviati. No
id string L'ID dell'oggetto di chiamata dello strumento. Yes
type string Il tipo di chiamata di attrezzo. Questo sarà function sempre per questo tipo di chiamata di strumenti. Yes

tipo Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object La definizione della funzione che è stata chiamata. No
└─ arguments string Gli argomenti passavano alla funzione. No
└─ name string Il nome della funzione. No
└─ output string L'output della funzione. Questo avverrà null se i risultati non sono ancora stati inviati. No
id string L'ID dell'oggetto di chiamata dello strumento. No
index integer L'indice della chiamata dello strumento nell'array dello strumento chiama. Yes
type string Il tipo di chiamata di attrezzo. Questo sarà function sempre per questo tipo di chiamata di strumenti. Yes

tipo Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

La politica di scadenza per uno store vettoriale.

Name Type Description Required Default
anchor string Time stamp dell'ancora dopo il quale si applica la politica di scadenza. Ancoraggi supportati: last_active_at. Yes
days integer Il numero di giorni dopo il tempo di ancoragga in cui lo store vettoriale scadrà. Yes

Enum ancora: VectorStoreExpirationAfterAnchor

Value Description
last_active_at Il timestamp dell'ancoraggio dopo il quale si applica la politica di scadenza.

vectorStoreObject

Un vettoriale storage è una raccolta di file elaborati che possono essere utilizzati dallo file_search strumento.

Name Type Description Required Default
created_at integer Il timestamp Unix (in secondi) indicato quando è stato creato il vettoriale store. Yes
expires_after vectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
expires_at integer Il timestamp Unix (in pochi secondi) indica quando lo store vettoriale scaderà. No
file_counts object Yes
└─ cancelled integer Il numero di file che sono stati cancellati. No
└─ completed integer Il numero di file che sono stati processati con successo. No
└─ failed integer Il numero di file che non sono stati processati. No
└─ in_progress integer Il numero di file attualmente in fase di elaborazione. No
└─ total integer Il numero totale di file. No
id string L'identificatore, che può essere consultato negli endpoint API. Yes
last_active_at integer Il timestamp Unix (in secondi) indica quando lo store vettoriale era attivo l'ultima volta. Yes
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
Yes
name string Il nome del negozio vettoriale. Yes
object enum Il tipo di oggetto, che è sempre vector_store.
Valori possibili: vector_store
Yes
status string Lo stato dello store vettoriale, che può essere o expired, in_progress, oppure completed. Lo stato di completed indica che lo store vettoriale è pronto all'uso. Yes
usage_bytes integer Il numero totale di byte utilizzati dai file nello store vettoriale. Yes

status Enum: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
expires_after vectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
file_ids array Un elenco degli ID file che il vettore store dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
name string Il nome del negozio vettoriale. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter La politica di scadenza per uno store vettoriale. No
metadata object Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri.
No
name string Il nome del negozio vettoriale. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

oggetto Enum: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted Lo stato dell'oggetto di risposta del vettore delete store

vectorStoreFileObject

Una lista di file collegati a un archivio vettoriale.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. No
created_at integer Il timestamp Unix (in pochi secondi) indicato quando il file di archivio vettoriale è stato creato. Yes
id string L'identificatore, che può essere consultato negli endpoint API. Yes
last_error object L'ultimo errore associato a questo file di archiviazione vettoriale. Lo null sarà se non ci sono errori. Yes
└─ code string Uno di server_error oppure invalid_fileunsupported_file. No
└─ message string Una descrizione leggibile dall'uomo dell'errore. No
object string Il tipo di oggetto, che è sempre vector_store.file. Yes
status string Lo stato del file vettoriale store, che può essere o in_progress, completed, cancelled, o failed. Lo stato completed indica che il file di archiviazione vettoriale è pronto per l'uso. Yes
usage_bytes integer L'utilizzo totale della memorizzazione vettoriale in byte. Nota che questo potrebbe essere diverso dalla dimensione originale del file. Yes
vector_store_id string L'ID della memoria vettoriale a cui il file è collegato. Yes

object Enum: VectorStoreFileObjectType

Value Description
vector_store.file

status Enum: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Questo viene restituito quando la strategia di schunking è sconosciuta. Tipicamente, ciò accade perché il file era indicizzato prima che il chunking_strategy concetto venisse introdotto nell'API.

Name Type Description Required Default
type string Sempre other. Yes

tipo Enum: AltroChunkingStrategiaRispostaParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Sempre static. Yes

tipo Enum: StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Il numero di token che si sovrappongono tra i chunk. Il valore predefinito è 400.

Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Il numero massimo di gettoni in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096. Yes

autoChunkingStrategyRequestParam

La strategia predefinita. Questa strategia attualmente utilizza un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400.

Name Type Description Required Default
type enum Sempre auto.
Valori possibili: auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Sempre static.
Valori possibili: static
Yes

chunkingStrategyRequestParam

La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto .

Questo componente può essere uno dei seguenti:

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . No
file_id string Un ID file che il vettoriale storage dovrebbe usare. Utile per strumenti come file_search questo che può accedere ai file. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

oggetto Enum: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Un lotto di file collegati a un archivio vettoriale.

Name Type Description Required Default
created_at integer Il timestamp Unix (in pochi secondi) indicava quando i file vettoriali erano creati in lot. Yes
file_counts object Yes
└─ cancelled integer Il numero di file che sono stati cancellati. No
└─ completed integer Il numero di file che sono stati elaborati. No
└─ failed integer Il numero di file che non sono stati processati. No
└─ in_progress integer Il numero di file attualmente in fase di elaborazione. No
└─ total integer Il numero totale di file. No
id string L'identificatore, che può essere consultato negli endpoint API. Yes
object string Il tipo di oggetto, che è sempre vector_store.file_batch. Yes
status string Lo stato dei file vettoriali memorizza in batch, che può essere o in_progress, completed, cancelled oppure failed. Yes
vector_store_id string L'ID dello store vettoriale a cui il File è collegato. Yes

object Enum: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

status Enum: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . No
file_ids array Un elenco degli ID file che lo store vettoriale dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. Yes

assistantStreamEvent

Rappresenta un evento emesso durante lo streaming di una Run.

Ogni evento in un flusso di eventi inviato dal server ha una event proprietà e data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emettiamo eventi ogni volta che un nuovo oggetto viene creato, transita a un nuovo stato o viene diffuso in parti (delta). Ad esempio, emettiamo thread.run.created quando viene creata una nuova run, thread.run.completed quando una run si completa, e così via. Quando un Assistente sceglie di creare un messaggio durante una run, emettiamo un thread.message.created event, un thread.message.in_progress evento, molti thread.message.delta eventi e infine un thread.message.completed evento.

Potremmo aggiungere eventi aggiuntivi nel tempo, quindi consigliamo di gestire con grazia gli eventi sconosciuti nel tuo codice.

Questo componente può essere uno dei seguenti:

threadStreamEvent

Questo componente può essere uno dei seguenti:

thread.created

Succede quando viene creato un nuovo thread.

Name Type Description Required Default
data threadObject Rappresenta un thread che contiene messaggi. Yes
event string Yes

Data: threadObject

Event Enum: ThreadStreamEventEnum

Value Description
thread.created L'evento creato dal thread

runStreamEvent

Questo componente può essere uno dei seguenti:

thread.run.created

Accade quando viene creata una nuova run.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Event Enum: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Accade quando una run passa a uno queued stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Event Enum: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Succede quando una run passa a uno in_progress stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Evento Enum: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Accade quando una run passa a uno requires_action stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Event Enum: RunStreamEventNecessitesAction

Value Description
thread.run.requires_action

thread.run.completed

Si verifica quando una run viene completata.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Evento Enum: RunStreamEventCompletato

Value Description
thread.run.completed

thread.run.failed

Succede quando una corsa fallisce.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Evento Enum: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Accade quando una run passa a uno cancelling stato.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Evento Enum: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Si verifica quando una run viene annullata.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Evento Enum: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Accade quando una run scade.

Name Type Description Required Default
data runObject Rappresenta un'esecuzione su un thread. Yes
event string Yes

Data: runObject

Evento Enum: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Questo componente può essere uno dei seguenti:

thread.run.step.created

Si verifica quando viene creato un passo di corsa.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio nell'esecuzione di una corsa.
Yes
event string Yes

Data: runStepObject

Evento Enum: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Accade quando un passo di corsa si sposta in uno in_progress stato.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio nell'esecuzione di una corsa.
Yes
event string Yes

Data: runStepObject

Event Enum: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Accade quando parti di un passo di esecuzione vengono trasmesse in streaming.

Name Type Description Required Default
data runStepDeltaObject Rappresenta un delta di run step, cioè qualsiasi campo modificato in un run step durante lo streaming.
Yes
event string Yes

Data: runStepDeltaObject

Event Enum: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Accade quando un passo di run viene completato.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio nell'esecuzione di una corsa.
Yes
event string Yes

Data: runStepObject

Evento Enum: RunStepStreamEventCompletato

Value Description
thread.run.step.completed

thread.run.step.failed

Accade quando un passo di corsa fallisce.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio nell'esecuzione di una corsa.
Yes
event string Yes

Data: runStepObject

Evento Enum: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Si verifica quando un passo di corsa viene cancellato.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio nell'esecuzione di una corsa.
Yes
event string Yes

Data: runStepObject

Evento Enum: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Si verifica quando un passo di run scade.

Name Type Description Required Default
data runStepObject Rappresenta un passaggio nell'esecuzione di una corsa.
Yes
event string Yes

Data: runStepObject

Evento Enum: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Questo componente può essere uno dei seguenti:

thread.message.created

Succede quando viene creato un messaggio.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Event Enum: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Accade quando un messaggio si sposta in uno in_progress stato.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Event Enum: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Si verifica quando parti di un messaggio vengono trasmesse in streaming.

Name Type Description Required Default
data messageDeltaObject Rappresenta un delta del messaggio, cioè qualsiasi campo modificato su un messaggio durante lo streaming.
Yes
event string Yes

Data: messageDeltaObject

Event Enum: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Succede quando un messaggio viene completato.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Evento Enum: MessageStreamEventCompletato

Value Description
thread.message.completed

thread.message.incomplete

Accade quando un messaggio termina prima di essere completato.

Name Type Description Required Default
data messageObject Rappresenta un messaggio all'interno di un thread. Yes
event string Yes

Data: messageObject

Event Enum: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Questo componente può essere uno dei seguenti:

Click

Un'azione di clic.

Name Type Description Required Default
button enum Indica quale tasto del mouse è stato premuto durante il clic. Uno di left, right, wheel, back, o forward.

Valori possibili: left, right, wheel, back, forward
Yes
type enum Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre impostata su click.

Valori possibili: click
Yes
x integer La coordinata x dove si è verificato il clic.
Yes
y integer La coordinata y in cui si è verificato il clic.
Yes

CodeInterpreterFileOutput

L'output di uno strumento interprete di codice chiama che è un file.

Name Type Description Required Default
files array Yes
type enum Il tipo di output del file dell'interprete di codice. Sempre files.

Valori possibili: files
Yes

CodeInterpreterTextOutput

L'output di uno strumento interprete di codice chiamato che è testo.

Name Type Description Required Default
logs string I log dello strumento interprete del codice chiamano.
Yes
type enum Il tipo dell'output del testo dell'interprete del codice. Sempre logs.

Valori possibili: logs
Yes

CodeInterpreterTool

Uno strumento che esegue codice.

Name Type Description Required Default
file_ids array Gli ID dei file su cui eseguire il codice.
Yes
type enum Il tipo di strumento di interprete di codice. Sempre code_interpreter.

Valori possibili: code_interpreter
Yes

CodeInterpreterToolCall

Una chiamata a uno strumento per eseguire codice.

Name Type Description Required Default
code string Il codice da eseguire.
Yes
id string L'ID univoco dello strumento interprete del codice chiama.
Yes
results array I risultati dello strumento di interprete del codice chiamato.
Yes
status enum Lo stato dello strumento di interprete del codice chiamato.

Valori possibili: in_progress, interpreting, completed
Yes
type enum Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.

Valori possibili: code_interpreter_call
Yes

CodeInterpreterToolOutput

Questo componente può essere uno dei seguenti:

ComparisonFilter

Un filtro usato per confrontare una chiave di attributo specificata con un dato valore utilizzando un'operazione di confronto definita.

Name Type Description Required Default
key string La chiave è confrontare con il valore. Yes
type enum Specifica l'operatore di confronto: eq, ne, gt, gte, lt, lte.
- eq: uguale
- ne: non uguale
- gt: maggiore di
- gte: maggiore o uguale
- lt: meno di
- lte: minore o uguale

Valori possibili: eq, ne, gt, gte, lt, lte
Yes
value stringa o numero o booleano Il valore da confrontare con la chiave di attributi; supporta tipi di stringa, numero o booleani. Yes

CompoundFilter

Combina più filtri usando and o or.

Name Type Description Required Default
filters array Array di filtri da combinare. Gli oggetti possono essere ComparisonFilter oppure CompoundFilter. Yes
type enum Tipo di operazione: and oppure or.
Valori possibili: and, or
Yes

ComputerAction

Questo componente può essere uno dei seguenti:

ComputerScreenshotImage

Un'immagine screenshot del computer usata con lo strumento di uso del computer.

Name Type Description Required Default
file_id string L'identificatore di un file caricato che contiene lo screenshot. No
image_url string L'URL dell'immagine dello screenshot. No
type enum Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.

Valori possibili: computer_screenshot
Yes

ComputerTool

Uno strumento che controlla un computer virtuale.

Name Type Description Required Default
display_height number L'altezza del display del computer.
Yes
display_width number La larghezza del display del computer.
Yes
environment enum Il tipo di ambiente informatico da controllare.

Valori possibili: mac, windows, ubuntu, browser
Yes
type enum Il tipo di strumento per l'uso del computer. Sempre computer_use_preview.

Valori possibili: computer-use-preview
Yes

ComputerToolCall

Un richiamo a uno strumento per l'uso del computer.

Name Type Description Required Default
action ComputerAction Yes
call_id string Un identificatore usato quando si risponde alla chiamata dello strumento con output.
Yes
id string L'ID unico della chiamata computerizzata. Yes
pending_safety_checks array I controlli di sicurezza in attesa per la chiamata al computer.
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
Yes
type enum Il tipo di chiamata al computer. Sempre computer_call.
Valori possibili: computer_call
Yes

ComputerToolCallOutput

L'output di una chiamata per uno strumento informatico.

Name Type Description Required Default
acknowledged_safety_checks array I controlli di sicurezza riportati dall'API sono stati riconosciuti dallo sviluppatore.
No
call_id string L'ID della chiamata dello strumento informatico che ha prodotto l'output.
Yes
id string L'ID dell'output della chiamata dello strumento informatico.
No
output ComputerScreenshotImage Un'immagine screenshot del computer usata con lo strumento di uso del computer.
Yes
status enum Lo stato del messaggio inserito. Uno di in_progress, completed, oppure incomplete. Popolati quando gli input input vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.

Valori possibili: computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array I controlli di sicurezza riportati dall'API sono stati riconosciuti dallo sviluppatore.
No
call_id string L'ID della chiamata dello strumento informatico che ha prodotto l'output.
Yes
id string L'ID unico dell'output dello strumento di chiamata del computer.
Yes
output ComputerScreenshotImage Un'immagine screenshot del computer usata con lo strumento di uso del computer.
Yes
status enum Lo stato del messaggio inserito. Uno di in_progress, completed, oppure incomplete. Popolati quando gli input input vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.

Valori possibili: computer_call_output
Yes

ComputerToolCallSafetyCheck

Un controllo di sicurezza in attesa per la chiamata al computer.

Name Type Description Required Default
code string Il tipo di controllo di sicurezza in attesa. Yes
id string L'ID del controllo di sicurezza in corso. Yes
message string Dettagli sul controllo di sicurezza in corso. Yes

Content

Contenuti multimodali in input e output.

Questo componente può essere uno dei seguenti:

Coordinate

Una coppia di coordinate x/y, ad { x: 100, y: 200 }esempio .

Name Type Description Required Default
x integer The x-coordinate.
Yes
y integer The y-coordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.

I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
No
model string Modello utilizzato per generare le risposte. No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input stringa o array Input di testo, immagine o file al modello, utilizzati per generare una risposta. Yes
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte.
No
max_output_tokens integer Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi token di output visibili e token di ragionamento.
No
parallel_tool_calls boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo.
No True
previous_response_id string L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento. No
store boolean Se memorizzare la risposta generata del modello per un successivo recupero tramite API.
No True
stream boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client man mano che vengono generati tramite eventi inviati dal server. No False
text object Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more:
- input e output di testo
- Output strutturati
No
└─ format TextResponseFormatConfiguration Un oggetto che specifica il formato che il modello deve generare.

La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per GPT-4O e modelli più recenti:

Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
No
tool_choice OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare.
No
tools array Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.

Le due categorie di strumenti che puoi fornire al modello sono:

- Strumenti integrati
No
truncation enum La strategia di troncamento da utilizzare per la risposta del modello.
- auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra di contesto del modello, il modello troncherà il
Risposta per adattarsi alla finestra contestuale inserendo elementi di input nel mezzo della conversazione.
- disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.

Valori possibili: auto, disabled
No

DoubleClick

Un doppio clic.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.

Valori possibili: double_click
Yes
x integer La coordinata x dove è avvenuto il doppio clic.
Yes
y integer La coordinata y in cui si è verificato il doppio clic.
Yes

Drag

Un'azione di trascinamento.

Name Type Description Required Default
path array Un array di coordinate che rappresentano il percorso dell'azione di trascinata. Le coordinate appariranno come un array di oggetti, ad esempio[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Specifica il tipo di evento. Per un'azione di trascinata, questa proprietà è sempre impostata su drag.

Valori possibili: drag
Yes

EasyInputMessage

Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo. Si presume che i messaggi con il assistant ruolo siano stati generati dal modello in interazioni precedenti.

Name Type Description Required Default
content stringa o InputMessageContentList Input di testo, immagine o audio al modello, utilizzato per generare una risposta.
Può anche contenere risposte precedenti degli assistenti.
Yes
role enum Il ruolo dell'input del messaggio. Uno di user, assistant, system, o developer.

Valori possibili: user, assistant, system, developer
Yes
type enum Il tipo di input del messaggio. Sempre message.

Valori possibili: message
No

FileCitation

Una citazione per un fascicolo.

Name Type Description Required Default
file_id string L'ID del fascicolo.
Yes
index integer L'indice del file nella lista dei file.
Yes
type enum Il tipo della citazione del fascicolo. Sempre file_citation.

Valori possibili: file_citation
Yes

FilePath

Un percorso verso un file.

Name Type Description Required Default
file_id string L'ID del fascicolo.
Yes
index integer L'indice del file nella lista dei file.
Yes
type enum Il tipo del percorso del file. Sempre file_path.

Valori possibili: file_path
Yes

FileSearchRanker

Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker.

Property Value
Description Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker.
Type string
Values auto
default_2024_08_21

FileSearchTool

Uno strumento che cerca contenuti rilevanti dai file caricati.

Name Type Description Required Default
filters Filtro di confronto o filtro composto Un filtro da applicare in base agli attributi del file. No
max_num_results integer Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi.
No
ranking_options object Opzioni di classifica per la ricerca. No
└─ ranker enum Il ranker da usare per la ricerca dei file.
Valori possibili: auto, default-2024-11-15
No
└─ score_threshold number La soglia di punteggio per la ricerca file, un numero compreso tra 0 e 1.
I numeri più vicini a 1 cercheranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati.
No 0
type enum Il tipo dello strumento di ricerca file. Sempre file_search.

Valori possibili: file_search
Yes
vector_store_ids array Gli ID dei vettori memorizzano per la ricerca.
Yes

FileSearchToolCall

I risultati di uno strumento di ricerca file chiamano.

Name Type Description Required Default
id string L'ID univoco dello strumento di ricerca file chiama.
Yes
queries array Le query usate per cercare file.
Yes
results array I risultati dello strumento di ricerca file chiamano.
No
status enum Lo stato dello strumento di ricerca file chiamato. Uno di in_progress, searching, incomplete o failed,

Valori possibili: in_progress, searching, completed, incomplete, failed
Yes
type enum Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.

Valori possibili: file_search_call
Yes

FunctionTool

Definisce una funzione nel proprio codice che il modello può scegliere di chiamare.

Name Type Description Required Default
description string Una descrizione della funzione. Utilizzato dal modello per determinare se chiamare o meno la funzione.
No
name string Il nome della funzione da chiamare.
Yes
parameters object Un oggetto schema JSON che descrive i parametri della funzione.
Yes
strict boolean Se applicare una validazione rigorosa dei parametri. Predefinito true.
Yes
type enum Il tipo di strumento funzionale. Sempre function.

Valori possibili: function
Yes

FunctionToolCall

Una chiamata a uno strumento per eseguire una funzione.

Name Type Description Required Default
arguments string Una stringa JSON degli argomenti da passare alla funzione.
Yes
call_id string L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Yes
id string L'ID univoco dello strumento di funzione chiama.
Yes
name string Il nome della funzione da eseguire.
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di chiamata dello strumento funzionale. Sempre function_call.

Valori possibili: function_call
Yes

FunctionToolCallOutput

L'output di una chiamata di uno strumento funzionale.

Name Type Description Required Default
call_id string L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Yes
id string L'ID unico dell'output della chiamata dello strumento funzionale. Popolata quando questo elemento viene restituito tramite API.
No
output string Una stringa JSON dell'output della chiamata dello strumento funzione.
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di funzione chiama output dello strumento. Sempre function_call_output.

Valori possibili: function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string L'ID univoco della chiamata dello strumento funzionale generata dal modello.
Yes
id string L'ID unico dell'output dello strumento di chiamata di funzione.
Yes
output string Una stringa JSON dell'output della chiamata dello strumento funzione.
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di funzione chiama output dello strumento. Sempre function_call_output.

Valori possibili: function_call_output
Yes

includable

Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:

  • file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file.
  • message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input.
  • computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer.
Property Value
Description Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
- file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file.
- message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input.
- computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Un ingresso audio al modello.

Name Type Description Required Default
data string Dati audio codificati in Base64.
Yes
format enum Il formato dei dati audio. I formati attualmente supportati sono mp3 e wav.

Valori possibili: mp3, wav
Yes
type enum Il tipo dell'elemento di input. Sempre input_audio.

Valori possibili: input_audio
Yes

InputContent

Questo componente può essere uno dei seguenti:

InputFile

Un input file nel modello.

Name Type Description Required Default
file_data string Il contenuto del file da inviare al modello.
No
file_id string L'ID del file da inviare al modello.
No
filename string Il nome del file da inviare al modello.
No
type enum Il tipo dell'elemento di input. Sempre input_file.

Valori possibili: input_file
Yes

InputImage

Un input immagine al modello.

Name Type Description Required Default
detail enum Il livello di dettaglio dell'immagine da inviare al modello. Uno di high, low, oppure auto. Di default è auto.

Valori possibili: high, low, auto
Yes
file_id string L'ID del file da inviare al modello.
No
image_url string L'URL dell'immagine da inviare al modello. Un URL completamente qualificato o un'immagine codificata base64 in un URL di dati.
No
type enum Il tipo dell'elemento di input. Sempre input_image.

Valori possibili: input_image
Yes

InputItem

Questo componente può essere uno dei seguenti:

InputMessage

Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo.

Name Type Description Required Default
content InputMessageContentList Un elenco di uno o più elementi di input al modello, contenenti contenuti diversi
types.
Yes
role enum Il ruolo dell'input del messaggio. Uno di user, system, oppure developer.

Valori possibili: user, system, developer
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di input del messaggio. Imposta sempre su message.

Valori possibili: message
No

InputMessageContentList

Un elenco di uno o più elementi di input al modello, contenenti diversi tipi di contenuto.

Nessuna proprietà definita per questo componente.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Un elenco di uno o più elementi di input al modello, contenenti contenuti diversi
types.
Yes
id string L'ID unico dell'input del messaggio.
Yes
role enum Il ruolo dell'input del messaggio. Uno di user, system, oppure developer.

Valori possibili: user, system, developer
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di input del messaggio. Imposta sempre su message.

Valori possibili: message
No

InputText

Un input testuale al modello.

Name Type Description Required Default
text string Il testo inserito nel modello.
Yes
type enum Il tipo dell'elemento di input. Sempre input_text.

Valori possibili: input_text
Yes

Item

Elemento di contenuto usato per generare una risposta.

Questo componente può essere uno dei seguenti:

ItemReference

Un identificatore interno per un oggetto da riferire.

Name Type Description Required Default
id string L'ID dell'oggetto da consultare.
Yes
type enum Il tipo di oggetto da consultare. Sempre item_reference.

Valori possibili: item_reference
Yes

ItemResource

Elemento di contenuto usato per generare una risposta.

Questo componente può essere uno dei seguenti:

KeyPress

Una raccolta di pressioni di tasti che il modello vorrebbe eseguire.

Name Type Description Required Default
keys array La combinazione di tasti che il modello richiede di premere. Questa è una matrice di stringhe, ciascuna rappresenta una tonalità.
Yes
type enum Specifica il tipo di evento. Per un'azione di pressione tastiera, questa proprietà è sempre impostata su keypress.

Valori possibili: keypress
Yes

Metadata

Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.

I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Nessuna proprietà definita per questo componente.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.

I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
No
model string Modello utilizzato per generare le risposte. No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
No 1
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
No 1
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi. .
No

Move

Un'azione di movimento del topo.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione di movimento, questa proprietà è sempre impostata a move.

Valori possibili: move
Yes
x integer La coordinata x a cui spostarsi.
Yes
y integer La coordinata Y su cui spostarsi.
Yes

OutputAudio

Un'uscita audio dal modello.

Name Type Description Required Default
data string Dati audio codificati in base 64 dal modello.
Yes
transcript string La trascrizione dei dati audio dal modello.
Yes
type enum Il tipo di audio in uscita. Sempre output_audio.

Valori possibili: output_audio
Yes

OutputContent

Questo componente può essere uno dei seguenti:

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Una stringa JSON degli argomenti da passare alla funzione.
Yes
call_id string Un identificatore usato quando si risponde alla chiamata dello strumento con output.
Yes
content array Ragionamento dei contenuti del testo.
Yes
id string L'identificatore unico del contenuto di ragionamento.
Yes
name string Il nome della funzione da eseguire.
Yes
pending_safety_checks array I controlli di sicurezza in attesa per la chiamata al computer.
Yes
queries array Le query usate per cercare file.
Yes
results array I risultati dello strumento di ricerca file chiamano.
No
role enum Il ruolo del messaggio di output. Sempre assistant.

Valori possibili: assistant
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
Yes
type enum Il tipo di oggetto. Sempre reasoning.

Valori possibili: reasoning
Yes

OutputMessage

Un messaggio di output dal modello.

Name Type Description Required Default
content array Il contenuto del messaggio di output.
Yes
id string L'ID univoco del messaggio di output.
Yes
role enum Il ruolo del messaggio di output. Sempre assistant.

Valori possibili: assistant
Yes
status enum Lo stato del messaggio inserito. Uno di in_progress, completed, oppure incomplete. Popolati quando gli input input vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
Yes
type enum Il tipo del messaggio di output. Sempre message.

Valori possibili: message
Yes

OutputText

Un testo prodotto dal modello.

Name Type Description Required Default
annotations array Le annotazioni dell'output del testo.
Yes
text string Il testo prodotto dal modello.
Yes
type enum Il tipo del testo in uscita. Sempre output_text.

Valori possibili: output_text
Yes

RealtimeSessionCreateRequest

Configurazione in tempo reale degli oggetti di sessione.

Name Type Description Required Default
input_audio_format enum Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello.
Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio in ingresso, imposta di default su disattivato e può essere impostata su null spegnersi una volta acceso. La trascrizione audio in ingresso non è nativa del modello, poiché il modello consuma audio direttamente. La trascrizione viene eseguita in modo asincrono attraverso l'endpoint delle trascrizioni e dovrebbe essere trattata come una guida del contenuto audio in input piuttosto che come esattamente ciò che il modello ha ascoltato. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione.
No
└─ language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza.
No
└─ model string Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.
No
└─ prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia".
No
instructions string Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere istruito sul contenuto e sul formato delle risposte (ad esempio "sii estremamente conciso", "agisci amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parla velocemente", "inietti emozione nella tua voce", "ridi frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.

Nota che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento session.created all'inizio della sessione.
No
max_response_output_tokens intero o stringa Numero massimo di token di output per una singola risposta di assistente, inclusi i call degli strumenti. Fornire un intero compreso tra 1 e 4096 per limitare i token di output, o inf per i token massimi disponibili per un dato modello. Di default è inf.
No
modalities L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"].
No
model string Il nome della distribuzione utilizzata per questa sessione.
No
output_audio_format enum Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio in uscita viene campionato a una velocità di 24kHz.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
temperature number La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Per i modelli audio è altamente consigliata una temperatura di 0,8 per le migliori prestazioni.
No 0.8
tool_choice string Come il modello sceglie gli strumenti. Le opzioni sono auto, none, required, oppure specificare una funzione.
No auto
tools array Strumenti (funzioni) disponibili per il modello. No
turn_detection object Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.
Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente.
Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta.
No
└─ create_response boolean Se generare automaticamente una risposta quando si verifica un evento di stop VAD.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere. low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente. auto è il valore predefinito ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente.
No
└─ threshold number Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento delle virate.

Valori possibili: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Una nuova configurazione di sessione in tempo reale, con una chiave effimera. Il TTL predefinito per i tasti è un minuto.

Name Type Description Required Default
client_secret object Chiave effimera restituita dall'API. Yes
└─ expires_at integer Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto.
No
└─ value string Chiave effimera utilizzabile negli ambienti client per autenticare le connessioni all'API Realtime. Utilizzarlo in ambienti lato client invece di un token API standard, che dovrebbe essere usato solo lato server.
No
input_audio_format string Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
No
input_audio_transcription object Configurazione per la trascrizione audio in ingresso, imposta di default su disattivato e può essere impostata su null spegnersi una volta acceso. La trascrizione audio in ingresso non è nativa del modello, poiché il modello consuma audio direttamente. La trascrizione viene eseguita asincronamente tramite Whisper e dovrebbe essere trattata come una guida approssimativa piuttosto che come la rappresentazione intesa dal modello.
No
└─ model string Il modello da utilizzare per la whisper-1 trascrizione è l'unico modello attualmente supportato.
No
instructions string Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere istruito sul contenuto e sul formato delle risposte (ad esempio "sii estremamente conciso", "comportati amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parla velocemente", "inietti emozione nella voce", "ridi spesso"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato.
Nota che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento session.created all'inizio della sessione.
No
max_response_output_tokens intero o stringa Numero massimo di token di output per una singola risposta di assistente, inclusi i call degli strumenti. Fornire un intero compreso tra 1 e 4096 per limitare i token di output, o inf per i token massimi disponibili per un dato modello. Di default è inf.
No
modalities L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"].
No
output_audio_format string Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
No
temperature number La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Di default è 0.8.
No
tool_choice string Come il modello sceglie gli strumenti. Le opzioni sono auto, none, required, oppure specificare una funzione.
No
tools array Strumenti (funzioni) disponibili per il modello. No
turn_detection object Configurazione per il rilevamento delle curve. Può essere impostato su null disattivamento. Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente.
No
└─ prefix_padding_ms integer Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms.
No
└─ silence_duration_ms integer Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente.
No
└─ threshold number La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi.
No
└─ type string Solo il tipo di rilevamento server_vad delle curve è attualmente supportato.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configurazione degli oggetti in tempo reale per sessioni di trascrizione.

Name Type Description Required Default
include array Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.

Valori possibili: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.
La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello.
Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso.
No
└─ type enum Tipo di riduzione del rumore. near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.

Valori possibili: near_field, far_field
No
input_audio_transcription object Configurazione per la trascrizione audio in ingresso. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione.
No
└─ language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza.
No
└─ model enum Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente.
Per whisper-1, il prompt è un elenco di parole chiave.
Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia".
No
modalities L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"].
No
turn_detection object Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.
Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente.
Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta.
No
└─ create_response boolean Se generare automaticamente una risposta quando si verifica un evento di stop VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ eagerness enum Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere. low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente. auto è il valore predefinito ed è equivalente a medium.

Valori possibili: low, medium, high, auto
No
└─ interrupt_response boolean Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione.
No True
└─ prefix_padding_ms integer Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms.
No
└─ silence_duration_ms integer Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente.
No
└─ threshold number Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi.
No
└─ type enum Tipo di rilevamento delle virate.

Valori possibili: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Una nuova configurazione di sessione di trascrizione in tempo reale.

Quando una sessione viene creata sul server tramite l'API REST, l'oggetto sessione contiene anche una chiave effimera. Il TTL predefinito per i tasti è un minuto. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.

Name Type Description Required Default
client_secret object Chiave effimera restituita dall'API. Presente solo quando la sessione viene creata sul server tramite l'API REST.
Yes
└─ expires_at integer Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto.
No
└─ value string Chiave effimera utilizzabile negli ambienti client per autenticare le connessioni all'API Realtime. Utilizzarlo in ambienti lato client invece di un token API standard, che dovrebbe essere usato solo lato server.
No
input_audio_format string Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.
No
input_audio_transcription object Configurazione del modello di trascrizione.
No
└─ language string Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza.
No
└─ model enum Il modello da usare per la trascrizione. Può essere gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, o whisper-1.

Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio.
No
modalities L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"].
No
turn_detection object Configurazione per il rilevamento delle curve. Può essere impostato su null disattivamento. Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente.
No
└─ prefix_padding_ms integer Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms.
No
└─ silence_duration_ms integer Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente.
No
└─ threshold number La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi.
No
└─ type string Solo il tipo di rilevamento server_vad delle curve è attualmente supportato.
No

Reasoning

Opzioni di configurazione per i modelli di ragionamento.

Name Type Description Required Default
effort ReasoningEffort Limita lo sforzo sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.
Yes medium
summary enum Un riassunto del ragionamento svolto dal modello. Questo può essere utile per il debug e la comprensione del processo di ragionamento del modello.
Uno di concise oppure detailed.

Valori possibili: concise, detailed
No

ReasoningItem

Una descrizione della catena di pensiero utilizzata da un modello di ragionamento durante la generazione di una risposta.

Name Type Description Required Default
content array Ragionamento dei contenuti del testo.
Yes
id string L'identificatore unico del contenuto di ragionamento.
Yes
status enum Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.

Valori possibili: in_progress, completed, incomplete
No
type enum Il tipo di oggetto. Sempre reasoning.

Valori possibili: reasoning
Yes

Refusal

Un rifiuto da parte del modello.

Name Type Description Required Default
refusal string La spiegazione del rifiuto dal modello.
Yes
type enum Il tipo di rifiuto. Sempre refusal.

Valori possibili: refusal
Yes

response

Name Type Description Required Default
created_at number Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata.
Yes
error ResponseError Un oggetto di errore viene restituito quando il modello non riesce a generare una Risposta.
Yes
id string Identificatore unico per questa Risposta.
Yes
incomplete_details object Dettagli sul motivo per cui la risposta è incompleta.
Yes
└─ reason enum Il motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
No
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte.
Yes
max_output_tokens integer Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
No
metadata Metadata Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.

I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Yes
model string Modello utilizzato per generare le risposte. Yes
object enum Il tipo di oggetto di questa risorsa - sempre impostato a response.

Valori possibili: response
Yes
output array Una serie di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nell'array output dipendono dalla risposta del modello.
- Invece di accedere al primo elemento dell'array output e assumere che sia un assistant messaggio con il contenuto generato dal modello, potresti considerare di usare la output_text proprietà dove supportata negli SDK.
Yes
output_text string Proprietà di comodità solo SDK che contiene il testo aggregato in uscita da tutti output_text gli elementi dell'array output , se presenti.
Supportato negli SDK di Python e JavaScript.
No
parallel_tool_calls boolean Se permettere al modello di eseguire chiamate di strumenti in parallelo.
Yes True
previous_response_id string L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento.
No
status enum Lo stato della generazione della risposta. Uno di completed, failed, in_progress, o incomplete.

Valori possibili: completed, failed, in_progress, incomplete
No
temperature number Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico.
Generalmente consigliamo di modificare questo o top_p , ma non entrambi.
Yes 1
text object Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more:
- input e output di testo
- Output strutturati
No
└─ format TextResponseFormatConfiguration Un oggetto che specifica il formato che il modello deve generare.

La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per GPT-4O e modelli più recenti:

Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
No
tool_choice OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare.
Yes
tools array Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.

Le due categorie di strumenti che puoi fornire al modello sono:

- Strumenti integrati
Yes
top_p number Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%.

Generalmente consigliamo di modificare questo o temperature , ma non entrambi.
Yes 1
truncation enum La strategia di troncamento da utilizzare per la risposta del modello.
- auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra contestuale del modello, il modello troncherà la risposta per adattarla alla finestra contestuale scartando elementi di input nel mezzo della conversazione.
- disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.

Valori possibili: auto, disabled
No
usage ResponseUsage Rappresenta i dettagli sull'utilizzo dei token inclusi token di input, token di output, una suddivisione dei token di output e il totale dei token utilizzati.
No
user string Un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi. .
No

ResponseAudioDeltaEvent

Emessa quando c'è una risposta audio parziale.

Name Type Description Required Default
delta string Un blocco di byte audio codificati in risposta Base64.
Yes
type enum Il tipo di evento. Sempre response.audio.delta.

Valori possibili: response.audio.delta
Yes

ResponseAudioDoneEvent

Emessa quando la risposta audio è completa.

Name Type Description Required Default
type enum Il tipo di evento. Sempre response.audio.done.

Valori possibili: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Emessa quando c'è una trascrizione parziale dell'audio.

Name Type Description Required Default
delta string La trascrizione parziale della risposta audio.
Yes
type enum Il tipo di evento. Sempre response.audio.transcript.delta.

Valori possibili: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Emessa quando la trascrizione audio completa è completata.

Name Type Description Required Default
type enum Il tipo di evento. Sempre response.audio.transcript.done.

Valori possibili: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Emessa quando un frammento di codice parziale viene aggiunto dall'interprete del codice.

Name Type Description Required Default
delta string Il frammento parziale di codice aggiunto dall'interprete di codice.
Yes
output_index integer L'indice dell'elemento di output chiamato dall'interprete di codice è in corso.
Yes
type enum Il tipo di evento. Sempre response.code_interpreter_call.code.delta.

Valori possibili: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Emessa quando l'output del frammento di codice viene finalizzato dall'interprete di codice.

Name Type Description Required Default
code string Il frammento di codice finale prodotto dall'interprete di codice.
Yes
output_index integer L'indice dell'elemento di output chiamato dall'interprete di codice è in corso.
Yes
type enum Il tipo di evento. Sempre response.code_interpreter_call.code.done.

Valori possibili: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Emessa quando la chiamata all'interprete del codice viene completata.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Una chiamata a uno strumento per eseguire codice.
Yes
output_index integer L'indice dell'elemento di output chiamato dall'interprete di codice è in corso.
Yes
type enum Il tipo di evento. Sempre response.code_interpreter_call.completed.

Valori possibili: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Emessa quando è in corso una chiamata da un interprete di codice.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Una chiamata a uno strumento per eseguire codice.
Yes
output_index integer L'indice dell'elemento di output chiamato dall'interprete di codice è in corso.
Yes
type enum Il tipo di evento. Sempre response.code_interpreter_call.in_progress.

Valori possibili: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Emessa quando l'interprete di codice sta interpretando attivamente lo snippet di codice.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Una chiamata a uno strumento per eseguire codice.
Yes
output_index integer L'indice dell'elemento di output chiamato dall'interprete di codice è in corso.
Yes
type enum Il tipo di evento. Sempre response.code_interpreter_call.interpreting.

Valori possibili: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Emessa quando la risposta del modello è completa.

Name Type Description Required Default
response response Yes
type enum Il tipo di evento. Sempre response.completed.

Valori possibili: response.completed
Yes

ResponseContentPartAddedEvent

Emessa quando viene aggiunta una nuova componente di contenuto.

Name Type Description Required Default
content_index integer L'indice della parte di contenuto aggiunta.
Yes
item_id string L'ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
output_index integer L'indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
part OutputContent Yes
type enum Il tipo di evento. Sempre response.content_part.added.

Valori possibili: response.content_part.added
Yes

ResponseContentPartDoneEvent

Emessa quando una parte di contenuto è completata.

Name Type Description Required Default
content_index integer L'indice del contenuto che viene fatto.
Yes
item_id string L'ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
output_index integer L'indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
Yes
part OutputContent Yes
type enum Il tipo di evento. Sempre response.content_part.done.

Valori possibili: response.content_part.done
Yes

ResponseCreatedEvent

Un evento che viene emesso quando viene creata una risposta.

Name Type Description Required Default
response response Yes
type enum Il tipo di evento. Sempre response.created.

Valori possibili: response.created
Yes

ResponseError

Un oggetto di errore viene restituito quando il modello non riesce a generare una Risposta.

Name Type Description Required Default
code ResponseErrorCode Il codice di errore della risposta.
Yes
message string Una descrizione leggibile dall'uomo dell'errore.
Yes

ResponseErrorCode

Il codice di errore della risposta.

Property Value
Description Il codice di errore della risposta.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Emessa quando si verifica un errore.

Name Type Description Required Default
code string Il codice di errore.
Yes
message string Il messaggio di errore.
Yes
param string Il parametro di errore.
Yes
type enum Il tipo di evento. Sempre error.

Valori possibili: error
Yes

ResponseFailedEvent

Un evento che viene emesso quando una risposta fallisce.

Name Type Description Required Default
response response Yes
type enum Il tipo di evento. Sempre response.failed.

Valori possibili: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Emessa quando una chiamata di ricerca file viene completata (risultati trovati).

Name Type Description Required Default
item_id string L'ID dell'elemento di output che viene avviato dalla ricerca del file.
Yes
output_index integer L'indice dell'elemento di output che viene avviato dalla ricerca del file.
Yes
type enum Il tipo di evento. Sempre response.file_search_call.completed.

Valori possibili: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Emessa quando viene avviata una chiamata di ricerca file.

Name Type Description Required Default
item_id string L'ID dell'elemento di output che viene avviato dalla ricerca del file.
Yes
output_index integer L'indice dell'elemento di output che viene avviato dalla ricerca del file.
Yes
type enum Il tipo di evento. Sempre response.file_search_call.in_progress.

Valori possibili: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Viene emesso quando una ricerca file è attualmente in corso.

Name Type Description Required Default
item_id string L'ID dell'elemento di output che viene avviato dalla ricerca del file.
Yes
output_index integer L'indice dell'elemento di output che la ricerca chiamata dal file sta cercando.
Yes
type enum Il tipo di evento. Sempre response.file_search_call.searching.

Valori possibili: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Emessa quando esiste un delta parziale degli argomenti di chiamata di funzione.

Name Type Description Required Default
delta string Gli argomenti della chiamata di funzione sono delta che vengono aggiunti.
Yes
item_id string L'ID dell'elemento di output a cui viene aggiunto il delta degli argomenti delle chiamate funzioni.
Yes
output_index integer L'indice dell'elemento di output a cui si aggiungono i delta degli argomenti delle chiamate funzioni.
Yes
type enum Il tipo di evento. Sempre response.function_call_arguments.delta.

Valori possibili: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Emessa quando gli argomenti delle chiamate di funzione vengono finalizzati.

Name Type Description Required Default
arguments string Gli argomenti delle chiamate di funzione. Yes
item_id string L'ID dell'oggetto. Yes
output_index integer L'indice dell'elemento in uscita. Yes
type enum
Valori possibili: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Emessa quando la risposta è in corso.

Name Type Description Required Default
response response Yes
type enum Il tipo di evento. Sempre response.in_progress.

Valori possibili: response.in_progress
Yes

ResponseIncompleteEvent

Un evento che viene emesso quando una risposta termina come incompleta.

Name Type Description Required Default
response response Yes
type enum Il tipo di evento. Sempre response.incomplete.

Valori possibili: response.incomplete
Yes

responseItemList

Una lista di elementi di risposta.

Name Type Description Required Default
data array Un elenco degli elementi usati per generare questa risposta. Yes
first_id string L'ID del primo elemento della lista. Yes
has_more boolean Se ci sono altri articoli disponibili. Yes
last_id string L'ID dell'ultimo elemento della lista. Yes
object enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list
Yes

ResponseModalities

Tipi di output che vorresti che il modello generasse. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:

["text"]

Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:

["text", "audio"]

Nessuna proprietà definita per questo componente.

ResponseModalitiesTextOnly

Tipi di output che vorresti che il modello generasse. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:

["text"]

Questa API supporterà presto altre modalità di output, inclusi audio e immagini.

Nessuna proprietà definita per questo componente.

ResponseOutputItemAddedEvent

Emessa quando viene aggiunto un nuovo elemento di output.

Name Type Description Required Default
item OutputItem Yes
output_index integer L'indice dell'elemento di output che è stato aggiunto.
Yes
type enum Il tipo di evento. Sempre response.output_item.added.

Valori possibili: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Emessa quando un elemento in uscita viene segnato come concluso.

Name Type Description Required Default
item OutputItem Yes
output_index integer L'indice dell'elemento in uscita che era stato segnato come fatto.
Yes
type enum Il tipo di evento. Sempre response.output_item.done.

Valori possibili: response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello.

Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte.
No
max_output_tokens integer Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione.
No
previous_response_id string L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. No
reasoning Reasoning Opzioni di configurazione per i modelli di ragionamento.
No
text object Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more:
- input e output di testo
- Output strutturati
No
└─ format TextResponseFormatConfiguration Un oggetto che specifica il formato che il modello deve generare.

La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per GPT-4O e modelli più recenti:

Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
No
tool_choice OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare.
No
tools array Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.

Le due categorie di strumenti che puoi fornire al modello sono:

- Strumenti integrati
No
truncation enum La strategia di troncamento da utilizzare per la risposta del modello.
- auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra contestuale del modello, il modello troncherà la risposta per adattarla alla finestra contestuale scartando elementi di input nel mezzo della conversazione.
- disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.

Valori possibili: auto, disabled
No

ResponseRefusalDeltaEvent

Emessa quando c'è un testo di rifiuto parziale.

Name Type Description Required Default
content_index integer L'indice del contenuto a cui viene aggiunto il testo del rifiuto.
Yes
delta string Il testo di rifiuto che viene aggiunto.
Yes
item_id string L'ID dell'elemento di output a cui viene aggiunto il testo di rifiuto.
Yes
output_index integer L'indice dell'elemento di output a cui viene aggiunto il testo di rifiuto.
Yes
type enum Il tipo di evento. Sempre response.refusal.delta.

Valori possibili: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Emesso quando il testo di rifiuto viene finalizzato.

Name Type Description Required Default
content_index integer L'indice del contenuto della parte in cui viene finalizzato il testo del rifiuto.
Yes
item_id string L'ID dell'elemento in uscita per cui il testo di rifiuto è stato finalizzato.
Yes
output_index integer L'indice dell'elemento di output in cui il testo di rifiuto è finalizzato.
Yes
refusal string Il testo del rifiuto che viene finalizzato.
Yes
type enum Il tipo di evento. Sempre response.refusal.done.

Valori possibili: response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer L'indice dell'annotazione aggiunta.
Yes
arguments string Gli argomenti delle chiamate di funzione. Yes
code string Il codice di errore.
Yes
code_interpreter_call CodeInterpreterToolCall Una chiamata a uno strumento per eseguire codice.
Yes
content_index integer L'indice della parte del contenuto in cui il testo è finalizzato.
Yes
delta string Il testo delta che è stato aggiunto.
Yes
item OutputItem L'elemento di output che era segnato come fatto.
Yes
item_id string L'ID dell'elemento in uscita per cui il contenuto del testo è stato finalizzato.
Yes
message string Il messaggio di errore.
Yes
output_index integer L'indice dell'elemento in output in cui il contenuto del testo è finalizzato.
Yes
param string Il parametro di errore.
Yes
part OutputContent La parte di contenuto che viene fatta.
Yes
refusal string Il testo del rifiuto che viene finalizzato.
Yes
response response La risposta era incompleta.
Yes
text string Il contenuto testuale che viene finalizzato.
Yes
type enum Il tipo di evento. Sempre response.output_text.done.

Valori possibili: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Emessa quando viene aggiunta un'annotazione di testo.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer L'indice dell'annotazione aggiunta.
Yes
content_index integer L'indice della parte di contenuto a cui è stata aggiunta l'annotazione del testo.
Yes
item_id string L'ID dell'elemento di output a cui è stata aggiunta l'annotazione di testo.
Yes
output_index integer L'indice dell'elemento in uscita a cui è stata aggiunta l'annotazione del testo.
Yes
type enum Il tipo di evento. Sempre response.output_text.annotation.added.

Valori possibili: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Emessa quando c'è un delta di testo aggiuntivo.

Name Type Description Required Default
content_index integer L'indice della parte di contenuto a cui è stato aggiunto il delta di testo.
Yes
delta string Il testo delta che è stato aggiunto.
Yes
item_id string L'ID dell'elemento di output a cui è stato aggiunto il delta di testo.
Yes
output_index integer L'indice dell'elemento di output a cui è stato aggiunto il delta di testo.
Yes
type enum Il tipo di evento. Sempre response.output_text.delta.

Valori possibili: response.output_text.delta
Yes

ResponseTextDoneEvent

Emessa quando il contenuto testuale viene finalizzato.

Name Type Description Required Default
content_index integer L'indice della parte del contenuto in cui il testo è finalizzato.
Yes
item_id string L'ID dell'elemento in uscita per cui il contenuto del testo è stato finalizzato.
Yes
output_index integer L'indice dell'elemento in output in cui il contenuto del testo è finalizzato.
Yes
text string Il contenuto testuale che viene finalizzato.
Yes
type enum Il tipo di evento. Sempre response.output_text.done.

Valori possibili: response.output_text.done
Yes

ResponseUsage

Rappresenta i dettagli sull'utilizzo dei token inclusi token di input, token di output, una suddivisione dei token di output e il totale dei token utilizzati.

Name Type Description Required Default
input_tokens integer Il numero di token di input. Yes
output_tokens integer Il numero di token di output. Yes
output_tokens_details object Una suddivisione dettagliata dei token di output. Yes
└─ reasoning_tokens integer Il numero di gettoni di ragionamento. No
total_tokens integer Il numero totale di gettoni utilizzati. Yes

Screenshot

Un'azione di screenshot.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è sempre impostata su screenshot.

Valori possibili: screenshot
Yes

Scroll

Un'azione di rotolamento.

Name Type Description Required Default
scroll_x integer La distanza dello scroll orizzontale.
Yes
scroll_y integer La distanza di scroll verticale.
Yes
type enum Specifica il tipo di evento. Per un'azione di scroll, questa proprietà è sempre impostata su scroll.

Valori possibili: scroll
Yes
x integer La coordinata x in cui si è verificato lo scroll.
Yes
y integer La coordinata y in cui si è verificato il scroll.
Yes

StopConfiguration

Fino a 4 sequenze in cui l'API smette di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.

Questo componente può essere uno dei seguenti:

TextResponseFormatConfiguration

Un oggetto che specifica il formato che il modello deve generare.

La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per GPT-4O e modelli più recenti:

Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.

Questo componente può essere uno dei seguenti:

TextResponseFormatJsonSchema

Formato di risposta schema JSON. Utilizzato per generare risposte JSON strutturate. Scopri di più sui Risultati Strutturati.

Name Type Description Required Default
description string Una descrizione del motivo del formato di risposta, usata dal modello per determinare come rispondere nel formato.
No
name string Il nome del formato della risposta. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64.
No
schema ResponseFormatJsonSchemaSchema Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. Yes
strict boolean Se abilitare una rigorosa aderenza allo schema durante la generazione dell'output.
Se impostato su vero, il modello seguirà sempre esattamente lo schema definito nel schema campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true.
No False
type enum Il tipo di formato di risposta da definire. Sempre json_schema.
Valori possibili: json_schema
Yes

Tool

Questo componente può essere uno dei seguenti:

ToolChoiceFunction

Usa questa opzione per forzare il modello a chiamare una funzione specifica.

Name Type Description Required Default
name string Il nome della funzione da chiamare. Yes
type enum Per la chiamata di funzioni, il tipo è sempre function.
Valori possibili: function
Yes

ToolChoiceOptions

Controlla quale (se presente) strumento viene chiamato dal modello.

none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.

auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.

required significa che il modello deve chiamare uno o più strumenti.

Property Value
Description Controlla quale (se presente) strumento viene chiamato dal modello.

none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.

auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.

required significa che il modello deve chiamare uno o più strumenti.
Type string
Values none
auto
required

ToolChoiceTypes

Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta.

Name Type Description Required Default
type enum Il tipo di strumento ospitato che il modello dovrebbe utilizzare. I valori consentiti sono:
- file_search
- computer_use_preview

Valori possibili: file_search, computer_use_preview
Yes

Type

Un'azione per scrivere un testo.

Name Type Description Required Default
text string Il testo da scrivere.
Yes
type enum Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è sempre impostata a type.

Valori possibili: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.
Yes

UrlCitation

Una citazione per una risorsa web utilizzata per generare una risposta al modello.

Name Type Description Required Default
end_index integer L'indice dell'ultimo carattere della citazione URL nel messaggio.
Yes
start_index integer L'indice del primo carattere della citazione URL nel messaggio.
Yes
title string Il titolo della risorsa web.
Yes
type enum Il tipo della citazione URL. Sempre url_citation.

Valori possibili: url_citation
Yes
url string L'URL della risorsa web.
Yes

VectorStoreFileAttributes

Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.

Nessuna proprietà definita per questo componente.

VectorStoreFileContentResponse

Rappresenta il contenuto analizzato di un file di archiviazione vettoriale.

Name Type Description Required Default
data array Contenuto analizzato del file. Yes
has_more boolean Indica se ci sono più pagine di contenuto da recuperare. Yes
next_page string Il gettone per la pagina successiva, se ce n'era. Yes
object enum Il tipo oggetto, che è sempre vector_store.file_content.page
Valori possibili: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters Filtro di confronto o filtro composto Un filtro da applicare in base agli attributi del file. No
max_num_results integer Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. No 10
query stringa o array Una stringa di query per una ricerca Yes
ranking_options object Opzioni di classifica per la ricerca. No
└─ ranker enum Valori possibili: auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Il contenuto del testo è tornato dalla ricerca. Yes
type enum Il tipo di contenuti.
Valori possibili: text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.
Yes
content array Blocchi di contenuto dal file. Yes
file_id string L'ID del file di archivio vettoriale. Yes
filename string Il nome del file vettoriale store. Yes
score number Il punteggio di somiglianza per il risultato. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array L'elenco degli elementi dei risultati di ricerca. Yes
has_more boolean Indica se ci sono altri risultati da recuperare. Yes
next_page string Il gettone per la pagina successiva, se ce n'era. Yes
object enum Il tipo oggetto, che è sempre vector_store.search_results.page
Valori possibili: vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Nessuna proprietà definita per questo componente.

Wait

Un'azione di attesa.

Name Type Description Required Default
type enum Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è sempre impostata su wait.

Valori possibili: wait
Yes

ReasoningEffort

Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.

Property Value
Description Limita lo sforzo sul ragionamento per i modelli di ragionamento.
I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.
Type string
Default medium
Values low
medium
high

errorEvent

Si verifica quando si verifica un errore. Questo può accadere a causa di un errore interno del server o di un timeout.

Name Type Description Required Default
data error Yes
event string Yes

event Enum: ErrorEventEnum

Value Description
error

doneEvent

Succede quando un flusso termina.

Name Type Description Required Default
data string Yes
event string Yes

evento Enum: DoneEventEnum

Value Description
done

data Enum: DoneEventDataEnum

Value Description
[DONE]

Next steps

Impara i modelli e il fine-tuning con l'API REST. Scopri di più sui modelli sottostante che alimentano Azure OpenAI.