Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce dettagli sugli endpoint REST API di inferenza per Azure OpenAI.
API specs
La gestione e l'interazione con i modelli e le risorse OpenAI di Azure sono suddivise in tre superfici API principali:
- Control plane
- Piano dati - authoring
- Piano dati - inferenza
Ogni superficie/specifica API racchiude un diverso insieme di funzionalità di Azure OpenAI. Ogni API ha un proprio set unico di versioni di anteprima e di API stabili/generalmente disponibili (GA). Le uscite in anteprima tendono attualmente a seguire un ritmo mensile.
Important
Ora esiste una nuova API di anteprima per inferenza. Scopri di più nella nostra guida al ciclo di vita delle API.
| API | Ultima pubblicazione di anteprima | Ultima uscita di GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | L'API del piano di controllo viene utilizzata per operazioni come la creazione di risorse, il deployment dei modelli e altri compiti di gestione delle risorse di livello superiore. Il piano di controllo regola anche cosa è possibile fare con funzionalità come Azure Resource Manager, Bicep, Terraform e interfaccia della riga di comando di Azure. |
| Data plane | v1 preview |
v1 |
Spec files | L'API del piano dati controlla le operazioni di inferenza e authoring. |
Authentication
Azure OpenAI fornisce due metodi di autenticazione. Puoi usare sia API Keys che Microsoft Entra ID.
Autenticazione della chiave API: Per questo tipo di autenticazione, tutte le richieste API devono includere la chiave API nell'intestazione
api-keyHTTP. Il Quickstart fornisce indicazioni su come effettuare chiamate con questo tipo di autenticazione.Microsoft Entra ID: Puoi autenticare una chiamata API usando un token Microsoft Entra. I token di autenticazione sono inclusi in una richiesta come Authorizationintestazione. Il token fornito deve essere preceduto daBearer, ad esempioBearer YOUR_AUTH_TOKEN. Puoi leggere la nostra guida pratica su autenticare con Microsoft Entra ID.
Versionamento delle API REST
Le API dei servizi sono versionate utilizzando il api-version parametro di query. Tutte le versioni seguono la struttura delle date YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenza del piano dati
Il resto dell'articolo tratta la versione preliminare 2025-04-01-preview della specifica di inferenza Azure OpenAI data plane.
Se stai cercando documentazione sull'ultima release dell'API GA, consulta l'ultima API di inferenza dei piani dati GA
Completamenti - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Crea un completamento per il prompt fornito, i parametri e il modello scelto.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.Quando usato con n, best_of controlla il numero di candidati completi e n specifica quante restituire ââ'¬â€œ best_of devono essere maggiori di n.Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripeti il prompt oltre al completamento | No | False |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. | No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato. |
No | None |
| logprobs | integer | Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituisce una lista dei 5 token più probabili. L'API restituisce sempre il logprob token campionato, quindi possono esserci fino a un logprobs+1 massimo di elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento. Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello. |
No | 16 |
| n | integer | Quante completazioni generare per ogni prompt. Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. | No | 0 |
| prompt | stringa o array | Il prompt per generare completazioni per , codificato come stringa, array di stringhe, array di token o array di token. Si noti che <|endoftext|> è il separatore di documento che il modello vede durante l'addestramento, quindi se un prompt non viene specificato, il modello viene generato come se fosse dall'inizio di un nuovo documento. |
Yes | |
| seed | integer | Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| stop | stringa o array | Fino a quattro sequenze in cui l'API smette di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop. | No | |
| stream | boolean | Se riportare indietro un progresso parziale. Se impostati, i token vengono inviati come eventi inviati solo dai dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Esempio Python codice. |
No | False |
| suffix | string | Il suffisso che arriva dopo il completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 la rendono più focalizzata e deterministica. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt fornito, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Risposte: Codice di stato: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Ottieni una rappresentazione vettoriale di un dato input che possa essere facilmente consumata da modelli e algoritmi di machine learning.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | L'ID di distribuzione del modello che è stato implementato. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Il numero di dimensioni che dovrebbero avere gli embedding di output risultanti. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. |
No | |
| encoding_format | string | Il formato per restituire gli embedding. Può essere uno o base64l'altro float o . Di default è float. |
No | |
| input | stringa o array | Input text da incorporare, codificato come stringa o array di token. Per incorporare più input in una singola richiesta, passa un array di stringhe o array di token. L'ingresso non deve superare il massimo dei token di ingresso per il modello (8.192 token per text-embedding-ada-002), non può essere una stringa vuota, e qualsiasi array deve avere 2.048 dimensioni o meno. |
Yes | |
| input_type | string | Tipo di input di ricerca embedding da utilizzare | No | |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Restituisci gli embeddings per un determinato prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Risposte: Codice di stato: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Completamento delle chat - Crea
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Crea una completazione per il messaggio della chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parametri per l'uscita audio. Richiesto quando l'uscita audio viene richiesta con modalities: ["audio"]. |
No | |
| └─ format | enum | Specifica il formato audio in uscita. Deve essere uno di wav, mp3, flac, opus, o pcm16. Valori possibili: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, nova, e shimmer.Valori possibili: alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | array | Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| function_call | stringa o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla quale funzione (se ce n'è) chiamata dal modello. none significa che il modello non chiamerà una funzione ma genera invece un messaggio.auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.none è il valore predefinito quando non sono presenti funzioni.
auto è la predefinita se sono presenti delle funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco delle funzioni per cui il modello può generare input JSON. |
No | |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. |
No | None |
| logprobs | boolean | Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message |
No | False |
| max_completion_tokens | integer | Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. | No | |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello. |
No | |
| messages | array | Un elenco dei messaggi che compongono la conversazione finora. Esempio Python codice. | Yes | |
| metadata | object | Tag e valori definiti dagli sviluppatori usati per filtrare le completazioni nella dashboard delle completions memorizzate. | No | |
| modalities | ChatCompletionModalities | Tipi di output che vorresti che il modello generasse per questa richiesta. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito: ["text"]Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:["text", "audio"] |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Verrai addebitato in base al numero di gettoni generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| prediction | PredictionContent | Configurazione per un Output Previsto, che può migliorare notevolmente i tempi di risposta quando gran parte della risposta del modello è nota in anticipo. Questo è più comune quando rigeneri un file con solo modifiche minori alla maggior parte dei contenuti. | No | |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| reasoning_effort | enum |
Solo modelli O1 Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.Valori possibili: low, medium, high |
No | |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzione è in fase Beta. Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| stop | stringa o array | Fino a 4 sequenze in cui l'API smette di generare ulteriori token. |
No | |
| store | boolean | Se memorizzare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di distillazione o valutazione del modello. | No | |
| stream | boolean | Se impostato, vengono inviati delta parziali del messaggio, come in ChatGPT. I token vengono inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con lo stream terminato da un data: [DONE] messaggio.
Esempio Python codice. |
No | False |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 la rendono più focalizzata e deterministica. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti. |
No | |
| tools | array | Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni. |
No | |
| top_logprobs | integer | Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata.
logprobs deve essere impostato a true se questo parametro viene utilizzato. |
No | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No | |
| user_security_context | userSecurityContext | Il contesto di sicurezza dell'utente contiene diversi parametri che descrivono l'applicazione AI stessa e l'utente finale che interagisce con l'applicazione IA. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Scopri di più sulla protezione delle applicazioni di IA che utilizzano Microsoft Defender per il cloud. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea un completamento per il prompt fornito, i parametri e il modello scelto.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati di ricerca Azure e sull'identità gestita assegnata al sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato su dati vettoriali immagine di Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento basato sui dati vettoriali di ricerca Azure, sul messaggio dell'assistente precedente e sull'identità gestita assegnata dall'utente.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per il Azure Cosmos DB fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per il database Mongo fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per l'Elasticsearch fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea un completamento per la risorsa Pinecone fornita.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Trascrizioni - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Trascrive l'audio nella lingua di input.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID del modello da utilizzare. Le opzioni sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. |
Yes | |
| file | string | Il file audio oggetto da trascrivere. | Yes | |
| language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliora accuratezza e latenza. | No | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
| timestamp_granularities[] | array | Le granularità del timestamp da popolare per questa trascrizione.
response_format deve essere impostato verbose_json per utilizzare granularità di timestamp. Una o entrambe queste opzioni sono supportate: word, oppure segment. Nota: Non c'è latenza aggiuntiva per i timestamp dei segmenti, ma generare timestamp di parole comporta latenza aggiuntiva. |
No | ['segment'] |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era uno di text, vtt o srt). |
Examples
Example
Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene testo trascritto e metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduzioni - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Trascrive e traduce l'audio in ingresso in testo inglese.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio da tradurre. | Yes | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Testo trascritto nel formato di output (quando response_format era uno di testo, vtt o srt). |
Examples
Example
Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ottiene testo trascritto in inglese e i metadati associati dai dati audio parlati forniti.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Risposte: Codice di stato: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Parlato - Crea
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Genera audio dal testo di input.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Il testo per sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. | Yes | |
| response_format | enum | Il formato in cui sintetizzare l'audio. Valori possibili: mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | La velocità dell'audio sintetizzato. Seleziona un valore da 0.25 a 4.0.
1.0 è la norma predefinita. |
No | 1.0 |
| voice | enum | La voce da usare per la sintesi vocale. Valori possibili: alloy, echo, fable, onyx, nova, shimmer |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Sintetizza audio dal testo fornito.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Risposte: Codice di stato: 200
{
"body": "101010101"
}
Generazioni immagini - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Genera un lotto di immagini da una didascalia testuale su una data distribuzione di modelli di generazione di immagini
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permette di impostare trasparenza per lo sfondo delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1. | No | auto |
| n | integer | Il numero di immagini da generare. Per dall-e-3, è supportato solo n=1. | No | 1 |
| output_compression | integer | Il livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per modelli della serie gpt-image-1 con il formato di uscita jpeg. | No | 100 |
| output_format | imagesOutputFormat | Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli della serie GPT-image-1. | No | png |
| prompt | string | Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32.000 caratteri per la serie gpt-image-1 e 4.000 caratteri per la dall-e-3 | Yes | |
| partial_images | integer | Il numero di immagini parziali da generare. Questo parametro viene utilizzato per le risposte in streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Quando impostato a 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generata l'intero numero di immagini parziali se l'immagine completa viene generata più rapidamente. | 0 | |
| stream | boolean | Modifica l'immagine in modalità streaming. | no | false |
| quality | imageQuality | La qualità dell'immagine che verrà generata. | No | auto |
| response_format | imagesResponseFormat | Il formato in cui vengono restituite le immagini generate. Questo parametro non è supportato per gpt-image-1i modelli in serie che restituiscono sempre immagini codificate in base64.Valori possibili: url, b64_json. |
No | url |
| size | imageSize | La dimensione delle immagini generate. | No | auto |
| style | imageStyle | Lo stile delle immagini generate. Supportato solo per DALL-E-3. | No | vivid |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No |
Responses
Codice di stato: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: predefinito
Descrizione: Si è verificato un errore.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea immagini con un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Risposte: Codice di stato: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Generazioni immagini - Modifica
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Modifica un'immagine da una didascalia di testo su un dato deployment di modello gpt-image-1
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | stringa o array | L'immagine o le immagini da modificare. Deve essere un file immagine supportato o un array di immagini. Ogni immagine dovrebbe essere un file png o jpg inferiore a 50MB. | Yes | |
| input_fidelity | string | Controlla quanto sforzo il modello applicherà per adattarsi allo stile e alle caratteristiche, soprattutto ai tratti facciali, delle immagini di input. Questo parametro è supportato solo per i modelli serie gpt-image-1. Supporti high e low. |
no |
low. |
| mask | string | Un'immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indica dove l'immagine dovrebbe essere modificata. Se sono fornite più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, inferiore a 4MB, e avere le stesse dimensioni dell'immagine. | No | |
| n | integer | Il numero di immagini da generare. Deve essere tra 1 e 10. | No | 1 |
| prompt | string | Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32000 caratteri. | Yes | |
| quality | imageQuality | La qualità dell'immagine che verrà generata. | No | auto |
| partial_images | Il numero di immagini parziali da generare. Questo parametro viene utilizzato per le risposte in streaming che restituiscono immagini parziali. Il valore deve essere compreso tra 0 e 3. Quando impostato a 0, la risposta sarà una singola immagine inviata in un evento di streaming. Si noti che l'immagine finale può essere inviata prima che venga generata l'intero numero di immagini parziali se l'immagine completa viene generata più rapidamente. | |||
| stream | boolean | Modifica l'immagine in modalità streaming. | no | false |
| response_format | imagesResponseFormat | Il formato in cui vengono restituite le immagini generate. | No | url |
| size | imageSize | La dimensione delle immagini generate. | No | auto |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No |
Responses
Codice di stato: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Codice di stato: predefinito
Descrizione: Si è verificato un errore.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Elenco - Assistenti
Note
L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Restituisce una lista di assistenti.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Restituisce una lista di assistenti.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Create - Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crea un assistente con un modello e istruzioni.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 256.000 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | Yes | ||
| name | string | Il nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| └─ vector_stores | array | Un aiutante per creare un vettoriale store con file_ids e collegarlo a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Crea un assistente con un modello e istruzioni.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Ricevi - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera un assistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | L'ID dell'assistente da recuperare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Recupera un assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modifica - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica un assistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | L'ID dell'assistente da modificare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 32768 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | No | ||
| name | string | Il nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Sovrascrive l'elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Sovrascrive il vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica un assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Elimina - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Elimina un assistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | L'ID dell'assistente da cancellare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Elimina un assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Create - Thread
Note
L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Crea un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Una lista di messaggi per iniziare la discussione. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| tool_resources | object | Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No | |
| └─ vector_stores | array | Un aiutante per creare un vettoriale store con file_ids e allegarlo a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Crea un thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Prendi - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera un filo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread da recuperare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera un filo.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifica - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread da modificare. Solo quelle metadata possono essere modificate. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| tool_resources | object | Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica un thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Elimina - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Cancella un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread da eliminare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Cancella un thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Elenco - Messaggi
Note
L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Restituisce una lista di messaggi per un determinato thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID dei thread a cui appartengono i messaggi. |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| run_id | query | No | string | Filtra i messaggi in base all'ID di esecuzione che li ha generati. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Crea - Messaggio
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Crea un messaggio.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID dei thread per creare un messaggio. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Un elenco dei file allegati al messaggio e gli strumenti a cui dovrebbero essere aggiunti. | No | |
| content | string | Il contenuto del messaggio. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| role | string | Il ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Crea un messaggio.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Ricevi - Messaggio
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recupera un messaggio.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID dei thread a cui appartiene questo messaggio. |
| message_id | path | Yes | string | L'ID del messaggio da recuperare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recupera un messaggio.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifica - Messaggio
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica un messaggio.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread a cui appartiene questo messaggio. |
| message_id | path | Yes | string | L'ID del messaggio da modificare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modifica un messaggio.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Crea - Thread e Run
Note
L'API degli Assistenti è obsoleta e sarà ritirata il 26 agosto 2026. Utilizza il servizio generalmente disponibile Microsoft Foundry Agents. Segui la guida alla migrazione per aggiornare i tuoi carichi di lavoro. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crea un thread e gestilo in un'unica richiesta.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L'ID dell'assistente da usare per eseguire questa corsa. | Yes | |
| instructions | string | Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer | Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | L'ID dei modelli da utilizzare per eseguire questa corsa. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | L'ID del vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crea un thread e gestilo in un'unica richiesta.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Elenco - Run
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Restituisce un elenco delle run appartenenti a un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread a cui appartiene la run. |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Restituisce un elenco delle run appartenenti a un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Crea - Run
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crea una run.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread da eseguire. |
| include[] | query | No | array | Un elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato è step_details.tool_calls[*].file_search.results[*].content recuperare il contenuto dei risultati di ricerca del file. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. | No | |
| additional_messages | array | Aggiunge messaggi aggiuntivi al thread prima di creare la run. | No | |
| assistant_id | string | L'ID dell'assistente da usare per eseguire questa corsa. | Yes | |
| instructions | string | Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer | Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | L'ID del Modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento e invece genera un messaggio.auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| tools | array | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crea una run.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Scappa - Corri
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera una corsa.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID dei thread che sono stati eseguiti. |
| run_id | path | Yes | string | L'ID della corsa da recuperare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Va a correre.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifica - Run
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica una corsa.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID dei thread che sono stati eseguiti. |
| run_id | path | Yes | string | L'ID della corsa da modificare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica una corsa.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Invia - Output degli strumenti da eseguire
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando una run ha e status: "requires_action"required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate agli strumenti una volta completati. Tutti i risultati devono essere inviati in un'unica richiesta.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID dei thread a cui appartiene questa corsa. |
| run_id | path | Yes | string | L'ID della run che richiede l'invio dell'output dello strumento. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| tool_outputs | array | Un elenco degli strumenti per cui vengono inviati i risultati. | Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Quando una run ha e status: "requires_action"required_action.type è submit_tool_outputs, questo endpoint può essere usato per inviare gli output dalle chiamate agli strumenti una volta completati. Tutti i risultati devono essere inviati in un'unica richiesta.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Risposte: Codice di stato: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annulla - Run
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Annulla una run che è in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread a cui appartiene questa corsa. |
| run_id | path | Yes | string | L'ID della corsa da cancellare. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Annulla una run che è in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Elenco - Scale di corsa
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Restituisce un elenco dei passaggi di esecuzione appartenenti a una run.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread a cui appartengono i passaggi run e run. |
| run_id | path | Yes | string | L'ID dell'esecuzione a cui appartengono i passaggi di run. |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Un elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato è step_details.tool_calls[*].file_search.results[*].content recuperare il contenuto dei risultati di ricerca del file. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Restituisce un elenco dei passaggi di esecuzione appartenenti a una run.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Scorri - Passo
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera un gradino di corsa.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID del thread a cui appartiene il passo run e run. |
| run_id | path | Yes | string | L'ID della run a cui appartiene il run step. |
| step_id | path | Yes | string | L'ID del passo di esecuzione da recuperare. |
| include[] | query | No | array | Un elenco di campi aggiuntivi da includere nella risposta. Attualmente l'unico valore supportato è step_details.tool_calls[*].file_search.results[*].content recuperare il contenuto dei risultati di ricerca del file. |
| api-version | query | Yes | string |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Recupera un gradino di corsa.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Elenco - Store-vettoriali
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Restituisce un elenco di store vettoriali.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Restituisce un elenco di store vettoriali.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Create - Vector Store
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crea un archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| expires_after | vectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| file_ids | array | Un elenco degli ID file che il vettore store dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| name | string | Il nome del negozio vettoriale. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Crea un vettoriale store.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Ottieni - Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera un vettoriale store.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale da recuperare. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera un vettoriale store.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifica - Archivio vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica un vettoriale store.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID del vettore memorizza da modificare. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| name | string | Il nome del negozio vettoriale. | No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica un vettoriale store.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Elimina - Vettoriale Memoria
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Elimina uno store vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale da eliminare. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Elimina uno store vettoriale.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Elenco - File di Archiviazione Vetoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Restituisce un elenco di file di vettorio store.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID della memoria vettoriale a cui appartengono i file. |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| filter | query | No | string Valori possibili: in_progress, completed, failed, cancelled |
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Restituisce un elenco di file di vettorio store.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - File di Archivio Vetoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crea un file di vettorio di archiviazione allegando un file a un vettoriale store.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID del vettore store per cui creare un File. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . |
No | |
| file_id | string | Un ID file che il vettoriale storage dovrebbe usare. Utile per strumenti come file_search questo che può accedere ai file. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Crea un file di vettorio di archiviazione allegando un file a un vettoriale store.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Risposte: Codice di stato: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Get - File Vettoriale di Archivio
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera un file di archivio vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale a cui appartiene il file. |
| file_id | path | Yes | string | L'ID del file che viene recuperato. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera un file di archivio vettoriale.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Elimina - File di Archivio Vetoriale
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Elimina un file di vettorio store. Questo rimuoverà il file dal vettoriale store, ma il file stesso non verrà cancellato. Per eliminare il file, usa l'endpoint elimina file.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale a cui appartiene il file. |
| file_id | path | Yes | string | L'ID del file da eliminare. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Elimina un file di vettorio store. Questo rimuoverà il file dal vettoriale store, ma il file stesso non verrà cancellato. Per eliminare il file, usa l'endpoint elimina file.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Aggiorna gli attributi su un file vettoriale store.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale a cui appartiene il file. |
| file_id | path | Yes | string | L'ID del file per aggiornare gli attributi. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recupero contenuto del file vettoriale di memorizzazione
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupera il contenuto analizzato di un file di archiviazione vettoriale.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID del vettoriale store. |
| file_id | path | Yes | string | L'ID del file all'interno dello store vettoriale. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Memoria vettoriale di ricerca
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Cerca in un archivio vettoriale i chunk rilevanti basandoti su un filtro di query e attributi del file.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale da cercare. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro di confronto o filtro composto | Un filtro da applicare in base agli attributi del file. | No | |
| max_num_results | integer | Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. | No | 10 |
| query | stringa o array | Una stringa di query per una ricerca | Yes | |
| ranking_options | object | Opzioni di classifica per la ricerca. | No | |
| └─ ranker | enum | Valori possibili: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. | No | False |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Create - Vettoriale Storage File Batch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crea un batch di file vettoriali.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale per cui creare un File Batch. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . |
No | |
| file_ids | array | Un elenco degli ID file che lo store vettoriale dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. |
Yes |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Crea un batch di file vettoriali.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Risposte: Codice di stato: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get - Lotto di file di archiviazione vettoriale
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera un file vettoriale store batch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale a cui appartiene il file batch. |
| batch_id | path | Yes | string | L'ID del file batch che viene recuperato. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera un file vettoriale store batch.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annulla - Lotto di file di archiviazione vettoriale
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Annulla un lotto di file vettoriale. Questo tenta di annullare l'elaborazione dei file in questo lotto il prima possibile.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID dello store vettoriale a cui appartiene il file batch. |
| batch_id | path | Yes | string | L'ID del file batch da annullare. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Annulla un lotto di file vettoriale. Questo tenta di annullare l'elaborazione dei file in questo lotto il prima possibile.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Elenco - File batch di file vettoriali
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Restituisce un elenco di file di vettorio store in un batch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID della memoria vettoriale a cui appartengono i file. |
| batch_id | path | Yes | string | L'ID del lotto di file a cui appartengono i file. |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
Ordina in base al created_at timestamp degli oggetti.
asc per l'ordine crescente e desc per l'ordine discendente. |
| after | query | No | string | Un cursore per l'uso nella paginazione.
after è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, che terminano con obj_foo, la chiamata successiva può includere dopo=obj_foo per recuperare la pagina successiva della lista. |
| before | query | No | string | Un cursore per l'uso nella paginazione.
before è un ID oggetto che definisce il tuo posto nella lista. Ad esempio, se fai una richiesta di lista e ricevi 100 oggetti, a partire da obj_foo, la chiamata successiva può includere prima=obj_foo per recuperare la pagina precedente della lista. |
| filter | query | No | string Valori possibili: in_progress, completed, failed, cancelled |
Filtra per stato del file. Uno di in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Restituisce un elenco di file di vettorio store.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Risposte: Codice di stato: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crea un token API effimero da utilizzare nelle applicazioni lato client con l'API Realtime. Può essere configurato con gli stessi parametri di sessione dell'evento session.update client.
Risponde con un oggetto sessione, più una client_secret chiave che contiene un token API effimero utilizzabile che può essere utilizzato per autenticare i client browser per l'API Realtime.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello. Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio in ingresso, imposta di default su disattivato e può essere impostata su null spegnersi una volta acceso. La trascrizione audio in ingresso non è nativa del modello, poiché il modello consuma audio direttamente. La trascrizione viene eseguita in modo asincrono attraverso l'endpoint delle trascrizioni e dovrebbe essere trattata come una guida del contenuto audio in input piuttosto che come esattamente ciò che il modello ha ascoltato. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione. |
No | |
| └─ language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza. |
No | |
| └─ model | string | Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
No | |
| └─ prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia". |
No | |
| instructions | string | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere istruito sul contenuto e sul formato delle risposte (ad esempio "sii estremamente conciso", "agisci amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parla velocemente", "inietti emozione nella tua voce", "ridi frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Nota che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento session.created all'inizio della sessione. |
No | |
| max_response_output_tokens | intero o stringa | Numero massimo di token di output per una singola risposta di assistente, inclusi i call degli strumenti. Fornire un intero compreso tra 1 e 4096 per limitare i token di output, o inf per i token massimi disponibili per un dato modello. Di default è inf. |
No | |
| modalities | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"]. |
No | ||
| model | string | Il nome della distribuzione utilizzata per questa sessione. |
No | |
| output_audio_format | enum | Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio in uscita viene campionato a una velocità di 24kHz.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Per i modelli audio è altamente consigliata una temperatura di 0,8 per le migliori prestazioni. |
No | 0.8 |
| tool_choice | string | Come il modello sceglie gli strumenti. Le opzioni sono auto, none, required, oppure specificare una funzione. |
No | auto |
| tools | array | Strumenti (funzioni) disponibili per il modello. | No | |
| turn_detection | object | Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente. Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta. |
No | |
| └─ create_response | boolean | Se generare automaticamente una risposta quando si verifica un evento di stop VAD. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere.
low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente.
auto è il valore predefinito ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento delle virate. Valori possibili: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Codice di stato: 200
Descrizione: Sessione creata con successo.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Create - Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crea un token API effimero da utilizzare in applicazioni lato client con l'API Realtime specificamente per trascrizioni in tempo reale.
Può essere configurato con gli stessi parametri di sessione dell'evento transcription_session.update client.
Risponde con un oggetto sessione, più una client_secret chiave che contiene un token API effimero utilizzabile che può essere utilizzato per autenticare i client browser per l'API Realtime.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello. Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio in ingresso. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione. |
No | |
| └─ language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza. |
No | |
| └─ model | enum | Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia". |
No | |
| modalities | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"]. |
No | ||
| turn_detection | object | Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente. Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta. |
No | |
| └─ create_response | boolean | Se generare automaticamente una risposta quando si verifica un evento di stop VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere.
low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente.
auto è il valore predefinito ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento delle virate. Valori possibili: server_vad, semantic_vad |
No |
Responses
Codice di stato: 200
Descrizione: Sessione creata con successo.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Crea una risposta modello.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | stringa o array | Model inputs | Yes | |
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte. |
No | |
| max_output_tokens | integer | Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione. |
No | |
| parallel_tool_calls | boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. |
No | True |
| previous_response_id | string | L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. Scopri di più sullo stato della conversazione. |
No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. | No | |
| store | boolean | Se memorizzare la risposta generata del modello per un successivo recupero tramite API. |
No | True |
| stream | boolean | Se impostato su true, i dati di risposta del modello verranno trasmessi al client man mano che vengono generati tramite eventi inviati dal server. Consulta la sezione Streaming qui sotto per maggiori informazioni. |
No | False |
| text | object | Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more: - Input e output di testo - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.Non consigliato per GPT-4O e modelli più recenti: Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano. |
No | |
| tool_choice | OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo | Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare. |
No | |
| tools | array | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.Le due categorie di strumenti che puoi fornire al modello sono: - Strumenti integrati: Strumenti forniti da OpenAI che estendono la model's capabilities |
No | |
| truncation | enum | La strategia di troncamento da utilizzare per la risposta del modello. - auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra contestuale del modello, il modello troncherà la risposta per adattarla alla finestra contestuale scartando elementi di input nel mezzo della conversazione. - disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.Valori possibili: auto, disabled |
No |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Risposte - elementi di input
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera una risposta del modello con l'ID fornito.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L'ID della risposta da recuperare. |
| include | query | No | array | Campi aggiuntivi da includere nella risposta. Consulta il include parametro per la creazione della risposta sopra per maggiori informazioni. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Elimina una risposta del modello con l'ID indicato.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L'ID della risposta da cancellare. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
Codice di stato: 404
Descrizione: Non trovato
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Codice di stato: predefinito
Descrizione: Servizio non disponibile
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Risposte - elenco degli elementi di risposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Restituisce un elenco di elementi di input per una data risposta.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Supportato Azure endpoint OpenAI (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituisci "aoairesource" con il nome della tua risorsa Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L'ID della risposta per recuperare gli elementi di input per. |
| limit | query | No | integer | Un limite al numero di oggetti da restituire. Il limite può variare da 1 a 100, e il valore predefinito è 20. |
| order | query | No | string Valori possibili: asc, desc |
L'ordine per restituire gli elementi di input. Il valore predefinito è asc.- asc: Restituire gli elementi in input in ordine crescente.- desc: Restituire gli elementi in input in ordine decrescente. |
| after | query | No | string | Un ID elemento per elencare gli elementi dopo, usato nella paginazione. |
| before | query | No | string | Un ID elemento per elencare gli elementi precedenti, usato nella paginazione. |
Request Header
Usa l'autenticazione basata su token o la chiave API. L'autenticazione con token è raccomandata e più sicura.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Per generare un token di autenticazione usando interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL di autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAmbito: https://ai.azure.com/.default |
| api-key | True | string | Fornisci qui la chiave API di Azure OpenAI |
Responses
Codice di stato: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Errore interiore con ulteriori dettagli. | No | |
| param | string | No | ||
| type | string | No |
innerError
Errore interiore con ulteriori dettagli.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto di errore interno. | No | |
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. | No |
innerErrorCode
Codici di errore per l'oggetto di errore interno.
| Property | Value |
|---|---|
| Description | Codici di errore per l'oggetto di errore interno. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Errore interiore con ulteriori dettagli. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Errore interiore con ulteriori dettagli.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codici di errore per l'oggetto di errore interno. | No | |
| content_filter_results | dalleFilterResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. | No | |
| revised_prompt | string | Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. | No |
contentFilterCompletionTextSpan
Descrive un intervallo all'interno del testo di completamento generato. Offset 0 è il primo punto di codice UTF32 del testo di completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Offset rispetto al primo punto codice UTF32 che viene escluso dalla campata. Questo campo è sempre uguale a completion_start_offset per le campate vuote. Questo campo è sempre più grande di completion_start_offset per le campate non vuote. | Yes | |
| completion_start_offset | integer | Offset rispetto al punto di codice UTF32 che inizia la campata. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informazioni sui risultati del filtraggio dei contenuti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni su testi di terze parti e parolacce, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Filtraggio dei contenuti risulta per un singolo prompt nella richiesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. | No | |
| prompt_index | integer | No |
promptFilterResults
Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti.
Nessuna proprietà definita per questo componente.
dalleContentFilterResults
Informazioni sui risultati del filtraggio dei contenuti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Il filtraggio dei contenuti risulta con un dettaglio degli ID dei filtri di contenuto per i segmenti filtrati. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. | No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto json che mappa i token (specificati dal loro ID token nel tokenizer) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. | No | |
| max_completion_tokens | integer | Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. | No | |
| max_tokens | integer | Il numero massimo di token consentito per la risposta generata. Per impostazione predefinita, il numero di token che il modello può restituire sarà (4096 - token prompt). Questo non è compatibile con i modelli della serie O1. | No | 4096 |
| metadata | object | Tag e valori definiti dagli sviluppatori usati per filtrare le completazioni nella dashboard delle completions memorizzate. | No | |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. | No | 0 |
| stop | stringa o array | Fino a 4 sequenze in cui l'API smette di generare ulteriori token. | No | |
| store | boolean | Se memorizzare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di distillazione o valutazione del modello. | No | |
| stream | boolean | Se impostato, vengono inviati delta parziali del messaggio, come in ChatGPT. I token vengono inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con lo stream terminato da un data: [DONE] messaggio. |
No | False |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare Azure OpenAI a monitorare e rilevare abusi. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Genera best_of completamenti lato server e restituisce il "migliore" (quello con la probabilità logaritaria più alta per token). I risultati non possono essere trasmessi in streaming.Quando usato con n, best_of controlla il numero di completamenti candidati e n specifica quanti restituire.
best_of deve essere maggiore di n.Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| echo | boolean | Ripeti il prompt oltre al completamento |
No | False |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore GPT) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. Ad esempio, puoi passare {"50256": -100} per impedire che il <token |endoftext> | venga generato. |
No | None |
| logprobs | integer | Includi le probabilità logarime sui logprobs token di output più probabili, così come sui token scelti. Ad esempio, se logprobs è 5, l'API restituirà una lista dei 5 token più probabili. L'API restituirà sempre il logprob del token campionato, quindi potrebbero esserci fino a un logprobs+1 massimo di elementi nella risposta.Il valore massimo per logprobs è 5. |
No | None |
| max_tokens | integer | Il numero massimo di token che può essere generato nel completamento. Il numero di token del tuo prompt plus max_tokens non può superare la lunghezza contestuale del modello. |
No | 16 |
| n | integer | Quante completazioni generare per ogni prompt. Nota: Poiché questo parametro genera molte completazioni, può rapidamente consumare la tua quota di token. Usa con attenzione e assicurati di avere impostazioni ragionevoli per max_tokens e stop. |
No | 1 |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| prompt | stringa o array | Il/i prompt/i per generare completi, codificati come stringa, array di stringhe, array di token o array di token. Nota che <|endoftext|> è il separatore del documento che il modello vede durante l'addestramento, quindi se non viene specificato un prompt, il modello verrà generato come se fosse dall'inizio di un nuovo documento. |
Yes | |
| seed | integer | Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| stop | stringa o array | Fino a 4 sequenze in cui l'API smette di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop. |
No | |
| stream | boolean | Se riportare indietro un progresso parziale. Se impostati, i token vengono inviati come eventi inviati solo dai dati man mano che diventano disponibili, con il flusso terminato da un data: [DONE] messaggio.
Esempio Python codice. |
No | False |
| suffix | string | Il suffisso che arriva dopo il completamento del testo inserito. Questo parametro è supportato solo per gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No |
createCompletionResponse
Rappresenta una risposta di completamento dall'API. Nota: sia gli oggetti di risposta streamati che quelli non streamati condividono la stessa forma (a differenza dell'endpoint chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | L'elenco delle scelte di completamento generato dal modello per il prompt di input. | Yes | |
| created | integer | Il timestamp Unix (in secondi) di quando è stato creato il completamento. | Yes | |
| id | string | Un identificatore unico per il completamento. | Yes | |
| model | string | Il modello utilizzato per il completamento. | Yes | |
| object | enum | Il tipo di oggetto, che è sempre "text_completion" Valori possibili: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. | No | |
| system_fingerprint | string | Questa impronta rappresenta la configurazione backend con cui il modello gira. Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo. |
No | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parametri per l'uscita audio. Richiesto quando l'uscita audio viene richiesta con modalities: ["audio"]. |
No | |
| └─ format | enum | Specifica il formato audio in uscita. Deve essere uno di wav, mp3, flac, opus, o pcm16. Valori possibili: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Specifica il tipo di voce. Le voci supportate sono alloy, echo, fable, onyx, nova, e shimmer.Valori possibili: alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | array | Le voci di configurazione per le estensioni di chat Azure OpenAI che le utilizzano. Questa specifica aggiuntiva è compatibile solo con Azure OpenAI. |
No | |
| frequency_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla frequenza esistente nel testo finora, riducendo la probabilità che il modello ripeta la stessa frase parola per parola. |
No | 0 |
| function_call | stringa o chatCompletionFunctionCallOption | Deprecato a favore di tool_choice.Controlla quale funzione (se ce n'è) chiamata dal modello. none significa che il modello non chiamerà una funzione ma genera invece un messaggio.auto significa che il modello può scegliere tra generare un messaggio o chiamare una funzione.Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.none è il valore predefinito quando non sono presenti funzioni.
auto è la predefinita se sono presenti delle funzioni. |
No | |
| functions | array | Deprecato a favore di tools.Un elenco delle funzioni per cui il modello può generare input JSON. |
No | |
| logit_bias | object | Modifica la probabilità che i token specificati compaiano nel completamento. Accetta un oggetto JSON che mappa i token (specificati dal loro ID di token nel tokenizzatore) a un valore di bias associato da -100 a 100. Matematicamente, il bias viene aggiunto ai logit generati dal modello prima del campionamento. L'effetto esatto varia a seconda del modello, ma i valori tra -1 e 1 dovrebbero diminuire o aumentare la probabilità di selezione; valori come -100 o 100 dovrebbero comportare un ban o la selezione esclusiva del token rilevante. |
No | None |
| logprobs | boolean | Se restituire o meno logaritamiche probabilità dei token di output. Se vero, restituisce le probabilità logarithmiche di ogni token di output restituito nel content .message |
No | False |
| max_completion_tokens | integer | Un limite superiore per il numero di token che possono essere generati per un completamento, inclusi token di output visibili e token di ragionamento. | No | |
| max_tokens | integer | Il numero massimo di token che possono essere generati nel completamento della chat. La lunghezza totale dei token di input e dei token generati è limitata dalla lunghezza contestuale del modello. |
No | |
| messages | array | Un elenco dei messaggi che compongono la conversazione finora. Esempio Python codice. | Yes | |
| metadata | object | Tag e valori definiti dagli sviluppatori usati per filtrare le completazioni nella dashboard delle completions memorizzate. | No | |
| modalities | ChatCompletionModalities | Tipi di output che vorresti che il modello generasse per questa richiesta. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito: ["text"]Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:["text", "audio"] |
No | |
| n | integer | Quante opzioni di completamento della chat generare per ogni messaggio di input. Nota che ti verrà addebitato in base al numero di gettoni generati in tutte le scelte. Tieni n in modo 1 di minimizzare i costi. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| prediction | PredictionContent | Configurazione per un Output Previsto, che può migliorare notevolmente i tempi di risposta quando gran parte della risposta del modello è nota in anticipo. Questo è più comune quando rigeneri un file con solo modifiche minori alla maggior parte dei contenuti. | No | |
| presence_penalty | number | Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo fino a quel momento, aumentando la probabilità che il modello tratti di nuovi argomenti. |
No | 0 |
| reasoning_effort | enum |
Solo modelli O1 Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.Valori possibili: low, medium, high |
No | |
| response_format | ResponseFormatText o ResponseFormatJsonObject o ResponseFormatJsonSchema | Un oggetto che specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4o mini, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo più recenti di gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita i Structured Outputs che garantiscono che il modello corrisponda allo schema JSON fornito.Impostando la modalità { "type": "json_object" } JSON, che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| seed | integer | Questa funzione è in fase Beta. Se specificato, il nostro sistema cerca al massimo di campionare deterministicamente, in modo che le richieste ripetute con lo stesso seed parametro e restituiscano lo stesso risultato.Il determinismo non è garantito, e dovresti consultare il system_fingerprint parametro di risposta per monitorare i cambiamenti nel backend. |
No | |
| stop | stringa o array | Fino a 4 sequenze in cui l'API smette di generare ulteriori token. |
No | |
| store | boolean | Se memorizzare o meno l'output di questa richiesta di completamento della chat per l'uso nei nostri prodotti di distillazione o valutazione del modello. | No | |
| stream | boolean | Se impostato, vengono inviati delta parziali del messaggio, come in ChatGPT. I token vengono inviati come eventi solo dati inviati dal server man mano che diventano disponibili, con lo stream terminato da un data: [DONE] messaggio.
Esempio Python codice. |
No | False |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti. |
No | |
| tools | array | Un elenco degli strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usa questo per fornire un elenco delle funzioni per cui il modello può generare input JSON. Sono supportate un massimo di 128 funzioni. |
No | |
| top_logprobs | integer | Un intero tra 0 e 20 che specifica il numero di token più probabili da restituire in ciascuna posizione del token, ciascuno con una probabilità logaritmica associata.
logprobs deve essere impostato a true se questo parametro viene utilizzato. |
No | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. |
No | |
| user_security_context | userSecurityContext | Il contesto di sicurezza dell'utente contiene diversi parametri che descrivono l'applicazione AI stessa e l'utente finale che interagisce con l'applicazione IA. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Scopri di più sulla protezione delle applicazioni di IA che utilizzano Microsoft Defender per il cloud. | No |
userSecurityContext
Il contesto di sicurezza dell'utente contiene diversi parametri che descrivono l'applicazione AI stessa e l'utente finale che interagisce con l'applicazione IA. Questi settori aiutano i team delle operazioni di sicurezza a indagare e mitigare gli incidenti di sicurezza fornendo un approccio completo alla protezione delle applicazioni IA. Scopri di più sulla protezione delle applicazioni di IA che utilizzano Microsoft Defender per il cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Il nome della domanda. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. | No | |
| end_user_id | string | Questo identificatore è l'ID utente Microsoft Entra ID (precedentemente Azure Active Directory) utilizzato per autenticare gli utenti finali all'interno dell'applicazione di IA generativa. Informazioni personali sensibili non dovrebbero essere incluse in questo campo. | No | |
| end_user_tenant_id | string | L'ID tenant Microsoft 365 a cui appartiene l'utente finale. È richiesto quando l'applicazione di IA generativa è multi-inquilin. | No | |
| source_ip | string | Cattura l'indirizzo IP originale del client, accettando sia i formati IPv4 che IPv6. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| name | string | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema.
Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota. |
No |
chatCompletionFunctionCallOption
Specificare una particolare funzione via {"name": "my_function"} obbliga il modello a chiamare quella funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Il nome della funzione da chiamare. | Yes |
chatCompletionFunctionParameters
I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.
Nessuna proprietà definita per questo componente.
chatCompletionRequestMessage
Questo componente può essere uno dei seguenti:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Istruzioni fornite dagli sviluppatori che il modello dovrebbe seguire, indipendentemente dai messaggi inviati dall'utente.
Con i modelli O1 e quelli più recenti, developer i messaggi sostituiscono quelli precedenti system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio dello sviluppatore. | Yes | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso developer.Valori possibili: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio di sistema. | Yes | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso system.Valori possibili: system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio utente. |
Yes | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso user.Valori possibili: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio dell'assistente. Richiesto a meno che tool_calls non venga specificato.function_call |
No | |
| function_call | object | Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. |
No | |
| └─ arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. | No | |
| └─ name | string | Il nome della funzione da chiamare. | No | |
| name | string | Un nome opzionale per il partecipante. Fornisce le informazioni sul modello per differenziare i partecipanti dello stesso ruolo. | No | |
| refusal | string | Il messaggio di rifiuto dell'assistente. | No | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso assistant.Valori possibili: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto del messaggio dello strumento. | Yes | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso tool.Valori possibili: tool |
Yes | |
| tool_call_id | string | Chiamata dello strumento a cui questo messaggio sta rispondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Il contenuto del messaggio funzionale. | Yes | |
| name | string | Il nome della funzione da chiamare. | Yes | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestSystemMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestUserMessageContentPart
Questo componente può essere uno dei seguenti:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestToolMessageContentPart
Questo componente può essere uno dei seguenti:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Il contenuto del testo. | Yes | |
| type | enum | La parte del tipo di contenuto. Valori possibili: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Dati audio codificati in Base64. | No | |
| └─ format | enum | Il formato dei dati audio codificati. Attualmente supporta "wav" e "mp3". Valori possibili: wav, mp3 |
No | |
| type | enum | La parte del tipo di contenuto. Sempre input_audio.Valori possibili: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Specifica il livello di dettaglio dell'immagine. Scopri di più nella guida Vision. Valori possibili: auto, low, high |
No | |
| └─ url | string | O un URL dell'immagine o i dati dell'immagine codificata in base64. | No | |
| type | enum | La parte del tipo di contenuto. Valori possibili: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Il messaggio di rifiuto generato dal modello. | Yes | |
| type | enum | La parte del tipo di contenuto. Valori possibili: refusal |
Yes |
azureChatExtensionConfiguration
Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
###Discriminator for azureChatExtensionConfiguration
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureChatExtensionType
Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.
| Property | Value |
|---|---|
| Description | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Azure Search quando lo si utilizza come estensione di chat OpenAI di Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI. | No | |
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Parametri per Azure Search quando utilizzati come estensione di chat Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions oppure onYourDataSystemAssignedManagedIdentityAuthenticationOptionsoppure onYourDataUserAssignedManagedIdentityAuthenticationOptionsoppure onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSourceoppure onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Il percorso finale assoluto per la risorsa di ricerca Azure da utilizzare. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Il nome dell'indice da utilizzare è disponibile nella risorsa Azure Search citata. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| query_type | azureSearchQueryType | Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. | No | |
| semantic_configuration | string | La configurazione semantica aggiuntiva per la query. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No |
azureSearchIndexFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Search configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | No | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| image_vector_fields | array | I nomi dei campi che rappresentano i dati vettoriali dell'immagine. | No | |
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No | |
| vector_fields | array | I nomi dei campi che rappresentano dati vettoriali. | No |
azureSearchQueryType
Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.
| Property | Value |
|---|---|
| Description | Il tipo di query di recupero Azure Search che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Azure Cosmos DB quando lo si utilizza come estensione chat di Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore. | No | |
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Azure Cosmos DB per MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione. | Yes | |
| container_name | string | Il nome del container di risorse Azure Cosmos DB. | Yes | |
| database_name | string | Il nome del database MongoDB vCore da usare con Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata. | Yes | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Il nome dell'indice MongoDB vCore da usare con Azure Cosmos DB. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No |
azureCosmosDBFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Azure Cosmos DB configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | Yes | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No | |
| vector_fields | array | I nomi dei campi che rappresentano dati vettoriali. | Yes |
elasticsearchChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Elasticsearch quando lo si utilizza come estensione di chat di Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parametri da utilizzare quando si configura Elasticsearch® come estensione di chat OpenAI per Azure. | No | |
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Parametri da utilizzare quando si configura Elasticsearch® come estensione di chat OpenAI per Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptionsoppure onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSourceoppure onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Il punto finale di Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Elasticsearch® configurata. | No | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Il nome indice di Elasticsearch®. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| query_type | elasticsearchQueryType | Il tipo di query di recupero Elasticsearch® che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No |
elasticsearchIndexFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Elasticsearch® configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | No | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No | |
| vector_fields | array | I nomi dei campi che rappresentano dati vettoriali. | No |
elasticsearchQueryType
Il tipo di query di recupero Elasticsearch® che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure.
| Property | Value |
|---|---|
| Description | Il tipo di query di recupero Elasticsearch® che dovrebbe essere eseguita quando si utilizza come estensione di chat OpenAI di Azure. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Mongo DB quando lo si utilizza come estensione di chat Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Mongo DB. | No | |
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Parametri da utilizzare quando si configurano le estensioni della chat di Azure OpenAI On Your Data quando si utilizza Mongo DB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. | No | False |
| app_name | string | Il nome dell'applicazione Mongo DB. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un nome utente e una password. | Yes | |
| collection_name | string | Il nome della Collezione Mongo DB. | Yes | |
| database_name | string | Il nome del database Mongo DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSourceoppure onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Il nome dell'endpoint del cluster Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa database Mongo configurata. | Yes | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Il nome dell'indice della Base di Dati Mongo. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No |
mongoDBFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa database Mongo configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | Yes | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No | |
| vector_fields | array | I nomi dei campi che rappresentano dati vettoriali. | Yes |
pineconeChatExtensionConfiguration
Una rappresentazione specifica delle opzioni configurabili per Pinecone quando lo si utilizza come estensione di chat di Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parametri per configurare le estensioni di chat Azure OpenAI Pinecone. | No | |
| type | azureChatExtensionType | Una rappresentazione dei dati di configurazione per una singola estensione di chat Azure OpenAI. Questo sarà utilizzato da una richiesta di completamento della chat che dovrebbe utilizzare le estensioni di chat di Azure OpenAI per aumentare il comportamento di risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Parametri per configurare le estensioni di chat Azure OpenAI Pinecone.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se specificato come vero, il sistema permetterà di utilizzare risultati di ricerca parziali e la richiesta fallisce se tutte le query falliscono. Se non specificato, o specificato come falso, la richiesta fallirà se qualsiasi query di ricerca fallisce. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando applica la ricerca vettoriale, basata su un nome di deployment interno di un modello di embedding nella stessa risorsa Azure OpenAI. | Yes | |
| environment | string | Il nome ambientale è Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Pinecone configurata. | Yes | |
| in_scope | boolean | Se le query dovrebbero essere limitate all'uso di dati indicizzati. | No | |
| include_contexts | array | Le proprietà incluse del contesto di output. Se non specificato, il valore predefinito è citations e intent. |
No | |
| index_name | string | Il nome dell'indice del database Pinecone. | Yes | |
| max_search_queries | integer | Il numero massimo di query riscritte dovrebbe essere inviato al fornitore di ricerca per un messaggio utente. Se non specificato, il sistema deciderà il numero di query da inviare. | No | |
| strictness | integer | La rigorosità configurata del filtraggio della rilevanza di ricerca. Più alta è la severità, maggiore è la precisione ma minore è la memoria della risposta. | No | |
| top_n_documents | integer | Il numero superiore configurato di documenti da presentare per la query configurata. | No |
pineconeFieldMappingOptions
Impostazioni opzionali per controllare come vengono elaborati i campi quando si utilizza una risorsa Pinecone configurata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | I nomi dei campi indice che dovrebbero essere trattati come contenuti. | Yes | |
| content_fields_separator | string | Il pattern separatore che i campi di contenuto dovrebbero usare. | No | |
| filepath_field | string | Il nome del campo indice da usare come percorso file. | No | |
| title_field | string | Il nome del campo indice da usare come titolo. | No | |
| url_field | string | Il nome del campo indice da usare come URL. | No |
onYourDataAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati.
Discriminatore per onYourDataAuthenticationOptions
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataContextProperty
La proprietà contestuale.
| Property | Value |
|---|---|
| Description | La proprietà contestuale. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
I tipi di autenticazione supportati da Azure OpenAI On Your Data.
| Property | Value |
|---|---|
| Description | I tipi di autenticazione supportati da Azure OpenAI On Your Data. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una chiave API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La chiave API da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una stringa di connessione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | La stringa di connessione da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza una coppia chiave e ID chiave Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La chiave Elasticsearch da usare per l'autenticazione. | No | |
| key_id | string | L'ID della chiave Elasticsearch da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI On Your Data quando si utilizza una chiave API codificata in Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | La chiave API codificata da Elasticsearch per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza il token di accesso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Il token di accesso da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata al sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un'identità gestita assegnata dall'utente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | L'ID risorsa dell'identità gestita assegnata dall'utente da utilizzare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Le opzioni di autenticazione per Azure OpenAI sui tuoi dati quando si utilizza un nome utente e una password.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. da usare per l'autenticazione. | No | |
| type | onYourDataAuthenticationType | I tipi di autenticazione supportati da Azure OpenAI On Your Data. | Yes | |
| username | string | Il nome utente da usare per l'autenticazione. | No |
onYourDataVectorizationSource
Una rappresentazione astratta di una sorgente di vettorizzazione per Azure OpenAI sui tuoi dati con ricerca vettoriale.
Questa componente utilizza la proprietà type per discriminare tra diversi tipi:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. | Yes |
onYourDataVectorizationSourceType
Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale.
| Property | Value |
|---|---|
| Description | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando applica la ricerca vettoriale, basata su una chiamata endpoint pubblica di Azure OpenAI per gli embedding.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptionsoppure onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Il numero di dimensioni che gli embeddings dovrebbero avere. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. |
No | |
| endpoint | string | Specifica l'URL dell'endpoint della risorsa da cui devono essere recuperati gli embedding. Dovrebbe essere nel formato di https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Il parametro di query della versione API non è permesso. |
No | |
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. | Yes |
onYourDataDeploymentNameVectorizationSource
I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un nome di deployment interno di un modello di embedding nella stessa risorsa Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Specifica il nome del deployment del modello da utilizzare per la vettorizzazione. Questa distribuzione del modello deve avvenire nella stessa risorsa Azure OpenAI, ma On Your Data utilizzerà questa distribuzione tramite una chiamata interna anziché pubblica, che consente la ricerca vettoriale anche nelle reti private. | No | |
| dimensions | integer | Il numero di dimensioni che gli embeddings dovrebbero avere. Supportato solo nei text-embedding-3 modelli e nei modelli successivi. |
No | |
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. | Yes |
onYourDataIntegratedVectorizationSource
Rappresenta il vettoriatore integrato definito all'interno della risorsa di ricerca.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. | Yes |
onYourDataModelIdVectorizationSource
I dettagli di una sorgente di vettorizzazione, utilizzata da Azure OpenAI On Your Data quando si applica la ricerca vettoriale, basata su un ID di modello di servizio di ricerca. Attualmente supportato solo da Elasticsearch®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Specifica l'ID del modello da utilizzare per la vettorizzazione. Questo ID modello deve essere definito nel servizio di ricerca. | No | |
| type | onYourDataVectorizationSourceType | Rappresenta le fonti disponibili che Azure OpenAI On Your Data può utilizzare per configurare la vettorizzazione dei dati da utilizzare con la ricerca vettoriale. | Yes |
azureChatExtensionsMessageContext
Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando le estensioni di chat di Azure OpenAI sono coinvolte nella generazione di una risposta corrispondente alle chat completes. Queste informazioni contestuali vengono inserite solo quando si utilizza una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Tutti i documenti recuperati. | No | |
| citations | array | Il risultato del recupero della sorgente dati, utilizzato per generare il messaggio assistente nella risposta. | No | |
| intent | string | L'intento rilevato dalla cronologia della chat, usato per passare al turno successivo e trasmettere il contesto. | No |
citation
Informazioni di citazione per un messaggio di risposta al completamento della chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | L'ID del blocco della citazione. | No | |
| content | string | Il contenuto della citazione. | Yes | |
| filepath | string | Il percorso del file della citazione. | No | |
| rerank_score | number | Il punteggio di riclassificazione del documento recuperato. | No | |
| title | string | Il titolo della citazione. | No | |
| url | string | L'URL della citazione. | No |
retrievedDocument
Il documento recuperato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | L'ID del blocco della citazione. | No | |
| content | string | Il contenuto della citazione. | Yes | |
| data_source_index | integer | L'indice della fonte dati. | No | |
| filepath | string | Il percorso del file della citazione. | No | |
| filter_reason | filterReason | La ragione del filtraggio del documento recuperato. | No | |
| original_search_score | number | Il punteggio originale della ricerca del documento recuperato. | No | |
| rerank_score | number | Il punteggio di riclassificazione del documento recuperato. | No | |
| search_queries | array | Le query di ricerca utilizzate per recuperare il documento. | No | |
| title | string | Il titolo della citazione. | No | |
| url | string | L'URL della citazione. | No |
filterReason
La ragione del filtraggio del documento recuperato.
| Property | Value |
|---|---|
| Description | La ragione del filtraggio del documento recuperato. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La funzione che il modello ha chiamato. | Yes | |
| └─ arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. | No | |
| └─ name | string | Il nome della funzione da chiamare. | No | |
| id | string | L'ID della chiamata dello strumento. | Yes | |
| type | toolCallType | Il tipo di chiamata dello strumento, in questo caso function. |
Yes |
toolCallType
Il tipo di chiamata dello strumento, in questo caso function.
| Property | Value |
|---|---|
| Description | Il tipo di chiamata dello strumento, in questo caso function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Il contenuto del messaggio. | No | |
| tool_call_id | string | Chiamata dello strumento a cui questo messaggio sta rispondendo. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Il contenuto del messaggio. | No | |
| name | string | Il contenuto del messaggio. | No | |
| role | enum | Il ruolo dell'autore dei messaggi, in questo caso function.Valori possibili: function |
No |
createChatCompletionResponse
Rappresenta una risposta di completamento della chat restituita dal modello, basata sull'input fornito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Una lista delle opzioni per completare la chat. Può essere più di uno se n è maggiore di 1. |
Yes | |
| created | integer | Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. | Yes | |
| id | string | Un identificatore unico per il completamento della chat. | Yes | |
| model | string | Il modello usato per completare la chat. | Yes | |
| object | enum | Il tipo di oggetto, che è sempre chat.completion.Valori possibili: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Il filtraggio dei contenuti risulta per zero o più prompt nella richiesta. In una richiesta di streaming, i risultati per prompt diversi possono arrivare in orari diversi o in ordini differenti. | No | |
| system_fingerprint | string | Questa impronta rappresenta la configurazione backend con cui il modello gira. Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo. |
No | |
| usage | completionUsage | Statistiche di utilizzo per la richiesta di completamento. | No |
createChatCompletionStreamResponse
Rappresenta un blocco streamlato di una risposta di completamento della chat restituita dal modello, basato sull'input fornito.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Una lista delle opzioni per completare la chat. Può contenere più di un elemento se n è maggiore di 1. |
Yes | |
| created | integer | Il timestamp Unix (in pochi secondi) di quando è stata creata la chat completata. Ogni blocco ha lo stesso timestamp. | Yes | |
| id | string | Un identificatore unico per il completamento della chat. Ogni blocco ha lo stesso ID. | Yes | |
| model | string | Il modello per generare la completezza. | Yes | |
| object | enum | Il tipo di oggetto, che è sempre chat.completion.chunk.Valori possibili: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Questa impronta rappresenta la configurazione backend con cui il modello gira. Può essere usato insieme al seed parametro di richiesta per capire quando sono state apportate modifiche nel backend che potrebbero influenzare il determinismo. |
No |
chatCompletionStreamResponseDelta
Un delta di completamento della chat generato dalle risposte del modello in streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Il contenuto del messaggio a pezzi. | No | |
| function_call | object | Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. |
No | |
| └─ arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. | No | |
| └─ name | string | Il nome della funzione da chiamare. | No | |
| refusal | string | Il messaggio di rifiuto generato dal modello. | No | |
| role | enum | Il ruolo dell'autore di questo messaggio. Valori possibili: system, user, assistant, tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. | No | |
| └─ name | string | Il nome della funzione da chiamare. | No | |
| id | string | L'ID della chiamata dello strumento. | No | |
| index | integer | Yes | ||
| type | enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: function |
No |
chatCompletionStreamOptions
Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se impostato, un ulteriore chunk verrà trasmesso prima del data: [DONE] messaggio. Il usage campo su questo chunk mostra le statistiche di utilizzo dei token per l'intera richiesta, e il choices campo sarà sempre un array vuoto. Tutti gli altri chunk includeranno anch'essi un usage campo, ma con valore nullo. |
No |
chatCompletionChoiceLogProbs
Registra le informazioni di probabilità per la scelta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Un elenco dei token di contenuto dei messaggi con informazioni sulla probabilità log. | Yes | |
| refusal | array | Un elenco di token di rifiuto di messaggi con informazioni di probabilità logaritaria. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Un elenco di interi che rappresenta la rappresentazione UTF-8 byte del token. Utile in situazioni in cui i caratteri sono rappresentati da più token e le loro rappresentazioni in byte devono essere combinate per generare la rappresentazione testuale corretta. Può esserlo null se non esiste una rappresentazione in byte per il token. |
Yes | |
| logprob | number | La probabilità logaritmica di questo token. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Elenco dei token più probabili e della loro probabilità logarithmita, in questa posizione del token. In rari casi, potrebbero esserci meno del numero di richieste top_logprobs restituite. |
Yes |
chatCompletionResponseMessage
Un messaggio di completamento della chat generato dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Se viene richiesta la modalità di uscita audio, questo oggetto contiene dati sulla risposta audio dal modello. | No | |
| └─ data | string | Byte audio codificati in Base64 generati dal modello, nel formato specificato nella richiesta. |
No | |
| └─ expires_at | integer | Il timestamp Unix (in secondi) per indicare quando questa risposta audio non sarà più accessibile sul server per l'uso in conversazioni a più turni. |
No | |
| └─ id | string | Identificatore unico per questa risposta audio. | No | |
| └─ transcript | string | Trascrizione dell'audio generato dal modello. | No | |
| content | string | Il contenuto del messaggio. | Yes | |
| context | azureChatExtensionsMessageContext | Una rappresentazione delle informazioni contestuali aggiuntive disponibili quando le estensioni di chat di Azure OpenAI sono coinvolte nella generazione di una risposta corrispondente alle chat completes. Queste informazioni contestuali vengono inserite solo quando si utilizza una richiesta OpenAI di Azure configurata per usare un'estensione corrispondente. | No | |
| function_call | chatCompletionFunctionCall | Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello. |
No | |
| refusal | string | Il messaggio di rifiuto generato dal modello. | Yes | |
| role | chatCompletionResponseMessageRole | Il ruolo dell'autore del messaggio di risposta. | Yes | |
| tool_calls | array | Le chiamate degli strumenti generate dal modello, come le chiamate di funzione. | No |
chatCompletionResponseMessageRole
Il ruolo dell'autore del messaggio di risposta.
| Property | Value |
|---|---|
| Description | Il ruolo dell'autore del messaggio di risposta. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti. Specificare uno strumento particolare tramite {"type": "function", "function": {"name": "my_function"}} costringe il modello a chiamare quello strumento.
none è il valore predefinito quando non ci sono strumenti presenti.
auto è la norma se sono presenti strumenti.
Questo componente può essere uno dei seguenti:
chatCompletionNamedToolChoice
Specifica uno strumento che il modello dovrebbe utilizzare. Usa per forzare il modello a chiamare una funzione specifica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Il nome della funzione da chiamare. | No | |
| type | enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: function |
Yes |
ParallelToolCalls
Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento.
Nessuna proprietà definita per questo componente.
PredictionContent
Contenuto statico previsto in output, come il contenuto di un file di testo che viene rigenerato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o array | Il contenuto che dovrebbe essere abbinato quando si genera una risposta al modello. Se i token generati corrispondessero a questo contenuto, l'intera risposta del modello potrebbe essere restituita molto più rapidamente. | Yes | |
| type | enum | Il tipo di contenuto previsto che vuoi fornire. Questo tipo è attualmente sempre content.Valori possibili: content |
Yes |
chatCompletionMessageToolCalls
Le chiamate degli strumenti generate dal modello, come le chiamate di funzione.
Nessuna proprietà definita per questo componente.
ChatCompletionModalities
Tipi di output che vorresti che il modello generasse per questa richiesta. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:
["text"]
Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:
["text", "audio"]
Nessuna proprietà definita per questo componente.
chatCompletionFunctionCall
Depreciata e sostituita da tool_calls. Il nome e gli argomenti di una funzione che dovrebbe essere chiamata, come generati dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Gli argomenti per chiamare la funzione con, come generati dal modello in formato JSON. Nota che il modello non genera sempre un JSON valido e può allucinare parametri non definiti dal tuo schema di funzione. Valida gli argomenti nel tuo codice prima di chiamare la tua funzione. | Yes | |
| name | string | Il nome della funzione da chiamare. | Yes |
completionUsage
Statistiche di utilizzo per la richiesta di completamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Numero di gettoni nel completamento generato. | Yes | |
| completion_tokens_details | object | Suddivisione dei gettoni usati in una completazione. | No | |
| └─ accepted_prediction_tokens | integer | Quando si usano i Output Previsti, il numero di token nella previsione che apparve nella completazione. | No | |
| └─ audio_tokens | integer | Token di input audio generati dal modello. | No | |
| └─ reasoning_tokens | integer | Token generati dal modello per ragionamento. | No | |
| └─ rejected_prediction_tokens | integer | Quando si usano i Output Previsti, il numero di token nella previsione che non sono apparsi nel completamento. Tuttavia, come i token di ragionamento, questi token sono comunque conteggiati nel totale dei token di completamento ai fini di fatturazione, output e limiti delle finestre contestuali. | No | |
| prompt_tokens | integer | Numero di gettoni nel prompt. | Yes | |
| prompt_tokens_details | object | Dettagli dei gettoni del prompt. | No | |
| └─ audio_tokens | integer | Token audio di input presenti nel prompt. | No | |
| └─ cached_tokens | integer | Il numero di token prompt memorizzati nella cache. | No | |
| total_tokens | integer | Numero totale di token utilizzati nella richiesta (prompt + completamento). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Il tipo di attrezzo. Attualmente, solo function è supportato.Valori possibili: function |
Yes |
FunctionParameters
I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato.
Omettere parameters definisce una funzione con una lista di parametri vuota.
Nessuna proprietà definita per questo componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| name | string | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | Yes | |
| parameters | FunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema.
Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato. Omettere parameters definisce una funzione con una lista di parametri vuota. |
No | |
| strict | boolean | Se abilitare una rigorosa aderenza allo schema durante la generazione della chiamata di funzione. Se impostato su vero, il modello seguirà esattamente lo schema definito nel parameters campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di formato di risposta definito: textValori possibili: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di formato di risposta definito: json_objectValori possibili: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Lo schema per il formato di risposta, descritto come un oggetto JSON Schema.
Nessuna proprietà definita per questo componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Una descrizione del motivo del formato di risposta, usata dal modello per determinare come rispondere nel formato. | No | |
| └─ name | string | Il nome del formato della risposta. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. | No | |
| └─ strict | boolean | Se abilitare una rigorosa aderenza allo schema durante la generazione dell'output. Se impostato su vero, il modello seguirà sempre esattamente lo schema definito nel schema campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. |
No | False |
| type | enum | Il tipo di formato di risposta definito: json_schemaValori possibili: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio da tradurre. | Yes | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe essere in inglese. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
audioResponse
Risposta alla traduzione o trascrizione quando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Testo tradotto o trascritto. | Yes |
audioVerboseResponse
Risposta alla traduzione o trascrizione quando response_format era verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Tipo di compito audio. | No | |
| text | string | Testo tradotto o trascritto. | Yes | |
| words | array | No |
audioResponseFormat
Definisce il formato dell'output.
| Property | Value |
|---|---|
| Description | Definisce il formato dell'output. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Il file audio oggetto da trascrivere. | Yes | |
| language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 migliora accuratezza e latenza. | No | |
| prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. | No | |
| response_format | audioResponseFormat | Definisce il formato dell'output. | No | |
| temperature | number | La temperatura di campionamento, compresa tra 0 e 1. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Se impostato a 0, il modello utilizza la probabilità logaritmica per aumentare automaticamente la temperatura fino a raggiungere certe soglie. | No | 0 |
| timestamp_granularities[] | array | Le granularità del timestamp da popolare per questa trascrizione.
response_format deve essere impostato verbose_json per utilizzare granularità di timestamp. Una o entrambe queste opzioni sono supportate: word, oppure segment. Nota: Non c'è latenza aggiuntiva per i timestamp dei segmenti, ma generare timestamp di parole comporta latenza aggiuntiva. |
No | ['segment'] |
audioSegment
Segmento di trascrizione o traduzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilità logaritmica media. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Offset di fine segmento. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Probabilità di 'nessun discorso'. | No | |
| seek | number | Offset rispetto al segmento. | No | |
| start | number | Offset di inizio segmento. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Simboli del testo. | No |
audioWord
Parola di trascrizione o traduzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Offset di fine Word. | No | |
| start | number | Word start offset. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Il testo per sintetizzare l'audio. La lunghezza massima è di 4.096 caratteri. | Yes | |
| response_format | enum | Il formato in cui sintetizzare l'audio. Valori possibili: mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | La velocità dell'audio sintetizzato. Seleziona un valore da 0.25 a 4.0.
1.0 è la norma predefinita. |
No | 1.0 |
| voice | enum | La voce da usare per la sintesi vocale. Valori possibili: alloy, echo, fable, onyx, nova, shimmer |
Yes |
imageQuality
La qualità dell'immagine che verrà generata.
| Property | Value |
|---|---|
| Description | La qualità dell'immagine che verrà generata. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Il formato in cui vengono restituite le immagini generate.
| Property | Value |
|---|---|
| Description | Il formato in cui vengono restituite le immagini generate. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli di serie.
| Property | Value |
|---|---|
| Description | Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli della serie GPT-image-1. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
La dimensione delle immagini generate.
| Property | Value |
|---|---|
| Description | La dimensione delle immagini generate. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Lo stile delle immagini generate. Supportato solo per DALL-E-3.
| Property | Value |
|---|---|
| Description | Lo stile delle immagini generate. Supportato solo per DALL-E-3. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permette di impostare trasparenza per lo sfondo dell'immagine o delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1.
| Property | Value |
|---|---|
| Description | Permette di impostare trasparenza per lo sfondo dell'immagine o delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permette di impostare trasparenza per lo sfondo dell'immagine o delle immagini generate. Questo parametro è supportato solo per i modelli serie gpt-image-1. | No | auto |
| n | integer | Il numero di immagini da generare. Per dall-e-3, è supportato solo n=1. | No | 1 |
| output_compression | integer | Il livello di compressione (0-100%) per le immagini generate. Questo parametro è supportato solo per modelli della serie gpt-image-1 con il formato di uscita jpeg. | No | 100 |
| output_format | imagesOutputFormat | Il formato file in cui vengono restituite le immagini generate. Supportato solo per i modelli della serie GPT-image-1. | No | png |
| prompt | string | Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32.000 caratteri per i modelli della serie gpt-image-1 e 4.000 caratteri per dall-e-3 | Yes | |
| quality | imageQuality | La qualità dell'immagine che verrà generata. | No | auto |
| response_format | imagesResponseFormat | Il formato in cui vengono restituite le immagini generate. Supportato solo per DALL-E-3. | No | url |
| size | imageSize | La dimensione delle immagini generate. | No | auto |
| style | imageStyle | Lo stile delle immagini generate. Supportato solo per DALL-E-3. | No | vivid |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | stringa o array | L'immagine o le immagini da modificare. Deve essere un file immagine supportato o un array di immagini. Ogni immagine dovrebbe essere un file png o jpg inferiore a 25MB. | Yes | |
| mask | string | Un'immagine aggiuntiva le cui aree completamente trasparenti (ad esempio, dove alfa è zero) indica dove l'immagine dovrebbe essere modificata. Se sono fornite più immagini, la maschera verrà applicata alla prima immagine. Deve essere un file PNG valido, inferiore a 4MB, e avere le stesse dimensioni dell'immagine. | No | |
| n | integer | Il numero di immagini da generare. | No | 1 |
| prompt | string | Una descrizione testuale dell'immagine desiderata. La lunghezza massima è di 32000 caratteri. | Yes | |
| quality | imageQuality | La qualità dell'immagine che verrà generata. | No | auto |
| response_format | imagesResponseFormat | Il formato in cui vengono restituite le immagini generate. | No | url |
| size | imageSize | La dimensione delle immagini generate. | No | auto |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare a monitorare e rilevare abusi. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Il timestamp di unix quando è stata creata l'operazione. | Yes | |
| data | array | I dati di risultato dell'operazione, se riusciti | Yes | |
| usage | imageGenerationsUsage | Rappresenta i dettagli di utilizzo dei token per le richieste di generazione delle immagini. Solo per modelli della serie GPT-image-1. | No |
imageResult
L'URL dell'immagine o l'immagine codificata se riuscite, e un errore altrimenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | L'immagine codificata base64 | No | |
| content_filter_results | dalleContentFilterResults | Informazioni sui risultati del filtraggio dei contenuti. | No | |
| prompt_filter_results | dalleFilterResults | Informazioni sulla categoria di filtraggio dei contenuti (odio, sessuale, violenza, self_harm), se è stata rilevata, nonché sul livello di gravità (scala very_low, bassa, media, alta che determina l'intensità e il livello di rischio dei contenuti dannosi) e se è stata filtrata o meno. Informazioni sui contenuti e le parolacce del jailbreak, se sono stati rilevati e se sono stati filtrati o meno. E informazioni sulla lista dei clienti bloccati, se è stata filtrata e il suo ID. | No | |
| revised_prompt | string | Il prompt usato per generare l'immagine, se c'era stata una revisione del prompt. | No | |
| url | string | L'URL dell'immagine. | No |
imageGenerationsUsage
Rappresenta i dettagli di utilizzo dei token per le richieste di generazione delle immagini. Solo per modelli della serie GPT-image-1.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Il numero di token di input. | No | |
| input_tokens_details | object | Una suddivisione dettagliata dei token di input. | No | |
| └─ image_tokens | integer | Il numero di token immagine. | No | |
| └─ text_tokens | integer | Il numero di gettoni di testo. | No | |
| output_tokens | integer | Il numero di token di output. | No | |
| total_tokens | integer | Il numero totale di gettoni utilizzati. | No |
line
Un oggetto linea di contenuto costituito da una sequenza adiacente di elementi di contenuto, come parole e segni di selezione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Un array di spazi che rappresentano gli oggetti rilevati e le informazioni sulla loro bounding box. | Yes | |
| text | string | Yes |
span
Un oggetto span che rappresenta un oggetto rilevato e le sue informazioni sulla scatola di confine.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | La lunghezza dello spazio in caratteri, misurata in codici Unicode. | Yes | |
| offset | integer | L'offset del carattere all'interno del testo dove inizia lo span. Questo offset è definito come la posizione del primo carattere dello span, contando dall'inizio del testo come punti codice Unicode. | Yes | |
| polygon | array | Un array di oggetti che rappresentano punti nel poligono che racchiude l'oggetto rilevato. | Yes | |
| text | string | Il contenuto testuale dello span che rappresenta l'oggetto rilevato. | Yes |
runCompletionUsage
Statistiche di utilizzo relative alla corsa. Questo valore sarà null se la run non è in uno stato terminale (cioè in_progress, queued, ecc.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Numero di gettoni di completamento usati durante la run. | Yes | |
| prompt_tokens | integer | Numero di token prompt usati durante la run. | Yes | |
| total_tokens | integer | Numero totale di gettoni utilizzati (prompt + completamento). | Yes |
runStepCompletionUsage
Statistiche di utilizzo relative al passo di corsa. Questo valore sarà null mentre lo stato del passo di corsa è in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Numero di token di completamento utilizzati durante la fase di corsa. | Yes | |
| prompt_tokens | integer | Numero di gettoni di prompt usati durante il passo di corsa. | Yes | |
| total_tokens | integer | Numero totale di gettoni utilizzati (prompt + completamento). | Yes |
assistantsApiResponseFormatOption
Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.
Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.
Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.
Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto.
Questo componente può essere uno dei seguenti:
assistantsApiResponseFormat
Un oggetto che descrive l'output atteso del modello. Se json_object solo function il tipo tools può essere passato alla Run. Se text il modello può restituire testo o qualsiasi valore necessario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Deve essere uno di text oppure json_object. |
No | text |
tipo Enum: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Rappresenta un assistant che può chiamare il modello e usare strumenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Il timestamp Unix (in secondi) indica quando l'assistente è stato creato. | Yes | |
| description | string | La descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
Yes | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| instructions | string | Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 256.000 caratteri. |
Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
Yes | |
| model | string | ID del modello da utilizzare. | Yes | |
| name | string | Il nome dell'assistente. La lunghezza massima è di 256 caratteri. |
Yes | |
| object | string | Il tipo di oggetto, che è sempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | L'ID del vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, file_search, o function. |
Yes | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
object Enum: AssistantObjectType
| Value | Description |
|---|---|
| assistant | Il tipo di oggetto, che è sempre assistente |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 256.000 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | Yes | ||
| name | string | Il nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| └─ vector_stores | array | Un aiutante per creare un vettoriale store con file_ids e collegarlo a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descrizione dell'assistente. La lunghezza massima è di 512 caratteri. |
No | |
| instructions | string | Le istruzioni di sistema che l'assistente usa. La lunghezza massima è di 32768 caratteri. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | No | ||
| name | string | Il nome dell'assistente. La lunghezza massima è di 256 caratteri. |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Sovrascrive l'elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Sovrascrive il vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Un elenco degli strumenti attivati nell'assistente. Possono esserci un massimo di 128 strumenti per assistente. Gli strumenti possono essere di tipo code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
oggetto Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Il tipo di strumento definito: code_interpreter |
Yes |
tipo Enum: assistenteToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Sovrascrive lo strumento di ricerca file. | No | |
| └─ max_num_results | integer | Il numero massimo di risultati che lo strumento di ricerca file dovrebbe generare. Il valore predefinito è 20 per i modelli gpt-4* e 5 per i gpt-3.5-turbo. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. Si noti che lo strumento di ricerca file può fornire meno risultati dei max_num_results risultati. |
No | |
| type | string | Il tipo di strumento definito: file_search |
Yes |
tipo Enum: assistenteToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Il tipo di strumento definito: file_search |
Yes |
tipo Enum: assistenteToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definizione della funzione. | Yes | |
| └─ description | string | Una descrizione di ciò che fa la funzione, usata dal modello per scegliere quando e come chiamarla. | No | |
| └─ name | string | Il nome della funzione da chiamare. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | I parametri che le funzioni accettano, descritti come un oggetto JSON Schema. Consulta la guida per esempi e il riferimento allo schema JSON per la documentazione sul formato. | No | |
| type | string | Il tipo di strumento definito: function |
Yes |
tipo Enum: assistenteStrumentiFunzione
| Value | Description |
|---|---|
| function |
truncationObject
Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Il numero di messaggi più recenti dal thread quando si costruisce il contesto per la run. | No | |
| type | string | La strategia di troncamento da usare per il thread. Il valore predefinito è auto. Se impostato su last_messages, il thread verrà troncato ai n messaggi più recenti nel thread. Quando impostato su auto, i messaggi al centro del thread verranno eliminati per adattarsi alla lunghezza contestuale del modello, max_prompt_tokens. |
Yes |
tipo Enum: TroncamentoTipo
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.
auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.
Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo.
Questo componente può essere uno dei seguenti:
assistantsNamedToolChoice
Specifica uno strumento che il modello dovrebbe utilizzare. Usalo per forzare il modello a chiamare uno strumento specifico.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | Il nome della funzione da chiamare. | No | |
| type | string | Il tipo di attrezzo. Se il tipo è function, il nome della funzione deve essere impostato |
Yes |
tipo Enum: AssistentiNominatoSceltaStrumento
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Rappresenta un'esecuzione su un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L'ID dell'assistente utilizzato per l'esecuzione di questa corsa. | Yes | |
| cancelled_at | integer | Il timestamp Unix (in pochi secondi) indicava quando l'esecuzione veniva annullata. | Yes | |
| completed_at | integer | Il timestamp Unix (in pochi secondi) indica quando l'esecuzione è stata completata. | Yes | |
| created_at | integer | Il timestamp Unix (in secondi) indicava quando l'esecuzione è stata creata. | Yes | |
| expires_at | integer | Il timestamp Unix (in pochi secondi) indica quando l'esecuzione scaderà. | Yes | |
| failed_at | integer | Il timestamp Unix (in pochi secondi) indica quando l'esecuzione falliva. | Yes | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| incomplete_details | object | Dettagli sul perché la run è incompleta. Lo null sarà se la run non è incompleta. |
Yes | |
| └─ reason | string | Il motivo per cui la run è incompleta. Questo indicherà quale limite specifico di token è stato raggiunto durante la run. | No | |
| instructions | string | Le istruzioni che l'assistente ha usato per questa corsa. | Yes | |
| last_error | object | L'ultimo errore associato a questa corsa. Lo null sarà se non ci sono errori. |
Yes | |
| └─ code | string | Uno di server_error oppure rate_limit_exceeded. |
No | |
| └─ message | string | Una descrizione leggibile dall'uomo dell'errore. | No | |
| max_completion_tokens | integer | Il numero massimo di gettoni di completamento specificati da utilizzare durante la corsa. |
Yes | |
| max_prompt_tokens | integer | Il numero massimo di token prompt specificati da utilizzare durante la corsa. |
Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
Yes | |
| model | string | Il modello che l'assistente ha usato per questa corsa. | Yes | |
| object | string | Il tipo di oggetto, che è sempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| required_action | object | Dettagli sull'azione necessaria per continuare la corsa. Lo null sarà se non è necessaria alcuna azione. |
Yes | |
| └─ submit_tool_outputs | object | Dettagli sugli output degli strumenti necessari affinché questa corsa continui. | No | |
| └─ tool_calls | array | Un elenco delle chiamate degli strumenti rilevanti. | No | |
| └─ type | enum | Per ora, questo è sempre submit_tool_outputs.Valori possibili: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
Yes | |
| started_at | integer | Il timestamp Unix (in pochi secondi) indica quando è stata avviata la run. | Yes | |
| status | string | Lo stato della corsa, che può essere o queued, in_progress, requires_action, cancelling, cancelledfailed, , completed, o expired. |
Yes | |
| temperature | number | La temperatura di campionamento utilizzata per questa prova. Se non impostato, il valore predefinito è 1. | No | |
| thread_id | string | L'ID dei thread su cui è stato eseguito come parte di questa run. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
Yes | |
| tools | array | L'elenco degli strumenti che l'assistente ha usato per questa corsa. | Yes | [] |
| top_p | number | Il valore di campionamento del nucleo utilizzato per questa corsa. Se non impostato, il valore predefinito è 1. | No | |
| truncation_strategy | truncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | Yes | |
| usage | runCompletionUsage | Statistiche di utilizzo relative alla corsa. Questo valore sarà null se la run non è in uno stato terminale (cioè in_progress, queued, ecc.). |
Yes |
object Enum: runObjectType
| Value | Description |
|---|---|
| thread.run | Il tipo di oggetto run che è sempre thread.run |
status Enum: RunObjectStatus
| Value | Description |
|---|---|
| queued | Lo stato in coda |
| in_progress | Lo stato in_progress |
| requires_action | Lo stato required_action |
| cancelling | Lo stato di cancellazione |
| cancelled | Lo stato cancellato |
| failed | Lo stato fallito |
| completed | Lo stato completato |
| expired | Lo stato scaduto |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Aggiunge istruzioni aggiuntive alla fine delle istruzioni per la corsa. Questo è utile per modificare il comportamento su base per run senza sovrascrivere altre istruzioni. | No | |
| additional_messages | array | Aggiunge messaggi aggiuntivi al thread prima di creare la run. | No | |
| assistant_id | string | L'ID dell'assistente da usare per eseguire questa corsa. | Yes | |
| instructions | string | Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer | Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | L'ID del Modello da utilizzare per eseguire questa esecuzione. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| tools | array | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| tool_outputs | array | Un elenco degli strumenti per cui vengono inviati i risultati. | Yes |
runToolCallObject
Oggetti di chiamata degli strumenti
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definizione della funzione. | Yes | |
| └─ arguments | string | Gli argomenti che il modello si aspetta che tu passi alla funzione. | No | |
| └─ name | string | Il nome della funzione. | No | |
| id | string | L'ID della chiamata dello strumento. Questo ID deve essere riferito quando invii gli output dello strumento usando gli output dello strumento per eseguire endpointendpoint. | Yes | |
| type | string | Il tipo di chiamata dello strumento per cui è richiesta l'output. Per ora, questo è sempre function. |
Yes |
tipo Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L'ID dell'assistente da usare per eseguire questa corsa. | Yes | |
| instructions | string | Sovrascrivi il messaggio di sistema predefinito dell'assistente. Questo è utile per modificare il comportamento su base per run. | No | |
| max_completion_tokens | integer | Il numero massimo di gettoni di completamento che possono essere utilizzati durante la run. La run cerca di utilizzare al meglio solo il numero di token di completamento specificato, su più turni della run. Se la corsa supera il numero di token di completamento specificato, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| max_prompt_tokens | integer | Il numero massimo di token prompt che possono essere utilizzati durante la run. La run si impegna al meglio per utilizzare solo il numero di gettoni di prompt specificato, su più turni della run. Se la corsa supera il numero di token prompt specificati, la corsa terminerà con lo stato incomplete. Vedi incomplete_details per maggiori informazioni. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| model | string | L'ID dei modelli da utilizzare per eseguire questa corsa. Se qui viene fornito un valore, esso sovrascriverà il modello associato all'assistente. In caso contrario, verrà utilizzato il modello associato all'assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se abilitare la chiamata parallela di funzioni durante l'uso dello strumento. | No | True |
| response_format | assistantsApiResponseFormatOption | Specifica il formato che il modello deve generare. Compatibile con GPT-4o, GPT-4 Turbo e tutti i modelli GPT-3.5 Turbo successivi gpt-3.5-turbo-1106.Impostare su { "type": "json_schema", "json_schema": {...} } abilita gli Output Strutturati che garantiscono che il modello corrisponda allo schema JSON fornito. Scopri di più nella guida Structured Outputs.Impostando la modalità JSON { "type": "json_object" } , che garantisce che il messaggio generato dal modello sia JSON valido.Importante: quando si utilizza la modalità JSON, è anche necessario indicare al modello di produrre JSON da solo tramite un messaggio di sistema o utente. Senza questo, il modello può generare un flusso infinito di spazi bianchi fino a quando la generazione non raggiunge il limite del token, risultando in una richiesta di lunga durata e apparentemente "bloccata". Si noti inoltre che il contenuto del messaggio può essere parzialmente interrotto se finish_reason="length", il che indica che la generazione ha max_tokens superato o la conversazione ha superato la lunghezza massima del contesto. |
No | |
| stream | boolean | Se true, restituisce un flusso di eventi che avvengono durante la Run come eventi inviati dal server, terminando quando la Run entra in uno stato terminale con un data: [DONE] messaggio. |
No | |
| stream_options | chatCompletionStreamOptions | Opzioni per la risposta allo streaming. Imposta questo solo quando imposti stream: true. |
No | None |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non richiamerà nessuno strumento ma invece genera un messaggio.auto è il valore predefinito e significa che il modello può scegliere tra generare un messaggio o chiamare uno strumento.Specificare uno strumento particolare come {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obbliga il modello a chiamare quell'attrezzo. |
No | |
| tool_resources | object | Un insieme di risorse utilizzate dagli strumenti dell'assistente. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | L'ID del vettoriale store collegato a questo assistente. Può esserci un massimo di 1 archivio vettoriale collegato all'assistente. |
No | |
| tools | array | Sovrascrivi gli strumenti che l'assistente può usare per questa corsa. Questo è utile per modificare il comportamento su base per run. | No | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. In genere consigliamo di modificare questo o la temperatura, ma non entrambi. |
No | 1 |
| truncation_strategy | truncationObject | Controlli su come un thread verrà troncato prima dell'esecuzione. Usa questo per controllare la finestra contestuale iniziale della run. | No |
threadObject
Rappresenta un thread che contiene messaggi.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Il timestamp Unix (in pochi secondi) indica quando il thread è stato creato. | Yes | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
Yes | |
| object | string | Il tipo di oggetto, che è sempre thread. |
Yes | |
| tool_resources | object | Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No |
object Enum: ThreadObjectType
| Value | Description |
|---|---|
| thread | Il tipo di oggetto thread che è sempre thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Una lista di messaggi per iniziare la discussione. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| tool_resources | object | Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID dei file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No | |
| └─ vector_stores | array | Un aiutante per creare un vettoriale store con file_ids e allegarlo a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| tool_resources | object | Un insieme di risorse che sono messe a disposizione degli strumenti dell'assistente in questa discussione. Le risorse sono specifiche per il tipo di strumento. Ad esempio, lo code_interpreter strumento richiede una lista di ID file, mentre file_search richiede una lista di ID di archivio vettoriale. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Un elenco degli ID file resi disponibili allo code_interpreter strumento. Possono essere associati al massimo 20 file allo strumento. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Il vettoriale store è collegato a questo thread. Può esserci un massimo di 1 archivio vettoriale collegato al thread. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | Lo stato dell'oggetto di risposta delete thread che è thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Rappresenta un messaggio all'interno di un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Se applicabile, l'ID dell'assistente che ha scritto questo messaggio. | Yes | |
| attachments | array | Un elenco di file allegati al messaggio e gli strumenti a cui sono stati aggiunti. | Yes | |
| completed_at | integer | Il timestamp Unix (in secondi) indicava quando il messaggio era stato completato. | Yes | |
| content | array | Il contenuto del messaggio è formato in un insieme di testo e/o immagini. | Yes | |
| created_at | integer | Il timestamp Unix (in secondi) indica quando il messaggio è stato creato. | Yes | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| incomplete_at | integer | Il timestamp Unix (in secondi) indicava quando il messaggio veniva marcato come incompleto. | Yes | |
| incomplete_details | object | Su un messaggio incompleto, dettagli sul motivo per cui il messaggio è incompleto. | Yes | |
| └─ reason | string | Il motivo per cui il messaggio è incompleto. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
Yes | |
| object | string | Il tipo di oggetto, che è sempre thread.message. |
Yes | |
| role | string | L'entità che ha prodotto il messaggio. Uno di user oppure assistant. |
Yes | |
| run_id | string | Se applicabile, l'ID della run associata all'authoring di questo messaggio. | Yes | |
| status | string | Lo stato del messaggio, che può essere o in_progress, incomplete, oppure completed. |
Yes | |
| thread_id | string | L'ID del thread a cui appartiene questo messaggio. | Yes |
oggetto Enum: MessageObjectType
| Value | Description |
|---|---|
| thread.message | Il tipo di oggetto messaggio che è thread.message |
status Enum: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
ruolo Enum: MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Rappresenta un delta del messaggio, cioè qualsiasi campo modificato su un messaggio durante lo streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Il delta contenente i campi che sono cambiati nel Messaggio. | Yes | |
| └─ content | array | Il contenuto del messaggio è formato in un insieme di testo e/o immagini. | No | |
| └─ role | string | L'entità che ha prodotto il messaggio. Uno di user oppure assistant. |
No | |
| id | string | L'identificatore del messaggio, che può essere riferito negli endpoint API. | Yes | |
| object | string | Il tipo di oggetto, che è sempre thread.message.delta. |
Yes |
object Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Un elenco dei file allegati al messaggio e gli strumenti a cui dovrebbero essere aggiunti. | No | |
| content | string | Il contenuto del messaggio. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| role | string | Il ruolo dell'entità che crea il messaggio. I valori consentiti includono: - user: Indica che il messaggio è stato inviato da un utente reale e dovrebbe essere usato nella maggior parte dei casi per rappresentare messaggi generati dall'utente.- assistant: Indica che il messaggio è stato generato dall'assistente. Usa questo valore per inserire messaggi dall'assistente nella conversazione. |
Yes |
ruolo Enum: CreaMessaggioRichiestaRuolo
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
oggetto Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | Stato dell'oggetto di risposta del messaggio elimina |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Fa riferimento a un file immagine nel contenuto di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | L'ID file dell'immagine nel contenuto del messaggio. | No | |
| type | string | Sempre image_file. |
Yes |
tipo Enum: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Il tipo di file immagine del contenuto del messaggio |
messageContentTextObject
Il contenuto testuale che fa parte di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | I dati che compongono il testo. | No | |
| type | string | Sempre text. |
Yes |
tipo Enum: messaggiContenutoTestoOggTipo
| Value | Description |
|---|---|
| text | Il contenuto del messaggio testo Tipo di oggetto |
messageContentTextAnnotationsFileCitationObject
Una citazione all'interno del messaggio che indica una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento di "recupero" per cercare nei file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | L'ID del file specifico da cui proviene la citazione. | No | |
| start_index | integer | Yes | ||
| text | string | Il testo nel contenuto del messaggio che deve essere sostituito. | Yes | |
| type | string | Sempre file_citation. |
Yes |
tipo Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Il tipo di oggetto citazione del file |
messageContentTextAnnotationsFilePathObject
Un URL per il file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | L'ID del file generato. | No | |
| start_index | integer | Yes | ||
| text | string | Il testo nel contenuto del messaggio che deve essere sostituito. | Yes | |
| type | string | Sempre file_path. |
Yes |
tipo Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | Il tipo di oggetto percorso del file |
messageDeltaContentImageFileObject
Fa riferimento a un file immagine nel contenuto di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | L'ID file dell'immagine nel contenuto del messaggio. | No | |
| index | integer | L'indice del contenuto nel messaggio. | Yes | |
| type | string | Sempre image_file. |
Yes |
tipo Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Il contenuto testuale che fa parte di un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | L'indice del contenuto nel messaggio. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | I dati che compongono il testo. | No | |
| type | string | Sempre text. |
Yes |
tipo Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Una citazione all'interno del messaggio che indica una citazione specifica da un file specifico associato all'assistente o al messaggio. Generato quando l'assistente usa lo strumento "file_search" per cercare nei file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | L'ID del file specifico da cui proviene la citazione. | No | |
| └─ quote | string | La citazione specifica nel fascicolo. | No | |
| index | integer | L'indice dell'annotazione nella parte di contenuto testuale. | Yes | |
| start_index | integer | No | ||
| text | string | Il testo nel contenuto del messaggio che deve essere sostituito. | No | |
| type | string | Sempre file_citation. |
Yes |
tipo Enum: MessaggiDeltaContenutoTestoAnnotazioniFileCitazioneOggettoTipo
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Un URL per il file generato quando l'assistente ha usato lo code_interpreter strumento per generare un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | L'ID del file generato. | No | |
| index | integer | L'indice dell'annotazione nella parte di contenuto testuale. | Yes | |
| start_index | integer | No | ||
| text | string | Il testo nel contenuto del messaggio che deve essere sostituito. | No | |
| type | string | Sempre file_path. |
Yes |
tipo Enum: MessageDeltaContentTestoAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Rappresenta un passaggio nell'esecuzione di una corsa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L'ID dell'assistente associato al passo di corsa. | Yes | |
| cancelled_at | integer | Il timestamp Unix (in pochi secondi) indicava quando il run step veniva cancellato. | Yes | |
| completed_at | integer | Il timestamp Unix (in secondi) indica quando il passo di esecuzione è stato completato. | Yes | |
| created_at | integer | Il timestamp Unix (in secondi) indica quando è stato creato il passo di esecuzione. | Yes | |
| expired_at | integer | Il timestamp Unix (in secondi) indica quando il run step è scaduto. Un passaggio è considerato scaduto se la run principale è scaduta. | Yes | |
| failed_at | integer | Il timestamp Unix (in secondi) indica quando il run step fallisce. | Yes | |
| id | string | L'identificatore del passo di esecuzione, che può essere riferito negli endpoint API. | Yes | |
| last_error | object | L'ultimo errore associato a questo passo di esecuzione. Lo null sarà se non ci sono errori. |
Yes | |
| └─ code | string | Uno di server_error oppure rate_limit_exceeded. |
No | |
| └─ message | string | Una descrizione leggibile dall'uomo dell'errore. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
Yes | |
| object | string | Il tipo di oggetto, che è sempre assistant.run.step. |
Yes | |
| run_id | string | L'ID della run di cui fa parte questo step di run. | Yes | |
| status | string | Lo stato della run, che può essere o in_progress, cancelled, failed, completed, o expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject | I dettagli del passo di corsa. | Yes | |
| thread_id | string | L'ID dei thread che sono stati eseguiti. | Yes | |
| type | string | Il tipo di passo di corsa, che può essere o message_creation o tool_calls. |
Yes |
object Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Il tipo oggetto, che è sempre assistant.run.step |
tipo Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | Il passo message_creation corsa |
| tool_calls | Il passo tool_calls corsa |
status Enum: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | Lo stato della in_progress |
| cancelled | Stato della corsa annullata |
| failed | Stato della corsa annullata |
| completed | Stato della corsa annullata |
| expired | Stato della corsa annullata |
runStepDeltaObject
Rappresenta un delta di run step, cioè qualsiasi campo modificato in un run step durante lo streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Il delta contenente i campi che sono cambiati durante il passo di corsa. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject | I dettagli del passo di corsa. | No | |
| id | string | L'identificatore del passo di esecuzione, che può essere riferito negli endpoint API. | Yes | |
| object | string | Il tipo di oggetto, che è sempre thread.run.step.delta. |
Yes |
object Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Dettagli della creazione del messaggio per passo di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | L'ID del messaggio creato da questo passo di esecuzione. | No | |
| type | string | Sempre message_creation. |
Yes |
tipo Enum: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Dettagli della creazione del messaggio per passo di esecuzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | L'ID del messaggio creato da questo passo di esecuzione. | No | |
| type | string | Sempre message_creation. |
Yes |
tipo Enum: RunStepDeltaStepDettagliMessaggioCreazioneOggettoType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Dettagli della chiamata dello strumento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Una serie di chiamate di strumenti a cui il run step era coinvolto. Questi possono essere associati a uno di tre tipi di strumenti: code_interpreter, retrieval oppure function. |
Yes | |
| type | string | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Dettagli della chiamata dello strumento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Una serie di chiamate di strumenti a cui il run step era coinvolto. Questi possono essere associati a uno di tre tipi di strumenti: code_interpreter, file_search oppure function. |
No | |
| type | string | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
I dettagli dello strumento Code Interpreter chiamano il passo di esecuzione in cui era coinvolto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Definizione di chiamata dello strumento Code Interpreter. | Yes | |
| └─ input | string | L'input dello strumento Code Interpreter chiama. | No | |
| └─ outputs | array | Gli output dello strumento Code Interpreter chiamano. L'Interprete di Codice può generare uno o più elementi, inclusi testo (logs) o immagini (image). Ognuno di questi è rappresentato da un diverso tipo di oggetto. |
No | |
| id | string | L'ID della chiamata dello strumento. | Yes | |
| type | string | Il tipo di chiamata di attrezzo. Questo sarà code_interpreter sempre per questo tipo di chiamata di strumenti. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
I dettagli dello strumento Code Interpreter chiamano il passo di esecuzione in cui era coinvolto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Definizione di chiamata dello strumento Code Interpreter. | No | |
| └─ input | string | L'input dello strumento Code Interpreter chiama. | No | |
| └─ outputs | array | Gli output dello strumento Code Interpreter chiamano. L'Interprete di Codice può generare uno o più elementi, inclusi testo (logs) o immagini (image). Ognuno di questi è rappresentato da un diverso tipo di oggetto. |
No | |
| id | string | L'ID della chiamata dello strumento. | No | |
| index | integer | L'indice della chiamata dello strumento nell'array dello strumento chiama. | Yes | |
| type | string | Il tipo di chiamata di attrezzo. Questo sarà code_interpreter sempre per questo tipo di chiamata di strumenti. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
L'output di testo dallo strumento Code Interpreter chiama come parte di un run step.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | L'output del testo dallo strumento Code Interpreter chiama. | Yes | |
| type | string | Sempre logs. |
Yes |
Tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
L'output di testo dallo strumento Code Interpreter chiama come parte di un run step.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | L'indice dell'uscita nell'array di uscite. | Yes | |
| logs | string | L'output del testo dallo strumento Code Interpreter chiama. | No | |
| type | string | Sempre logs. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | L'ID file dell'immagine. | No | |
| type | string | Sempre image. |
Yes |
tipo Enum: RunStepDettagliStrumentoChiamateCodeOutputImmagineOggettoTipo
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | L'ID file dell'immagine. | No | |
| index | integer | L'indice dell'uscita nell'array di uscite. | Yes | |
| type | string | Sempre image. |
Yes |
Tipo Enum: RunStepDeltaStepDettagliToolChiamateCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Per ora, questo sarà sempre un oggetto vuoto. | Yes | |
| └─ results | array | I risultati della ricerca nei file. | No | |
| id | string | L'ID dell'oggetto di chiamata dello strumento. | Yes | |
| type | string | Il tipo di chiamata di attrezzo. Questo sarà file_search sempre per questo tipo di chiamata di strumenti. |
Yes |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Un'istanza risultante della ricerca file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Il contenuto del risultato che è stato trovato. Il contenuto è incluso solo se richiesto tramite il parametro di query include. | No | |
| file_id | string | L'ID del file in cui è stato trovato quel risultato. | Yes | |
| file_name | string | Il nome del file in cui è stato trovato quel risultato. | Yes | |
| score | number | Il punteggio del risultato. Tutti i valori devono essere un numero in virgola mobile compreso tra 0 e 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Per ora, questo sarà sempre un oggetto vuoto. | Yes | |
| id | string | L'ID dell'oggetto di chiamata dello strumento. | No | |
| index | integer | L'indice della chiamata dello strumento nell'array dello strumento chiama. | Yes | |
| type | string | Il tipo di chiamata di attrezzo. Questo sarà retrieval sempre per questo tipo di chiamata di strumenti. |
Yes |
tipo Enum: RunStepDeltaStepDettagliStrumentoChiamateFileRicercaOggTipo
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definizione della funzione che è stata chiamata. | Yes | |
| └─ arguments | string | Gli argomenti passavano alla funzione. | No | |
| └─ name | string | Il nome della funzione. | No | |
| └─ output | string | L'output della funzione. Questo avverrà null se i risultati non sono ancora stati inviati. |
No | |
| id | string | L'ID dell'oggetto di chiamata dello strumento. | Yes | |
| type | string | Il tipo di chiamata di attrezzo. Questo sarà function sempre per questo tipo di chiamata di strumenti. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definizione della funzione che è stata chiamata. | No | |
| └─ arguments | string | Gli argomenti passavano alla funzione. | No | |
| └─ name | string | Il nome della funzione. | No | |
| └─ output | string | L'output della funzione. Questo avverrà null se i risultati non sono ancora stati inviati. |
No | |
| id | string | L'ID dell'oggetto di chiamata dello strumento. | No | |
| index | integer | L'indice della chiamata dello strumento nell'array dello strumento chiama. | Yes | |
| type | string | Il tipo di chiamata di attrezzo. Questo sarà function sempre per questo tipo di chiamata di strumenti. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
La politica di scadenza per uno store vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Time stamp dell'ancora dopo il quale si applica la politica di scadenza. Ancoraggi supportati: last_active_at. |
Yes | |
| days | integer | Il numero di giorni dopo il tempo di ancoragga in cui lo store vettoriale scadrà. | Yes |
Enum ancora: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Il timestamp dell'ancoraggio dopo il quale si applica la politica di scadenza. |
vectorStoreObject
Un vettoriale storage è una raccolta di file elaborati che possono essere utilizzati dallo file_search strumento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Il timestamp Unix (in secondi) indicato quando è stato creato il vettoriale store. | Yes | |
| expires_after | vectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| expires_at | integer | Il timestamp Unix (in pochi secondi) indica quando lo store vettoriale scaderà. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Il numero di file che sono stati cancellati. | No | |
| └─ completed | integer | Il numero di file che sono stati processati con successo. | No | |
| └─ failed | integer | Il numero di file che non sono stati processati. | No | |
| └─ in_progress | integer | Il numero di file attualmente in fase di elaborazione. | No | |
| └─ total | integer | Il numero totale di file. | No | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| last_active_at | integer | Il timestamp Unix (in secondi) indica quando lo store vettoriale era attivo l'ultima volta. | Yes | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
Yes | |
| name | string | Il nome del negozio vettoriale. | Yes | |
| object | enum | Il tipo di oggetto, che è sempre vector_store.Valori possibili: vector_store |
Yes | |
| status | string | Lo stato dello store vettoriale, che può essere o expired, in_progress, oppure completed. Lo stato di completed indica che lo store vettoriale è pronto all'uso. |
Yes | |
| usage_bytes | integer | Il numero totale di byte utilizzati dai file nello store vettoriale. | Yes |
status Enum: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| expires_after | vectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| file_ids | array | Un elenco degli ID file che il vettore store dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. |
No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| name | string | Il nome del negozio vettoriale. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La politica di scadenza per uno store vettoriale. | No | |
| metadata | object | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato. Le chiavi possono essere lunghe fino a 64 caratteri e i valori possono essere al massimo 512 caratteri. |
No | |
| name | string | Il nome del negozio vettoriale. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
oggetto Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | Lo stato dell'oggetto di risposta del vettore delete store |
vectorStoreFileObject
Una lista di file collegati a un archivio vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . Applicabile solo se file_ids non è vuoto. |
No | |
| created_at | integer | Il timestamp Unix (in pochi secondi) indicato quando il file di archivio vettoriale è stato creato. | Yes | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| last_error | object | L'ultimo errore associato a questo file di archiviazione vettoriale. Lo null sarà se non ci sono errori. |
Yes | |
| └─ code | string | Uno di server_error oppure invalid_fileunsupported_file. |
No | |
| └─ message | string | Una descrizione leggibile dall'uomo dell'errore. | No | |
| object | string | Il tipo di oggetto, che è sempre vector_store.file. |
Yes | |
| status | string | Lo stato del file vettoriale store, che può essere o in_progress, completed, cancelled, o failed. Lo stato completed indica che il file di archiviazione vettoriale è pronto per l'uso. |
Yes | |
| usage_bytes | integer | L'utilizzo totale della memorizzazione vettoriale in byte. Nota che questo potrebbe essere diverso dalla dimensione originale del file. | Yes | |
| vector_store_id | string | L'ID della memoria vettoriale a cui il file è collegato. | Yes |
object Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
status Enum: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Questo viene restituito quando la strategia di schunking è sconosciuta. Tipicamente, ciò accade perché il file era indicizzato prima che il chunking_strategy concetto venisse introdotto nell'API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Sempre other. |
Yes |
tipo Enum: AltroChunkingStrategiaRispostaParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Sempre static. |
Yes |
tipo Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Il numero di token che si sovrappongono tra i chunk. Il valore predefinito è 400.Si noti che la sovrapposizione non deve superare la metà di max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Il numero massimo di gettoni in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096. |
Yes |
autoChunkingStrategyRequestParam
La strategia predefinita. Questa strategia attualmente utilizza un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Sempre auto.Valori possibili: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Sempre static.Valori possibili: static |
Yes |
chunkingStrategyRequestParam
La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto .
Questo componente può essere uno dei seguenti:
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . |
No | |
| file_id | string | Un ID file che il vettoriale storage dovrebbe usare. Utile per strumenti come file_search questo che può accedere ai file. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
oggetto Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Un lotto di file collegati a un archivio vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Il timestamp Unix (in pochi secondi) indicava quando i file vettoriali erano creati in lot. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Il numero di file che sono stati cancellati. | No | |
| └─ completed | integer | Il numero di file che sono stati elaborati. | No | |
| └─ failed | integer | Il numero di file che non sono stati processati. | No | |
| └─ in_progress | integer | Il numero di file attualmente in fase di elaborazione. | No | |
| └─ total | integer | Il numero totale di file. | No | |
| id | string | L'identificatore, che può essere consultato negli endpoint API. | Yes | |
| object | string | Il tipo di oggetto, che è sempre vector_store.file_batch. |
Yes | |
| status | string | Lo stato dei file vettoriali memorizza in batch, che può essere o in_progress, completed, cancelled oppure failed. |
Yes | |
| vector_store_id | string | L'ID dello store vettoriale a cui il File è collegato. | Yes |
object Enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
status Enum: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La strategia di shunk usata per spargere il/i file/i. Se non è impostato, userà la strategia auto . |
No | |
| file_ids | array | Un elenco degli ID file che lo store vettoriale dovrebbe utilizzare. Utile per strumenti come file_search questo che può accedere ai file. |
Yes |
assistantStreamEvent
Rappresenta un evento emesso durante lo streaming di una Run.
Ogni evento in un flusso di eventi inviato dal server ha una event proprietà e data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emettiamo eventi ogni volta che un nuovo oggetto viene creato, transita a un nuovo stato o viene diffuso in parti (delta). Ad esempio, emettiamo thread.run.created quando viene creata una nuova run, thread.run.completed quando una run si completa, e così via. Quando un Assistente sceglie di creare un messaggio durante una run, emettiamo un thread.message.created event, un thread.message.in_progress evento, molti thread.message.delta eventi e infine un thread.message.completed evento.
Potremmo aggiungere eventi aggiuntivi nel tempo, quindi consigliamo di gestire con grazia gli eventi sconosciuti nel tuo codice.
Questo componente può essere uno dei seguenti:
threadStreamEvent
Questo componente può essere uno dei seguenti:
thread.created
Succede quando viene creato un nuovo thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Rappresenta un thread che contiene messaggi. | Yes | |
| event | string | Yes |
Data: threadObject
Event Enum: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | L'evento creato dal thread |
runStreamEvent
Questo componente può essere uno dei seguenti:
thread.run.created
Accade quando viene creata una nuova run.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Accade quando una run passa a uno queued stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Succede quando una run passa a uno in_progress stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Accade quando una run passa a uno requires_action stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventNecessitesAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Si verifica quando una run viene completata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventCompletato
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Succede quando una corsa fallisce.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Accade quando una run passa a uno cancelling stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Si verifica quando una run viene annullata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Accade quando una run scade.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Rappresenta un'esecuzione su un thread. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Questo componente può essere uno dei seguenti:
thread.run.step.created
Si verifica quando viene creato un passo di corsa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio nell'esecuzione di una corsa. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Accade quando un passo di corsa si sposta in uno in_progress stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio nell'esecuzione di una corsa. |
Yes | |
| event | string | Yes |
Data: runStepObject
Event Enum: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Accade quando parti di un passo di esecuzione vengono trasmesse in streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Rappresenta un delta di run step, cioè qualsiasi campo modificato in un run step durante lo streaming. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Event Enum: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Accade quando un passo di run viene completato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio nell'esecuzione di una corsa. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCompletato
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Accade quando un passo di corsa fallisce.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio nell'esecuzione di una corsa. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Si verifica quando un passo di corsa viene cancellato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio nell'esecuzione di una corsa. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Si verifica quando un passo di run scade.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Rappresenta un passaggio nell'esecuzione di una corsa. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Questo componente può essere uno dei seguenti:
thread.message.created
Succede quando viene creato un messaggio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Event Enum: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Accade quando un messaggio si sposta in uno in_progress stato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Event Enum: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Si verifica quando parti di un messaggio vengono trasmesse in streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Rappresenta un delta del messaggio, cioè qualsiasi campo modificato su un messaggio durante lo streaming. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Event Enum: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Succede quando un messaggio viene completato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Evento Enum: MessageStreamEventCompletato
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Accade quando un messaggio termina prima di essere completato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Rappresenta un messaggio all'interno di un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Event Enum: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Questo componente può essere uno dei seguenti:
Click
Un'azione di clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indica quale tasto del mouse è stato premuto durante il clic. Uno di left, right, wheel, back, o forward.Valori possibili: left, right, wheel, back, forward |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di clic, questa proprietà è sempre impostata su click.Valori possibili: click |
Yes | |
| x | integer | La coordinata x dove si è verificato il clic. |
Yes | |
| y | integer | La coordinata y in cui si è verificato il clic. |
Yes |
CodeInterpreterFileOutput
L'output di uno strumento interprete di codice chiama che è un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Il tipo di output del file dell'interprete di codice. Sempre files.Valori possibili: files |
Yes |
CodeInterpreterTextOutput
L'output di uno strumento interprete di codice chiamato che è testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | I log dello strumento interprete del codice chiamano. |
Yes | |
| type | enum | Il tipo dell'output del testo dell'interprete del codice. Sempre logs.Valori possibili: logs |
Yes |
CodeInterpreterTool
Uno strumento che esegue codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Gli ID dei file su cui eseguire il codice. |
Yes | |
| type | enum | Il tipo di strumento di interprete di codice. Sempre code_interpreter.Valori possibili: code_interpreter |
Yes |
CodeInterpreterToolCall
Una chiamata a uno strumento per eseguire codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Il codice da eseguire. |
Yes | |
| id | string | L'ID univoco dello strumento interprete del codice chiama. |
Yes | |
| results | array | I risultati dello strumento di interprete del codice chiamato. |
Yes | |
| status | enum | Lo stato dello strumento di interprete del codice chiamato. Valori possibili: in_progress, interpreting, completed |
Yes | |
| type | enum | Il tipo che chiama lo strumento dell'interprete del codice. Sempre code_interpreter_call.Valori possibili: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Questo componente può essere uno dei seguenti:
ComparisonFilter
Un filtro usato per confrontare una chiave di attributo specificata con un dato valore utilizzando un'operazione di confronto definita.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La chiave è confrontare con il valore. | Yes | |
| type | enum | Specifica l'operatore di confronto: eq, ne, gt, gte, lt, lte.- eq: uguale- ne: non uguale- gt: maggiore di- gte: maggiore o uguale- lt: meno di- lte: minore o ugualeValori possibili: eq, ne, gt, gte, lt, lte |
Yes | |
| value | stringa o numero o booleano | Il valore da confrontare con la chiave di attributi; supporta tipi di stringa, numero o booleani. | Yes |
CompoundFilter
Combina più filtri usando and o or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Array di filtri da combinare. Gli oggetti possono essere ComparisonFilter oppure CompoundFilter. |
Yes | |
| type | enum | Tipo di operazione: and oppure or.Valori possibili: and, or |
Yes |
ComputerAction
Questo componente può essere uno dei seguenti:
ComputerScreenshotImage
Un'immagine screenshot del computer usata con lo strumento di uso del computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | L'identificatore di un file caricato che contiene lo screenshot. | No | |
| image_url | string | L'URL dell'immagine dello screenshot. | No | |
| type | enum | Specifica il tipo di evento. Per uno screenshot del computer, questa proprietà è sempre impostata su computer_screenshot.Valori possibili: computer_screenshot |
Yes |
ComputerTool
Uno strumento che controlla un computer virtuale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | L'altezza del display del computer. |
Yes | |
| display_width | number | La larghezza del display del computer. |
Yes | |
| environment | enum | Il tipo di ambiente informatico da controllare. Valori possibili: mac, windows, ubuntu, browser |
Yes | |
| type | enum | Il tipo di strumento per l'uso del computer. Sempre computer_use_preview.Valori possibili: computer-use-preview |
Yes |
ComputerToolCall
Un richiamo a uno strumento per l'uso del computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Un identificatore usato quando si risponde alla chiamata dello strumento con output. |
Yes | |
| id | string | L'ID unico della chiamata computerizzata. | Yes | |
| pending_safety_checks | array | I controlli di sicurezza in attesa per la chiamata al computer. |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Yes | |
| type | enum | Il tipo di chiamata al computer. Sempre computer_call.Valori possibili: computer_call |
Yes |
ComputerToolCallOutput
L'output di una chiamata per uno strumento informatico.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | I controlli di sicurezza riportati dall'API sono stati riconosciuti dallo sviluppatore. |
No | |
| call_id | string | L'ID della chiamata dello strumento informatico che ha prodotto l'output. |
Yes | |
| id | string | L'ID dell'output della chiamata dello strumento informatico. |
No | |
| output | ComputerScreenshotImage | Un'immagine screenshot del computer usata con lo strumento di uso del computer. |
Yes | |
| status | enum | Lo stato del messaggio inserito. Uno di in_progress, completed, oppure incomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.Valori possibili: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | I controlli di sicurezza riportati dall'API sono stati riconosciuti dallo sviluppatore. |
No | |
| call_id | string | L'ID della chiamata dello strumento informatico che ha prodotto l'output. |
Yes | |
| id | string | L'ID unico dell'output dello strumento di chiamata del computer. |
Yes | |
| output | ComputerScreenshotImage | Un'immagine screenshot del computer usata con lo strumento di uso del computer. |
Yes | |
| status | enum | Lo stato del messaggio inserito. Uno di in_progress, completed, oppure incomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di output della chiamata dello strumento informatico. Sempre computer_call_output.Valori possibili: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Un controllo di sicurezza in attesa per la chiamata al computer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Il tipo di controllo di sicurezza in attesa. | Yes | |
| id | string | L'ID del controllo di sicurezza in corso. | Yes | |
| message | string | Dettagli sul controllo di sicurezza in corso. | Yes |
Content
Contenuti multimodali in input e output.
Questo componente può essere uno dei seguenti:
Coordinate
Una coppia di coordinate x/y, ad { x: 100, y: 200 }esempio .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
No | |
| model | string | Modello utilizzato per generare le risposte. | No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | stringa o array | Input di testo, immagine o file al modello, utilizzati per generare una risposta. | Yes | |
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte. |
No | |
| max_output_tokens | integer | Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi token di output visibili e token di ragionamento. |
No | |
| parallel_tool_calls | boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. |
No | True |
| previous_response_id | string | L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. | No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. | No | |
| store | boolean | Se memorizzare la risposta generata del modello per un successivo recupero tramite API. |
No | True |
| stream | boolean | Se impostato su true, i dati di risposta del modello verranno trasmessi al client man mano che vengono generati tramite eventi inviati dal server. | No | False |
| text | object | Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more: - input e output di testo - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.Non consigliato per GPT-4O e modelli più recenti: Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano. |
No | |
| tool_choice | OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo | Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare. |
No | |
| tools | array | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.Le due categorie di strumenti che puoi fornire al modello sono: - Strumenti integrati |
No | |
| truncation | enum | La strategia di troncamento da utilizzare per la risposta del modello. - auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra di contesto del modello, il modello troncherà il Risposta per adattarsi alla finestra contestuale inserendo elementi di input nel mezzo della conversazione. - disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.Valori possibili: auto, disabled |
No |
DoubleClick
Un doppio clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è sempre impostata su double_click.Valori possibili: double_click |
Yes | |
| x | integer | La coordinata x dove è avvenuto il doppio clic. |
Yes | |
| y | integer | La coordinata y in cui si è verificato il doppio clic. |
Yes |
Drag
Un'azione di trascinamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Un array di coordinate che rappresentano il percorso dell'azione di trascinata. Le coordinate appariranno come un array di oggetti, ad esempio[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di trascinata, questa proprietà è sempre impostata su drag.Valori possibili: drag |
Yes |
EasyInputMessage
Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo. Si presume che i messaggi con il assistant ruolo siano stati generati dal modello in interazioni precedenti.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | stringa o InputMessageContentList | Input di testo, immagine o audio al modello, utilizzato per generare una risposta. Può anche contenere risposte precedenti degli assistenti. |
Yes | |
| role | enum | Il ruolo dell'input del messaggio. Uno di user, assistant, system, o developer.Valori possibili: user, assistant, system, developer |
Yes | |
| type | enum | Il tipo di input del messaggio. Sempre message.Valori possibili: message |
No |
FileCitation
Una citazione per un fascicolo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | L'ID del fascicolo. |
Yes | |
| index | integer | L'indice del file nella lista dei file. |
Yes | |
| type | enum | Il tipo della citazione del fascicolo. Sempre file_citation.Valori possibili: file_citation |
Yes |
FilePath
Un percorso verso un file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | L'ID del fascicolo. |
Yes | |
| index | integer | L'indice del file nella lista dei file. |
Yes | |
| type | enum | Il tipo del percorso del file. Sempre file_path.Valori possibili: file_path |
Yes |
FileSearchRanker
Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker.
| Property | Value |
|---|---|
| Description | Il ranker da usare per la ricerca dei file. Se non specificato, userà il auto ranker. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Uno strumento che cerca contenuti rilevanti dai file caricati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro di confronto o filtro composto | Un filtro da applicare in base agli attributi del file. | No | |
| max_num_results | integer | Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. |
No | |
| ranking_options | object | Opzioni di classifica per la ricerca. | No | |
| └─ ranker | enum | Il ranker da usare per la ricerca dei file. Valori possibili: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | La soglia di punteggio per la ricerca file, un numero compreso tra 0 e 1. I numeri più vicini a 1 cercheranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. |
No | 0 |
| type | enum | Il tipo dello strumento di ricerca file. Sempre file_search.Valori possibili: file_search |
Yes | |
| vector_store_ids | array | Gli ID dei vettori memorizzano per la ricerca. |
Yes |
FileSearchToolCall
I risultati di uno strumento di ricerca file chiamano.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | L'ID univoco dello strumento di ricerca file chiama. |
Yes | |
| queries | array | Le query usate per cercare file. |
Yes | |
| results | array | I risultati dello strumento di ricerca file chiamano. |
No | |
| status | enum | Lo stato dello strumento di ricerca file chiamato. Uno di in_progress, searching, incomplete o failed,Valori possibili: in_progress, searching, completed, incomplete, failed |
Yes | |
| type | enum | Il tipo di chiamata dello strumento di ricerca file. Sempre file_search_call.Valori possibili: file_search_call |
Yes |
FunctionTool
Definisce una funzione nel proprio codice che il modello può scegliere di chiamare.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descrizione della funzione. Utilizzato dal modello per determinare se chiamare o meno la funzione. |
No | |
| name | string | Il nome della funzione da chiamare. |
Yes | |
| parameters | object | Un oggetto schema JSON che descrive i parametri della funzione. |
Yes | |
| strict | boolean | Se applicare una validazione rigorosa dei parametri. Predefinito true. |
Yes | |
| type | enum | Il tipo di strumento funzionale. Sempre function.Valori possibili: function |
Yes |
FunctionToolCall
Una chiamata a uno strumento per eseguire una funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Una stringa JSON degli argomenti da passare alla funzione. |
Yes | |
| call_id | string | L'ID univoco della chiamata dello strumento funzionale generata dal modello. |
Yes | |
| id | string | L'ID univoco dello strumento di funzione chiama. |
Yes | |
| name | string | Il nome della funzione da eseguire. |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di chiamata dello strumento funzionale. Sempre function_call.Valori possibili: function_call |
Yes |
FunctionToolCallOutput
L'output di una chiamata di uno strumento funzionale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | L'ID univoco della chiamata dello strumento funzionale generata dal modello. |
Yes | |
| id | string | L'ID unico dell'output della chiamata dello strumento funzionale. Popolata quando questo elemento viene restituito tramite API. |
No | |
| output | string | Una stringa JSON dell'output della chiamata dello strumento funzione. |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di funzione chiama output dello strumento. Sempre function_call_output.Valori possibili: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | L'ID univoco della chiamata dello strumento funzionale generata dal modello. |
Yes | |
| id | string | L'ID unico dell'output dello strumento di chiamata di funzione. |
Yes | |
| output | string | Una stringa JSON dell'output della chiamata dello strumento funzione. |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di funzione chiama output dello strumento. Sempre function_call_output.Valori possibili: function_call_output |
Yes |
includable
Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:
-
file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file. -
message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input. -
computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer.
| Property | Value |
|---|---|
| Description | Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono: - file_search_call.results: Includi i risultati della ricerca della chiamata dello strumento di ricerca file.- message.input_image.image_url: Includere gli URL delle immagini dal messaggio di input.- computer_call_output.output.image_url: Includere gli URL delle immagini dall'output della chiamata computer. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Un ingresso audio al modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Dati audio codificati in Base64. |
Yes | |
| format | enum | Il formato dei dati audio. I formati attualmente supportati sono mp3 e wav.Valori possibili: mp3, wav |
Yes | |
| type | enum | Il tipo dell'elemento di input. Sempre input_audio.Valori possibili: input_audio |
Yes |
InputContent
Questo componente può essere uno dei seguenti:
InputFile
Un input file nel modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Il contenuto del file da inviare al modello. |
No | |
| file_id | string | L'ID del file da inviare al modello. |
No | |
| filename | string | Il nome del file da inviare al modello. |
No | |
| type | enum | Il tipo dell'elemento di input. Sempre input_file.Valori possibili: input_file |
Yes |
InputImage
Un input immagine al modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Il livello di dettaglio dell'immagine da inviare al modello. Uno di high, low, oppure auto. Di default è auto.Valori possibili: high, low, auto |
Yes | |
| file_id | string | L'ID del file da inviare al modello. |
No | |
| image_url | string | L'URL dell'immagine da inviare al modello. Un URL completamente qualificato o un'immagine codificata base64 in un URL di dati. |
No | |
| type | enum | Il tipo dell'elemento di input. Sempre input_image.Valori possibili: input_image |
Yes |
InputItem
Questo componente può essere uno dei seguenti:
InputMessage
Un messaggio inserito nel modello con un ruolo che indica l'istruzione che segue la gerarchia. Le istruzioni date con il developer ruolo o system hanno la precedenza rispetto alle istruzioni date con il user ruolo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Un elenco di uno o più elementi di input al modello, contenenti contenuti diversi types. |
Yes | |
| role | enum | Il ruolo dell'input del messaggio. Uno di user, system, oppure developer.Valori possibili: user, system, developer |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di input del messaggio. Imposta sempre su message.Valori possibili: message |
No |
InputMessageContentList
Un elenco di uno o più elementi di input al modello, contenenti diversi tipi di contenuto.
Nessuna proprietà definita per questo componente.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Un elenco di uno o più elementi di input al modello, contenenti contenuti diversi types. |
Yes | |
| id | string | L'ID unico dell'input del messaggio. |
Yes | |
| role | enum | Il ruolo dell'input del messaggio. Uno di user, system, oppure developer.Valori possibili: user, system, developer |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di input del messaggio. Imposta sempre su message.Valori possibili: message |
No |
InputText
Un input testuale al modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Il testo inserito nel modello. |
Yes | |
| type | enum | Il tipo dell'elemento di input. Sempre input_text.Valori possibili: input_text |
Yes |
Item
Elemento di contenuto usato per generare una risposta.
Questo componente può essere uno dei seguenti:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Un identificatore interno per un oggetto da riferire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | L'ID dell'oggetto da consultare. |
Yes | |
| type | enum | Il tipo di oggetto da consultare. Sempre item_reference.Valori possibili: item_reference |
Yes |
ItemResource
Elemento di contenuto usato per generare una risposta.
Questo componente può essere uno dei seguenti:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Una raccolta di pressioni di tasti che il modello vorrebbe eseguire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinazione di tasti che il modello richiede di premere. Questa è una matrice di stringhe, ciascuna rappresenta una tonalità. |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di pressione tastiera, questa proprietà è sempre impostata su keypress.Valori possibili: keypress |
Yes |
Metadata
Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard.
I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.
Nessuna proprietà definita per questo componente.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
No | |
| model | string | Modello utilizzato per generare le risposte. | No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
No | 1 |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
No | 1 |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi. . |
No |
Move
Un'azione di movimento del topo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione di movimento, questa proprietà è sempre impostata a move.Valori possibili: move |
Yes | |
| x | integer | La coordinata x a cui spostarsi. |
Yes | |
| y | integer | La coordinata Y su cui spostarsi. |
Yes |
OutputAudio
Un'uscita audio dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Dati audio codificati in base 64 dal modello. |
Yes | |
| transcript | string | La trascrizione dei dati audio dal modello. |
Yes | |
| type | enum | Il tipo di audio in uscita. Sempre output_audio.Valori possibili: output_audio |
Yes |
OutputContent
Questo componente può essere uno dei seguenti:
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Una stringa JSON degli argomenti da passare alla funzione. |
Yes | |
| call_id | string | Un identificatore usato quando si risponde alla chiamata dello strumento con output. |
Yes | |
| content | array | Ragionamento dei contenuti del testo. |
Yes | |
| id | string | L'identificatore unico del contenuto di ragionamento. |
Yes | |
| name | string | Il nome della funzione da eseguire. |
Yes | |
| pending_safety_checks | array | I controlli di sicurezza in attesa per la chiamata al computer. |
Yes | |
| queries | array | Le query usate per cercare file. |
Yes | |
| results | array | I risultati dello strumento di ricerca file chiamano. |
No | |
| role | enum | Il ruolo del messaggio di output. Sempre assistant.Valori possibili: assistant |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Yes | |
| type | enum | Il tipo di oggetto. Sempre reasoning.Valori possibili: reasoning |
Yes |
OutputMessage
Un messaggio di output dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Il contenuto del messaggio di output. |
Yes | |
| id | string | L'ID univoco del messaggio di output. |
Yes | |
| role | enum | Il ruolo del messaggio di output. Sempre assistant.Valori possibili: assistant |
Yes | |
| status | enum | Lo stato del messaggio inserito. Uno di in_progress, completed, oppure incomplete. Popolati quando gli input input vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
Yes | |
| type | enum | Il tipo del messaggio di output. Sempre message.Valori possibili: message |
Yes |
OutputText
Un testo prodotto dal modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Le annotazioni dell'output del testo. |
Yes | |
| text | string | Il testo prodotto dal modello. |
Yes | |
| type | enum | Il tipo del testo in uscita. Sempre output_text.Valori possibili: output_text |
Yes |
RealtimeSessionCreateRequest
Configurazione in tempo reale degli oggetti di sessione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello. Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio in ingresso, imposta di default su disattivato e può essere impostata su null spegnersi una volta acceso. La trascrizione audio in ingresso non è nativa del modello, poiché il modello consuma audio direttamente. La trascrizione viene eseguita in modo asincrono attraverso l'endpoint delle trascrizioni e dovrebbe essere trattata come una guida del contenuto audio in input piuttosto che come esattamente ciò che il modello ha ascoltato. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione. |
No | |
| └─ language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza. |
No | |
| └─ model | string | Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
No | |
| └─ prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia". |
No | |
| instructions | string | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere istruito sul contenuto e sul formato delle risposte (ad esempio "sii estremamente conciso", "agisci amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parla velocemente", "inietti emozione nella tua voce", "ridi frequentemente"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Nota che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento session.created all'inizio della sessione. |
No | |
| max_response_output_tokens | intero o stringa | Numero massimo di token di output per una singola risposta di assistente, inclusi i call degli strumenti. Fornire un intero compreso tra 1 e 4096 per limitare i token di output, o inf per i token massimi disponibili per un dato modello. Di default è inf. |
No | |
| modalities | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"]. |
No | ||
| model | string | Il nome della distribuzione utilizzata per questa sessione. |
No | |
| output_audio_format | enum | Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio in uscita viene campionato a una velocità di 24kHz.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Per i modelli audio è altamente consigliata una temperatura di 0,8 per le migliori prestazioni. |
No | 0.8 |
| tool_choice | string | Come il modello sceglie gli strumenti. Le opzioni sono auto, none, required, oppure specificare una funzione. |
No | auto |
| tools | array | Strumenti (funzioni) disponibili per il modello. | No | |
| turn_detection | object | Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente. Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta. |
No | |
| └─ create_response | boolean | Se generare automaticamente una risposta quando si verifica un evento di stop VAD. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere.
low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente.
auto è il valore predefinito ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento delle virate. Valori possibili: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Una nuova configurazione di sessione in tempo reale, con una chiave effimera. Il TTL predefinito per i tasti è un minuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Chiave effimera restituita dall'API. | Yes | |
| └─ expires_at | integer | Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto. |
No | |
| └─ value | string | Chiave effimera utilizzabile negli ambienti client per autenticare le connessioni all'API Realtime. Utilizzarlo in ambienti lato client invece di un token API standard, che dovrebbe essere usato solo lato server. |
No | |
| input_audio_format | string | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio in ingresso, imposta di default su disattivato e può essere impostata su null spegnersi una volta acceso. La trascrizione audio in ingresso non è nativa del modello, poiché il modello consuma audio direttamente. La trascrizione viene eseguita asincronamente tramite Whisper e dovrebbe essere trattata come una guida approssimativa piuttosto che come la rappresentazione intesa dal modello. |
No | |
| └─ model | string | Il modello da utilizzare per la whisper-1 trascrizione è l'unico modello attualmente supportato. |
No | |
| instructions | string | Le istruzioni di sistema predefinite (cioè il messaggio di sistema) precedevano le chiamate del modello. Questo campo permette al cliente di guidare il modello sulle risposte desiderate. Il modello può essere istruito sul contenuto e sul formato delle risposte (ad esempio "sii estremamente conciso", "comportati amichevole", "ecco esempi di buone risposte") e sul comportamento audio (ad esempio "parla velocemente", "inietti emozione nella voce", "ridi spesso"). Le istruzioni non sono garantite dal modello, ma forniscono indicazioni sul comportamento desiderato. Nota che il server imposta le istruzioni predefinite che verranno usate se questo campo non è impostato e sono visibili nell'evento session.created all'inizio della sessione. |
No | |
| max_response_output_tokens | intero o stringa | Numero massimo di token di output per una singola risposta di assistente, inclusi i call degli strumenti. Fornire un intero compreso tra 1 e 4096 per limitare i token di output, o inf per i token massimi disponibili per un dato modello. Di default è inf. |
No | |
| modalities | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"]. |
No | ||
| output_audio_format | string | Il formato dell'audio in uscita. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| temperature | number | La temperatura di campionamento per il modello è limitata a [0,6, 1,2]. Di default è 0.8. |
No | |
| tool_choice | string | Come il modello sceglie gli strumenti. Le opzioni sono auto, none, required, oppure specificare una funzione. |
No | |
| tools | array | Strumenti (funzioni) disponibili per il modello. | No | |
| turn_detection | object | Configurazione per il rilevamento delle curve. Può essere impostato su null disattivamento. Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente. |
No | |
| └─ prefix_padding_ms | integer | Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms. |
No | |
| └─ silence_duration_ms | integer | Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente. |
No | |
| └─ threshold | number | La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | string | Solo il tipo di rilevamento server_vad delle curve è attualmente supportato. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configurazione degli oggetti in tempo reale per sessioni di trascrizione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Il set di elementi da includere nella trascrizione. Gli articoli attualmente disponibili sono: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw.Per pcm16, l'audio in ingresso deve essere PCM a 16 bit a una frequenza di campionamento di 24kHz, un singolo canale (mono) e ordine di byte little-endian.Valori possibili: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configurazione per la riduzione del rumore audio in ingresso. Questo può essere impostato per null disattivare.La riduzione del rumore filtra l'audio aggiunto al buffer audio di ingresso prima che venga inviato al VAD e al modello. Il filtraggio dell'audio può migliorare la precisione del VAD e del rilevamento delle virate (riducendo i falsi positivi) e le prestazioni del modello migliorando la percezione dell'audio in ingresso. |
No | |
| └─ type | enum | Tipo di riduzione del rumore.
near_field è per microfoni ravvicinati come le cuffie, è far_field per microfoni a campo lontano come laptop o microfoni di sala conferenze.Valori possibili: near_field, far_field |
No | |
| input_audio_transcription | object | Configurazione per la trascrizione audio in ingresso. Il cliente può opzionalmente impostare il linguaggio e il prompt per la trascrizione, che offrono ulteriori indicazioni al servizio di trascrizione. |
No | |
| └─ language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza. |
No | |
| └─ model | enum | Il modello da utilizzare per la trascrizione, le opzioni attuali sono gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valori possibili: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Per whisper-1, il prompt è un elenco di parole chiave.Per i gpt-4o-transcribe modelli, il prompt è una stringa di testo libero, ad esempio "aspettati parole legate alla tecnologia". |
No | |
| modalities | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"]. |
No | ||
| turn_detection | object | Configurazione per il rilevamento delle curve, server VAD ether o VAD semantico. Questo può essere impostato su null disattivamento, nel qual caso il client deve attivare manualmente la risposta del modello.Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente. Il VAD semantico è più avanzato e utilizza un modello di rilevamento delle curve (in combinazione con il VAD) per stimare semanticamente se l'utente ha terminato di parlare, quindi imposta dinamicamente un timeout basato su questa probabilità. Ad esempio, se l'audio dell'utente si interrompe con uhhm, il modello otterrà una bassa probabilità di fine turno e aspetterà più a lungo affinché l'utente continui a parlare. Questo può essere utile per conversazioni più naturali, ma può avere una latenza più alta. |
No | |
| └─ create_response | boolean | Se generare automaticamente una risposta quando si verifica un evento di stop VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ eagerness | enum | Usato solo per semantic_vad la modalità. L'entusiasmo del modello a rispondere.
low aspetterà più a lungo che l'utente continui a parlare, high risponderà più velocemente.
auto è il valore predefinito ed è equivalente a medium.Valori possibili: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interrompere automaticamente qualsiasi risposta in corso con output alla conversazione predefinita (cioè conversation di auto) quando si verifica un evento di avvio VAD. Non disponibile per le sessioni di trascrizione. |
No | True |
| └─ prefix_padding_ms | integer | Usato solo per server_vad la modalità. Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms. |
No | |
| └─ silence_duration_ms | integer | Usato solo per server_vad la modalità. Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente. |
No | |
| └─ threshold | number | Usato solo per server_vad la modalità. La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | enum | Tipo di rilevamento delle virate. Valori possibili: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Una nuova configurazione di sessione di trascrizione in tempo reale.
Quando una sessione viene creata sul server tramite l'API REST, l'oggetto sessione contiene anche una chiave effimera. Il TTL predefinito per i tasti è un minuto. Questa proprietà non è presente quando una sessione viene aggiornata tramite l'API WebSocket.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Chiave effimera restituita dall'API. Presente solo quando la sessione viene creata sul server tramite l'API REST. |
Yes | |
| └─ expires_at | integer | Timestamp per la scadenza del token. Attualmente, tutti i token scadono dopo un minuto. |
No | |
| └─ value | string | Chiave effimera utilizzabile negli ambienti client per autenticare le connessioni all'API Realtime. Utilizzarlo in ambienti lato client invece di un token API standard, che dovrebbe essere usato solo lato server. |
No | |
| input_audio_format | string | Il formato dell'audio in ingresso. Le opzioni sono pcm16, g711_ulaw, oppure g711_alaw. |
No | |
| input_audio_transcription | object | Configurazione del modello di trascrizione. |
No | |
| └─ language | string | Il linguaggio dell'audio in ingresso. Fornire il linguaggio di input in formato ISO-639-1 (ad esempio en) migliora precisione e latenza. |
No | |
| └─ model | enum | Il modello da usare per la trascrizione. Può essere gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, o whisper-1.Valori possibili: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un testo opzionale per guidare lo stile del modello o continuare un segmento audio precedente. Il prompt dovrebbe corrispondere al linguaggio audio. |
No | |
| modalities | L'insieme delle modalità a cui il modello può rispondere. Per disabilitare l'audio, imposta questo su ["testo"]. |
No | ||
| turn_detection | object | Configurazione per il rilevamento delle curve. Può essere impostato su null disattivamento. Server VAD significa che il modello rileverà l'inizio e la fine del discorso in base al volume audio e risponderà alla fine del discorso dell'utente. |
No | |
| └─ prefix_padding_ms | integer | Quantità di audio da includere prima che il VAD rilevasse il parlato (in millisecondi). Di default è 300ms. |
No | |
| └─ silence_duration_ms | integer | Durata del silenzio per rilevare la cessazione del parlato (in millisecondi). Di default è 500ms. Con valori più brevi il modello risponderà più rapidamente, ma può intervenire con brevi pause da parte dell'utente. |
No | |
| └─ threshold | number | La soglia di attivazione per il VAD (0.0 a 1.0), questa è predefinita a 0.5. Una soglia più alta richiederà un audio più forte per attivare il modello, e quindi potrebbe avere prestazioni migliori in ambienti rumorosi. |
No | |
| └─ type | string | Solo il tipo di rilevamento server_vad delle curve è attualmente supportato. |
No |
Reasoning
Opzioni di configurazione per i modelli di ragionamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta. |
Yes | medium |
| summary | enum | Un riassunto del ragionamento svolto dal modello. Questo può essere utile per il debug e la comprensione del processo di ragionamento del modello. Uno di concise oppure detailed.Valori possibili: concise, detailed |
No |
ReasoningItem
Una descrizione della catena di pensiero utilizzata da un modello di ragionamento durante la generazione di una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Ragionamento dei contenuti del testo. |
Yes | |
| id | string | L'identificatore unico del contenuto di ragionamento. |
Yes | |
| status | enum | Lo stato dell'oggetto. Uno di in_progress, completed, oppure incomplete. Popolati quando gli elementi vengono restituiti tramite API.Valori possibili: in_progress, completed, incomplete |
No | |
| type | enum | Il tipo di oggetto. Sempre reasoning.Valori possibili: reasoning |
Yes |
Refusal
Un rifiuto da parte del modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | La spiegazione del rifiuto dal modello. |
Yes | |
| type | enum | Il tipo di rifiuto. Sempre refusal.Valori possibili: refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Timestamp Unix (in pochi secondi) di quando questa Risposta è stata creata. |
Yes | |
| error | ResponseError | Un oggetto di errore viene restituito quando il modello non riesce a generare una Risposta. |
Yes | |
| id | string | Identificatore unico per questa Risposta. |
Yes | |
| incomplete_details | object | Dettagli sul motivo per cui la risposta è incompleta. |
Yes | |
| └─ reason | enum | Il motivo per cui la risposta è incompleta. Valori possibili: max_output_tokens, content_filter |
No | |
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte. |
Yes | |
| max_output_tokens | integer | Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione. |
No | |
| metadata | Metadata | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri. |
Yes | |
| model | string | Modello utilizzato per generare le risposte. | Yes | |
| object | enum | Il tipo di oggetto di questa risorsa - sempre impostato a response.Valori possibili: response |
Yes | |
| output | array | Una serie di elementi di contenuto generati dal modello. - La lunghezza e l'ordine degli elementi nell'array output dipendono dalla risposta del modello.- Invece di accedere al primo elemento dell'array output e assumere che sia un assistant messaggio con il contenuto generato dal modello, potresti considerare di usare la output_text proprietà dove supportata negli SDK. |
Yes | |
| output_text | string | Proprietà di comodità solo SDK che contiene il testo aggregato in uscita da tutti output_text gli elementi dell'array output , se presenti. Supportato negli SDK di Python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se permettere al modello di eseguire chiamate di strumenti in parallelo. |
Yes | True |
| previous_response_id | string | L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. | No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. |
No | |
| status | enum | Lo stato della generazione della risposta. Uno di completed, failed, in_progress, o incomplete.Valori possibili: completed, failed, in_progress, incomplete |
No | |
| temperature | number | Quale temperatura di campionamento usare, tra 0 e 2. Valori più alti come 0,8 rendono l'output più casuale, mentre valori più bassi come 0,2 lo rendono più focalizzato e deterministico. Generalmente consigliamo di modificare questo o top_p , ma non entrambi. |
Yes | 1 |
| text | object | Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more: - input e output di testo - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.Non consigliato per GPT-4O e modelli più recenti: Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano. |
No | |
| tool_choice | OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo | Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare. |
Yes | |
| tools | array | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.Le due categorie di strumenti che puoi fornire al modello sono: - Strumenti integrati |
Yes | |
| top_p | number | Un'alternativa al campionamento con temperatura, chiamata campionamento nucleo, in cui il modello considera i risultati dei token con top_p massa di probabilità. Quindi 0,1 significa che vengono considerati solo i token che costituiscono la massa di probabilità superiore di 10%. Generalmente consigliamo di modificare questo o temperature , ma non entrambi. |
Yes | 1 |
| truncation | enum | La strategia di troncamento da utilizzare per la risposta del modello. - auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra contestuale del modello, il modello troncherà la risposta per adattarla alla finestra contestuale scartando elementi di input nel mezzo della conversazione. - disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.Valori possibili: auto, disabled |
No | |
| usage | ResponseUsage | Rappresenta i dettagli sull'utilizzo dei token inclusi token di input, token di output, una suddivisione dei token di output e il totale dei token utilizzati. |
No | |
| user | string | Un identificatore unico che rappresenta il tuo utente finale, che può aiutare OpenAI a monitorare e rilevare abusi. . |
No |
ResponseAudioDeltaEvent
Emessa quando c'è una risposta audio parziale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Un blocco di byte audio codificati in risposta Base64. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.audio.delta.Valori possibili: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Emessa quando la risposta audio è completa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di evento. Sempre response.audio.done.Valori possibili: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Emessa quando c'è una trascrizione parziale dell'audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | La trascrizione parziale della risposta audio. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.audio.transcript.delta.Valori possibili: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Emessa quando la trascrizione audio completa è completata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di evento. Sempre response.audio.transcript.done.Valori possibili: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Emessa quando un frammento di codice parziale viene aggiunto dall'interprete del codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Il frammento parziale di codice aggiunto dall'interprete di codice. |
Yes | |
| output_index | integer | L'indice dell'elemento di output chiamato dall'interprete di codice è in corso. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.code_interpreter_call.code.delta.Valori possibili: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Emessa quando l'output del frammento di codice viene finalizzato dall'interprete di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Il frammento di codice finale prodotto dall'interprete di codice. |
Yes | |
| output_index | integer | L'indice dell'elemento di output chiamato dall'interprete di codice è in corso. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.code_interpreter_call.code.done.Valori possibili: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Emessa quando la chiamata all'interprete del codice viene completata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Una chiamata a uno strumento per eseguire codice. |
Yes | |
| output_index | integer | L'indice dell'elemento di output chiamato dall'interprete di codice è in corso. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.code_interpreter_call.completed.Valori possibili: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Emessa quando è in corso una chiamata da un interprete di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Una chiamata a uno strumento per eseguire codice. |
Yes | |
| output_index | integer | L'indice dell'elemento di output chiamato dall'interprete di codice è in corso. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.code_interpreter_call.in_progress.Valori possibili: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Emessa quando l'interprete di codice sta interpretando attivamente lo snippet di codice.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Una chiamata a uno strumento per eseguire codice. |
Yes | |
| output_index | integer | L'indice dell'elemento di output chiamato dall'interprete di codice è in corso. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.code_interpreter_call.interpreting.Valori possibili: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emessa quando la risposta del modello è completa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Il tipo di evento. Sempre response.completed.Valori possibili: response.completed |
Yes |
ResponseContentPartAddedEvent
Emessa quando viene aggiunta una nuova componente di contenuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'indice della parte di contenuto aggiunta. |
Yes | |
| item_id | string | L'ID dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| output_index | integer | L'indice dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Il tipo di evento. Sempre response.content_part.added.Valori possibili: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Emessa quando una parte di contenuto è completata.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'indice del contenuto che viene fatto. |
Yes | |
| item_id | string | L'ID dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| output_index | integer | L'indice dell'elemento di output a cui è stata aggiunta la parte di contenuto. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Il tipo di evento. Sempre response.content_part.done.Valori possibili: response.content_part.done |
Yes |
ResponseCreatedEvent
Un evento che viene emesso quando viene creata una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Il tipo di evento. Sempre response.created.Valori possibili: response.created |
Yes |
ResponseError
Un oggetto di errore viene restituito quando il modello non riesce a generare una Risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Il codice di errore della risposta. |
Yes | |
| message | string | Una descrizione leggibile dall'uomo dell'errore. |
Yes |
ResponseErrorCode
Il codice di errore della risposta.
| Property | Value |
|---|---|
| Description | Il codice di errore della risposta. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Emessa quando si verifica un errore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Il codice di errore. |
Yes | |
| message | string | Il messaggio di errore. |
Yes | |
| param | string | Il parametro di errore. |
Yes | |
| type | enum | Il tipo di evento. Sempre error.Valori possibili: error |
Yes |
ResponseFailedEvent
Un evento che viene emesso quando una risposta fallisce.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Il tipo di evento. Sempre response.failed.Valori possibili: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Emessa quando una chiamata di ricerca file viene completata (risultati trovati).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | L'ID dell'elemento di output che viene avviato dalla ricerca del file. |
Yes | |
| output_index | integer | L'indice dell'elemento di output che viene avviato dalla ricerca del file. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.file_search_call.completed.Valori possibili: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Emessa quando viene avviata una chiamata di ricerca file.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | L'ID dell'elemento di output che viene avviato dalla ricerca del file. |
Yes | |
| output_index | integer | L'indice dell'elemento di output che viene avviato dalla ricerca del file. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.file_search_call.in_progress.Valori possibili: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Viene emesso quando una ricerca file è attualmente in corso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | L'ID dell'elemento di output che viene avviato dalla ricerca del file. |
Yes | |
| output_index | integer | L'indice dell'elemento di output che la ricerca chiamata dal file sta cercando. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.file_search_call.searching.Valori possibili: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emessa quando esiste un delta parziale degli argomenti di chiamata di funzione.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Gli argomenti della chiamata di funzione sono delta che vengono aggiunti. |
Yes | |
| item_id | string | L'ID dell'elemento di output a cui viene aggiunto il delta degli argomenti delle chiamate funzioni. |
Yes | |
| output_index | integer | L'indice dell'elemento di output a cui si aggiungono i delta degli argomenti delle chiamate funzioni. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.function_call_arguments.delta.Valori possibili: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Emessa quando gli argomenti delle chiamate di funzione vengono finalizzati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Gli argomenti delle chiamate di funzione. | Yes | |
| item_id | string | L'ID dell'oggetto. | Yes | |
| output_index | integer | L'indice dell'elemento in uscita. | Yes | |
| type | enum | Valori possibili: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Emessa quando la risposta è in corso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Il tipo di evento. Sempre response.in_progress.Valori possibili: response.in_progress |
Yes |
ResponseIncompleteEvent
Un evento che viene emesso quando una risposta termina come incompleta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Il tipo di evento. Sempre response.incomplete.Valori possibili: response.incomplete |
Yes |
responseItemList
Una lista di elementi di risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Un elenco degli elementi usati per generare questa risposta. | Yes | |
| first_id | string | L'ID del primo elemento della lista. | Yes | |
| has_more | boolean | Se ci sono altri articoli disponibili. | Yes | |
| last_id | string | L'ID dell'ultimo elemento della lista. | Yes | |
| object | enum | Il tipo di oggetto restituito deve essere list.Valori possibili: list |
Yes |
ResponseModalities
Tipi di output che vorresti che il modello generasse. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:
["text"]
Il gpt-4o-audio-preview modello può anche essere utilizzato per generare audio. Per richiedere a questo modello di generare sia risposte testuali che audio, puoi usare:
["text", "audio"]
Nessuna proprietà definita per questo componente.
ResponseModalitiesTextOnly
Tipi di output che vorresti che il modello generasse. La maggior parte dei modelli è in grado di generare testo, che è il valore predefinito:
["text"]
Questa API supporterà presto altre modalità di output, inclusi audio e immagini.
Nessuna proprietà definita per questo componente.
ResponseOutputItemAddedEvent
Emessa quando viene aggiunto un nuovo elemento di output.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | L'indice dell'elemento di output che è stato aggiunto. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.output_item.added.Valori possibili: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Emessa quando un elemento in uscita viene segnato come concluso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | L'indice dell'elemento in uscita che era stato segnato come fatto. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.output_item.done.Valori possibili: response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Inserisce un messaggio di sistema (o sviluppatore) come primo elemento nel contesto del modello. Quando si usa insieme a previous_response_id, le istruzioni di una risposta precedente non verranno trasferite alla risposta successiva. Questo rende semplice sostituire i messaggi del sistema (o degli sviluppatori) nelle nuove risposte. |
No | |
| max_output_tokens | integer | Un limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e lo stato della conversazione. |
No | |
| previous_response_id | string | L'ID unico della risposta precedente al modello. Usa questo per creare conversazioni su più turni. | No | |
| reasoning | Reasoning | Opzioni di configurazione per i modelli di ragionamento. |
No | |
| text | object | Opzioni di configurazione per una risposta testuale dal modello. Possono essere dati in testo semplice o JSON strutturati. Learn more: - input e output di testo - Output strutturati |
No | |
| └─ format | TextResponseFormatConfiguration | Un oggetto che specifica il formato che il modello deve generare. La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito. Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.Non consigliato per GPT-4O e modelli più recenti: Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano. |
No | |
| tool_choice | OpzioniSceltaUtensile o TipiSceltiUtensile o FunzioneSceltaAttrezzo | Come il modello dovrebbe selezionare quale strumento (o strumenti) utilizzare per generare una risposta. Consulta il tools parametro per vedere come specificare quali strumenti il modello può chiamare. |
No | |
| tools | array | Una serie di strumenti che il modello può chiamare mentre genera una risposta. Puoi specificare quale strumento usare impostando il tool_choice parametro.Le due categorie di strumenti che puoi fornire al modello sono: - Strumenti integrati |
No | |
| truncation | enum | La strategia di troncamento da utilizzare per la risposta del modello. - auto: Se il contesto di questa risposta e di quelle precedenti supera la dimensione della finestra contestuale del modello, il modello troncherà la risposta per adattarla alla finestra contestuale scartando elementi di input nel mezzo della conversazione. - disabled (predefinito): Se una risposta del modello supera la dimensione della finestra contestuale per un modello, la richiesta fallirà con un errore 400.Valori possibili: auto, disabled |
No |
ResponseRefusalDeltaEvent
Emessa quando c'è un testo di rifiuto parziale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'indice del contenuto a cui viene aggiunto il testo del rifiuto. |
Yes | |
| delta | string | Il testo di rifiuto che viene aggiunto. |
Yes | |
| item_id | string | L'ID dell'elemento di output a cui viene aggiunto il testo di rifiuto. |
Yes | |
| output_index | integer | L'indice dell'elemento di output a cui viene aggiunto il testo di rifiuto. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.refusal.delta.Valori possibili: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Emesso quando il testo di rifiuto viene finalizzato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'indice del contenuto della parte in cui viene finalizzato il testo del rifiuto. |
Yes | |
| item_id | string | L'ID dell'elemento in uscita per cui il testo di rifiuto è stato finalizzato. |
Yes | |
| output_index | integer | L'indice dell'elemento di output in cui il testo di rifiuto è finalizzato. |
Yes | |
| refusal | string | Il testo del rifiuto che viene finalizzato. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.refusal.done.Valori possibili: response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | L'indice dell'annotazione aggiunta. |
Yes | |
| arguments | string | Gli argomenti delle chiamate di funzione. | Yes | |
| code | string | Il codice di errore. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Una chiamata a uno strumento per eseguire codice. |
Yes | |
| content_index | integer | L'indice della parte del contenuto in cui il testo è finalizzato. |
Yes | |
| delta | string | Il testo delta che è stato aggiunto. |
Yes | |
| item | OutputItem | L'elemento di output che era segnato come fatto. |
Yes | |
| item_id | string | L'ID dell'elemento in uscita per cui il contenuto del testo è stato finalizzato. |
Yes | |
| message | string | Il messaggio di errore. |
Yes | |
| output_index | integer | L'indice dell'elemento in output in cui il contenuto del testo è finalizzato. |
Yes | |
| param | string | Il parametro di errore. |
Yes | |
| part | OutputContent | La parte di contenuto che viene fatta. |
Yes | |
| refusal | string | Il testo del rifiuto che viene finalizzato. |
Yes | |
| response | response | La risposta era incompleta. |
Yes | |
| text | string | Il contenuto testuale che viene finalizzato. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.output_text.done.Valori possibili: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Emessa quando viene aggiunta un'annotazione di testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | L'indice dell'annotazione aggiunta. |
Yes | |
| content_index | integer | L'indice della parte di contenuto a cui è stata aggiunta l'annotazione del testo. |
Yes | |
| item_id | string | L'ID dell'elemento di output a cui è stata aggiunta l'annotazione di testo. |
Yes | |
| output_index | integer | L'indice dell'elemento in uscita a cui è stata aggiunta l'annotazione del testo. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.output_text.annotation.added.Valori possibili: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Emessa quando c'è un delta di testo aggiuntivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'indice della parte di contenuto a cui è stato aggiunto il delta di testo. |
Yes | |
| delta | string | Il testo delta che è stato aggiunto. |
Yes | |
| item_id | string | L'ID dell'elemento di output a cui è stato aggiunto il delta di testo. |
Yes | |
| output_index | integer | L'indice dell'elemento di output a cui è stato aggiunto il delta di testo. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.output_text.delta.Valori possibili: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Emessa quando il contenuto testuale viene finalizzato.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'indice della parte del contenuto in cui il testo è finalizzato. |
Yes | |
| item_id | string | L'ID dell'elemento in uscita per cui il contenuto del testo è stato finalizzato. |
Yes | |
| output_index | integer | L'indice dell'elemento in output in cui il contenuto del testo è finalizzato. |
Yes | |
| text | string | Il contenuto testuale che viene finalizzato. |
Yes | |
| type | enum | Il tipo di evento. Sempre response.output_text.done.Valori possibili: response.output_text.done |
Yes |
ResponseUsage
Rappresenta i dettagli sull'utilizzo dei token inclusi token di input, token di output, una suddivisione dei token di output e il totale dei token utilizzati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Il numero di token di input. | Yes | |
| output_tokens | integer | Il numero di token di output. | Yes | |
| output_tokens_details | object | Una suddivisione dettagliata dei token di output. | Yes | |
| └─ reasoning_tokens | integer | Il numero di gettoni di ragionamento. | No | |
| total_tokens | integer | Il numero totale di gettoni utilizzati. | Yes |
Screenshot
Un'azione di screenshot.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è sempre impostata su screenshot.Valori possibili: screenshot |
Yes |
Scroll
Un'azione di rotolamento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | La distanza dello scroll orizzontale. |
Yes | |
| scroll_y | integer | La distanza di scroll verticale. |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di scroll, questa proprietà è sempre impostata su scroll.Valori possibili: scroll |
Yes | |
| x | integer | La coordinata x in cui si è verificato lo scroll. |
Yes | |
| y | integer | La coordinata y in cui si è verificato il scroll. |
Yes |
StopConfiguration
Fino a 4 sequenze in cui l'API smette di generare ulteriori token. Il testo restituito non conterrà la sequenza di stop.
Questo componente può essere uno dei seguenti:
TextResponseFormatConfiguration
Un oggetto che specifica il formato che il modello deve generare.
La configurazione { "type": "json_schema" } abilita gli Output Strutturati, che garantiscono che il modello corrisponda allo schema JSON fornito.
Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.
Non consigliato per GPT-4O e modelli più recenti:
Impostando per { "type": "json_object" } abilita la vecchia modalità JSON, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferito per i modelli che lo supportano.
Questo componente può essere uno dei seguenti:
TextResponseFormatJsonSchema
Formato di risposta schema JSON. Utilizzato per generare risposte JSON strutturate. Scopri di più sui Risultati Strutturati.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descrizione del motivo del formato di risposta, usata dal modello per determinare come rispondere nel formato. |
No | |
| name | string | Il nome del formato della risposta. Devono essere dalla a-z, dalla A-Z, da 0 a 9, oppure contenere sottolineamenti e trattini, con una lunghezza massima di 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Lo schema per il formato di risposta, descritto come un oggetto JSON Schema. | Yes | |
| strict | boolean | Se abilitare una rigorosa aderenza allo schema durante la generazione dell'output. Se impostato su vero, il modello seguirà sempre esattamente lo schema definito nel schema campo. Solo un sottoinsieme dello schema JSON è supportato quando strict è true. |
No | False |
| type | enum | Il tipo di formato di risposta da definire. Sempre json_schema.Valori possibili: json_schema |
Yes |
Tool
Questo componente può essere uno dei seguenti:
ToolChoiceFunction
Usa questa opzione per forzare il modello a chiamare una funzione specifica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Il nome della funzione da chiamare. | Yes | |
| type | enum | Per la chiamata di funzioni, il tipo è sempre function.Valori possibili: function |
Yes |
ToolChoiceOptions
Controlla quale (se presente) strumento viene chiamato dal modello.
none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.
auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.
required significa che il modello deve chiamare uno o più strumenti.
| Property | Value |
|---|---|
| Description | Controlla quale (se presente) strumento viene chiamato dal modello.none significa che il modello non chiamerà nessuno strumento ma genera invece un messaggio.auto significa che il modello può scegliere tra generare un messaggio o chiamare uno o più strumenti.required significa che il modello deve chiamare uno o più strumenti. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Indica che il modello dovrebbe utilizzare uno strumento integrato per generare una risposta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Il tipo di strumento ospitato che il modello dovrebbe utilizzare. I valori consentiti sono: - file_search- computer_use_previewValori possibili: file_search, computer_use_preview |
Yes |
Type
Un'azione per scrivere un testo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Il testo da scrivere. |
Yes | |
| type | enum | Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è sempre impostata a type.Valori possibili: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri. |
Yes |
UrlCitation
Una citazione per una risorsa web utilizzata per generare una risposta al modello.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | L'indice dell'ultimo carattere della citazione URL nel messaggio. |
Yes | |
| start_index | integer | L'indice del primo carattere della citazione URL nel messaggio. |
Yes | |
| title | string | Il titolo della risorsa web. |
Yes | |
| type | enum | Il tipo della citazione URL. Sempre url_citation.Valori possibili: url_citation |
Yes | |
| url | string | L'URL della risorsa web. |
Yes |
VectorStoreFileAttributes
Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri.
Nessuna proprietà definita per questo componente.
VectorStoreFileContentResponse
Rappresenta il contenuto analizzato di un file di archiviazione vettoriale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Contenuto analizzato del file. | Yes | |
| has_more | boolean | Indica se ci sono più pagine di contenuto da recuperare. | Yes | |
| next_page | string | Il gettone per la pagina successiva, se ce n'era. | Yes | |
| object | enum | Il tipo oggetto, che è sempre vector_store.file_content.pageValori possibili: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro di confronto o filtro composto | Un filtro da applicare in base agli attributi del file. | No | |
| max_num_results | integer | Il numero massimo di risultati da restituire. Questo numero dovrebbe essere compreso tra 1 e 50 inclusi. | No | 10 |
| query | stringa o array | Una stringa di query per una ricerca | Yes | |
| ranking_options | object | Opzioni di classifica per la ricerca. | No | |
| └─ ranker | enum | Valori possibili: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se riscrivere la query in linguaggio naturale per la ricerca vettoriale. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Il contenuto del testo è tornato dalla ricerca. | Yes | |
| type | enum | Il tipo di contenuti. Valori possibili: text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Set di 16 coppie chiave-valore che possono essere associate a un oggetto. Questo può essere utile per memorizzare informazioni aggiuntive sull'oggetto in un formato strutturato e per interrogare oggetti tramite API o dashboard. I tasti sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, booleani o numeri. |
Yes | |
| content | array | Blocchi di contenuto dal file. | Yes | |
| file_id | string | L'ID del file di archivio vettoriale. | Yes | |
| filename | string | Il nome del file vettoriale store. | Yes | |
| score | number | Il punteggio di somiglianza per il risultato. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | L'elenco degli elementi dei risultati di ricerca. | Yes | |
| has_more | boolean | Indica se ci sono altri risultati da recuperare. | Yes | |
| next_page | string | Il gettone per la pagina successiva, se ce n'era. | Yes | |
| object | enum | Il tipo oggetto, che è sempre vector_store.search_results.pageValori possibili: vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Nessuna proprietà definita per questo componente.
Wait
Un'azione di attesa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è sempre impostata su wait.Valori possibili: wait |
Yes |
ReasoningEffort
Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta.
| Property | Value |
|---|---|
| Description | Limita lo sforzo sul ragionamento per i modelli di ragionamento. I valori attualmente supportati sono low, medium, e high. Ridurre lo sforzo di ragionamento può portare a risposte più rapide e a meno token utilizzati per ragionare in una risposta. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Si verifica quando si verifica un errore. Questo può accadere a causa di un errore interno del server o di un timeout.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
event Enum: ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Succede quando un flusso termina.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
evento Enum: DoneEventEnum
| Value | Description |
|---|---|
| done |
data Enum: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Impara i modelli e il fine-tuning con l'API REST. Scopri di più sui modelli sottostante che alimentano Azure OpenAI.