Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Visar för närvarande:Foundry-portalversion - (klassisk)Växla till version för den nya Foundry-portalen
Note
Länkar i den här artikeln kan öppna innehåll i den nya Microsoft Foundry-dokumentationen i stället för den foundry-dokumentation (klassisk) som du visar nu.
Denna artikel ger detaljer om slutpunkterna för REST API för Azure OpenAI.
API specs
Hantering och interaktion med Azure OpenAI-modeller och resurser är uppdelad över tre huvudsakliga API-ytor:
- Control plane
- Dataplan – författarskap
- Dataplan – inferens
Varje API-yta/specifikation kapslar in en annan uppsättning Azure OpenAI-funktioner. Varje API har sin egen unika uppsättning förhandsvisningar och stabila/allmänt tillgängliga (GA) API-releaser. Förhandsvisningar följer för närvarande en månatlig rytm.
Important
Det finns nu ett nytt API för förhandsgranskningsinferens. Läs mer i vår guide för API-livscykeln.
| API | Senaste förhandsvisningen | Senaste GA-utgåvan | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | Kontrollplanets API används för operationer som att skapa resurser, modellutrullning och andra högre nivåuppgifter inom resurshantering. Kontrollplanet styr också vad som är möjligt att göra med funktioner som Azure Resource Manager, Bicep, Terraform och Azure CLI. |
| Data plane | v1 preview |
v1 |
Spec files | Data plane API styr inferens- och författaroperationer. |
Authentication
Azure OpenAI erbjuder två metoder för autentisering. Du kan använda antingen API-nycklar eller Microsoft Entra ID.
API-nyckelautentisering: För denna typ av autentisering måste alla API-förfrågningar inkludera API-nyckeln i
api-keyHTTP-headern. Quickstart ger vägledning för hur man gör samtal med denna typ av autentisering.Microsoft Entra ID autentisering: Du kan autentisera ett API-anrop med en Microsoft Entra-token. Autentiseringstoken ingår i en förfrågan som
Authorizationheader. Den givna token måste föregås avBearer, till exempelBearer YOUR_AUTH_TOKEN. Du kan läsa vår guide om autentisera med Microsoft Entra ID.
REST API-versionshantering
Tjänste-API:erna versioneras med hjälp av frågeparametern api-version . Alla versioner följer YYYY-MM-DD datumstrukturen. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Dataplansinferens
Resten av artikeln täcker GA:s version av Azure OpenAI:s specifikation för dataplansinferens, 2024-10-21.
Om du letar efter dokumentation om den senaste preview API-releasen, se det senaste preview data plane inference API:et
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Skapar en komplettering för den tillhandahållna prompten, parametrarna och den valda modellen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Stödd Azure OpenAI-endpoints (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com. Byt ut "aoairesource" mot ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Distributions-ID för modellen som distribuerades. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Tillhandahåll Azure OpenAI API-nyckel här |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | Sträng eller array | Prompten/promptarna för att generera kompletteringar för, kodade som en sträng, array av strängar, array av tokens eller array av token-arrayer. Observera att <|endoftext|> är dokumentseparatorn som modellen ser under träningen, så om en prompt inte anges kommer modellen att generera som om det vore från början av ett nytt dokument. |
Yes | |
| best_of | integer | Genererar best_of fullbordanden serversidan och returnerar "bäst" (den med högst loggsannolikhet per token). Resultaten kan inte strömmas.När den används med nstyr den best_of antalet kandidatfullbordaner och n specificerar hur många som ska returneras – best_of måste vara större än n.Notera: Eftersom denna parameter genererar många kompletteringar kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop. |
No | 1 |
| echo | boolean | Echo tillbaka prompten utöver slutförandet |
No | False |
| frequency_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
No | 0 |
| logit_bias | object | Ändra sannolikheten för att specificerade tokens ska dyka upp i slutförandet. Accepterar ett JSON-objekt som mappar tokens (specificerade av deras token-ID i GPT-tokenizern) till ett associerat biasvärde från -100 till 100. Matematiskt läggs biasen till de logits som genereras av modellen före urvalet. Den exakta effekten varierar mellan modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för urval; Värden som -100 eller 100 bör leda till avstängning eller exklusivt val av relevant token. Som exempel kan du passa {"50256": -100} för att förhindra <att |endoftext|> token genereras. |
No | None |
| logprobs | integer | Inkludera logsannolikheterna på de logprobs mest sannolika utdatatokenen, samt de valda tokens. Till exempel, om logprobs är 5, kommer API:et att returnera en lista över de fem mest sannolika tokens. API:et kommer alltid att returnera den provtagna token, logprob så det kan finnas upp till element logprobs+1 i svaret.Maxvärdet för logprobs är 5. |
No | None |
| max_tokens | integer | Det maximala antalet tokens som kan genereras i slutförandet. Token-antalet för din prompt plus max_tokens får inte överstiga modellens kontextlängd. |
No | 16 |
| n | integer | Hur många kompletteringar som ska genereras för varje prompt. Notera: Eftersom denna parameter genererar många kompletteringar kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop. |
No | 1 |
| presence_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på om de hittills förekommer i texten, vilket ökar modellens sannolikhet att tala om nya ämnen. |
No | 0 |
| seed | integer | Om det specificeras kommer vårt system att göra sitt bästa för att provta deterministiskt, så att upprepade förfrågningar med samma seed och parametrar ska ge samma resultat.Determinism är inte garanterad, och du bör använda responsparametern system_fingerprint för att övervaka förändringar i backend. |
No | |
| stop | Sträng eller array | Upp till fyra sekvenser där API:et slutar generera ytterligare tokens. Den returnerade texten kommer inte att innehålla stoppsekvensen. |
No | |
| stream | boolean | Om man ska streama tillbaka delvis framsteg. Om de är satta skickas tokens som data-enbart serverskickade händelser när de blir tillgängliga, och strömmen avslutas med ett data: [DONE] meddelande. |
No | False |
| suffix | string | Suffixet som kommer efter att den insatta texten har slutförts. Denna parameter stöds endast för gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Vilken provtagningstemperatur ska användas, mellan 0 och 2. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar generellt att ändra detta eller top_p båda. |
No | 1 |
| top_p | number | Ett alternativ till provtagning med temperatur, kallat kärnprovtagning, där modellen beaktar resultaten från tokens med top_p sannolikhetsmassa. Så 0,1 betyder att endast tokens som utgör de 10 främsta% sannolikhetsmassan beaktas. Vi rekommenderar generellt att ändra detta eller temperature båda. |
No | 1 |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. |
No |
Responses
Statuskod: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Representerar ett fullbordandesvar från API:et. Observera: både de strömmade och icke-strömmade svarsobjekten har samma form (till skillnad från chattändpunkten). |
Statuskod: standard
Beskrivning: Tjänsten är inte tillgänglig
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Skapar en komplettering för den tillhandahållna prompten, parametrarna och den valda modellen.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Svar: Statuskod: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Få en vektorrepresentation av en given input som enkelt kan konsumeras av maskininlärningsmodeller och algoritmer.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Stödd Azure OpenAI-endpoints (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com. Byt ut "aoairesource" mot ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Tillhandahåll Azure OpenAI API-nyckel här |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | Sträng eller array | Mata in text för att bädda in, kodad som en sträng eller array av tokens. För att bädda in flera indata i en enda förfrågan, skicka en array av strängar eller en array av tokenarrayer. Inmatningen får inte överstiga maxantalet inmatningstoken för modellen (8 192 tokens för text-embedding-ada-002), får inte vara en tom sträng, och varje array måste vara 2 048 dimensioner eller mindre. |
Yes | |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. | No | |
| input_type | string | Inmatningstyp av inbäddningssökning att använda | No | |
| encoding_format | string | Formatet för att returnera inbäddningarna. Det kan vara antingen float eller base64. Går som standard till float. |
No | |
| dimensions | integer | Antalet dimensioner som de resulterande utdatainbäddningarna bör ha. Endast stödd i text-embedding-3 och senare modeller. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Egenskaper för användning
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Statuskod: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Returnera embeddingarna för en given prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Svar: Statuskod: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Skapar en komplettering för chattmeddelandet
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Stödd Azure OpenAI-endpoints (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com. Byt ut "aoairesource" mot ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Distributions-ID för modellen som distribuerades. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Tillhandahåll Azure OpenAI API-nyckel här |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Vilken provtagningstemperatur ska användas, mellan 0 och 2. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar generellt att ändra detta eller top_p båda. |
No | 1 |
| top_p | number | Ett alternativ till provtagning med temperatur, kallat kärnprovtagning, där modellen beaktar resultaten från tokens med top_p sannolikhetsmassa. Så 0,1 betyder att endast tokens som utgör de 10 främsta% sannolikhetsmassan beaktas. Vi rekommenderar generellt att ändra detta eller temperature båda. |
No | 1 |
| stream | boolean | Om det är inställt skickas delvisa meddelandedeltas, som i ChatGPT. Tokens kommer att skickas som data-only serverskickade händelser när de blir tillgängliga, och strömmen avslutas med ett data: [DONE] meddelande. |
No | False |
| stop | Sträng eller array | Upp till fyra sekvenser där API:et slutar generera ytterligare tokens. |
No | |
| max_tokens | integer | Det maximala antalet tokens som kan genereras i chatten. Den totala längden på inmatningstokens och genererade tokens begränsas av modellens kontextlängd. |
No | |
| max_completion_tokens | integer | En övre gräns för antalet tokens som kan genereras för en fullbordan, inklusive synliga utdatatokens och resonemangstokens. | No | |
| presence_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på om de hittills förekommer i texten, vilket ökar modellens sannolikhet att tala om nya ämnen. |
No | 0 |
| frequency_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
No | 0 |
| logit_bias | object | Ändra sannolikheten för att specificerade tokens ska dyka upp i slutförandet. Accepterar ett JSON-objekt som mappar tokens (specificerade av deras token-ID i tokenizern) till ett associerat biasvärde från -100 till 100. Matematiskt läggs biasen till de logits som genereras av modellen före urvalet. Den exakta effekten varierar mellan modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för urval; Värden som -100 eller 100 bör leda till avstängning eller exklusivt val av relevant token. |
No | None |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. |
No | |
| messages | array | En lista med meddelanden som utgör konversationen hittills. | Yes | |
| data_sources | array | Konfigurationsposterna för Azure OpenAI-chatttillägg som använder dem. Denna tilläggsspecifikation är endast kompatibel med Azure OpenAI. |
No | |
| logprobs | boolean | Om man ska returnera loggsannolikheter för utdatatokens eller inte. Om sann, returnerar logsannolikheterna för varje utdata som returnerats i av contentmessage. |
No | False |
| top_logprobs | integer | Ett heltal mellan 0 och 20 som anger antalet mest sannolika tokens att returnera vid varje tokenposition, var och en med tillhörande log-sannolikhet.
logprobs måste sättas till true om denna parameter används. |
No | |
| n | integer | Hur många chattfullbordandeval som ska genereras för varje inmatningsmeddelande. Observera att du debiteras baserat på antalet genererade tokens i alla val. Se n till att 1 minimera kostnaderna. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Om man ska aktivera parallell funktionsanrop under verktygsanvändning. | No | True |
| response_format | ResponseFormatText eller ResponseFormatJsonObject eller ResponseFormatJsonSchema | Ett objekt som specificerar formatet som modellen måste ge utmatning. Kompatibel med GPT-4o, GPT-4o mini, GPT-4 Turbo och alla GPT-3.5 Turbo-modeller nyare än gpt-3.5-turbo-1106.Att sätta på { "type": "json_schema", "json_schema": {...} } aktiverar strukturerade utdata som garanterar att modellen kommer att matcha ditt tillhandahållna JSON-schema.Att sätta på { "type": "json_object" } aktiverar JSON-läge, vilket garanterar att meddelandet som modellen genererar är giltigt JSON.Viktigt: när du använder JSON-läge måste du också instruera modellen att själv producera JSON via ett system- eller användarmeddelande. Utan detta kan modellen generera en oändlig ström av whitespace tills genereringen når tokengränsen, vilket resulterar i en långvarig och till synes "fastkilad" förfrågan. Observera också att meddelandeinnehållet kan vara delvis avskuret om finish_reason="length", vilket indikerar att genereringen överskridits max_tokens eller att konversationen överskred maxkontextlängden. |
No | |
| seed | integer | Denna funktion är i beta. Om det specificeras kommer vårt system att göra sitt bästa för att provta deterministiskt, så att upprepade förfrågningar med samma seed och parametrar ska ge samma resultat.Determinism är inte garanterad, och du bör använda responsparametern system_fingerprint för att övervaka förändringar i backend. |
No | |
| tools | array | En lista över verktyg som modellen kan anropa. För närvarande stöds endast funktioner som verktyg. Använd detta för att tillhandahålla en lista över funktioner som modellen kan generera JSON-indata för. Maximalt 128 funktioner stöds. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Styr vilket (om något) verktyg som anropas av modellen.
none Det betyder att modellen inte anropar något verktyg utan istället genererar ett meddelande.
auto Det innebär att modellen kan välja mellan att generera ett meddelande eller att anropa ett eller flera verktyg.
required betyder att modellen måste anropa ett eller flera verktyg. Att specificera ett visst verktyg via {"type": "function", "function": {"name": "my_function"}} tvingar modellen att anropa det verktyget.
none är standarden när inga verktyg finns.
auto är standarden om verktyg finns. |
No | |
| function_call | sträng eller chatCompletionFunctionCallOption | Föråldrad till förmån för tool_choice.Styr vilken (om någon) funktion som anropas av modellen. none betyder att modellen inte anropar en funktion utan istället genererar ett meddelande.auto innebär att modellen kan välja mellan att generera ett meddelande eller anropa en funktion.Att specificera en viss funktion via {"name": "my_function"} tvingar modellen att anropa den funktionen.none är standarden när inga funktioner finns.
auto är standard om funktioner finns. |
No | |
| functions | array | Föråldrad till förmån för tools.En lista över funktioner som modellen kan generera JSON-indata för. |
No |
Responses
Statuskod: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse eller createChatCompletionStreamResponse |
Statuskod: standard
Beskrivning: Tjänsten är inte tillgänglig
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Skapar en komplettering för den tillhandahållna prompten, parametrarna och den valda modellen.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Skapar en komplettering baserad på Azure Search-data och systemtilldelad hanterad identitet.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Skapar en komplettering baserad på Azure Search-vektordata, tidigare assistentmeddelande och användartilldelad hanterad identitet.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Skapar en komplettering för den medföljande Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Svar: Statuskod: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptioner - Skapa
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transkriberar ljudet till inmatningsspråket.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Stödd Azure OpenAI-endpoints (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com. Byt ut "aoairesource" mot ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Distributions-ID för tal-till-text-modellen. För information om stödda modeller, se [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Tillhandahåll Azure OpenAI API-nyckel här |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Ljudfilobjektet att transkribera. | Yes | |
| prompt | string | En valfri text för att styra modellens stil eller fortsätta ett tidigare ljudsegment. Prompten ska matcha ljudspråket. | No | |
| response_format | audioResponseFormat | Definierar formatet på utdatan. | No | |
| temperature | number | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om den sätts till 0 kommer modellen att använda logaritmisk sannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden nås. | No | 0 |
| language | string | Språket för inmatningsljudet. Att tillhandahålla inmatningsspråket i ISO-639-1-format kommer att förbättra noggrannhet och latens. | No |
Responses
Statuskod: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse eller audioVerboseResponse | |
| text/plain | string | Transkriberad text i utdataformatet (när response_format var text, vtt eller srt). |
Examples
Example
Får transkriberad text och tillhörande metadata från tillhandahållen talad ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Svar: Statuskod: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Får transkriberad text och tillhörande metadata från tillhandahållen talad ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Svar: Statuskod: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Översättningar - Skapa
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transkriberar och översätter inmatat ljud till engelsk text.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Stödd Azure OpenAI-endpoints (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com. Byt ut "aoairesource" mot ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Distributions-ID för den whisper-modell som distribuerades. För information om stödda modeller, se [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Tillhandahåll Azure OpenAI API-nyckel här |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Ljudfilen att översätta. | Yes | |
| prompt | string | En valfri text för att styra modellens stil eller fortsätta ett tidigare ljudsegment. Uppgiften ska vara på engelska. | No | |
| response_format | audioResponseFormat | Definierar formatet på utdatan. | No | |
| temperature | number | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om den sätts till 0 kommer modellen att använda logaritmisk sannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden nås. | No | 0 |
Responses
Statuskod: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse eller audioVerboseResponse | |
| text/plain | string | Transkriberad text i utdataformatet (när response_format var text, vtt eller srt). |
Examples
Example
Hämtar engelskspråkig transkriberad text och tillhörande metadata från tillhandahållen talad ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Svar: Statuskod: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Hämtar engelskspråkig transkriberad text och tillhörande metadata från tillhandahållen talad ljuddata.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Svar: Statuskod: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Genererar en batch bilder från en texttext på en given dall-e-modelldistribution
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Stödd Azure OpenAI-endpoints (protokoll och värdnamn, till exempel: https://aoairesource.openai.azure.com. Byt ut "aoairesource" mot ditt Azure OpenAI-resursnamn). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Distributions-ID för dall-e-modellen som distribuerades. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Tillhandahåll Azure OpenAI API-nyckel här |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | En textbeskrivning av den önskade bilden/bilderna. Den maximala längden är 4 000 tecken. | Yes | |
| n | integer | Antalet bilder som ska genereras. | No | 1 |
| size | imageSize | Storleken på de genererade bilderna. | No | 1024x1024 |
| response_format | imagesResponseFormat | Formatet i vilket de genererade bilderna returneras. | No | url |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. | No | |
| quality | imageQuality | Bildkvaliteten som kommer att genereras. | No | standard |
| style | imageStyle | Stilen på de genererade bilderna. | No | vivid |
Responses
Statuskod: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuskod: standard
Beskrivning: Ett fel uppstod.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Skapar bilder med en prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Svar: Statuskod: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Inre fel med ytterligare detaljer. | No |
innerError
Inre fel med ytterligare detaljer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Felkoder för det inre felobjektet. | No | |
| content_filter_results | contentFilterPromptResults | Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID. | No |
innerErrorCode
Felkoder för det inre felobjektet.
Beskrivning: Felkoder för det inre felobjektet.
Type: string
Default:
Enumnamn: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | Prompten bröt mot en av fler regler för innehållsfilter. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Inre fel med ytterligare detaljer. | No |
dalleInnerError
Inre fel med ytterligare detaljer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Felkoder för det inre felobjektet. | No | |
| content_filter_results | dalleFilterResults | Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID. | No | |
| revised_prompt | string | Prompten som användes för att generera bilden, om det fanns någon revidering av prompten. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Egenskaper för citering
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Information om innehållet filtreringsresultat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om tredjepartstext och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Innehållsfiltrering resulterar för en enda prompt i förfrågan.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID. | No |
promptFilterResults
Innehållsfiltrering ger noll eller fler promptar i förfrågan. I en streamingförfrågan kan resultaten för olika prompts komma vid olika tidpunkter eller i olika ordning.
Inga egenskaper definierade för denna komponent.
dalleContentFilterResults
Information om innehållet filtreringsresultat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Vilken provtagningstemperatur ska användas, mellan 0 och 2. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar generellt att ändra detta eller top_p båda. |
No | 1 |
| top_p | number | Ett alternativ till provtagning med temperatur, kallat kärnprovtagning, där modellen beaktar resultaten från tokens med top_p sannolikhetsmassa. Så 0,1 betyder att endast tokens som utgör de 10 främsta% sannolikhetsmassan beaktas. Vi rekommenderar generellt att ändra detta eller temperature båda. |
No | 1 |
| stream | boolean | Om det är inställt skickas delvisa meddelandedeltas, som i ChatGPT. Tokens kommer att skickas som data-only serverskickade händelser när de blir tillgängliga, och strömmen avslutas med ett data: [DONE] meddelande. |
No | False |
| stop | Sträng eller array | Upp till fyra sekvenser där API:et slutar generera ytterligare tokens. | No | |
| max_tokens | integer | Det maximala antalet tokens tillät det genererade svaret. Som standard kommer antalet tokens modellen kan returnera vara (4096 - prompt-tokens). Detta värde är nu föråldrat till förmån för max_completion_tokens, och är inte kompatibelt med O1-seriens modeller. |
No | 4096 |
| max_completion_tokens | integer | En övre gräns för antalet tokens som kan genereras för en fullbordan, inklusive synliga utdatatokens och resonemangstokens. | No | |
| presence_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på om de hittills förekommer i texten, vilket ökar modellens sannolikhet att tala om nya ämnen. | No | 0 |
| frequency_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. | No | 0 |
| logit_bias | object | Ändra sannolikheten för att specificerade tokens ska dyka upp i slutförandet. Accepterar ett json-objekt som mappar tokens (specificerat av deras token-ID i tokenizern) till ett associerat biasvärde från -100 till 100. Matematiskt läggs biasen till de logits som genereras av modellen före urvalet. Den exakta effekten varierar mellan modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för urval; Värden som -100 eller 100 bör leda till avstängning eller exklusivt val av relevant token. | No | |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa Azure OpenAI att övervaka och upptäcka missbruk. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | Sträng eller array | Prompten/promptarna för att generera kompletteringar för, kodade som en sträng, array av strängar, array av tokens eller array av token-arrayer. Observera att <|endoftext|> är dokumentseparatorn som modellen ser under träningen, så om en prompt inte anges kommer modellen att generera som om det vore från början av ett nytt dokument. |
Yes | |
| best_of | integer | Genererar best_of fullbordanden serversidan och returnerar "bäst" (den med högst loggsannolikhet per token). Resultaten kan inte strömmas.När den används med nstyr den best_of antalet kandidatfullbordaner och n specificerar hur många som ska returneras – best_of måste vara större än n.Notera: Eftersom denna parameter genererar många kompletteringar kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop. |
No | 1 |
| echo | boolean | Echo tillbaka prompten utöver slutförandet |
No | False |
| frequency_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
No | 0 |
| logit_bias | object | Ändra sannolikheten för att specificerade tokens ska dyka upp i slutförandet. Accepterar ett JSON-objekt som mappar tokens (specificerade av deras token-ID i GPT-tokenizern) till ett associerat biasvärde från -100 till 100. Matematiskt läggs biasen till de logits som genereras av modellen före urvalet. Den exakta effekten varierar mellan modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för urval; Värden som -100 eller 100 bör leda till avstängning eller exklusivt val av relevant token. Som exempel kan du passa {"50256": -100} för att förhindra <att |endoftext|> token genereras. |
No | None |
| logprobs | integer | Inkludera logsannolikheterna på de logprobs mest sannolika utdatatokenen, samt de valda tokens. Till exempel, om logprobs är 5, kommer API:et att returnera en lista över de fem mest sannolika tokens. API:et kommer alltid att returnera den provtagna token, logprob så det kan finnas upp till element logprobs+1 i svaret.Maxvärdet för logprobs är 5. |
No | None |
| max_tokens | integer | Det maximala antalet tokens som kan genereras i slutförandet. Token-antalet för din prompt plus max_tokens får inte överstiga modellens kontextlängd. |
No | 16 |
| n | integer | Hur många kompletteringar som ska genereras för varje prompt. Notera: Eftersom denna parameter genererar många kompletteringar kan den snabbt förbruka din tokenkvot. Använd noggrant och se till att du har rimliga inställningar för max_tokens och stop. |
No | 1 |
| presence_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på om de hittills förekommer i texten, vilket ökar modellens sannolikhet att tala om nya ämnen. |
No | 0 |
| seed | integer | Om det specificeras kommer vårt system att göra sitt bästa för att provta deterministiskt, så att upprepade förfrågningar med samma seed och parametrar ska ge samma resultat.Determinism är inte garanterad, och du bör använda responsparametern system_fingerprint för att övervaka förändringar i backend. |
No | |
| stop | Sträng eller array | Upp till fyra sekvenser där API:et slutar generera ytterligare tokens. Den returnerade texten kommer inte att innehålla stoppsekvensen. |
No | |
| stream | boolean | Om man ska streama tillbaka delvis framsteg. Om de är satta skickas tokens som data-enbart serverskickade händelser när de blir tillgängliga, och strömmen avslutas med ett data: [DONE] meddelande. |
No | False |
| suffix | string | Suffixet som kommer efter att den insatta texten har slutförts. Denna parameter stöds endast för gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Vilken provtagningstemperatur ska användas, mellan 0 och 2. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar generellt att ändra detta eller top_p båda. |
No | 1 |
| top_p | number | Ett alternativ till provtagning med temperatur, kallat kärnprovtagning, där modellen beaktar resultaten från tokens med top_p sannolikhetsmassa. Så 0,1 betyder att endast tokens som utgör de 10 främsta% sannolikhetsmassan beaktas. Vi rekommenderar generellt att ändra detta eller temperature båda. |
No | 1 |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. |
No |
createCompletionResponse
Representerar ett fullbordandesvar från API:et. Observera: både de strömmade och icke-strömmade svarsobjekten har samma form (till skillnad från chattändpunkten).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | En unik identifierare för fullföljelsen. | Yes | |
| choices | array | Listan över kompletteringsval som modellen genererade för inmatningsprompten. | Yes | |
| created | integer | Unix-tidsstämpeln (i sekunder) för när fullbordandet skapades. | Yes | |
| model | string | Modellen som används för fullbordan. | Yes | |
| prompt_filter_results | promptFilterResults | Innehållsfiltrering ger noll eller fler promptar i förfrågan. I en streamingförfrågan kan resultaten för olika prompts komma vid olika tidpunkter eller i olika ordning. | No | |
| system_fingerprint | string | Detta fingeravtryck representerar backend-konfigurationen som modellen körs med. Kan användas tillsammans med begäranparametern seed för att förstå när backend-ändringar har gjorts som kan påverka determinismen. |
No | |
| object | enum | Objekttypen, som alltid är "text_completion" Möjliga värden: text_completion |
Yes | |
| usage | completionUsage | Användningsstatistik för förfrågan om fullbordan. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Vilken provtagningstemperatur ska användas, mellan 0 och 2. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Vi rekommenderar generellt att ändra detta eller top_p båda. |
No | 1 |
| top_p | number | Ett alternativ till provtagning med temperatur, kallat kärnprovtagning, där modellen beaktar resultaten från tokens med top_p sannolikhetsmassa. Så 0,1 betyder att endast tokens som utgör de 10 främsta% sannolikhetsmassan beaktas. Vi rekommenderar generellt att ändra detta eller temperature båda. |
No | 1 |
| stream | boolean | Om det är inställt skickas delvisa meddelandedeltas, som i ChatGPT. Tokens kommer att skickas som data-only serverskickade händelser när de blir tillgängliga, och strömmen avslutas med ett data: [DONE] meddelande. |
No | False |
| stop | Sträng eller array | Upp till fyra sekvenser där API:et slutar generera ytterligare tokens. |
No | |
| max_tokens | integer | Det maximala antalet tokens som kan genereras i chatten. Den totala längden på inmatningstokens och genererade tokens begränsas av modellens kontextlängd. |
No | |
| max_completion_tokens | integer | En övre gräns för antalet tokens som kan genereras för en fullbordan, inklusive synliga utdatatokens och resonemangstokens. | No | |
| presence_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på om de hittills förekommer i texten, vilket ökar modellens sannolikhet att tala om nya ämnen. |
No | 0 |
| frequency_penalty | number | Siffran mellan -2,0 och 2,0. Positiva värden straffar nya tokens baserat på deras befintliga frekvens i texten hittills, vilket minskar modellens sannolikhet att upprepa samma rad ordagrant. |
No | 0 |
| logit_bias | object | Ändra sannolikheten för att specificerade tokens ska dyka upp i slutförandet. Accepterar ett JSON-objekt som mappar tokens (specificerade av deras token-ID i tokenizern) till ett associerat biasvärde från -100 till 100. Matematiskt läggs biasen till de logits som genereras av modellen före urvalet. Den exakta effekten varierar mellan modell, men värden mellan -1 och 1 bör minska eller öka sannolikheten för urval; Värden som -100 eller 100 bör leda till avstängning eller exklusivt val av relevant token. |
No | None |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. |
No | |
| messages | array | En lista med meddelanden som utgör konversationen hittills. | Yes | |
| data_sources | array | Konfigurationsposterna för Azure OpenAI-chatttillägg som använder dem. Denna tilläggsspecifikation är endast kompatibel med Azure OpenAI. |
No | |
| logprobs | boolean | Om man ska returnera loggsannolikheter för utdatatokens eller inte. Om sann, returnerar logsannolikheterna för varje utdata som returnerats i av contentmessage. |
No | False |
| top_logprobs | integer | Ett heltal mellan 0 och 20 som anger antalet mest sannolika tokens att returnera vid varje tokenposition, var och en med tillhörande log-sannolikhet.
logprobs måste sättas till true om denna parameter används. |
No | |
| n | integer | Hur många chattfullbordandeval som ska genereras för varje inmatningsmeddelande. Observera att du debiteras baserat på antalet genererade tokens i alla val. Se n till att 1 minimera kostnaderna. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Om man ska aktivera parallell funktionsanrop under verktygsanvändning. | No | True |
| response_format | ResponseFormatText eller ResponseFormatJsonObject eller ResponseFormatJsonSchema | Ett objekt som specificerar formatet som modellen måste ge utmatning. Kompatibel med GPT-4o, GPT-4o mini, GPT-4 Turbo och alla GPT-3.5 Turbo-modeller nyare än gpt-3.5-turbo-1106.Att sätta på { "type": "json_schema", "json_schema": {...} } aktiverar strukturerade utdata som garanterar att modellen kommer att matcha ditt tillhandahållna JSON-schema.Att sätta på { "type": "json_object" } aktiverar JSON-läge, vilket garanterar att meddelandet som modellen genererar är giltigt JSON.Viktigt: när du använder JSON-läge måste du också instruera modellen att själv producera JSON via ett system- eller användarmeddelande. Utan detta kan modellen generera en oändlig ström av whitespace tills genereringen når tokengränsen, vilket resulterar i en långvarig och till synes "fastkilad" förfrågan. Observera också att meddelandeinnehållet kan vara delvis avskuret om finish_reason="length", vilket indikerar att genereringen överskridits max_tokens eller att konversationen överskred maxkontextlängden. |
No | |
| seed | integer | Denna funktion är i beta. Om det specificeras kommer vårt system att göra sitt bästa för att provta deterministiskt, så att upprepade förfrågningar med samma seed och parametrar ska ge samma resultat.Determinism är inte garanterad, och du bör använda responsparametern system_fingerprint för att övervaka förändringar i backend. |
No | |
| tools | array | En lista över verktyg som modellen kan anropa. För närvarande stöds endast funktioner som verktyg. Använd detta för att tillhandahålla en lista över funktioner som modellen kan generera JSON-indata för. Maximalt 128 funktioner stöds. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Styr vilket (om något) verktyg som anropas av modellen.
none Det betyder att modellen inte anropar något verktyg utan istället genererar ett meddelande.
auto Det innebär att modellen kan välja mellan att generera ett meddelande eller att anropa ett eller flera verktyg.
required betyder att modellen måste anropa ett eller flera verktyg. Att specificera ett visst verktyg via {"type": "function", "function": {"name": "my_function"}} tvingar modellen att anropa det verktyget.
none är standarden när inga verktyg finns.
auto är standarden om verktyg finns. |
No | |
| function_call | sträng eller chatCompletionFunctionCallOption | Föråldrad till förmån för tool_choice.Styr vilken (om någon) funktion som anropas av modellen. none betyder att modellen inte anropar en funktion utan istället genererar ett meddelande.auto innebär att modellen kan välja mellan att generera ett meddelande eller anropa en funktion.Att specificera en viss funktion via {"name": "my_function"} tvingar modellen att anropa den funktionen.none är standarden när inga funktioner finns.
auto är standard om funktioner finns. |
No | |
| functions | array | Föråldrad till förmån för tools.En lista över funktioner som modellen kan generera JSON-indata för. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | En beskrivning av vad funktionen gör, använd av modellen för att välja när och hur funktionen ska anropas. | No | |
| name | string | Namnet på funktionen som ska anropas. Måste vara a-z, A-Z, 0-9, eller innehålla understreck och streck, med en maximal längd på 64. | Yes | |
| parameters | FunctionParameters | De parametrar som funktionen accepterar, beskrivs som ett JSON-schemaobjekt.
Se guiden för exempel och JSON Schema-referensen för dokumentation om formatet. Att parameters utelämna definierar en funktion med en tom parameterlista. |
No |
chatCompletionFunctionCallOption
Att specificera en viss funktion via {"name": "my_function"} tvingar modellen att anropa den funktionen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Namnet på funktionen att anropa. | Yes |
chatCompletionRequestMessage
Denna komponent kan vara en av följande:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Sträng eller array | Innehållet i systemmeddelandet. | Yes | |
| role | enum | Meddelandeförfattarens roll, i detta fall system.Möjliga värden: system |
Yes | |
| name | string | Ett valfritt namn för deltagaren. Tillhandahåller modellinformation för att skilja deltagare i samma roll. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Sträng eller array | Innehållet i användarmeddelandet. |
Yes | |
| role | enum | Meddelandeförfattarens roll, i detta fall user.Möjliga värden: användare. |
Yes | |
| name | string | Ett valfritt namn för deltagaren. Tillhandahåller modellinformation för att skilja deltagare i samma roll. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Sträng eller array | Innehållet i assistentmeddelandet. Obligatoriskt om tool_calls inte eller function_call är specificerat. |
No | |
| refusal | string | Avslagsmeddelandet från assistenten. | No | |
| role | enum | Meddelandeförfattarens roll, i detta fall assistant.Möjliga värden: assistent |
Yes | |
| name | string | Ett valfritt namn för deltagaren. Tillhandahåller modellinformation för att skilja deltagare i samma roll. | No | |
| tool_calls | chatCompletionMessageToolCalls | Verktygsanropen som genereras av modellen, såsom funktionsanrop. | No | |
| function_call | object | Föråldrad och ersatt av tool_calls. Namnet och argumenten för en funktion som ska anropas, som genereras av modellen. |
No |
Egenskaper för function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON, och kan generera parametrar som inte definieras av ditt funktionsschema. Validera argumenten i din kod innan du anropar din funktion. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Namnet på funktionen att anropa. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Meddelandeförfattarens roll, i detta fall tool.Möjliga värden: verktyg |
Yes | |
| content | Sträng eller array | Innehållet i verktygsmeddelandet. | Yes | |
| tool_call_id | string | Verktygssamtal som detta meddelande svarar på. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Meddelandeförfattarens roll, i detta fall function.Möjliga värden: funktion |
Yes | |
| content | string | Innehållet i funktionsmeddelandet. | Yes | |
| name | string | Namnet på funktionen att anropa. | Yes |
chatCompletionRequestSystemMessageContentPart
Denna komponent kan vara en av följande:
chatCompletionRequestUserMessageContentPart
Denna komponent kan vara en av följande:
chatCompletionRequestAssistantMessageContentPart
Denna komponent kan vara en av följande:
chatCompletionRequestToolMessageContentPart
Denna komponent kan vara en av följande:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av innehållsdelen. Möjliga värden: text |
Yes | |
| text | string | Textinnehållet. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av innehållsdelen. Möjliga värden: image_url |
Yes | |
| image_url | object | Yes |
Egenskaper för image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | Antingen en URL till bilden eller base64-kodade bilddata. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Specificerar detaljnivån på bilden. Läs mer i Vision-guiden. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av innehållsdelen. Möjliga värden: vägran |
Yes | |
| refusal | string | Avvisningsmeddelandet som genereras av modellen. | Yes |
azureChatExtensionConfiguration
En representation av konfigurationsdata för en enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chattkompletteringsförfrågan som bör använda Azure OpenAI-chatttillägg för att förstärka svarsbeteendet. Användningen av denna konfiguration är endast kompatibel med Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | En representation av konfigurationsdata för en enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chatt kompletteringar kräver att ska använda Azure OpenAI-chatttillägg för att förstärka svarsbeteendet. Användningen av denna konfiguration är endast kompatibel med Azure OpenAI. |
Yes |
azureChatExtensionType
En representation av konfigurationsdata för en enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chattkompletteringsförfrågan som bör använda Azure OpenAI-chatttillägg för att förstärka svarsbeteendet. Användningen av denna konfiguration är endast kompatibel med Azure OpenAI.
Description: En representation av konfigurationsdata för en enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chattkompletteringsförfrågan som bör använda Azure OpenAI-chatttillägg för att förstärka svarsbeteendet. Användningen av denna konfiguration är endast kompatibel med Azure OpenAI.
Type: string
Default:
Enum Name: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Representerar användningen av Azure Search som en Azure OpenAI-chatttillägg. |
| azure_cosmos_db | Representerar användningen av Azure Cosmos DB som en Azure OpenAI chatttillägg. |
azureSearchChatExtensionConfiguration
En specifik representation av konfigurerbara alternativ för Azure Search när man använder det som en Azure OpenAI-chatttillägg.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | En representation av konfigurationsdata för en enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chatt kompletteringar kräver att ska använda Azure OpenAI-chatttillägg för att förstärka svarsbeteendet. Användningen av denna konfiguration är endast kompatibel med Azure OpenAI. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parametrar för Azure Search när de används som en Azure OpenAI-chatttillägg. | No |
azureSearchChatExtensionParameters
Parametrar för Azure Search när de används som en Azure OpenAI-chatttillägg.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiNyckelautentiseringOptions eller onYourDataSystemAssignedManagedIdentityAuthenticationOptions eller onYourDataUserAssignedManagedIdentityAuthenticationOptions eller onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | integer | Det konfigurerade översta antalet dokument att använda för den konfigurerade frågan. | No | |
| in_scope | boolean | Om frågor bör begränsas till användning av indexerad data. | No | |
| strictness | integer | Den konfigurerade striktheten i sökrelevansfiltreringen. Ju högre strikthet, desto högre precision men lägre minne av svaret. | No | |
| role_information | string | Ge modellen instruktioner om hur den ska bete sig och vilken kontext den ska referera till när den genererar ett svar. Du kan beskriva assistentens personlighet och berätta hur svaren ska formateras. Det finns en gräns på 100 tokens för den, och den räknas mot den totala tokengränsen. | No | |
| endpoint | string | Den absoluta slutpunktsvägen för Azure Search-resursen att använda. | Yes | |
| index_name | string | Namnet på indexet som ska användas som tillgängligt i den refererade Azure Search-resursen. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Valfria inställningar för att styra hur fält bearbetas när man använder en konfigurerad Azure Search-resurs. | No | |
| query_type | azureSearchQueryType | Den typ av Azure Search-sökning som ska utföras när den används som en Azure OpenAI-chatttillägg. | No | |
| semantic_configuration | string | Den ytterligare semantiska konfigurationen för frågan. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource eller onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Valfria inställningar för att styra hur fält bearbetas när man använder en konfigurerad Azure Search-resurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Namnet på indexfältet som ska användas som titel. | No | |
| url_field | string | Namnet på indexfältet som ska användas som URL. | No | |
| filepath_field | string | Namnet på indexfältet som ska användas som filsökväg. | No | |
| content_fields | array | Namnen på indexfält som bör behandlas som innehåll. | No | |
| content_fields_separator | string | Det separatormönster som innehållsfälten bör använda. | No | |
| vector_fields | array | Namnen på fält som representerar vektordata. | No |
azureSearchQueryType
Den typ av Azure Search-sökning som ska utföras när den används som en Azure OpenAI-chatttillägg.
Description: Den typ av Azure Search-sökningssökning som ska utföras när den används som en Azure OpenAI-chatttillägg.
Type: string
Default:
Enum Name: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Representerar standard, enkel frågeparsern. |
| semantic | Representerar den semantiska frågeparsern för avancerad semantisk modellering. |
| vector | Representerar vektorsökning över beräknad data. |
| vector_simple_hybrid | Representerar en kombination av den enkla frågestrategin med vektordata. |
| vector_semantic_hybrid | Representerar en kombination av semantisk sökning och vektordatafrågor. |
azureCosmosDBChatExtensionConfiguration
En specifik representation av konfigurerbara alternativ för Azure Cosmos DB när man använder det som en Azure OpenAI-chatttillägg.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | En representation av konfigurationsdata för en enda Azure OpenAI-chatttillägg. Detta kommer att användas av en chatt kompletteringar kräver att ska använda Azure OpenAI-chatttillägg för att förstärka svarsbeteendet. Användningen av denna konfiguration är endast kompatibel med Azure OpenAI. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parametrar att använda när man konfigurerar Azure OpenAI On Your Data chat-tillägg när man använder Azure Cosmos DB för MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parametrar att använda när man konfigurerar Azure OpenAI On Your Data chatttillägg när man använder Azure Cosmos DB för MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | Autentiseringsalternativen för Azure OpenAI On Your Data när man använder en reťazec pripojenia. | Yes | |
| top_n_documents | integer | Det konfigurerade översta antalet dokument att använda för den konfigurerade frågan. | No | |
| in_scope | boolean | Om frågor bör begränsas till användning av indexerad data. | No | |
| strictness | integer | Den konfigurerade striktheten i sökrelevansfiltreringen. Ju högre strikthet, desto högre precision men lägre minne av svaret. | No | |
| role_information | string | Ge modellen instruktioner om hur den ska bete sig och vilken kontext den ska referera till när den genererar ett svar. Du kan beskriva assistentens personlighet och berätta hur svaren ska formateras. Det finns en gräns på 100 tokens för den, och den räknas mot den totala tokengränsen. | No | |
| database_name | string | Namnet på MongoDB vCore-databasen för användning med Azure Cosmos DB. | Yes | |
| container_name | string | Namnet på Azure Cosmos DB resource container. | Yes | |
| index_name | string | MongoDB vCore-indexnamnet för användning med Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Valfria inställningar för att styra hur fält bearbetas när man använder en konfigurerad Azure Cosmos DB-resurs. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource eller onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Valfria inställningar för att styra hur fält bearbetas när man använder en konfigurerad Azure Cosmos DB-resurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Namnet på indexfältet som ska användas som titel. | No | |
| url_field | string | Namnet på indexfältet som ska användas som URL. | No | |
| filepath_field | string | Namnet på indexfältet som ska användas som filsökväg. | No | |
| content_fields | array | Namnen på indexfält som bör behandlas som innehåll. | Yes | |
| content_fields_separator | string | Det separatormönster som innehållsfälten bör använda. | No | |
| vector_fields | array | Namnen på fält som representerar vektordata. | Yes |
onYourDataAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI On Your Data.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI On Your Data. | Yes |
onYourDataAuthenticationType
De autentiseringstyper som stöds med Azure OpenAI On Your Data.
Beskrivning: De autentiseringstyper som stöds med Azure OpenAI On Your Data.
Type: string
Default:
Enum-namn: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Autentisering via API-nyckel. |
| connection_string | Autentisering via reťazec pripojenia. |
| system_assigned_managed_identity | Autentisering via systemtilldelad hanterad identitet. |
| user_assigned_managed_identity | Autentisering via användartilldelad hanterad identitet. |
onYourDataApiKeyAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI på dina data när du använder en API-nyckel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI On Your Data. | Yes | |
| key | string | API-nyckeln att använda för autentisering. | No |
onYourDataConnectionStringAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI On Your Data när man använder en reťazec pripojenia.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI On Your Data. | Yes | |
| connection_string | string | reťazec pripojenia som ska användas för autentisering. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI på dina data när du använder en systemtilldelad hanterad identitet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Autentiseringsalternativen för Azure OpenAI On Your Data när man använder en användartilldelad hanterad identitet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | De autentiseringstyper som stöds med Azure OpenAI On Your Data. | Yes | |
| managed_identity_resource_id | string | Resurs-ID:t för den användartilldelade hanterade identiteten att använda för autentisering. | No |
onYourDataVectorizationSource
En abstrakt representation av en vektoriseringskällkod för Azure OpenAI On Your Data med vektorsökning.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representerar de tillgängliga källor som Azure OpenAI On Your Data kan använda för att konfigurera vektorisering av data för användning med vector search. |
Yes |
onYourDataVectorizationSourceType
Representerar de tillgängliga källor som Azure OpenAI On Your Data kan använda för att konfigurera vektorisering av data för användning med vektorsökning.
Description: Representerar de tillgängliga källorna Azure OpenAI On Your Data kan använda för att konfigurera vektorisering av data för användning med
vector search.
Type: string
Default:
Enum-namn: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Representerar vektorisering utförd av offentliga tjänsteanrop till en Azure OpenAI-inbäddningsmodell. |
| deployment_name | Representerar ett Ada-modell-distributionsnamn att använda. Denna modelldistribution måste finnas i samma Azure OpenAI-resurs, men On Your Data kommer att använda denna modelldistribution via ett internt anrop istället för ett publikt, vilket möjliggör vektor Sök även i privata nätverk. |
onYourDataDeploymentNameVectorizationSource
Detaljerna i en vektoriseringskälla, som används av Azure OpenAI On Your Data vid tillämpning av vektorsökning, som baseras på ett internt inbäddningsmodell-distributionsnamn i samma Azure OpenAI-resurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representerar de tillgängliga källor som Azure OpenAI On Your Data kan använda för att konfigurera vektorisering av data för användning med vector search. |
Yes | |
| deployment_name | string | Specificerar namnet på modellutplaceringen som ska användas för vektorisering. Denna modelldistribution måste ske i samma Azure OpenAI-resurs, men On Your Data kommer att använda denna modelldistribution via ett internt anrop istället för ett publikt, vilket möjliggör vektorsökning även i privata nätverk. | No |
onYourDataEndpointVectorizationSource
Detaljerna i en vektoriseringskälla, som används av Azure OpenAI On Your Data vid tillämpning av vektorsökning, som baseras på ett offentligt Azure OpenAI-slutpunktsanrop för inbäddningar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representerar de tillgängliga källor som Azure OpenAI On Your Data kan använda för att konfigurera vektorisering av data för användning med vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | Autentiseringsalternativen för Azure OpenAI på dina data när du använder en API-nyckel. | No | |
| endpoint | string | Specificerar slutpunkten som ska användas för vektorisering. Denna endpoint måste finnas i samma Azure OpenAI-resurs, men On Your Data kommer att använda denna endpoint via ett internt anrop istället för ett offentligt, vilket möjliggör vektorsökning även i privata nätverk. | No |
azureChatExtensionsMessageContext
En representation av den ytterligare kontextinformation som finns tillgänglig när Azure OpenAI-chatttillägg är involverade i genereringen av ett motsvarande svar på chattkompletteringar. Denna kontextinformation fylls endast i när man använder en Azure OpenAI-förfrågan konfigurerad för att använda en matchande tillägg.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | Resultatet av datakällshämtning, som används för att generera assistentmeddelandet i svaret. | No | |
| intent | string | Den upptäckta avsikten från chatthistoriken användes för att föra vidare till nästa tur för att föra över kontexten. | No |
citation
Källhänvisningsinformation för ett svar på chattfullföljningar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Innehållet i citatet. | Yes | |
| title | string | Titeln på motiveringen. | No | |
| url | string | URL:en till citatet. | No | |
| filepath | string | Filvägen för källhänvisningen. | No | |
| chunk_id | string | Bit-ID:t i boten. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID:t på verktygsanropet. | Yes | |
| type | toolCallType | Typen av verktygskall, i detta fall function. |
Yes | |
| function | object | Funktionen som modellen kallade på. | Yes |
Egenskaper för funktion
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Namnet på funktionen att anropa. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON, och kan generera parametrar som inte definieras av ditt funktionsschema. Validera argumenten i din kod innan du anropar din funktion. |
toolCallType
Typen av verktygskall, i detta fall function.
Beskrivning: Typen av verktygsanrop, i detta fall function.
Type: string
Default:
Enum-namn: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | Verktygsanropstypen är funktion. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Verktygssamtal som detta meddelande svarar på. | No | |
| content | string | Innehållet i meddelandet. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Meddelandeförfattarens roll, i detta fall function.Möjliga värden: funktion |
No | |
| name | string | Innehållet i meddelandet. | No | |
| content | string | Innehållet i meddelandet. | No |
createChatCompletionResponse
Representerar ett chattfullbordandesvar som returneras av modellen, baserat på den tillhandahållna indatan.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | En unik identifierare för chattens fullföljelse. | Yes | |
| prompt_filter_results | promptFilterResults | Innehållsfiltrering ger noll eller fler promptar i förfrågan. I en streamingförfrågan kan resultaten för olika prompts komma vid olika tidpunkter eller i olika ordning. | No | |
| choices | array | En lista med chattfullföljandealternativ. Kan vara mer än ett om n är större än 1. |
Yes | |
| created | integer | Unix-tidsstämpeln (i sekunder) för när chatten slutfördes skapades. | Yes | |
| model | string | Modellen som används för chattfullföljandet. | Yes | |
| system_fingerprint | string | Detta fingeravtryck representerar backend-konfigurationen som modellen körs med. Kan användas tillsammans med begäranparametern seed för att förstå när backend-ändringar har gjorts som kan påverka determinismen. |
No | |
| object | enum | Objekttypen, som alltid chat.completionär .Möjliga värden: chat.completion |
Yes | |
| usage | completionUsage | Användningsstatistik för förfrågan om fullbordan. | No |
createChatCompletionStreamResponse
Representerar en strömmad del av ett chattfullbordande svar som returneras av modellen, baserat på den tillhandahållna inmatningen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | En unik identifierare för chattens fullföljelse. Varje chunk har samma ID. | Yes | |
| choices | array | En lista med chattfullföljandealternativ. Kan innehålla mer än ett element om n är större än 1. |
Yes | |
| created | integer | Unix-tidsstämpeln (i sekunder) för när chatten slutfördes skapades. Varje chunk har samma tidsstämpel. | Yes | |
| model | string | Modellen för att generera fullbordan. | Yes | |
| system_fingerprint | string | Detta fingeravtryck representerar backend-konfigurationen som modellen körs med. Kan användas tillsammans med begäranparametern seed för att förstå när backend-ändringar har gjorts som kan påverka determinismen. |
No | |
| object | enum | Objekttypen, som alltid chat.completion.chunkär .Möjliga värden: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
En chattfullbordandedelta som genereras av strömmade modellsvar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Innehållet i meddelandet i biten. | No | |
| function_call | object | Föråldrad och ersatt av tool_calls. Namnet och argumenten för en funktion som ska anropas, som genereras av modellen. |
No | |
| tool_calls | array | No | ||
| role | enum | Författarens roll för detta meddelande. Möjliga värden: system, användare, assistent, verktyg |
No | |
| refusal | string | Avvisningsmeddelandet som genereras av modellen. | No |
Egenskaper för function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON, och kan generera parametrar som inte definieras av ditt funktionsschema. Validera argumenten i din kod innan du anropar din funktion. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Namnet på funktionen att anropa. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | ID:t på verktygsanropet. | No | |
| type | enum | Typen av verktyg. För närvarande stöds endast function det.Möjliga värden: funktion |
No | |
| function | object | No |
Egenskaper för funktion
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Namnet på funktionen att anropa. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON, och kan generera parametrar som inte definieras av ditt funktionsschema. Validera argumenten i din kod innan du anropar din funktion. |
chatCompletionStreamOptions
Alternativ för streaming-respons. Ställ in detta först när du sätter stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Om det är satt kommer en extra chunk att strömmas innan meddelandet data: [DONE] . Fältet usage i denna chunk visar tokenanvändningsstatistiken för hela förfrågan, och choices fältet kommer alltid att vara en tom array. Alla andra chunks kommer också att inkludera ett usage fält, men med ett nollvärde. |
No |
chatCompletionChoiceLogProbs
Logga sannolikhetsinformation för valet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | En lista över meddelandeinnehållstokens med loggsannolikhetsinformation. | Yes | |
| refusal | array | En lista över meddelandeavvisningstoken med loggsannolikhetsinformation. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | Logsannolikheten för denna token. | Yes | |
| bytes | array | En lista över heltal som representerar UTF-8 bytes-representationen av token. Användbart i fall där tecken representeras av flera tokens och deras byterepresentationer måste kombineras för att generera korrekt textrepresentation. Det kan vara det null om det inte finns någon byterepresentation för token. |
Yes | |
| top_logprobs | array | Lista över de mest sannolika tokens och deras logaritmiska sannolikhet, vid denna tokenposition. I sällsynta fall kan det vara färre än det begärda antalet returnerade top_logprobs . |
Yes |
chatCompletionResponseMessage
Ett meddelande om chattkomplettering genererat av modellen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | Författarens roll för svarsmeddelandet. | Yes | |
| refusal | string | Avvisningsmeddelandet som genereras av modellen. | Yes | |
| content | string | Innehållet i meddelandet. | Yes | |
| tool_calls | array | Verktygsanropen som genereras av modellen, såsom funktionsanrop. | No | |
| function_call | chatCompletionFunctionCall | Föråldrad och ersatt av tool_calls. Namnet och argumenten för en funktion som ska anropas, som genereras av modellen. |
No | |
| context | azureChatExtensionsMessageContext | En representation av den ytterligare kontextinformation som finns tillgänglig när Azure OpenAI-chatttillägg används i genereringen av ett motsvarande svar på chattfullföljningar. Denna kontextinformation fylls endast i när med en Azure OpenAI-förfrågan konfigurerad för att använda en matchande tillägg. |
No |
chatCompletionResponseMessageRole
Författarens roll för svarsmeddelandet.
Beskrivning: Författarens roll för svarsmeddelandet.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Styr vilket (om något) verktyg som anropas av modellen.
none Det betyder att modellen inte anropar något verktyg utan istället genererar ett meddelande.
auto Det innebär att modellen kan välja mellan att generera ett meddelande eller att anropa ett eller flera verktyg.
required betyder att modellen måste anropa ett eller flera verktyg. Att specificera ett visst verktyg via {"type": "function", "function": {"name": "my_function"}} tvingar modellen att anropa det verktyget.
none är standarden när inga verktyg finns.
auto är standarden om verktyg finns.
Denna komponent kan vara en av följande:
chatCompletionNamedToolChoice
Specificerar ett verktyg som modellen ska använda. Använd för att tvinga modellen att anropa en specifik funktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av verktyg. För närvarande stöds endast function det.Möjliga värden: funktion |
Yes | |
| function | object | Yes |
Egenskaper för funktion
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Namnet på funktionen att anropa. |
ParallelToolCalls
Om man ska aktivera parallell funktionsanrop under verktygsanvändning.
Inga egenskaper definierade för denna komponent.
chatCompletionMessageToolCalls
Verktygsanropen som genereras av modellen, såsom funktionsanrop.
Inga egenskaper definierade för denna komponent.
chatCompletionFunctionCall
Föråldrad och ersatt av tool_calls. Namnet och argumenten för en funktion som ska anropas, som genereras av modellen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Namnet på funktionen att anropa. | Yes | |
| arguments | string | Argumenten för att anropa funktionen med, som genereras av modellen i JSON-format. Observera att modellen inte alltid genererar giltig JSON, och kan generera parametrar som inte definieras av ditt funktionsschema. Validera argumenten i din kod innan du anropar din funktion. | Yes |
completionUsage
Användningsstatistik för förfrågan om fullbordan.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Antal tokens i prompten. | Yes | |
| completion_tokens | integer | Antal tokens i den genererade fullföljandet. | Yes | |
| total_tokens | integer | Totalt antal tokens som används i förfrågan (prompt + fullföljande). | Yes | |
| completion_tokens_details | object | Uppdelning av tokens som används i en fullbordan. | No |
Egenskaper för completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Tokens genererade av modellen för resonemang. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av verktyg. För närvarande stöds endast function det.Möjliga värden: funktion |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
De parametrar som funktionen accepterar, beskrivs som ett JSON-schemaobjekt. Se guiden för exempel och JSON Schema-referensen för dokumentation om formatet.
Att parameters utelämna definierar en funktion med en tom parameterlista.
Inga egenskaper definierade för denna komponent.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | En beskrivning av vad funktionen gör, använd av modellen för att välja när och hur funktionen ska anropas. | No | |
| name | string | Namnet på funktionen som ska anropas. Måste vara a-z, A-Z, 0-9, eller innehålla understreck och streck, med en maximal längd på 64. | Yes | |
| parameters | FunctionParameters | De parametrar som funktionen accepterar, beskrivs som ett JSON-schemaobjekt.
Se guiden för exempel och JSON Schema-referensen för dokumentation om formatet. Att parameters utelämna definierar en funktion med en tom parameterlista. |
No | |
| strict | boolean | Om man ska aktivera strikt schema-följsamhet vid generering av funktionsanropet. Om den sätts till sant kommer modellen att följa det exakta schemat definierat i parameters fältet. Endast en delmängd av JSON-schemat stöds när strict är true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av svarsformat som definieras: textMöjliga värden: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av svarsformat som definieras: json_objectMöjliga värden: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Schemat för svarsformatet, beskrivet som ett JSON Schema-objekt.
Inga egenskaper definierade för denna komponent.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typen av svarsformat som definieras: json_schemaMöjliga värden: json_schema |
Yes | |
| json_schema | object | Yes |
Egenskaper för json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | En beskrivning av vad svarsformatet är till för, som används av modellen för att avgöra hur man ska svara i formatet. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Namnet på svarsformatet. Måste vara a-z, A-Z, 0-9, eller innehålla understreck och streck, med en maximal längd på 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Schemat för svarsformatet, beskrivet som ett JSON Schema-objekt. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Om man ska aktivera strikt schema-följsamhet vid generering av utdata. Om den sätts till sann kommer modellen alltid att följa det exakta schemat som definierats schema i fältet. Endast en delmängd av JSON-schemat stöds när strict är true. |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Ljudfilen att översätta. | Yes | |
| prompt | string | En valfri text för att styra modellens stil eller fortsätta ett tidigare ljudsegment. Uppgiften ska vara på engelska. | No | |
| response_format | audioResponseFormat | Definierar formatet på utdatan. | No | |
| temperature | number | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om den sätts till 0 kommer modellen att använda logaritmisk sannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden nås. | No | 0 |
audioResponse
Översättnings- eller transkriptionssvar när response_format var json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Översatt eller transkriberad text. | Yes |
audioVerboseResponse
Översättnings- eller transkriptionssvar när response_format var verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Översatt eller transkriberad text. | Yes | |
| task | string | Typ av ljuduppgift. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Definierar formatet på utdatan.
Beskrivning: Definierar formatet på utdatan.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Ljudfilobjektet att transkribera. | Yes | |
| prompt | string | En valfri text för att styra modellens stil eller fortsätta ett tidigare ljudsegment. Prompten ska matcha ljudspråket. | No | |
| response_format | audioResponseFormat | Definierar formatet på utdatan. | No | |
| temperature | number | Provtagningstemperaturen, mellan 0 och 1. Högre värden som 0,8 gör resultatet mer slumpmässigt, medan lägre värden som 0,2 gör det mer fokuserat och deterministiskt. Om den sätts till 0 kommer modellen att använda logaritmisk sannolikhet för att automatiskt öka temperaturen tills vissa tröskelvärden nås. | No | 0 |
| language | string | Språket för inmatningsljudet. Att tillhandahålla inmatningsspråket i ISO-639-1-format kommer att förbättra noggrannhet och latens. | No |
audioSegment
Transkriberings- eller översättningssegment.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Förskjutning av segmentet. | No | |
| start | number | Segmentstart-förskjutning. | No | |
| end | number | Segmentändens förskjutning. | No | |
| text | string | Segment text. | No | |
| tokens | array | Symboler av texten. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Genomsnittlig sannolikhet för logaritm. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Sannolikhet för no speech. |
No |
imageQuality
Bildkvaliteten som kommer att genereras.
Beskrivning: Kvaliteten på bilden som kommer att genereras.
Type: string
Default: standard
Enum-namn: Kvalitet
Enum Values:
| Value | Description |
|---|---|
| standard | Standardkvalitet skapar bilder med standardkvalitet. |
| hd | HD-kvalitet skapar bilder med finare detaljer och större konsekvens över bilden. |
imagesResponseFormat
Formatet i vilket de genererade bilderna returneras.
Beskrivning: Formatet i vilket de genererade bilderna returneras.
Type: string
Default: url
Enum-namn: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | URL:en som ger tillfällig åtkomst för att ladda ner de genererade bilderna. |
| b64_json | De genererade bilderna returneras som base64-kodad sträng. |
imageSize
Storleken på de genererade bilderna.
Beskrivning: Storleken på de genererade bilderna.
Type: string
Default: 1024x1024
Enum-namn: Storlek
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | Den önskade storleken på den genererade bilden är 1792x1024 pixlar. |
| 1024x1792 | Den önskade storleken på den genererade bilden är 1024x1792 pixlar. |
| 1024x1024 | Den önskade storleken på den genererade bilden är 1024x1024 pixlar. |
imageStyle
Stilen på de genererade bilderna.
Beskrivning: Stilen på de genererade bilderna.
Type: string
Default: vivid
Enum-namn: Stil
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid skapar bilder som är hyperrealistiska och dramatiska. |
| natural | Naturligt skapar bilder som är mer naturliga och mindre hyperrealistiska. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | En textbeskrivning av den önskade bilden/bilderna. Den maximala längden är 4 000 tecken. | Yes | |
| n | integer | Antalet bilder som ska genereras. | No | 1 |
| size | imageSize | Storleken på de genererade bilderna. | No | 1024x1024 |
| response_format | imagesResponseFormat | Formatet i vilket de genererade bilderna returneras. | No | url |
| user | string | En unik identifierare som representerar din slutanvändare, vilket kan hjälpa till att övervaka och upptäcka missbruk. | No | |
| quality | imageQuality | Bildkvaliteten som kommer att genereras. | No | standard |
| style | imageStyle | Stilen på de genererade bilderna. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Unix-tidsstämpeln när operationen skapades. | Yes | |
| data | array | Resultatdata för operationen, om den lyckas | Yes |
imageResult
Bild-url:en eller kodad bild om den lyckas, och ett fel annars.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | Bild-URL:en. | No | |
| b64_json | string | Den base64-kodade bilden | No | |
| content_filter_results | dalleContentFilterResults | Information om innehållet filtreringsresultat. | No | |
| revised_prompt | string | Prompten som användes för att generera bilden, om det fanns någon revidering av prompten. | No | |
| prompt_filter_results | dalleFilterResults | Information om innehållsfiltreringskategorin (hat, sexuell, våld, self_harm), om den har upptäckts, samt allvarlighetsgraden (very_low, låg, medel, hög skala som avgör intensiteten och risknivån för skadligt innehåll) och om den har filtrerats eller inte. Information om jailbreak-innehåll och svordomar, om det har upptäckts och om det har filtrerats eller inte. Och information om kundblocklistan, om den har filtrerats och dess ID. | No |
Completions extensions
Completions-tillägg ingår inte i den senaste GA-versionen av Azure OpenAI:s dataplansinferensspecifikation.
Chatmessage
Chatmeddelandeobjektet ingår inte i den senaste GA-versionen av Azure OpenAI:s dataplansinferensspecifikation.
Text-till-tal (Förhandsvisning)
Ingår för närvarande inte i den senaste Azure OpenAI GA-versionen av Azure OpenAI:s specifikation för dataplansinferens. Se den senaste versionen preview för denna funktion.
Next steps
Lär dig om modeller och finjustering med REST API. Läs mer om underlying modeller som driver Azure OpenAI.