Azure OpenAI in Microsoft Foundry Models REST API-referentie

Dit artikel geeft details over de inferentie REST API-eindpunten voor Azure OpenAI.

API specs

Het beheren en interageren met Azure OpenAI-modellen en -middelen is verdeeld over drie primaire API-oppervlakken:

  • Control plane
  • Datavlak - authoring
  • Datavlak - inferentie

Elke API-oppervlakte/specificatie bevat een andere set Azure OpenAI-mogelijkheden. Elke API heeft zijn eigen unieke set preview- en stabiele/algemeen beschikbare (GA) API-releases. Preview-releases volgen momenteel meestal een maandelijkse cadens.

Important

Er is nu een nieuwe preview inferensie-API. Lees meer in onze gids voor de API-levenscyclus.

API Laatste preview-release Laatste GA-release Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files De control plane API wordt gebruikt voor operaties zoals het aanmaken van resources, modelimplementatie en andere taken op hoger niveau resource management. Het controlevlak bepaalt ook wat mogelijk is met mogelijkheden zoals Azure Resource Manager, Bicep, Terraform en Azure CLI.
Data plane v1 preview v1 Spec files De data plane API beheert inferentie- en auteursoperaties.

Authentication

Azure OpenAI biedt twee methoden voor authenticatie. Je kunt API Keys of Microsoft Entra ID gebruiken.

  • API-sleutelauthenticatie: Voor dit type authenticatie moeten alle API-verzoeken de API-sleutel in de api-key HTTP-header bevatten. De Quickstart geeft instructies over hoe je met dit type authenticatie oproepen kunt voeren.

  • Microsoft Entra ID authenticatie: Je kunt een API-aanroep authenticeren met een Microsoft Entra-token. Authenticatietokens worden opgenomen in een verzoek als header Authorization . Het gegeven token moet voorafgegaan worden door Bearer, bijvoorbeeld Bearer YOUR_AUTH_TOKEN. Je kunt onze handleiding lezen over authenticatie met Microsoft Entra ID.

REST API-versiebeheer

De service-API's zijn versiegevaagd met behulp van de api-version queryparameter. Alle versies volgen de YYYY-MM-DD datumstructuur. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datavlak-inferentie

De rest van het artikel behandelt de GA-release van de Azure OpenAI data plane inference specification, 2024-10-21.

Als je op zoek bent naar documentatie over de nieuwste preview API-release, raadpleeg dan de nieuwste preview data plane inference API

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Maakt een voltooiing aan voor de gegeven prompt, parameters en gekozen model.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Implementatie-ID van het model dat is uitgerold.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Geef hier de Azure OpenAI API-sleutel

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string of array De prompt(s) om voltooiingen te genereren voor, gecodeerd als een string, array van strings, array tokens of array van token-arrays.

Let op dat <|endoftext|> de documentscheider is die het model tijdens de training ziet, dus als er geen prompt wordt gespecificeerd, genereert het model alsof het begint met een nieuw document.
Yes
best_of integer Genereert best_of voltooiingen aan serverzijde en geeft de "beste" terug (degene met de hoogste logkans per token). Resultaten kunnen niet worden gestreamd.

Wanneer gebruikt met n, best_of controleert het aantal kandidaat-voltooiingen en n specificeert hoeveel er teruggegeven moeten worden â€" best_of moet groter zijn dan n.

Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop.
No 1
echo boolean Echo de prompt naast de voltooiing
No False
frequency_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt.
No 0
logit_bias object Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing.

Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de GPT-tokenizer) mappt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token.

Als voorbeeld kun je passen {"50256": -100} om te voorkomen dat het <|endoftext|> token wordt gegenereerd.
No None
logprobs integer Neem de logkansen op op de logprobs meest waarschijnlijke outputtokens, evenals de gekozen tokens. Als logprobs bijvoorbeeld 5 is, zal de API een lijst teruggeven van de vijf meest waarschijnlijke tokens. De API zal altijd de logprob van het gesamplede token teruggeven, dus er kunnen tot elementen logprobs+1 in het antwoord zitten.

De maximale waarde voor logprobs is 5.
No None
max_tokens integer Het maximale aantal tokens dat tijdens de voltooiing kan worden gegenereerd.

Het aantal tokens van je prompt plus max_tokens mag de contextlengte van het model niet overschrijden.
No 16
n integer Hoeveel voltooiingen je moet genereren voor elke prompt.

Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop.
No 1
presence_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt.
No 0
seed integer Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.

Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren.
No
stop string of array Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. De teruggestuurde tekst bevat de stopvolgorde niet.
No
stream boolean Of ik gedeeltelijke voortgang moet terugstreamen. Indien ingesteld, worden tokens verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. No False
suffix string Het achtervoegsel dat komt na het voltooien van de ingevoegde tekst.

Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct.
No None
temperature number Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken.

We raden over het algemeen aan om dit te veranderen, of top_p niet beide.
No 1
top_p number Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen.

We raden over het algemeen aan om dit te veranderen, of temperature niet beide.
No 1
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Vertegenwoordigt een voltooiingsantwoord van de API. Let op: zowel de gestreamde als niet-gestreamde responsobjecten hebben dezelfde vorm (in tegenstelling tot het chat-eindpunt).

Statuscode: standaard

Beschrijving: Dienst niet beschikbaar

Content-Type Type Description
application/json errorResponse

Examples

Example

Maakt een voltooiing aan voor de gegeven prompt, parameters en gekozen model.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Reacties: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Verkrijg een vectorrepresentatie van een gegeven invoer die gemakkelijk kan worden gebruikt door machine learning-modellen en algoritmen.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Geef hier de Azure OpenAI API-sleutel

Request Body

Content-Type: application/json

Name Type Description Required Default
input string of array Voer tekst in om in te sluiten, gecodeerd als een string of array van tokens. Om meerdere invoer in één verzoek in te sluiten, geef je een array van strings of een array van tokenarrays door. De invoer mag het maximale aantal invoertokens voor het model niet overschrijden (8.192 tokens voor text-embedding-ada-002), mag geen lege string zijn, en elke array moet 2.048 dimensies of minder zijn. Yes
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. No
input_type string Invoertype van embeddingzoekopdracht om te gebruiken No
encoding_format string Het formaat om de embeddings terug te geven. Kan het een of andere floatbase64zijn. Standaard is .float No
dimensions integer Het aantal dimensies dat de resulterende output-embeddings moeten hebben. Alleen ondersteund in text-embedding-3 en latere modellen. No

Responses

Name Type Description Required Default
object string Yes
model string Yes
data array Yes
usage object Yes

Eigenschappen voor gebruik

prompt_tokens

Name Type Description Default
prompt_tokens integer

total_tokens

Name Type Description Default
total_tokens integer

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Geef de embeddings terug voor een gegeven prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Reacties: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Maakt een voltooiing aan voor het chatbericht

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Implementatie-ID van het model dat is uitgerold.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Geef hier de Azure OpenAI API-sleutel

Request Body

Content-Type: application/json

Name Type Description Required Default
temperature number Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken.

We raden over het algemeen aan om dit te veranderen, of top_p niet beide.
No 1
top_p number Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen.

We raden over het algemeen aan om dit te veranderen, of temperature niet beide.
No 1
stream boolean Als deze is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. No False
stop string of array Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens.
No
max_tokens integer Het maximale aantal tokens dat kan worden gegenereerd tijdens de chatvoltooiing.

De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model.
No
max_completion_tokens integer Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. No
presence_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt.
No 0
frequency_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt.
No 0
logit_bias object Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing.

Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de tokenizer) koppelt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token.
No None
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik.
No
messages array Een lijst met berichten die tot nu toe het gesprek vormen. Yes
data_sources array De configuratie-entries voor Azure OpenAI chatextensies die ze gebruiken.
Deze extra specificatie is alleen compatibel met Azure OpenAI.
No
logprobs boolean Of logkansen van de outputtokens worden teruggegeven of niet. Als waar is, geeft de log-kansen van elk outputtoken dat in de van messagewordt content teruggegeven, terug. No False
top_logprobs integer Een geheel getal tussen 0 en 20 dat het aantal meest waarschijnlijke tokens aangeeft dat op elke tokenpositie moet terugkeren, elk met een bijbehorende logkans. logprobs moet worden ingesteld op true als deze parameter wordt gebruikt. No
n integer Hoeveel keuzes voor het voltooien van de chat moet worden gegenereerd voor elk invoerbericht. Let op: je wordt belast op basis van het aantal gegenereerde tokens in alle keuzes. Houd de 1 kosten n zo laag mogelijk bij elkaar. No 1
parallel_tool_calls ParallelToolCalls Of parallelle functieaanroep tijdens het gebruik van het gereedschap moet worden ingeschakeld. No True
response_format ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema Een object dat het formaat specificeert dat het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen die nieuwer zijn dan gpt-3.5-turbo-1106.

Instellen op { "type": "json_schema", "json_schema": {...} } schakelt gestructureerde uitvoeren in, waarmee wordt gegarandeerd dat het model overeenkomt met je geleverde JSON-schema.

Instellen op { "type": "json_object" } schakelt de JSON-modus in, die garandeert dat het bericht dat het model genereert geldig JSON is.

Belangrijk: bij het gebruik van JSON-modus moet je het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een eindeloze stroom witruimte genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopend en schijnbaar "vastzittend" verzoek. Let ook op dat de inhoud van het bericht gedeeltelijk kan worden afgesneden als finish_reason="length", wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden.
No
seed integer Deze functie bevindt zich in bèta.
Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.
Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren.
No
tools array Een lijst van gereedschappen die het model kan aanroepen. Momenteel worden alleen functies als hulpmiddel ondersteund. Gebruik dit om een lijst te geven van functies waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund.
No
tool_choice chatCompletionToolChoiceOption Bepaalt welk (indien aanwezig) gereedschap door het model wordt aangeroepen. none betekent dat het model geen tool aanroept maar in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer tools. required betekent dat het model één of meer tools moet aanroepen. Het specificeren van een bepaald hulpmiddel via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpmiddel aan te roepen. none is de standaard wanneer er geen gereedschap aanwezig is. auto is de standaard als er tools aanwezig zijn. No
function_call string of chatCompletionFunctionCallOption Vervallen ten gunste van tool_choice.

Bepaalt welke (indien aanwezig) functie door het model wordt aangeroepen.
none betekent dat het model geen functie aanroept maar in plaats daarvan een bericht genereert.
auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.
Het specificeren van een bepaalde functie via {"name": "my_function"} dwingt het model om die functie aan te roepen.

none is de standaard wanneer er geen functies aanwezig zijn. auto is de standaard als functies aanwezig zijn.
No
functions array Vervallen ten gunste van tools.

Een lijst van functies waarvoor het model JSON-invoer kan genereren.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createChatCompletionResponse of createChatCompletionStreamResponse

Statuscode: standaard

Beschrijving: Dienst niet beschikbaar

Content-Type Type Description
application/json errorResponse

Examples

Example

Maakt een voltooiing aan voor de gegeven prompt, parameters en gekozen model.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Reacties: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Maakt een voltooiing op basis van Azure Search-gegevens en systeem-toegewezen beheerde identiteit.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Reacties: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Maakt een voltooiing op basis van Azure Search vectorgegevens, een eerdere assistent-melding en door de gebruiker toegewezen beheerde identiteit.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Reacties: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Maakt een completion aan voor de meegeleverde Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Reacties: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcripties - Maak

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transcribeert audio naar de invoertaal.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment ID van het spraak-naar-tekstmodel.

Voor informatie over ondersteunde modellen, zie [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Geef hier de Azure OpenAI API-sleutel

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Het audiobestand object dat getranscribeerd moet worden. Yes
prompt string Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet overeenkomen met de audiotaal. No
response_format audioResponseFormat Definieert het formaat van de uitvoer. No
temperature number De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. No 0
language string De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-formaat zal de nauwkeurigheid en latentie verbeteren. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json audioResponse of audioVerboseResponse
text/plain string Getranscribeerde tekst in het uitvoerformaat (wanneer response_format een tekstformaat was, vtt of srt).

Examples

Example

Krijgt getranscribeerde tekst en bijbehorende metadata van de geleverde gesproken audiogegevens.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Reacties: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Krijgt getranscribeerde tekst en bijbehorende metadata van de geleverde gesproken audiogegevens.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Reacties: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Vertalingen - Creatie

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transcribeert en vertaalt invoeraudio naar Engelse tekst.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Implementatie-ID van het whispermodel dat werd uitgerold.

Voor informatie over ondersteunde modellen, zie [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Geef hier de Azure OpenAI API-sleutel

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Het audiobestand om te vertalen. Yes
prompt string Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet in het Engels zijn. No
response_format audioResponseFormat Definieert het formaat van de uitvoer. No
temperature number De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. No 0

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json audioResponse of audioVerboseResponse
text/plain string Getranscribeerde tekst in het uitvoerformaat (wanneer response_format een tekstformaat was, vtt of srt).

Examples

Example

Krijgt Engelstalige getranscribeerde tekst en bijbehorende metadata van de aangeleverde gesproken audiogegevens.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Reacties: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Krijgt Engelstalige getranscribeerde tekst en bijbehorende metadata van de aangeleverde gesproken audiogegevens.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Reacties: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Genereert een batch afbeeldingen uit een tekstbijschrift bij een gegeven dall-e modelimplementatie

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Ondersteund Azure OpenAI-eindpunten (protocol en hostnaam, bijvoorbeeld: https://aoairesource.openai.azure.com. Vervang "aoairesource" door de naam van je Azure OpenAI-resource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment ID van het dall-e model dat werd uitgerold.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Geef hier de Azure OpenAI API-sleutel

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4.000 tekens. Yes
n integer Het aantal te genereren afbeeldingen. No 1
size imageSize De grootte van de gegenereerde afbeeldingen. No 1024x1024
response_format imagesResponseFormat Het formaat waarin de gegenereerde afbeeldingen worden teruggegeven. No url
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. No
quality imageQuality De kwaliteit van de afbeelding die wordt gegenereerd. No standard
style imageStyle De stijl van de gegenereerde afbeeldingen. No vivid

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: standaard

Beschrijving: Er is een fout opgetreden.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Maakt afbeeldingen aan die een prompt krijgen.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Reacties: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
param string No
type string No
inner_error innerError Interne fout met extra details. No

innerError

Interne fout met extra details.

Name Type Description Required Default
code innerErrorCode Foutcodes voor het binnenste foutobject. No
content_filter_results contentFilterPromptResults Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. No

innerErrorCode

Foutcodes voor het binnenste foutobject.

Beschrijving: Foutcodes voor het binnenste foutobject.

Type: string

Default:

Naam: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation De prompt overtrad een van meer contentfilterregels.

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
param string No
type string No
inner_error dalleInnerError Interne fout met extra details. No

dalleInnerError

Interne fout met extra details.

Name Type Description Required Default
code innerErrorCode Foutcodes voor het binnenste foutobject. No
content_filter_results dalleFilterResults Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. No
revised_prompt string De prompt die werd gebruikt om de afbeelding te genereren, als er een revisie van de prompt was. No

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No

Eigenschappen voor citatie

URL

Name Type Description Default
URL string

license

Name Type Description Default
license string

contentFilterResultsBase

Informatie over de contentfilterresultaten.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over tekst en vloekwoorden van derden, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Contentfiltering resulteert voor één enkele prompt in het verzoek.

Name Type Description Required Default
prompt_index integer No
content_filter_results contentFilterPromptResults Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. No

promptFilterResults

Contentfiltering resulteert voor nul of meer prompts in het verzoek. Bij een streamingverzoek kunnen resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende volgorde binnenkomen.

Geen eigenschappen gedefinieerd voor deze component.

dalleContentFilterResults

Informatie over de contentfilterresultaten.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Type Description Required Default
temperature number Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken.
We raden over het algemeen aan om dit te veranderen, of top_p niet beide.
No 1
top_p number Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen.
We raden over het algemeen aan om dit te veranderen, of temperature niet beide.
No 1
stream boolean Als deze is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. No False
stop string of array Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. No
max_tokens integer Het maximale aantal tokens dat was toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan teruggeven (4096 - prompttokens). Deze waarde is nu verouderd ten gunste van max_completion_tokens, en is niet compatibel met O1-serie modellen. No 4096
max_completion_tokens integer Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. No
presence_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt. No 0
frequency_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt. No 0
logit_bias object Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing. Accepteert een json-object dat tokens (gespecificeerd door hun token-ID in de tokenizer) mappt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token. No
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die Azure OpenAI kan helpen om misbruik te monitoren en te detecteren. No

createCompletionRequest

Name Type Description Required Default
prompt string of array De prompt(s) om voltooiingen te genereren voor, gecodeerd als een string, array van strings, array tokens of array van token-arrays.

Let op dat <|endoftext|> de documentscheider is die het model tijdens de training ziet, dus als er geen prompt wordt gespecificeerd, genereert het model alsof het begint met een nieuw document.
Yes
best_of integer Genereert best_of voltooiingen aan serverzijde en geeft de "beste" terug (degene met de hoogste logkans per token). Resultaten kunnen niet worden gestreamd.

Wanneer gebruikt met n, best_of controleert het aantal kandidaat-voltooiingen en n specificeert hoeveel er teruggegeven moeten worden â€" best_of moet groter zijn dan n.

Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop.
No 1
echo boolean Echo de prompt naast de voltooiing
No False
frequency_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt.
No 0
logit_bias object Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing.

Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de GPT-tokenizer) mappt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token.

Als voorbeeld kun je passen {"50256": -100} om te voorkomen dat het <|endoftext|> token wordt gegenereerd.
No None
logprobs integer Neem de logkansen op op de logprobs meest waarschijnlijke outputtokens, evenals de gekozen tokens. Als logprobs bijvoorbeeld 5 is, zal de API een lijst teruggeven van de vijf meest waarschijnlijke tokens. De API zal altijd de logprob van het gesamplede token teruggeven, dus er kunnen tot elementen logprobs+1 in het antwoord zitten.

De maximale waarde voor logprobs is 5.
No None
max_tokens integer Het maximale aantal tokens dat tijdens de voltooiing kan worden gegenereerd.

Het aantal tokens van je prompt plus max_tokens mag de contextlengte van het model niet overschrijden.
No 16
n integer Hoeveel voltooiingen je moet genereren voor elke prompt.

Opmerking: Omdat deze parameter veel voltooiingen genereert, kan hij snel je tokenquota verbruiken. Gebruik het zorgvuldig en zorg dat je redelijke instellingen hebt voor max_tokens en stop.
No 1
presence_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt.
No 0
seed integer Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.

Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren.
No
stop string of array Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens. De teruggestuurde tekst bevat de stopvolgorde niet.
No
stream boolean Of ik gedeeltelijke voortgang moet terugstreamen. Indien ingesteld, worden tokens verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. No False
suffix string Het achtervoegsel dat komt na het voltooien van de ingevoegde tekst.

Deze parameter wordt alleen ondersteund voor gpt-3.5-turbo-instruct.
No None
temperature number Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken.

We raden over het algemeen aan om dit te veranderen, of top_p niet beide.
No 1
top_p number Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen.

We raden over het algemeen aan om dit te veranderen, of temperature niet beide.
No 1
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik.
No

createCompletionResponse

Vertegenwoordigt een voltooiingsantwoord van de API. Let op: zowel de gestreamde als niet-gestreamde responsobjecten hebben dezelfde vorm (in tegenstelling tot het chat-eindpunt).

Name Type Description Required Default
id string Een unieke identificatie voor de voltooiing. Yes
choices array De lijst met completion choices die het model genereerde voor de invoerprompt. Yes
created integer De Unix-tijdstempel (in seconden) van het moment waarop de voltooiing werd gemaakt. Yes
model string Het model dat voor de voltooiing wordt gebruikt. Yes
prompt_filter_results promptFilterResults Contentfiltering resulteert voor nul of meer prompts in het verzoek. Bij een streamingverzoek kunnen resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende volgorde binnenkomen. No
system_fingerprint string Deze vingerafdruk vertegenwoordigt de backendconfiguratie waarmee het model draait.

Kan samen met de seed request-parameter worden gebruikt om te begrijpen wanneer backend-wijzigingen zijn doorgevoerd die determinisme kunnen beïnvloeden.
No
object enum Het objecttype, dat altijd "text_completion" is.
Mogelijke waarden: text_completion
Yes
usage completionUsage Gebruiksstatistieken voor het voltooiingsverzoek. No

createChatCompletionRequest

Name Type Description Required Default
temperature number Welke bemonsteringstemperatuur moet je gebruiken, tussen 0 en 2. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken.

We raden over het algemeen aan om dit te veranderen, of top_p niet beide.
No 1
top_p number Een alternatief voor bemonstering met temperatuur, genaamd kernbemonstering, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheidsmassa beschouwt. Dus 0,1 betekent dat alleen de tokens die de top 10% kansmassa vormen worden meegenomen.

We raden over het algemeen aan om dit te veranderen, of temperature niet beide.
No 1
stream boolean Als deze is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als data-only servergestuurde events zodra ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht. No False
stop string of array Tot vier sequenties waarbij de API stopt met het genereren van verdere tokens.
No
max_tokens integer Het maximale aantal tokens dat kan worden gegenereerd tijdens de chatvoltooiing.

De totale lengte van invoertokens en gegenereerde tokens wordt beperkt door de contextlengte van het model.
No
max_completion_tokens integer Een bovengrens voor het aantal tokens dat kan worden gegenereerd voor een voltooiing, inclusief zichtbare uitvoertokens en redeneringstokens. No
presence_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze tot nu toe in de tekst voorkomen, waardoor de kans op het model om over nieuwe onderwerpen te praten toeneemt.
No 0
frequency_penalty number Aantal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun huidige frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt afneemt.
No 0
logit_bias object Pas de kans aan dat bepaalde tokens verschijnen in de voltooiing.

Accepteert een JSON-object dat tokens (gespecificeerd door hun token-ID in de tokenizer) koppelt aan een bijbehorende biaswaarde van -100 tot 100. Wiskundig wordt de bias toegevoegd aan de logits die het model vóór de steekproef genereert. Het exacte effect zal per model verschillen, maar waarden tussen -1 en 1 zouden de kans op selectie moeten verkleinen of vergroten; Waarden zoals -100 of 100 zouden moeten leiden tot een ban of exclusieve selectie van de betreffende token.
No None
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik.
No
messages array Een lijst met berichten die tot nu toe het gesprek vormen. Yes
data_sources array De configuratie-entries voor Azure OpenAI chatextensies die ze gebruiken.
Deze extra specificatie is alleen compatibel met Azure OpenAI.
No
logprobs boolean Of logkansen van de outputtokens worden teruggegeven of niet. Als waar is, geeft de log-kansen van elk outputtoken dat in de van messagewordt content teruggegeven, terug. No False
top_logprobs integer Een geheel getal tussen 0 en 20 dat het aantal meest waarschijnlijke tokens aangeeft dat op elke tokenpositie moet terugkeren, elk met een bijbehorende logkans. logprobs moet worden ingesteld op true als deze parameter wordt gebruikt. No
n integer Hoeveel keuzes voor het voltooien van de chat moet worden gegenereerd voor elk invoerbericht. Let op: je wordt belast op basis van het aantal gegenereerde tokens in alle keuzes. Houd de 1 kosten n zo laag mogelijk bij elkaar. No 1
parallel_tool_calls ParallelToolCalls Of parallelle functieaanroep tijdens het gebruik van het gereedschap moet worden ingeschakeld. No True
response_format ResponseFormatText of ResponseFormatJsonObject of ResponseFormatJsonSchema Een object dat het formaat specificeert dat het model moet uitvoeren. Compatibel met GPT-4o, GPT-4o mini, GPT-4 Turbo en alle GPT-3.5 Turbo modellen die nieuwer zijn dan gpt-3.5-turbo-1106.

Instellen op { "type": "json_schema", "json_schema": {...} } schakelt gestructureerde uitvoeren in, waarmee wordt gegarandeerd dat het model overeenkomt met je geleverde JSON-schema.

Instellen op { "type": "json_object" } schakelt de JSON-modus in, die garandeert dat het bericht dat het model genereert geldig JSON is.

Belangrijk: bij het gebruik van JSON-modus moet je het model ook instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een eindeloze stroom witruimte genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopend en schijnbaar "vastzittend" verzoek. Let ook op dat de inhoud van het bericht gedeeltelijk kan worden afgesneden als finish_reason="length", wat aangeeft dat de generatie is overschreden max_tokens of het gesprek de maximale contextlengte heeft overschreden.
No
seed integer Deze functie bevindt zich in bèta.
Indien gespecificeerd, zal ons systeem zijn best doen om deterministisch te samplen, zodat herhaalde verzoeken met dezelfde seed parameters hetzelfde resultaat zouden moeten opleveren.
Determinisme is niet gegarandeerd, en je moet de system_fingerprint responsparameter raadplegen om veranderingen in de backend te monitoren.
No
tools array Een lijst van gereedschappen die het model kan aanroepen. Momenteel worden alleen functies als hulpmiddel ondersteund. Gebruik dit om een lijst te geven van functies waarvoor het model JSON-invoer kan genereren. Maximaal 128 functies worden ondersteund.
No
tool_choice chatCompletionToolChoiceOption Bepaalt welk (indien aanwezig) gereedschap door het model wordt aangeroepen. none betekent dat het model geen tool aanroept maar in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer tools. required betekent dat het model één of meer tools moet aanroepen. Het specificeren van een bepaald hulpmiddel via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpmiddel aan te roepen. none is de standaard wanneer er geen gereedschap aanwezig is. auto is de standaard als er tools aanwezig zijn. No
function_call string of chatCompletionFunctionCallOption Vervallen ten gunste van tool_choice.

Bepaalt welke (indien aanwezig) functie door het model wordt aangeroepen.
none betekent dat het model geen functie aanroept maar in plaats daarvan een bericht genereert.
auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een functie.
Het specificeren van een bepaalde functie via {"name": "my_function"} dwingt het model om die functie aan te roepen.

none is de standaard wanneer er geen functies aanwezig zijn. auto is de standaard als functies aanwezig zijn.
No
functions array Vervallen ten gunste van tools.

Een lijst van functies waarvoor het model JSON-invoer kan genereren.
No

chatCompletionFunctions

Name Type Description Required Default
description string Een beschrijving van wat de functie doet, gebruikt door het model om te kiezen wanneer en hoe de functie wordt aangeroepen. No
name string De naam van de functie die genoemd moet worden. Moet a-z, A-Z, 0-9 zijn, of onderscores en streepjes bevatten, met een maximale lengte van 64. Yes
parameters FunctionParameters De parameters die de functie accepteert, worden beschreven als een JSON Schema-object. Zie de gids voor voorbeelden en de JSON Schema-referentie voor documentatie over het formaat.

Weglaten parameters definieert een functie met een lege parameterlijst.
No

chatCompletionFunctionCallOption

Het specificeren van een bepaalde functie via {"name": "my_function"} dwingt het model om die functie aan te roepen.

Name Type Description Required Default
name string De naam van de functie die je moet aanroepen. Yes

chatCompletionRequestMessage

Deze component kan een van de volgende zijn:

chatCompletionRequestSystemMessage

Name Type Description Required Default
content string of array De inhoud van het systeembericht. Yes
role enum De rol van de berichtenauteur, in dit geval system.
Mogelijke waarden: systeem
Yes
name string Een optionele naam voor de deelnemer. Biedt modelinformatie om onderscheid te maken tussen deelnemers met dezelfde rol. No

chatCompletionRequestUserMessage

Name Type Description Required Default
content string of array De inhoud van het gebruikersbericht.
Yes
role enum De rol van de berichtenauteur, in dit geval user.
Mogelijke waarden: gebruiker
Yes
name string Een optionele naam voor de deelnemer. Biedt modelinformatie om onderscheid te maken tussen deelnemers met dezelfde rol. No

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content string of array De inhoud van het assistentbericht. Verplicht tenzij tool_calls of function_call gespecificeerd.
No
refusal string Het weigeringsbericht van de assistent. No
role enum De rol van de berichtenauteur, in dit geval assistant.
Mogelijke waarden: assistent
Yes
name string Een optionele naam voor de deelnemer. Biedt modelinformatie om onderscheid te maken tussen deelnemers met dezelfde rol. No
tool_calls chatCompletionMessageToolCalls De toolaanroepen die door het model worden gegenereerd, zoals functieaanroepen. No
function_call object Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model. No

Eigenschappen voor function_call

arguments

Name Type Description Default
arguments string De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept.

name

Name Type Description Default
name string De naam van de functie die je moet aanroepen.

chatCompletionRequestToolMessage

Name Type Description Required Default
role enum De rol van de berichtenauteur, in dit geval tool.
Mogelijke waarden: tool
Yes
content string of array De inhoud van het toolbericht. Yes
tool_call_id string Toolcall waarop dit bericht reageert. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
role enum De rol van de berichtenauteur, in dit geval function.
Mogelijke waarden: functie
Yes
content string De inhoud van het functiebericht. Yes
name string De naam van de functie die je moet aanroepen. Yes

chatCompletionRequestSystemMessageContentPart

Deze component kan een van de volgende zijn:

chatCompletionRequestUserMessageContentPart

Deze component kan een van de volgende zijn:

chatCompletionRequestAssistantMessageContentPart

Deze component kan een van de volgende zijn:

chatCompletionRequestToolMessageContentPart

Deze component kan een van de volgende zijn:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
type enum Het type inhoud.
Mogelijke waarden: tekst
Yes
text string De tekstinhoud. Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
type enum Het type inhoud.
Mogelijke waarden: image_url
Yes
image_url object Yes

Eigenschappen voor image_url

url

Name Type Description Default
url string Ofwel een URL van de afbeelding, of de base64-gecodeerde afbeeldingsgegevens.

detail

Name Type Description Default
detail string Specificeert het detailniveau van de afbeelding. Lees meer in de Vision-gids. auto

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
type enum Het type inhoud.
Mogelijke waarden: weigering
Yes
refusal string Het weigeringsbericht dat door het model wordt gegenereerd. Yes

azureChatExtensionConfiguration

Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een verzoek om chatvoltooiingen dat Azure OpenAI-chatextensies zou moeten gebruiken om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.

Name Type Description Required Default
type azureChatExtensionType Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een chat
voltooiingen verzoeken dat Azure OpenAI chatextensies gebruikt om het responsgedrag te versterken.
Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Yes

azureChatExtensionType

Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een verzoek om chatvoltooiingen dat Azure OpenAI-chatextensies zou moeten gebruiken om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.

Beschrijving: Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een verzoek om chatvoltooiingen dat Azure OpenAI-chatextensies zou moeten gebruiken om het responsgedrag te versterken. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.

Type: string

Default:

Enum Naam: AzureChatExtensionType

Enum Values:

Value Description
azure_search Vertegenwoordigt het gebruik van Azure Search als een Azure OpenAI chatextensie.
azure_cosmos_db Vertegenwoordigt het gebruik van Azure Cosmos DB als een Azure OpenAI chatextensie.

azureSearchChatExtensionConfiguration

Een specifieke weergave van configureerbare opties voor Azure Search wanneer het wordt gebruikt als een Azure OpenAI chatextensie.

Name Type Description Required Default
type azureChatExtensionType Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een chat
voltooiingen verzoeken dat Azure OpenAI chatextensies gebruikt om het responsgedrag te versterken.
Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Yes
parameters azureSearchChatExtensionParameters Parameters voor Azure Search wanneer gebruikt als een Azure OpenAI chatextensie. No

azureSearchChatExtensionParameters

Parameters voor Azure Search wanneer gebruikt als een Azure OpenAI chatextensie.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions of onYourDataSystemAssignedManagedIdentityAuthenticationOptions of onYourDataUserAssignedManagedIdentityAuthenticationOptions of onYourDataUserAssignedManagedIdentityAuthenticationOptions Yes
top_n_documents integer Het geconfigureerde hoogste aantal documenten dat voor de geconfigureerde query beschikbaar is. No
in_scope boolean Of queries beperkt moeten worden tot het gebruik van geïndexeerde data. No
strictness integer De geconfigureerde strengheid van de zoekrelevantiefiltering. Hoe strenger, hoe nauwkeuriger maar minder reconcreet het antwoord. No
role_information string Geef het model instructies over hoe het zich moet gedragen en welke context het moet verwijzen bij het genereren van een antwoord. Je kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe hij antwoorden moet opmaken. Er is een limiet van 100 tokens voor en het telt mee tegen de totale tokenlimiet. No
endpoint string Het absolute eindpunt pad voor de Azure Search-bron om te gebruiken. Yes
index_name string De naam van de index die gebruikt moet worden zoals beschikbaar in de verwezen Azure Search-bron. Yes
fields_mapping azureSearchIndexFieldMappingOptions Optionele instellingen om te bepalen hoe velden worden verwerkt bij gebruik van een geconfigureerde Azure Search-bron. No
query_type azureSearchQueryType Het type Azure Search retrieval query dat uitgevoerd moet worden wanneer het wordt gebruikt als een Azure OpenAI chatextensie. No
semantic_configuration string De extra semantische configuratie voor de query. No
filter string Search filter. No
embedding_dependency onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Optionele instellingen om te bepalen hoe velden worden verwerkt bij gebruik van een geconfigureerde Azure Search-bron.

Name Type Description Required Default
title_field string De naam van het indexveld dat als titel gebruikt moet worden. No
url_field string De naam van het indexveld om als URL te gebruiken. No
filepath_field string De naam van het indexveld dat als bestandspad gebruikt moet worden. No
content_fields array De namen van indexvelden die als inhoud behandeld moeten worden. No
content_fields_separator string Het scheidingspatroon dat inhoudsvelden zouden moeten gebruiken. No
vector_fields array De namen van velden die vectorgegevens weergeven. No

azureSearchQueryType

Het type Azure Search retrieval query dat uitgevoerd moet worden wanneer het wordt gebruikt als een Azure OpenAI chatextensie.

Beschrijving: Het type Azure Search retrieval query dat uitgevoerd moet worden wanneer het wordt gebruikt als een Azure OpenAI-chatextensie.

Type: string

Default:

Enum Name: AzureSearchQueryType

Enum Values:

Value Description
simple Vertegenwoordigt de standaard, eenvoudige queryparser.
semantic Vertegenwoordigt de semantische queryparser voor geavanceerde semantische modellering.
vector Stelt vectorzoekopdracht voor over berekende data.
vector_simple_hybrid Vertegenwoordigt een combinatie van de eenvoudige querystrategie met vectordata.
vector_semantic_hybrid Vertegenwoordigt een combinatie van semantisch zoeken en vectorgegevensquery.

azureCosmosDBChatExtensionConfiguration

Een specifieke weergave van configureerbare opties voor Azure Cosmos DB wanneer het wordt gebruikt als een Azure OpenAI chatextensie.

Name Type Description Required Default
type azureChatExtensionType Een representatie van configuratiegegevens voor één enkele Azure OpenAI-chatextensie. Dit wordt gebruikt door een chat
voltooiingen verzoeken dat Azure OpenAI chatextensies gebruikt om het responsgedrag te versterken.
Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.
Yes
parameters azureCosmosDBChatExtensionParameters Parameters om te gebruiken bij het configureren van Azure OpenAI On Your Data chatextensies bij het gebruik van Azure Cosmos DB voor
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parameters om te gebruiken bij het configureren van Azure OpenAI On Your Data chatextensies bij het gebruik van Azure Cosmos DB voor MongoDB vCore.

Name Type Description Required Default
authentication onYourDataConnectionStringAuthenticationOptions De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt. Yes
top_n_documents integer Het geconfigureerde hoogste aantal documenten dat voor de geconfigureerde query beschikbaar is. No
in_scope boolean Of queries beperkt moeten worden tot het gebruik van geïndexeerde data. No
strictness integer De geconfigureerde strengheid van de zoekrelevantiefiltering. Hoe strenger, hoe nauwkeuriger maar minder reconcreet het antwoord. No
role_information string Geef het model instructies over hoe het zich moet gedragen en welke context het moet verwijzen bij het genereren van een antwoord. Je kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe hij antwoorden moet opmaken. Er is een limiet van 100 tokens voor en het telt mee tegen de totale tokenlimiet. No
database_name string De naam van de MongoDB vCore database om te gebruiken met Azure Cosmos DB. Yes
container_name string De naam van de Azure Cosmos DB resource container. Yes
index_name string De naam van de MongoDB vCore-index om te gebruiken met Azure Cosmos DB. Yes
fields_mapping azureCosmosDBFieldMappingOptions Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-bron. Yes
embedding_dependency onYourDataEndpointVectorizationSource of onYourDataDeploymentNameVectorizationSource Yes

azureCosmosDBFieldMappingOptions

Optionele instellingen om te bepalen hoe velden worden verwerkt bij het gebruik van een geconfigureerde Azure Cosmos DB-bron.

Name Type Description Required Default
title_field string De naam van het indexveld dat als titel gebruikt moet worden. No
url_field string De naam van het indexveld om als URL te gebruiken. No
filepath_field string De naam van het indexveld dat als bestandspad gebruikt moet worden. No
content_fields array De namen van indexvelden die als inhoud behandeld moeten worden. Yes
content_fields_separator string Het scheidingspatroon dat inhoudsvelden zouden moeten gebruiken. No
vector_fields array De namen van velden die vectorgegevens weergeven. Yes

onYourDataAuthenticationOptions

De authenticatieopties voor Azure OpenAI op uw gegevens.

Name Type Description Required Default
type onYourDataAuthenticationType De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. Yes

onYourDataAuthenticationType

De authenticatietypen worden ondersteund met Azure OpenAI On Your Data.

Beschrijving: De authenticatietypen die worden ondersteund met Azure OpenAI On Your Data.

Type: string

Default:

Naam: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Authenticatie via API-sleutel.
connection_string Authenticatie via verbindingsreeks.
system_assigned_managed_identity Authenticatie via systeem-toegewezen beheerde identiteit.
user_assigned_managed_identity Authenticatie via door de gebruiker toegewezen beheerde identiteit.

onYourDataApiKeyAuthenticationOptions

De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt.

Name Type Description Required Default
type onYourDataAuthenticationType De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. Yes
key string De API-sleutel om te gebruiken voor authenticatie. No

onYourDataConnectionStringAuthenticationOptions

De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een verbindingsreeks gebruikt.

Name Type Description Required Default
type onYourDataAuthenticationType De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. Yes
connection_string string De verbindingsreeks om te gebruiken voor authenticatie. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

De authenticatieopties voor Azure OpenAI On Your Data wanneer je een systeem-toegewezen beheerde identiteit gebruikt.

Name Type Description Required Default
type onYourDataAuthenticationType De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

De authenticatieopties voor Azure OpenAI On Your Data wanneer je een door de gebruiker toegewezen beheerde identiteit gebruikt.

Name Type Description Required Default
type onYourDataAuthenticationType De authenticatietypen worden ondersteund met Azure OpenAI On Your Data. Yes
managed_identity_resource_id string De resource-ID van de door de gebruiker toegewezen beheerde identiteit om te gebruiken voor authenticatie. No

onYourDataVectorizationSource

Een abstracte representatie van een vectorisatiebron voor Azure OpenAI On Your Data met vectorzoekopdracht.

Name Type Description Required Default
type onYourDataVectorizationSourceType Vertegenwoordigt de beschikbare bronnen die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met
vector search.
Yes

onYourDataVectorizationSourceType

Geeft de beschikbare bronnen weer die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met vectorzoek.

Beschrijving: Geeft de beschikbare bronnen weer Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met
vector search.

Type: string

Default:

Naam van het enum: OnYourDataVectorizationSourceType

Enum Values:

Value Description
endpoint Vertegenwoordigt vectorisatie uitgevoerd door publieke serviceoproepen aan een Azure OpenAI-embeddingmodel.
deployment_name Vertegenwoordigt een Ada-model-implementatienaam om te gebruiken. Deze modelimplementatie moet in dezelfde Azure OpenAI-resource zitten, maar
On Your Data gebruikt deze modelimplementatie via een interne aanroep in plaats van een publieke, wat vector mogelijk maakt
Zoek zelfs in privénetwerken.

onYourDataDeploymentNameVectorizationSource

De details van een vectorisatiebron, gebruikt door Azure OpenAI On Your Data bij het toepassen van vectorzoekopdrachten, die gebaseerd is op een interne embeddingsmodel-implementatienaam in dezelfde Azure OpenAI-bron.

Name Type Description Required Default
type onYourDataVectorizationSourceType Vertegenwoordigt de beschikbare bronnen die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met
vector search.
Yes
deployment_name string Specificeert de naam van de modelimplementatie die gebruikt moet worden voor vectorisatie. Deze modelimplementatie moet in dezelfde Azure OpenAI-bron plaatsvinden, maar On Your Data zal deze modelimplementatie via een interne oproep gebruiken in plaats van een publieke, wat vectorzoekopdrachten mogelijk maakt zelfs in privénetwerken. No

onYourDataEndpointVectorizationSource

De details van een vectorisatiebron, gebruikt door Azure OpenAI On Your Data bij het toepassen van vectorzoekopdrachten, die gebaseerd is op een publieke Azure OpenAI-endpointoproep voor embeddings.

Name Type Description Required Default
type onYourDataVectorizationSourceType Vertegenwoordigt de beschikbare bronnen die Azure OpenAI On Your Data kan gebruiken om vectorisatie van data te configureren voor gebruik met
vector search.
Yes
authentication onYourDataApiKeyAuthenticationOptions De authenticatieopties voor Azure OpenAI op uw gegevens wanneer u een API-sleutel gebruikt. No
endpoint string Specificeert het eindpunt dat gebruikt moet worden voor vectorisatie. Dit eindpunt moet zich in dezelfde Azure OpenAI-bron bevinden, maar On Your Data zal dit eindpunt via een interne aanroep gebruiken in plaats van een publieke, wat vectorzoekopdrachten mogelijk maakt, zelfs in privénetwerken. No

azureChatExtensionsMessageContext

Een representatie van de extra contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een bijbehorende chatvoltooiingsreactie. Deze contextinformatie wordt alleen ingevuld wanneer een Azure OpenAI-verzoek wordt gebruikt dat is geconfigureerd om een bijpassende extensie te gebruiken.

Name Type Description Required Default
citations array Het resultaat van het ophalen van de gegevensbron, gebruikt om het assistentbericht in het antwoord te genereren. No
intent string De gedetecteerde intentie uit de chatgeschiedenis werd gebruikt om door te geven naar de volgende beurt om de context over te dragen. No

citation

Citatie-informatie voor een chat-complete-antwoordbericht.

Name Type Description Required Default
content string De inhoud van de bron. Yes
title string De titel van de onderscheiding. No
url string De URL van de bron. No
filepath string Het bestandspad van de bron. No
chunk_id string De chunk-ID van de boete. No

chatCompletionMessageToolCall

Name Type Description Required Default
id string De ID van de tooloproep. Yes
type toolCallType Het type gereedschapsoproep, in dit geval function. Yes
function object De functie die het model aanriep. Yes

Eigenschappen voor functie

name

Name Type Description Default
name string De naam van de functie die je moet aanroepen.

arguments

Name Type Description Default
arguments string De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept.

toolCallType

Het type gereedschapsoproep, in dit geval function.

Beschrijving: Het type gereedschapsoproep, in dit geval function.

Type: string

Default:

Naam: ToolCallType

Enum Values:

Value Description
function Het type toolcall is functie.

chatCompletionRequestMessageTool

Name Type Description Required Default
tool_call_id string Toolcall waarop dit bericht reageert. No
content string De inhoud van het bericht. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
role enum De rol van de berichtenauteur, in dit geval function.
Mogelijke waarden: functie
No
name string De inhoud van het bericht. No
content string De inhoud van het bericht. No

createChatCompletionResponse

Vertegenwoordigt een chatvoltooiingsantwoord dat door het model wordt teruggegeven, gebaseerd op de gegeven invoer.

Name Type Description Required Default
id string Een unieke identificatie voor het voltooien van de chat. Yes
prompt_filter_results promptFilterResults Contentfiltering resulteert voor nul of meer prompts in het verzoek. Bij een streamingverzoek kunnen resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende volgorde binnenkomen. No
choices array Een lijst met keuzes om de chat af te ronden. Kan meer dan één zijn als n groter dan 1 is. Yes
created integer De Unix-tijdstempel (in seconden) van wanneer de chatvoltooiing werd aangemaakt. Yes
model string Het model dat wordt gebruikt voor het afronden van de gesprek. Yes
system_fingerprint string Deze vingerafdruk vertegenwoordigt de backendconfiguratie waarmee het model draait.

Kan samen met de seed request-parameter worden gebruikt om te begrijpen wanneer backend-wijzigingen zijn doorgevoerd die determinisme kunnen beïnvloeden.
No
object enum Het objecttype, dat altijd chat.completionis .
Mogelijke waarden: chat.completion
Yes
usage completionUsage Gebruiksstatistieken voor het voltooiingsverzoek. No

createChatCompletionStreamResponse

Vertegenwoordigt een gestreamd stuk van een chatvoltooiingsantwoord dat door het model wordt teruggegeven, gebaseerd op de gegeven input.

Name Type Description Required Default
id string Een unieke identificatie voor het voltooien van de chat. Elke chunk heeft dezelfde ID. Yes
choices array Een lijst met keuzes om de chat af te ronden. Kan meer dan één element bevatten als n groter is dan 1.
Yes
created integer De Unix-tijdstempel (in seconden) van wanneer de chatvoltooiing werd aangemaakt. Elke chunk heeft dezelfde tijdstempel. Yes
model string Het model om de voltooiing te genereren. Yes
system_fingerprint string Deze vingerafdruk vertegenwoordigt de backendconfiguratie waarmee het model draait.
Kan samen met de seed request-parameter worden gebruikt om te begrijpen wanneer backend-wijzigingen zijn doorgevoerd die determinisme kunnen beïnvloeden.
No
object enum Het objecttype, dat altijd chat.completion.chunkis .
Mogelijke waarden: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Een chatvoltooiingsdelta gegenereerd door gestreamde modelreacties.

Name Type Description Required Default
content string De inhoud van het stukbericht. No
function_call object Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model. No
tool_calls array No
role enum De rol van de auteur van deze boodschap.
Mogelijke waarden: systeem, gebruiker, assistent, tool
No
refusal string Het weigeringsbericht dat door het model wordt gegenereerd. No

Eigenschappen voor function_call

arguments

Name Type Description Default
arguments string De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept.

name

Name Type Description Default
name string De naam van de functie die je moet aanroepen.

chatCompletionMessageToolCallChunk

Name Type Description Required Default
index integer Yes
id string De ID van de tooloproep. No
type enum Het type gereedschap. Momenteel wordt alleen function ondersteund.
Mogelijke waarden: functie
No
function object No

Eigenschappen voor functie

name

Name Type Description Default
name string De naam van de functie die je moet aanroepen.

arguments

Name Type Description Default
arguments string De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept.

chatCompletionStreamOptions

Opties voor streaming response. Stel dit alleen in wanneer je stream: true.

Name Type Description Required Default
include_usage boolean Als ingesteld, wordt er een extra chunk gestreamd vóór het data: [DONE] bericht. Het usage veld op dit chunk toont de tokengebruiksstatistieken voor het gehele verzoek, en het choices veld zal altijd een lege array zijn. Alle andere chunks bevatten ook een usage veld, maar dan met een nulwaarde.
No

chatCompletionChoiceLogProbs

Log waarschijnlijkheidsinformatie voor de keuze.

Name Type Description Required Default
content array Een lijst van berichtinhoudstoken met logkansinformatie. Yes
refusal array Een lijst van berichtweigeringstokens met logkansinformatie. No

chatCompletionTokenLogprob

Name Type Description Required Default
token string The token. Yes
logprob number De log-waarschijnlijkheid van dit token. Yes
bytes array Een lijst van gehele getallen die de UTF-8 bytes representatie van het token vertegenwoordigen. Handig in gevallen waarin tekens worden weergegeven door meerdere tokens en hun byte-representaties gecombineerd moeten worden om de juiste tekstrepresentatie te genereren. Kan als null er geen bytesrepresentatie voor de token is. Yes
top_logprobs array Lijst van de meest waarschijnlijke tokens en hun log-waarschijnlijkheid, op deze tokenpositie. In zeldzame gevallen kunnen er minder zijn dan het aantal geverzoekte top_logprobs geretourneerde. Yes

chatCompletionResponseMessage

Een bericht over het voltooien van de chat dat door het model wordt gegenereerd.

Name Type Description Required Default
role chatCompletionResponseMessageRole De rol van de auteur van het antwoordbericht. Yes
refusal string Het weigeringsbericht dat door het model wordt gegenereerd. Yes
content string De inhoud van het bericht. Yes
tool_calls array De toolaanroepen die door het model worden gegenereerd, zoals functieaanroepen. No
function_call chatCompletionFunctionCall Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model. No
context azureChatExtensionsMessageContext Een weergave van de extra contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn
bij het genereren van een bijbehorend antwoord op chatvoltooiingen. Deze contextinformatie wordt alleen ingevuld wanneer
met een Azure OpenAI-verzoek dat is geconfigureerd om een bijpassende extensie te gebruiken.
No

chatCompletionResponseMessageRole

De rol van de auteur van het antwoordbericht.

Beschrijving: De rol van de auteur van het antwoordbericht.

Type: string

Default:

Enum Values:

  • assistant

chatCompletionToolChoiceOption

Bepaalt welk (indien aanwezig) gereedschap door het model wordt aangeroepen. none betekent dat het model geen tool aanroept maar in plaats daarvan een bericht genereert. auto betekent dat het model kan kiezen tussen het genereren van een bericht of het aanroepen van een of meer tools. required betekent dat het model één of meer tools moet aanroepen. Het specificeren van een bepaald hulpmiddel via {"type": "function", "function": {"name": "my_function"}} dwingt het model om dat hulpmiddel aan te roepen. none is de standaard wanneer er geen gereedschap aanwezig is. auto is de standaard als er tools aanwezig zijn.

Deze component kan een van de volgende zijn:

chatCompletionNamedToolChoice

Specificeert een tool die het model moet gebruiken. Gebruik om het model te dwingen een specifieke functie aan te roepen.

Name Type Description Required Default
type enum Het type gereedschap. Momenteel wordt alleen function ondersteund.
Mogelijke waarden: functie
Yes
function object Yes

Eigenschappen voor functie

name

Name Type Description Default
name string De naam van de functie die je moet aanroepen.

ParallelToolCalls

Of parallelle functieaanroep tijdens het gebruik van het gereedschap moet worden ingeschakeld.

Geen eigenschappen gedefinieerd voor deze component.

chatCompletionMessageToolCalls

De toolaanroepen die door het model worden gegenereerd, zoals functieaanroepen.

Geen eigenschappen gedefinieerd voor deze component.

chatCompletionFunctionCall

Verouderd en vervangen door tool_calls. De naam en argumenten van een functie die aangeroepen moet worden, zoals gegenereerd door het model.

Name Type Description Required Default
name string De naam van de functie die je moet aanroepen. Yes
arguments string De argumenten waarmee de functie wordt aangeroepen, zoals gegenereerd door het model in JSON-formaat. Let op dat het model niet altijd geldige JSON genereert, en parameters kan genereren die niet door je functieschema zijn gedefinieerd. Valideer de argumenten in je code voordat je je functie aanroept. Yes

completionUsage

Gebruiksstatistieken voor het voltooiingsverzoek.

Name Type Description Required Default
prompt_tokens integer Aantal tokens in de prompt. Yes
completion_tokens integer Aantal tokens in de gegenereerde voltooiing. Yes
total_tokens integer Totaal aantal tokens gebruikt in het verzoek (prompt + voltooiing). Yes
completion_tokens_details object Uitsplitsing van tokens die in een voltooiing worden gebruikt. No

Eigenschappen voor completion_tokens_details

reasoning_tokens

Name Type Description Default
reasoning_tokens integer Tokens gegenereerd door het model voor redenering.

chatCompletionTool

Name Type Description Required Default
type enum Het type gereedschap. Momenteel wordt alleen function ondersteund.
Mogelijke waarden: functie
Yes
function FunctionObject Yes

FunctionParameters

De parameters die de functie accepteert, worden beschreven als een JSON Schema-object. Zie de gids voor voorbeelden en de JSON Schema-referentie voor documentatie over het formaat.

Weglaten parameters definieert een functie met een lege parameterlijst.

Geen eigenschappen gedefinieerd voor deze component.

FunctionObject

Name Type Description Required Default
description string Een beschrijving van wat de functie doet, gebruikt door het model om te kiezen wanneer en hoe de functie wordt aangeroepen. No
name string De naam van de functie die genoemd moet worden. Moet a-z, A-Z, 0-9 zijn, of onderscores en streepjes bevatten, met een maximale lengte van 64. Yes
parameters FunctionParameters De parameters die de functie accepteert, worden beschreven als een JSON Schema-object. Zie de gids voor voorbeelden en de JSON Schema-referentie voor documentatie over het formaat.

Weglaten parameters definieert een functie met een lege parameterlijst.
No
strict boolean Of strikte schema-naleving wordt ingeschakeld bij het genereren van de functieaanroep. Als het op waar wordt gezet, volgt het model het exacte schema dat in het parameters veld is gedefinieerd. Slechts een deelverzameling van het JSON-schema wordt ondersteund wanneer strict is true. No False

ResponseFormatText

Name Type Description Required Default
type enum Het type responsformaat dat wordt gedefinieerd: text
Mogelijke waarden: tekst
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Het type responsformaat dat wordt gedefinieerd: json_object
Mogelijke waarden: json_object
Yes

ResponseFormatJsonSchemaSchema

Het schema voor het responsformaat, beschreven als een JSON Schema-object.

Geen eigenschappen gedefinieerd voor deze component.

ResponseFormatJsonSchema

Name Type Description Required Default
type enum Het type responsformaat dat wordt gedefinieerd: json_schema
Mogelijke waarden: json_schema
Yes
json_schema object Yes

Eigenschappen voor json_schema

description

Name Type Description Default
description string Een beschrijving van waar het responsformaat voor bedoeld is, gebruikt door het model om te bepalen hoe in het formaat te reageren.

name

Name Type Description Default
name string De naam van het responsformaat. Moet a-z, A-Z, 0-9 zijn, of onderscores en streepjes bevatten, met een maximale lengte van 64.

schema

Name Type Description Default
schema ResponseFormatJsonSchemaSchema Het schema voor het responsformaat, beschreven als een JSON Schema-object.

strict

Name Type Description Default
strict boolean Of strikte schema-naleving wordt ingeschakeld bij het genereren van de uitvoer. Als het op waar wordt gezet, volgt het model altijd het exacte schema dat in het schema veld is gedefinieerd. Slechts een deelverzameling van het JSON-schema wordt ondersteund wanneer strict is true. False

chatCompletionChoiceCommon

Name Type Description Required Default
index integer No
finish_reason string No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Het audiobestand om te vertalen. Yes
prompt string Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet in het Engels zijn. No
response_format audioResponseFormat Definieert het formaat van de uitvoer. No
temperature number De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. No 0

audioResponse

Vertaling of transcriptierespons wanneer response_format JSON was

Name Type Description Required Default
text string Vertaalde of getranscribeerde tekst. Yes

audioVerboseResponse

Vertaling of transcriptierespons wanneer response_format verbose_json

Name Type Description Required Default
text string Vertaalde of getranscribeerde tekst. Yes
task string Soort audiotaak. No
language string Language. No
duration number Duration. No
segments array No

audioResponseFormat

Definieert het formaat van de uitvoer.

Beschrijving: Definieert het formaat van de uitvoer.

Type: string

Default:

Enum Values:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Het audiobestand object dat getranscribeerd moet worden. Yes
prompt string Een optionele tekst om de stijl van het model te sturen of een eerder audiosegment voort te zetten. De prompt moet overeenkomen met de audiotaal. No
response_format audioResponseFormat Definieert het formaat van de uitvoer. No
temperature number De bemonsteringstemperatuur, tussen 0 en 1. Hogere waarden zoals 0,8 maken de output willekeuriger, terwijl lagere waarden zoals 0,2 het meer gefocust en deterministisch maken. Als het op 0 wordt gezet, gebruikt het model logaritmische waarschijnlijkheid om de temperatuur automatisch te verhogen totdat bepaalde drempels zijn bereikt. No 0
language string De taal van de invoeraudio. Het leveren van de invoertaal in ISO-639-1-formaat zal de nauwkeurigheid en latentie verbeteren. No

audioSegment

Transcriptie- of vertaalsegment.

Name Type Description Required Default
id integer Segment identifier. No
seek number Verplaatsing van het segment. No
start number Segment start offset uit. No
end number Segment-eindoffset is verschoven. No
text string Segment text. No
tokens array Tokens van de tekst. No
temperature number Temperature. No
avg_logprob number Gemiddelde logkans. No
compression_ratio number Compression ratio. No
no_speech_prob number Waarschijnlijkheid van no speech. No

imageQuality

De kwaliteit van de afbeelding die wordt gegenereerd.

Beschrijving: De kwaliteit van de afbeelding die wordt gegenereerd.

Type: string

Default: standard

Enum Naam: Kwaliteit

Enum Values:

Value Description
standard Standaardkwaliteit levert beelden met standaardkwaliteit op.
hd HD-kwaliteit zorgt voor beelden met fijnere details en grotere consistentie over het hele beeld.

imagesResponseFormat

Het formaat waarin de gegenereerde afbeeldingen worden teruggegeven.

Beschrijving: Het formaat waarin de gegenereerde afbeeldingen worden teruggestuurd.

Type: string

Default: url

Naam: ImagesResponseFormat

Enum Values:

Value Description
url De URL die tijdelijke toegang biedt om de gegenereerde afbeeldingen te downloaden.
b64_json De gegenereerde afbeeldingen worden teruggegeven als base64-gecodeerde string.

imageSize

De grootte van de gegenereerde afbeeldingen.

Beschrijving: De grootte van de gegenereerde afbeeldingen.

Type: string

Default: 1024x1024

Enum Naam: Grootte

Enum Values:

Value Description
1792x1024 De gewenste grootte van de gegenereerde afbeelding is 1792x1024 pixels.
1024x1792 De gewenste grootte van de gegenereerde afbeelding is 1024x1792 pixels.
1024x1024 De gewenste grootte van de gegenereerde afbeelding is 1024x1024 pixels.

imageStyle

De stijl van de gegenereerde afbeeldingen.

Beschrijving: De stijl van de gegenereerde afbeeldingen.

Type: string

Default: vivid

Enum Naam: Stijl

Enum Values:

Value Description
vivid Vivid creëert beelden die hyperrealistisch en dramatisch zijn.
natural Natuurlijk creëert beelden die natuurlijker en minder hyperrealistisch zijn.

imageGenerationsRequest

Name Type Description Required Default
prompt string Een tekstbeschrijving van de gewenste afbeelding(en). De maximale lengte is 4.000 tekens. Yes
n integer Het aantal te genereren afbeeldingen. No 1
size imageSize De grootte van de gegenereerde afbeeldingen. No 1024x1024
response_format imagesResponseFormat Het formaat waarin de gegenereerde afbeeldingen worden teruggegeven. No url
user string Een unieke identificatie die je eindgebruiker vertegenwoordigt, die kan helpen bij het monitoren en detecteren van misbruik. No
quality imageQuality De kwaliteit van de afbeelding die wordt gegenereerd. No standard
style imageStyle De stijl van de gegenereerde afbeeldingen. No vivid

generateImagesResponse

Name Type Description Required Default
created integer De unix-tijdstempel toen de operatie werd gemaakt. Yes
data array De resultaatgegevens van de operatie, indien succesvol Yes

imageResult

De afbeeldings-url of gecodeerde afbeelding als het lukt, en een foutmelding anders.

Name Type Description Required Default
url string De afbeeldings-url. No
b64_json string Het base64-gecodeerde beeld No
content_filter_results dalleContentFilterResults Informatie over de contentfilterresultaten. No
revised_prompt string De prompt die werd gebruikt om de afbeelding te genereren, als er een revisie van de prompt was. No
prompt_filter_results dalleFilterResults Informatie over de categorie content filtering (haat, seksueel, geweld, self_harm), of deze is gedetecteerd, evenals het ernstniveau (very_low, laag, middelgroot, op grote schaal die de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze gefilterd is of niet. Informatie over jailbreak-inhoud en vloeken, of het is gedetecteerd en of het gefilterd is of niet. En informatie over de klantbloklijst, of die gefilterd is en de identificatie ervan. No

Completions extensions

Completions-extensies maken geen deel uit van de nieuwste GA-versie van de Azure OpenAI data plane inference spec.

Chatmessage

Het Chat-berichtobject maakt geen deel uit van de nieuwste GA-versie van de Azure OpenAI data plane inference spec.

Tekst-naar-spraak (Preview)

Maakt momenteel geen deel uit van de nieuwste Azure OpenAI GA-versie van de Azure OpenAI dataplane inference spec. Raadpleeg de nieuwste versie van preview voor deze functionaliteit.

Next steps

Leer over modellen en fijn afstemmen met de REST API. Meer informatie over de onderliggende modellen die gebruikmaken van Azure OpenAI.