Azure OpenAI in Microsoft Foundry Models REST API-Referenz

Dieser Artikel liefert Details zu den Inferenz-REST-API-Endpunkten für Azure OpenAI.

API specs

Die Verwaltung und Interaktion mit Azure OpenAI-Modellen und -Ressourcen ist auf drei Haupt-API-Oberflächen verteilt:

  • Control plane
  • Datenebene – Autoring
  • Datenebene – Schlussfolgerung

Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API hat ihren eigenen einzigartigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA) API-Releases. Preview-Veröffentlichungen folgen derzeit meist einem monatlichen Rhythmus.

Important

Es gibt jetzt eine neue Vorschau-Inferenz-API. Erfahren Sie mehr in unserem API-Lebenszyklus-Leitfaden.

API Neueste Vorschau-Veröffentlichung Neueste GA-Veröffentlichung Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files Die Control Plane API wird für Operationen wie Ressourcenerstellung, Modellbereitstellung und andere Aufgaben des höheren Ressourcenmanagements verwendet. Die Kontrollebene regelt außerdem, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist.
Data plane v1 preview v1 Spec files Die Data Plane API steuert Inferenz- und Autorenoperationen.

Authentication

Azure OpenAI bietet zwei Methoden zur Authentifizierung an. Du kannst entweder API-Schlüssel oder Microsoft Entra ID verwenden.

  • API-Schlüssel-Authentifizierung: Für diese Art der Authentifizierung müssen alle API-Anfragen den API-Schlüssel im api-key HTTP-Header enthalten. Der Quickstart bietet Anleitungen, wie man mit dieser Art der Authentifizierung Anrufe tätigt.

  • Microsoft Entra ID Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken sind in einer Anfrage als Header Authorization enthalten. Der bereitgestellte Token muss zum Beispiel von Bearervorangestellt werden, zum Beispiel Bearer YOUR_AUTH_TOKEN. Sie können unseren Anleitungsleitfaden zum Thema Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionierung

Die Service-APIs werden mit dem Abfrageparameter api-version versioniert. Alle Versionen folgen der YYYY-MM-DD Datumsstruktur. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenz der Datenebene

Der Rest des Artikels behandelt die GA-Veröffentlichung der Azure OpenAI Data Plane Inference Specification 2024-10-21.

Wenn Sie Dokumentation zur neuesten Preview-API-Version suchen, konsultieren Sie die neueste Preview Data Plane Inference API

Completions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment-ID des Modells, das bereitgestellt wurde.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt Saite oder Array Die Eingabeaufforderung(en) zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays.

Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell generiert, wenn kein Prompt angegeben ist, als ob es vom Anfang eines neuen Dokuments stammt.
Yes
best_of integer Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn mit nverwendet, steuert die best_of Anzahl der Kandidatenabschlüsse und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als nsein.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
echo boolean Echo den Prompt zusätzlich zum Abschluss
No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.

Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird.
No None
logprobs integer Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der fünf wahrscheinlichsten Token zurück. Die API gibt immer das logprob von dem abgetasteten Token zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.

Der maximale Wert für logprobs ist 5.
No None
max_tokens integer Die maximale Anzahl der Token, die im Completion generiert werden können.

Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Abschlüsse für jeden Prompt generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
seed integer Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.

Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
stop Saite oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht.
No
stream boolean Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als reine datenbasierte servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. No False
suffix string Das Suffix, das nach dem Abschluss des eingefügten Textes kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch die nicht gestreamten Antwortobjekte haben die gleiche Form (im Gegensatz zum Chat-Endpunkt).

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Erhalten Sie eine Vektordarstellung eines gegebenen Inputs, die leicht von Machine-Learning-Modellen und Algorithmen verbraucht werden kann.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
input Saite oder Array Geben Sie den Text ein, der eingebettet wird, kodiert als String oder Array von Tokens. Um mehrere Eingaben in einer einzigen Anfrage einzubetten, übergeben Sie ein Array von Strings oder ein Array von Token-Arrays. Die Eingabe darf die maximalen Eingabetoken des Modells (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenkette sein, und jedes Array muss 2.048 Dimensionen oder weniger haben. Yes
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
input_type string Eingabetyp der Einbettungssuche zur Verwendung No
encoding_format string Das Format, um die Einbettungen zurückzugeben. Es kann entweder float oder base64sein. Standardmäßig gilt float. No
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabe-Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. No

Responses

Name Type Description Required Default
object string Yes
model string Yes
data array Yes
usage object Yes

Nutzungseigenschaften

prompt_tokens

Name Type Description Default
prompt_tokens integer

total_tokens

Name Type Description Default
total_tokens integer

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Geben Sie die Einbettungen für einen bestimmten Prompt zurück.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat completions

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Erstellt eine Vervollständigung der Chatnachricht

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment-ID des Modells, das bereitgestellt wurde.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
stream boolean Wenn gesetzt, werden teilweise Nachrichten-Deltas gesendet, wie bei ChatGPT. Tokens werden als rein datenbasierte, servergesendete Events gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. No False
stop Saite oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
No
max_tokens integer Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann.

Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt.
No
max_completion_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.
No None
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No
messages array Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. Yes
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
logprobs boolean Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit. logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. No
n integer Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Beachte, dass du basierend auf der Anzahl der generierten Token in allen Optionen berechnet wirst. Achten Sie n darauf, 1 die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt.

Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Diese Funktion befindet sich noch in der Beta.
Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.
Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
tools array Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt.
No
tool_choice chatCompletionToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert. auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann. required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen. none ist der Standard, wenn keine Werkzeuge vorhanden sind. auto ist der Standard, wenn Werkzeuge vorhanden sind. No
function_call string oder chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.
Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.

none ist der Standard, wenn keine Funktionen vorhanden sind. auto ist der Standard, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createChatCompletionResponse oder createChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung basierend auf Azure Search-Daten und systemzugewiesener verwalteter Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung basierend auf Azure Search-Vektordaten, einer vorherigen Assistentennachricht und einer vom Benutzer zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die bereitgestellte Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transkribiert Audio in die Eingabesprache.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment-ID des Sprach-zu-Text-Modells.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Das Audiodatei-Objekt, das transkribiert werden soll. Yes
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0
language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert Genauigkeit und Latenz. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json audioResponse oder audioVerboseResponse
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format eines von Text, vtt oder srt war).

Examples

Example

Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transkribiert und übersetzt Eingabeaudio in englischen Text.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment-ID des Whisper-Modells, das eingesetzt wurde.

Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models].
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Die Audiodatei zum Übersetzen. Yes
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json audioResponse oder audioVerboseResponse
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format eines von Text, vtt oder srt war).

Examples

Example

Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Image generation

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Erzeugt eine Charge von Bildern aus einer Textunterschrift in einer gegebenen Dall-e-Modell-Bereitstellung

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Deployment-ID des dall-e-Modells, das implementiert wurde.
api-version query Yes string API version

Request Header

Name Required Type Description
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
prompt string Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 4.000 Zeichen. Yes
n integer Die Anzahl der zu erzeugenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1024x1024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
quality imageQuality Die Qualität des erzeugten Bildes. No standard
style imageStyle Der Stil der generierten Bilder. No vivid

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Ein Fehler ist aufgetreten.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Erstellt Bilder mit einem Prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
param string No
type string No
inner_error innerError Innerer Fehler mit zusätzlichen Details. No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results contentFilterPromptResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt.

Beschreibung: Fehlercodes für das innere Fehlerobjekt.

Type: string

Default:

Enum-Name: InnerErrorCode

Enum Values:

Value Description
ResponsibleAIPolicyViolation Der Prompt verstieß gegen eine oder weitere Inhaltsfilterregeln.

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
param string No
type string No
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results dalleFilterResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. No
revised_prompt string Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. No

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
filtered boolean Yes
detected boolean No

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No

Eigenschaften für die Quellenangaben

URL

Name Type Description Default
URL string

license

Name Type Description Default
license string

contentFilterResultsBase

Informationen zu den Inhaltsfilterergebnissen.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No

contentFilterPromptResults

Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
jailbreak contentFilterDetectedResult No

contentFilterChoiceResults

Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen über Texte und Schimpfwörter von Drittanbietern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
error errorBase No
protected_material_text contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No

promptFilterResult

Inhaltsfilterung führt für einen einzelnen Prompt in der Anfrage.

Name Type Description Required Default
prompt_index integer No
content_filter_results contentFilterPromptResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. No

promptFilterResults

Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Inhaltsfilterergebnissen.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No

dalleFilterResults

Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID.

Name Type Description Required Default
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
profanity contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No

chatCompletionsRequestCommon

Name Type Description Required Default
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.
Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
stream boolean Wenn gesetzt, werden teilweise Nachrichten-Deltas gesendet, wie bei ChatGPT. Tokens werden als rein datenbasierte, servergesendete Events gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. No False
stop Saite oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. No
max_tokens integer Die maximale Anzahl der Token, die für die generierte Antwort erlaubt war. Standardmäßig beträgt die Anzahl der Tokens, die das Modell zurückgeben kann, (4096 – Prompt-Token). Dieser Wert wurde nun zugunsten von max_completion_tokensverlagert und ist nicht mehr mit O1-Modellen kompatibel. No 4096
max_completion_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. No 0
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. No
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. No

createCompletionRequest

Name Type Description Required Default
prompt Saite oder Array Die Eingabeaufforderung(en) zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays.

Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell generiert, wenn kein Prompt angegeben ist, als ob es vom Anfang eines neuen Dokuments stammt.
Yes
best_of integer Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn mit nverwendet, steuert die best_of Anzahl der Kandidatenabschlüsse und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als nsein.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
echo boolean Echo den Prompt zusätzlich zum Abschluss
No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.

Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird.
No None
logprobs integer Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der fünf wahrscheinlichsten Token zurück. Die API gibt immer das logprob von dem abgetasteten Token zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.

Der maximale Wert für logprobs ist 5.
No None
max_tokens integer Die maximale Anzahl der Token, die im Completion generiert werden können.

Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Abschlüsse für jeden Prompt generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
seed integer Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.

Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
stop Saite oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht.
No
stream boolean Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als reine datenbasierte servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. No False
suffix string Das Suffix, das nach dem Abschluss des eingefügten Textes kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No

createCompletionResponse

Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch die nicht gestreamten Antwortobjekte haben die gleiche Form (im Gegensatz zum Chat-Endpunkt).

Name Type Description Required Default
id string Eine eindeutige Kennung für den Abschluss. Yes
choices array Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, an dem die Fertigstellung erstellt wurde. Yes
model string Das Modell, das für die Fertigstellung verwendet wird. Yes
prompt_filter_results promptFilterResults Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft.

Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten.
No
object enum Der Objekttyp, der immer "text_completion" ist.
Mögliche Werte: text_completion
Yes
usage completionUsage Nutzungsstatistiken für die Abschlussanfrage. No

createChatCompletionRequest

Name Type Description Required Default
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
stream boolean Wenn gesetzt, werden teilweise Nachrichten-Deltas gesendet, wie bei ChatGPT. Tokens werden als rein datenbasierte, servergesendete Events gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. No False
stop Saite oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
No
max_tokens integer Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann.

Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt.
No
max_completion_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.
No None
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No
messages array Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. Yes
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
logprobs boolean Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. No False
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit. logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. No
n integer Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Beachte, dass du basierend auf der Anzahl der generierten Token in allen Optionen berechnet wirst. Achten Sie n darauf, 1 die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt.

Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Diese Funktion befindet sich noch in der Beta.
Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.
Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
tools array Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt.
No
tool_choice chatCompletionToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert. auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann. required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen. none ist der Standard, wenn keine Werkzeuge vorhanden sind. auto ist der Standard, wenn Werkzeuge vorhanden sind. No
function_call string oder chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.
Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.

none ist der Standard, wenn keine Funktionen vorhanden sind. auto ist der Standard, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann.
No

chatCompletionFunctions

Name Type Description Required Default
description string Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. No
name string Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.
No

chatCompletionFunctionCallOption

Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.

Name Type Description Required Default
name string Der Name der Funktion, die aufgerufen werden soll. Yes

chatCompletionRequestMessage

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestSystemMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Systemnachricht. Yes
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall system.
Mögliche Werte: System
Yes
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No

chatCompletionRequestUserMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Benutzernachricht.
Yes
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall user.
Mögliche Werte: Benutzer
Yes
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Assistentennachricht. Erforderlich, sofern tool_calls nicht angegeben oder function_call angegeben ist.
No
refusal string Die Ablehnungsnachricht der Assistentin. No
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall assistant.
Mögliche Werte: Assistent
Yes
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No
tool_calls chatCompletionMessageToolCalls Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. No
function_call object Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. No

Eigenschaften für function_call

arguments

Name Type Description Default
arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst.

name

Name Type Description Default
name string Der Name der Funktion, die aufgerufen werden soll.

chatCompletionRequestToolMessage

Name Type Description Required Default
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall tool.
Mögliche Werte: Werkzeug
Yes
content Saite oder Array Der Inhalt der Werkzeugnachricht. Yes
tool_call_id string Tool-Anruf, auf den diese Nachricht reagiert. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall function.
Mögliche Werte: Funktion
Yes
content string Der Inhalt der Funktionsnachricht. Yes
name string Der Name der Funktion, die aufgerufen werden soll. Yes

chatCompletionRequestSystemMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestUserMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestAssistantMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestToolMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
type enum Die Art des Inhalts.
Mögliche Werte: Text
Yes
text string Der Textinhalt. Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
type enum Die Art des Inhalts.
Mögliche Werte: image_url
Yes
image_url object Yes

Eigenschaften für image_url

url

Name Type Description Default
url string Entweder eine URL des Bildes oder die von base64 codierten Bilddaten.

detail

Name Type Description Default
detail string Spezifiziert den Detailgrad des Bildes. Erfahren Sie mehr im Vision-Leitfaden. auto

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
type enum Die Art des Inhalts.
Mögliche Werte: Ablehnung
Yes
refusal string Die vom Modell generierte Ablehnungsnachricht. Yes

azureChatExtensionConfiguration

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dieser wird von einem Chat genutzt
Komplettierungen verlangen, dass Azure OpenAI Chat-Erweiterungen verwendet werden sollten, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureChatExtensionType

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Beschreibung: Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Type: string

Default:

Enum Name: AzureChatExtensionType

Enum Values:

Value Description
azure_search Stellt die Nutzung von Azure Search als Azure OpenAI Chat-Erweiterung dar.
azure_cosmos_db Stellt die Nutzung von Azure Cosmos DB als Azure OpenAI Chat-Erweiterung dar.

azureSearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search bei Verwendung als Azure OpenAI Chat-Erweiterung.

Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dieser wird von einem Chat genutzt
Komplettierungen verlangen, dass Azure OpenAI Chat-Erweiterungen verwendet werden sollten, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes
parameters azureSearchChatExtensionParameters Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden. No

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions Yes
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
role_information string Gib dem Modell Anweisungen, wie es sich verhalten soll und welchen Kontext es beim Erstellen einer Antwort beziehen soll. Du kannst die Persönlichkeit des Assistenten beschreiben und ihm sagen, wie er Antworten formatieren soll. Dafür gibt es ein Limit von 100 Tokens, und das zählt gegen das Gesamt-Token-Limit. No
endpoint string Der absolute Endpunktpfad für die Azure Search-Ressource. Yes
index_name string Der Name des Indexes, der in der referenzierten Azure Search-Ressource verfügbar ist. Yes
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird. No
query_type azureSearchQueryType Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird. No
semantic_configuration string Die zusätzliche semantische Konfiguration für die Abfrage. No
filter string Search filter. No
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird.

Name Type Description Required Default
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. No
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
vector_fields array Die Namen von Feldern, die Vektordaten repräsentieren. No

azureSearchQueryType

Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.

Description: Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.

Type: string

Default:

Enum Name: AzureSearchQueryType

Enum Values:

Value Description
simple Stellt den Standard-Simple-Abfrageparser dar.
semantic Repräsentiert den semantischen Abfrageparser für fortgeschrittene semantische Modellierung.
vector Repräsentiert die Vektorsuche über berechneten Daten.
vector_simple_hybrid Stellt eine Kombination aus der einfachen Abfragestrategie mit Vektordaten dar.
vector_semantic_hybrid Repräsentiert eine Kombination aus semantischer Suche und Vektordatenabfragen.

azureCosmosDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.

Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dieser wird von einem Chat genutzt
Komplettierungen verlangen, dass Azure OpenAI Chat-Erweiterungen verwendet werden sollten, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes
parameters azureCosmosDBChatExtensionParameters Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB verwendet, für
MongoDB vCore.
No

azureCosmosDBChatExtensionParameters

Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB für MongoDB vCore verwendet.

Name Type Description Required Default
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge. Yes
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
role_information string Gib dem Modell Anweisungen, wie es sich verhalten soll und welchen Kontext es beim Erstellen einer Antwort beziehen soll. Du kannst die Persönlichkeit des Assistenten beschreiben und ihm sagen, wie er Antworten formatieren soll. Dafür gibt es ein Limit von 100 Tokens, und das zählt gegen das Gesamt-Token-Limit. No
database_name string Der Name der MongoDB vCore-Datenbank zur Verwendung mit Azure Cosmos DB. Yes
container_name string Der Name des Azure Cosmos DB Resource Containers. Yes
index_name string Der MongoDB vCore-Indexname zur Verwendung mit Azure Cosmos DB. Yes
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird.

Name Type Description Required Default
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. Yes
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
vector_fields array Die Namen von Feldern, die Vektordaten repräsentieren. Yes

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataAuthenticationType

Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.

Beschreibung: Die mit Azure OpenAI On Your Data unterstützten Authentifizierungstypen.

Type: string

Default:

Enum-Name: OnYourDataAuthenticationType

Enum Values:

Value Description
api_key Authentifizierung über API-Schlüssel.
connection_string Authentifizierung über Verbindungszeichenfolge.
system_assigned_managed_identity Authentifizierung über systemzugewiesene verwaltete Identität.
user_assigned_managed_identity Authentifizierung über benutzerdefinierte verwaltete Identität.

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
key string Der API-Schlüssel zur Authentifizierung. No

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
connection_string string Die Verbindungszeichenfolge zur Authentifizierung. No

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer systemzugeordneten verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer benutzerdefinierten verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
managed_identity_resource_id string Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität zur Verwendung zur Authentifizierung. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.

Name Type Description Required Default
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data nutzen kann, um die Vektorisierung von Daten für die Verwendung mit zu konfigurieren
vector search.
Yes

onYourDataVectorizationSourceType

Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren.

Beschreibung: Repräsentiert die verfügbaren Quellen Azure OpenAI On Your Data zur Konfiguration der Vektorisierung von Daten für die Verwendung mit
vector search.

Type: string

Default:

Enum-Name: OnYourDataVectorizationSourceType

Enum Values:

Value Description
endpoint Repräsentiert die Vektorisierung, die durch öffentliche Serviceaufrufe an ein Azure OpenAI-Embedding-Modell durchgeführt wird.
deployment_name Stellt einen Ada-Modell-Deployment-Namen dar, der verwendet werden soll. Diese Modellbereitstellung muss in derselben Azure OpenAI-Ressource erfolgen, aber
On Your Data verwendet dieses Modell über einen internen Aufruf statt eines öffentlichen Aufrufs, was Vector ermöglicht
Suche sogar in privaten Netzwerken.

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem internen Embeddings-Modell-Deploymentsnamen in derselben Azure OpenAI-Ressource basiert.

Name Type Description Required Default
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data nutzen kann, um die Vektorisierung von Daten für die Verwendung mit zu konfigurieren
vector search.
Yes
deployment_name string Spezifiziert den Namen der Modellbereitstellung, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss in derselben Azure OpenAI-Ressource erfolgen, aber On Your Data verwendet diese Modellbereitstellung über einen internen Aufruf statt eines öffentlichen Aufrufs, was Vektorsuche auch in privaten Netzwerken ermöglicht. No

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Embeddings basiert.

Name Type Description Required Default
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data nutzen kann, um die Vektorisierung von Daten für die Verwendung mit zu konfigurieren
vector search.
Yes
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels. No
endpoint string Spezifiziert den Endpunkt für die Vektorisierung. Dieser Endpunkt muss in derselben Azure OpenAI-Ressource liegen, aber On Your Data wird diesen Endpunkt über einen internen Aufruf statt eines öffentlichen verwenden, was auch in privaten Netzwerken eine Vektorsuche ermöglicht. No

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chat-Erweiterungen an der Erstellung einer entsprechenden Antwort auf Chat-Abschlüsse beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anfrage verwendet wird, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird.

Name Type Description Required Default
citations array Das Ergebnis der Datenquellenabruf, das zur Erzeugung der Assistentennachricht in der Antwort verwendet wird. No
intent string Die erkannte Absicht aus dem Chatverlauf wurde verwendet, um an die nächste Runde weitergegeben zu werden, um den Kontext zu übertragen. No

citation

Zitationsinformationen für eine Chat-Komplettantwort-Nachricht.

Name Type Description Required Default
content string Der Inhalt der Zitate. Yes
title string Der Titel der Auszeichnung. No
url string Die URL des Zitats. No
filepath string Der Dateipfad des Zitats. No
chunk_id string Die Chunk-ID der Strafzettel. No

chatCompletionMessageToolCall

Name Type Description Required Default
id string Die ID des Werkzeugrufs. Yes
type toolCallType Der Typ des Werkzeugaufrufs, in diesem Fall function. Yes
function object Die Funktion, die das Modell aufgerufen hat. Yes

Eigenschaften der Funktion

name

Name Type Description Default
name string Der Name der Funktion, die aufgerufen werden soll.

arguments

Name Type Description Default
arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst.

toolCallType

Der Typ des Werkzeugaufrufs, in diesem Fall function.

Beschreibung: Der Typ des Werkzeugaufrufs, in diesem Fall function.

Type: string

Default:

Enum-Name: ToolCallType

Enum Values:

Value Description
function Der Werkzeugaufruftyp ist Funktion.

chatCompletionRequestMessageTool

Name Type Description Required Default
tool_call_id string Tool-Anruf, auf den diese Nachricht reagiert. No
content string Der Inhalt der Nachricht. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall function.
Mögliche Werte: Funktion
No
name string Der Inhalt der Nachricht. No
content string Der Inhalt der Nachricht. No

createChatCompletionResponse

Repräsentiert eine vom Modell zurückgegebene Chat-Abschlussantwort, basierend auf der bereitgestellten Eingabe.

Name Type Description Required Default
id string Eine eindeutige Kennung für den Abschluss des Chats. Yes
prompt_filter_results promptFilterResults Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
choices array Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als eins sein, wenn n größer als 1 ist. Yes
created integer Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. Yes
model string Das Modell, das für den Chat-Abschluss verwendet wird. Yes
system_fingerprint string Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft.

Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten.
No
object enum Der Objekttyp, der immer chat.completionist.
Mögliche Werte: chat.completion
Yes
usage completionUsage Nutzungsstatistiken für die Abschlussanfrage. No

createChatCompletionStreamResponse

Repräsentiert einen gestreamten Chunk einer Chat-Abschlussantwort, die vom Modell auf Basis der bereitgestellten Eingabe zurückgegeben wird.

Name Type Description Required Default
id string Eine eindeutige Kennung für den Abschluss des Chats. Jeder Chunk hat dieselbe ID. Yes
choices array Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als ein Element enthalten, wenn n größer als 1 ist.
Yes
created integer Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. Jeder Chunk hat denselben Zeitstempel. Yes
model string Das Modell, um die Komplettierung zu erzeugen. Yes
system_fingerprint string Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft.
Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten.
No
object enum Der Objekttyp, der immer chat.completion.chunkist.
Mögliche Werte: chat.completion.chunk
Yes

chatCompletionStreamResponseDelta

Ein Chat-Abschluss-Delta, das durch gestreamte Modellantworten erzeugt wird.

Name Type Description Required Default
content string Der Inhalt der Chunk-Nachricht. No
function_call object Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. No
tool_calls array No
role enum Die Rolle des Verfassers dieser Botschaft.
Mögliche Werte: System, Benutzer, Assistent, Werkzeug
No
refusal string Die vom Modell generierte Ablehnungsnachricht. No

Eigenschaften für function_call

arguments

Name Type Description Default
arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst.

name

Name Type Description Default
name string Der Name der Funktion, die aufgerufen werden soll.

chatCompletionMessageToolCallChunk

Name Type Description Required Default
index integer Yes
id string Die ID des Werkzeugrufs. No
type enum Die Art des Werkzeugs. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
No
function object No

Eigenschaften der Funktion

name

Name Type Description Default
name string Der Name der Funktion, die aufgerufen werden soll.

arguments

Name Type Description Default
arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst.

chatCompletionStreamOptions

Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.

Name Type Description Required Default
include_usage boolean Wenn gesetzt, wird ein zusätzlicher Chunk vor der data: [DONE] Nachricht gestreamt. Das Feld usage in diesem Chunk zeigt die Token-Nutzungsstatistiken für die gesamte Anfrage, und das choices Feld bleibt immer ein leeres Array. Alle anderen Chunks enthalten ebenfalls ein Feld usage , allerdings mit einem Nullwert.
No

chatCompletionChoiceLogProbs

Protokollieren Sie die Wahrscheinlichkeitsinformationen für die Wahl.

Name Type Description Required Default
content array Eine Liste von Nachrichteninhaltstoken mit Log-Wahrscheinlichkeitsinformationen. Yes
refusal array Eine Liste von Nachrichten-Ablehnungstoken mit Log-Wahrscheinlichkeitsinformationen. No

chatCompletionTokenLogprob

Name Type Description Required Default
token string The token. Yes
logprob number Die Log-Wahrscheinlichkeit dieses Tokens. Yes
bytes array Eine Liste von ganzen Zahlen, die die UTF-8-Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und deren Byte-Darstellungen kombiniert werden müssen, um die korrekte Textrepräsentation zu erzeugen. Kann sein null , wenn es keine Bytes-Darstellung für das Token gibt. Yes
top_logprobs array Liste der wahrscheinlichsten Token und deren Log-Wahrscheinlichkeit an dieser Token-Position. In seltenen Fällen können weniger als die Anzahl der zurückgefragten top_logprobs Personen sein. Yes

chatCompletionResponseMessage

Eine vom Modell generierte Chat-Abschluss-Nachricht.

Name Type Description Required Default
role chatCompletionResponseMessageRole Die Rolle des Autors der Antwortnachricht. Yes
refusal string Die vom Modell generierte Ablehnungsnachricht. Yes
content string Der Inhalt der Nachricht. Yes
tool_calls array Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. No
function_call chatCompletionFunctionCall Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. No
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen verwendet werden
bei der Erstellung einer entsprechenden Chat-Komplettantwort. Diese Kontextinformationen werden nur dann ausgefüllt, wenn
mit einer Azure OpenAI-Anfrage, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird.
No

chatCompletionResponseMessageRole

Die Rolle des Autors der Antwortnachricht.

Beschreibung: Die Rolle des Autors der Antwortnachricht.

Type: string

Default:

Enum Values:

  • assistant

chatCompletionToolChoiceOption

Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert. auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann. required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen. none ist der Standard, wenn keine Werkzeuge vorhanden sind. auto ist der Standard, wenn Werkzeuge vorhanden sind.

Diese Komponente kann eine der folgenden sein:

chatCompletionNamedToolChoice

Spezifiziert ein Werkzeug, das das Modell verwenden soll. Verwenden Sie, um das Modell zu zwingen, eine bestimmte Funktion aufzurufen.

Name Type Description Required Default
type enum Die Art des Werkzeugs. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Yes
function object Yes

Eigenschaften der Funktion

name

Name Type Description Default
name string Der Name der Funktion, die aufgerufen werden soll.

ParallelToolCalls

Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionMessageToolCalls

Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden.

Name Type Description Required Default
name string Der Name der Funktion, die aufgerufen werden soll. Yes
arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. Yes

completionUsage

Nutzungsstatistiken für die Abschlussanfrage.

Name Type Description Required Default
prompt_tokens integer Anzahl der Tokens im Prompt. Yes
completion_tokens integer Anzahl der Token in der generierten Komplettierung. Yes
total_tokens integer Gesamtzahl der in der Anfrage verwendeten Token (Prompt + Abschluss). Yes
completion_tokens_details object Aufschlüsselung der in einer Komplettierung verwendeten Token. No

Eigenschaften für completion_tokens_details

reasoning_tokens

Name Type Description Default
reasoning_tokens integer Tokens, die vom Modell zur Argumentation generiert werden.

chatCompletionTool

Name Type Description Required Default
type enum Die Art des Werkzeugs. Derzeit wird nur function unterstützt.
Mögliche Werte: Funktion
Yes
function FunctionObject Yes

FunctionParameters

Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Type Description Required Default
description string Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. No
name string Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.
No
strict boolean Ob beim Erstellen des Funktionsaufrufs strikte Schema-Treue aktiviert werden soll. Wenn auf true gesetzt, folgt das Modell dem exakt im Feld parameters definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true No False

ResponseFormatText

Name Type Description Required Default
type enum Der definierte Antwortformat: text
Mögliche Werte: Text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Der definierte Antwortformat: json_object
Mögliche Werte: json_object
Yes

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Name Type Description Required Default
type enum Der definierte Antwortformat: json_schema
Mögliche Werte: json_schema
Yes
json_schema object Yes

Eigenschaften für json_schema

description

Name Type Description Default
description string Eine Beschreibung, wofür das Antwortformat dient, verwendet vom Modell zur Bestimmung der Antwort im Format.

name

Name Type Description Default
name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64.

schema

Name Type Description Default
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt.

strict

Name Type Description Default
strict boolean Ob strikte Schema-Compliance bei der Erzeugung der Ausgabe aktiviert werden soll. Setzt es auf wahr, folgt das Modell immer dem exakt im Feld schema definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true False

chatCompletionChoiceCommon

Name Type Description Required Default
index integer No
finish_reason string No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Die Audiodatei zum Übersetzen. Yes
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format json war

Name Type Description Required Default
text string Übersetzter oder transkribierter Text. Yes

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json

Name Type Description Required Default
text string Übersetzter oder transkribierter Text. Yes
task string Art von Audioaufgabe. No
language string Language. No
duration number Duration. No
segments array No

audioResponseFormat

Definiert das Format der Ausgabe.

Beschreibung: Definiert das Format der Ausgabe.

Type: string

Default:

Enum Values:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Das Audiodatei-Objekt, das transkribiert werden soll. Yes
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0
language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert Genauigkeit und Latenz. No

audioSegment

Transkriptions- oder Übersetzungssegment.

Name Type Description Required Default
id integer Segment identifier. No
seek number Versatz des Segments. No
start number Segmentstart-Offset. No
end number Segmentend-Offset. No
text string Segment text. No
tokens array Symbole des Textes. No
temperature number Temperature. No
avg_logprob number Durchschnittliche Log-Wahrscheinlichkeit. No
compression_ratio number Compression ratio. No
no_speech_prob number Wahrscheinlichkeit von no speech. No

imageQuality

Die Qualität des erzeugten Bildes.

Beschreibung: Die Qualität des erzeugten Bildes.

Type: string

Default: standard

Enum-Name: Qualität

Enum Values:

Value Description
standard Standardqualität erzeugt Bilder mit Standardqualität.
hd HD-Qualität erzeugt Bilder mit feineren Details und größerer Konsistenz im gesamten Bild.

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden.

Type: string

Default: url

Enum-Name: ImagesResponseFormat

Enum Values:

Value Description
url Die URL, die temporären Zugriff zum Download der generierten Bilder bietet.
b64_json Die erzeugten Bilder werden als base64-kodierte Zeichenkette zurückgegeben.

imageSize

Die Größe der generierten Bilder.

Beschreibung: Die Größe der generierten Bilder.

Type: string

Default: 1024x1024

Enum-Name: Größe

Enum Values:

Value Description
1792x1024 Die gewünschte Bildgröße beträgt 1792x1024 Pixel.
1024x1792 Die gewünschte Bildgröße beträgt 1024x1792 Pixel.
1024x1024 Die gewünschte Bildgröße beträgt 1024x1024 Pixel.

imageStyle

Der Stil der generierten Bilder.

Beschreibung: Der Stil der generierten Bilder.

Type: string

Default: vivid

Enum-Name: Stil

Enum Values:

Value Description
vivid Vivid schafft Bilder, die hyperrealistisch und dramatisch sind.
natural Natürlich erzeugt Bilder, die natürlicher und weniger hyperrealistisch sind.

imageGenerationsRequest

Name Type Description Required Default
prompt string Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 4.000 Zeichen. Yes
n integer Die Anzahl der zu erzeugenden Bilder. No 1
size imageSize Die Größe der generierten Bilder. No 1024x1024
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
quality imageQuality Die Qualität des erzeugten Bildes. No standard
style imageStyle Der Stil der generierten Bilder. No vivid

generateImagesResponse

Name Type Description Required Default
created integer Der Unix-Zeitstempel, als die Operation erstellt wurde. Yes
data array Die Ergebnisdaten der Operation, falls erfolgreich Yes

imageResult

Die Bild-URL oder das codierte Bild, falls erfolgreich, und ansonsten ein Fehler.

Name Type Description Required Default
url string Die Bild-URL. No
b64_json string Das base64-kodierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Inhaltsfilterergebnissen. No
revised_prompt string Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. No
prompt_filter_results dalleFilterResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. No

Completions extensions

Completions-Erweiterungen sind nicht Teil der neuesten GA-Version der Azure OpenAI Data Plane Inference Spec.

Chatmessage

Das Chat-Nachrichtenobjekt ist nicht Teil der neuesten GA-Version der Azure OpenAI Data Plane Inference Spec.

Text-zu-Sprache (Vorschau)

Ist derzeit nicht Teil der neuesten Azure OpenAI GA-Version der Azure OpenAI Data Plane Inference Spec. Siehe die neueste Version Preview für diese Funktion.

Next steps

Lerne mehr über Modelle und Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrundeliegenden Modelle, die Azure OpenAI antreiben.