Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel liefert Details zu den Inferenz-REST-API-Endpunkten für Azure OpenAI.
API specs
Die Verwaltung und Interaktion mit Azure OpenAI-Modellen und -Ressourcen ist auf drei Haupt-API-Oberflächen verteilt:
- Control plane
- Datenebene – Autoring
- Datenebene – Schlussfolgerung
Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API hat ihren eigenen einzigartigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA) API-Releases. Preview-Veröffentlichungen folgen derzeit meist einem monatlichen Rhythmus.
Important
Es gibt jetzt eine neue Vorschau-Inferenz-API. Erfahren Sie mehr in unserem API-Lebenszyklus-Leitfaden.
| API | Neueste Vorschau-Veröffentlichung | Neueste GA-Veröffentlichung | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | Die Control Plane API wird für Operationen wie Ressourcenerstellung, Modellbereitstellung und andere Aufgaben des höheren Ressourcenmanagements verwendet. Die Kontrollebene regelt außerdem, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist. |
| Data plane | v1 preview |
v1 |
Spec files | Die Data Plane API steuert Inferenz- und Autorenoperationen. |
Authentication
Azure OpenAI bietet zwei Methoden zur Authentifizierung an. Du kannst entweder API-Schlüssel oder Microsoft Entra ID verwenden.
API-Schlüssel-Authentifizierung: Für diese Art der Authentifizierung müssen alle API-Anfragen den API-Schlüssel im
api-keyHTTP-Header enthalten. Der Quickstart bietet Anleitungen, wie man mit dieser Art der Authentifizierung Anrufe tätigt.Microsoft Entra ID Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken sind in einer Anfrage als Header
Authorizationenthalten. Der bereitgestellte Token muss zum Beispiel vonBearervorangestellt werden, zum BeispielBearer YOUR_AUTH_TOKEN. Sie können unseren Anleitungsleitfaden zum Thema Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionierung
Die Service-APIs werden mit dem Abfrageparameter api-version versioniert. Alle Versionen folgen der YYYY-MM-DD Datumsstruktur. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenz der Datenebene
Der Rest des Artikels behandelt die GA-Veröffentlichung der Azure OpenAI Data Plane Inference Specification 2024-10-21.
Wenn Sie Dokumentation zur neuesten Preview-API-Version suchen, konsultieren Sie die neueste Preview Data Plane Inference API
Completions
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment-ID des Modells, das bereitgestellt wurde. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | Saite oder Array | Die Eingabeaufforderung(en) zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays. Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell generiert, wenn kein Prompt angegeben ist, als ob es vom Anfang eines neuen Dokuments stammt. |
Yes | |
| best_of | integer | Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn mit nverwendet, steuert die best_of Anzahl der Kandidatenabschlüsse und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als nsein.Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| echo | boolean | Echo den Prompt zusätzlich zum Abschluss |
No | False |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird. |
No | None |
| logprobs | integer | Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der fünf wahrscheinlichsten Token zurück. Die API gibt immer das logprob von dem abgetasteten Token zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.Der maximale Wert für logprobs ist 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl der Token, die im Completion generiert werden können. Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Abschlüsse für jeden Prompt generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| seed | integer | Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| stop | Saite oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht. |
No | |
| stream | boolean | Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als reine datenbasierte servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. |
No | False |
| suffix | string | Das Suffix, das nach dem Abschluss des eingefügten Textes kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse | Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch die nicht gestreamten Antwortobjekte haben die gleiche Form (im Gegensatz zum Chat-Endpunkt). |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Erhalten Sie eine Vektordarstellung eines gegebenen Inputs, die leicht von Machine-Learning-Modellen und Algorithmen verbraucht werden kann.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | Saite oder Array | Geben Sie den Text ein, der eingebettet wird, kodiert als String oder Array von Tokens. Um mehrere Eingaben in einer einzigen Anfrage einzubetten, übergeben Sie ein Array von Strings oder ein Array von Token-Arrays. Die Eingabe darf die maximalen Eingabetoken des Modells (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenkette sein, und jedes Array muss 2.048 Dimensionen oder weniger haben. |
Yes | |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| input_type | string | Eingabetyp der Einbettungssuche zur Verwendung | No | |
| encoding_format | string | Das Format, um die Einbettungen zurückzugeben. Es kann entweder float oder base64sein. Standardmäßig gilt float. |
No | |
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabe-Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. |
No |
Responses
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| object | string | Yes | ||
| model | string | Yes | ||
| data | array | Yes | ||
| usage | object | Yes |
Nutzungseigenschaften
prompt_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| prompt_tokens | integer |
total_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| total_tokens | integer |
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Geben Sie die Einbettungen für einen bestimmten Prompt zurück.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat completions
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Erstellt eine Vervollständigung der Chatnachricht
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment-ID des Modells, das bereitgestellt wurde. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| stream | boolean | Wenn gesetzt, werden teilweise Nachrichten-Deltas gesendet, wie bei ChatGPT. Tokens werden als rein datenbasierte, servergesendete Events gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. |
No | False |
| stop | Saite oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
No | |
| max_tokens | integer | Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann. Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt. |
No | |
| max_completion_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. |
No | None |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No | |
| messages | array | Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. | Yes | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| logprobs | boolean | Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. |
No | False |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit.
logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. |
No | |
| n | integer | Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Beachte, dass du basierend auf der Anzahl der generierten Token in allen Optionen berechnet wirst. Achten Sie n darauf, 1 die Kosten zu minimieren. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt.Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Diese Funktion befindet sich noch in der Beta. Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| tools | array | Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen.
none ist der Standard, wenn keine Werkzeuge vorhanden sind.
auto ist der Standard, wenn Werkzeuge vorhanden sind. |
No | |
| function_call | string oder chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird. none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.none ist der Standard, wenn keine Funktionen vorhanden sind.
auto ist der Standard, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createChatCompletionResponse oder createChatCompletionStreamResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung basierend auf Azure Search-Daten und systemzugewiesener verwalteter Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung basierend auf Azure Search-Vektordaten, einer vorherigen Assistentennachricht und einer vom Benutzer zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die bereitgestellte Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transkribiert Audio in die Eingabesprache.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment-ID des Sprach-zu-Text-Modells. Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Das Audiodatei-Objekt, das transkribiert werden soll. | Yes | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
| language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert Genauigkeit und Latenz. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse oder audioVerboseResponse | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format eines von Text, vtt oder srt war). |
Examples
Example
Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transkribiert und übersetzt Eingabeaudio in englischen Text.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment-ID des Whisper-Modells, das eingesetzt wurde. Informationen zu unterstützten Modellen finden Sie unter [/azure/ai-foundry/openai/concepts/models#audio-models]. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die Audiodatei zum Übersetzen. | Yes | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | audioResponse oder audioVerboseResponse | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format eines von Text, vtt oder srt war). |
Examples
Example
Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Image generation
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Erzeugt eine Charge von Bildern aus einer Textunterschrift in einer gegebenen Dall-e-Modell-Bereitstellung
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Deployment-ID des dall-e-Modells, das implementiert wurde. |
| api-version | query | Yes | string | API version |
Request Header
| Name | Required | Type | Description |
|---|---|---|---|
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 4.000 Zeichen. | Yes | |
| n | integer | Die Anzahl der zu erzeugenden Bilder. | No | 1 |
| size | imageSize | Die Größe der generierten Bilder. | No | 1024x1024 |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| quality | imageQuality | Die Qualität des erzeugten Bildes. | No | standard |
| style | imageStyle | Der Stil der generierten Bilder. | No | vivid |
Responses
Statuscode: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Ein Fehler ist aufgetreten.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Erstellt Bilder mit einem Prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | No |
innerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | No | |
| content_filter_results | contentFilterPromptResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. | No |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt.
Beschreibung: Fehlercodes für das innere Fehlerobjekt.
Type: string
Default:
Enum-Name: InnerErrorCode
Enum Values:
| Value | Description |
|---|---|
| ResponsibleAIPolicyViolation | Der Prompt verstieß gegen eine oder weitere Inhaltsfilterregeln. |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| param | string | No | ||
| type | string | No | ||
| inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | No |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | No | |
| content_filter_results | dalleFilterResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. | No | |
| revised_prompt | string | Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. | No |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| detected | boolean | No |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No |
Eigenschaften für die Quellenangaben
URL
| Name | Type | Description | Default |
|---|---|---|---|
| URL | string |
license
| Name | Type | Description | Default |
|---|---|---|---|
| license | string |
contentFilterResultsBase
Informationen zu den Inhaltsfilterergebnissen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No |
contentFilterPromptResults
Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| jailbreak | contentFilterDetectedResult | No |
contentFilterChoiceResults
Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen über Texte und Schimpfwörter von Drittanbietern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| error | errorBase | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No |
promptFilterResult
Inhaltsfilterung führt für einen einzelnen Prompt in der Anfrage.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_index | integer | No | ||
| content_filter_results | contentFilterPromptResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. | No |
promptFilterResults
Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
Für diese Komponente sind keine Eigenschaften definiert.
dalleContentFilterResults
Informationen zu den Inhaltsfilterergebnissen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No |
dalleFilterResults
Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No | ||
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| stream | boolean | Wenn gesetzt, werden teilweise Nachrichten-Deltas gesendet, wie bei ChatGPT. Tokens werden als rein datenbasierte, servergesendete Events gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. |
No | False |
| stop | Saite oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | No | |
| max_tokens | integer | Die maximale Anzahl der Token, die für die generierte Antwort erlaubt war. Standardmäßig beträgt die Anzahl der Tokens, die das Modell zurückgeben kann, (4096 – Prompt-Token). Dieser Wert wurde nun zugunsten von max_completion_tokensverlagert und ist nicht mehr mit O1-Modellen kompatibel. |
No | 4096 |
| max_completion_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. | No | 0 |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. | No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. | No | |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | Saite oder Array | Die Eingabeaufforderung(en) zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays. Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell generiert, wenn kein Prompt angegeben ist, als ob es vom Anfang eines neuen Dokuments stammt. |
Yes | |
| best_of | integer | Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn mit nverwendet, steuert die best_of Anzahl der Kandidatenabschlüsse und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als nsein.Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| echo | boolean | Echo den Prompt zusätzlich zum Abschluss |
No | False |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird. |
No | None |
| logprobs | integer | Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der fünf wahrscheinlichsten Token zurück. Die API gibt immer das logprob von dem abgetasteten Token zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.Der maximale Wert für logprobs ist 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl der Token, die im Completion generiert werden können. Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Abschlüsse für jeden Prompt generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| seed | integer | Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| stop | Saite oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht. |
No | |
| stream | boolean | Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als reine datenbasierte servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. |
No | False |
| suffix | string | Das Suffix, das nach dem Abschluss des eingefügten Textes kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No |
createCompletionResponse
Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch die nicht gestreamten Antwortobjekte haben die gleiche Form (im Gegensatz zum Chat-Endpunkt).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Eine eindeutige Kennung für den Abschluss. | Yes | |
| choices | array | Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat. | Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, an dem die Fertigstellung erstellt wurde. | Yes | |
| model | string | Das Modell, das für die Fertigstellung verwendet wird. | Yes | |
| prompt_filter_results | promptFilterResults | Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft. Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten. |
No | |
| object | enum | Der Objekttyp, der immer "text_completion" ist. Mögliche Werte: text_completion |
Yes | |
| usage | completionUsage | Nutzungsstatistiken für die Abschlussanfrage. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| stream | boolean | Wenn gesetzt, werden teilweise Nachrichten-Deltas gesendet, wie bei ChatGPT. Tokens werden als rein datenbasierte, servergesendete Events gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. |
No | False |
| stop | Saite oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
No | |
| max_tokens | integer | Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann. Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt. |
No | |
| max_completion_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. |
No | None |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No | |
| messages | array | Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. | Yes | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| logprobs | boolean | Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. |
No | False |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit.
logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. |
No | |
| n | integer | Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Beachte, dass du basierend auf der Anzahl der generierten Token in allen Optionen berechnet wirst. Achten Sie n darauf, 1 die Kosten zu minimieren. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt.Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Diese Funktion befindet sich noch in der Beta. Wenn dies angegeben ist, wird unser System deterministisch abtasten, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern sollten.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| tools | array | Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt. |
No | |
| tool_choice | chatCompletionToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen.
none ist der Standard, wenn keine Werkzeuge vorhanden sind.
auto ist der Standard, wenn Werkzeuge vorhanden sind. |
No | |
| function_call | string oder chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird. none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.none ist der Standard, wenn keine Funktionen vorhanden sind.
auto ist der Standard, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben.
Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format. Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste. |
No |
chatCompletionFunctionCallOption
Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes |
chatCompletionRequestMessage
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Systemnachricht. | Yes | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall system.Mögliche Werte: System |
Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Benutzernachricht. |
Yes | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall user.Mögliche Werte: Benutzer |
Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Assistentennachricht. Erforderlich, sofern tool_calls nicht angegeben oder function_call angegeben ist. |
No | |
| refusal | string | Die Ablehnungsnachricht der Assistentin. | No | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall assistant.Mögliche Werte: Assistent |
Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No | |
| tool_calls | chatCompletionMessageToolCalls | Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. | No | |
| function_call | object | Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. |
No |
Eigenschaften für function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall tool.Mögliche Werte: Werkzeug |
Yes | |
| content | Saite oder Array | Der Inhalt der Werkzeugnachricht. | Yes | |
| tool_call_id | string | Tool-Anruf, auf den diese Nachricht reagiert. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall function.Mögliche Werte: Funktion |
Yes | |
| content | string | Der Inhalt der Funktionsnachricht. | Yes | |
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes |
chatCompletionRequestSystemMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestUserMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestAssistantMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestToolMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art des Inhalts. Mögliche Werte: Text |
Yes | |
| text | string | Der Textinhalt. | Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art des Inhalts. Mögliche Werte: image_url |
Yes | |
| image_url | object | Yes |
Eigenschaften für image_url
url
| Name | Type | Description | Default |
|---|---|---|---|
| url | string | Entweder eine URL des Bildes oder die von base64 codierten Bilddaten. |
detail
| Name | Type | Description | Default |
|---|---|---|---|
| detail | string | Spezifiziert den Detailgrad des Bildes. Erfahren Sie mehr im Vision-Leitfaden. | auto |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art des Inhalts. Mögliche Werte: Ablehnung |
Yes | |
| refusal | string | Die vom Modell generierte Ablehnungsnachricht. | Yes |
azureChatExtensionConfiguration
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dieser wird von einem Chat genutzt Komplettierungen verlangen, dass Azure OpenAI Chat-Erweiterungen verwendet werden sollten, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureChatExtensionType
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Beschreibung: Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Type: string
Default:
Enum Name: AzureChatExtensionType
Enum Values:
| Value | Description |
|---|---|
| azure_search | Stellt die Nutzung von Azure Search als Azure OpenAI Chat-Erweiterung dar. |
| azure_cosmos_db | Stellt die Nutzung von Azure Cosmos DB als Azure OpenAI Chat-Erweiterung dar. |
azureSearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search bei Verwendung als Azure OpenAI Chat-Erweiterung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dieser wird von einem Chat genutzt Komplettierungen verlangen, dass Azure OpenAI Chat-Erweiterungen verwendet werden sollten, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes | |
| parameters | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden. | No |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions | Yes | ||
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| role_information | string | Gib dem Modell Anweisungen, wie es sich verhalten soll und welchen Kontext es beim Erstellen einer Antwort beziehen soll. Du kannst die Persönlichkeit des Assistenten beschreiben und ihm sagen, wie er Antworten formatieren soll. Dafür gibt es ein Limit von 100 Tokens, und das zählt gegen das Gesamt-Token-Limit. | No | |
| endpoint | string | Der absolute Endpunktpfad für die Azure Search-Ressource. | Yes | |
| index_name | string | Der Name des Indexes, der in der referenzierten Azure Search-Ressource verfügbar ist. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird. | No | |
| query_type | azureSearchQueryType | Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird. | No | |
| semantic_configuration | string | Die zusätzliche semantische Konfiguration für die Abfrage. | No | |
| filter | string | Search filter. | No | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | No |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | No | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten repräsentieren. | No |
azureSearchQueryType
Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.
Description: Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.
Type: string
Default:
Enum Name: AzureSearchQueryType
Enum Values:
| Value | Description |
|---|---|
| simple | Stellt den Standard-Simple-Abfrageparser dar. |
| semantic | Repräsentiert den semantischen Abfrageparser für fortgeschrittene semantische Modellierung. |
| vector | Repräsentiert die Vektorsuche über berechneten Daten. |
| vector_simple_hybrid | Stellt eine Kombination aus der einfachen Abfragestrategie mit Vektordaten dar. |
| vector_semantic_hybrid | Repräsentiert eine Kombination aus semantischer Suche und Vektordatenabfragen. |
azureCosmosDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dieser wird von einem Chat genutzt Komplettierungen verlangen, dass Azure OpenAI Chat-Erweiterungen verwendet werden sollten, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes | |
| parameters | azureCosmosDBChatExtensionParameters | Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB verwendet, für MongoDB vCore. |
No |
azureCosmosDBChatExtensionParameters
Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB für MongoDB vCore verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge. | Yes | |
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| role_information | string | Gib dem Modell Anweisungen, wie es sich verhalten soll und welchen Kontext es beim Erstellen einer Antwort beziehen soll. Du kannst die Persönlichkeit des Assistenten beschreiben und ihm sagen, wie er Antworten formatieren soll. Dafür gibt es ein Limit von 100 Tokens, und das zählt gegen das Gesamt-Token-Limit. | No | |
| database_name | string | Der Name der MongoDB vCore-Datenbank zur Verwendung mit Azure Cosmos DB. | Yes | |
| container_name | string | Der Name des Azure Cosmos DB Resource Containers. | Yes | |
| index_name | string | Der MongoDB vCore-Indexname zur Verwendung mit Azure Cosmos DB. | Yes | |
| fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | Yes | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten repräsentieren. | Yes |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataAuthenticationType
Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.
Beschreibung: Die mit Azure OpenAI On Your Data unterstützten Authentifizierungstypen.
Type: string
Default:
Enum-Name: OnYourDataAuthenticationType
Enum Values:
| Value | Description |
|---|---|
| api_key | Authentifizierung über API-Schlüssel. |
| connection_string | Authentifizierung über Verbindungszeichenfolge. |
| system_assigned_managed_identity | Authentifizierung über systemzugewiesene verwaltete Identität. |
| user_assigned_managed_identity | Authentifizierung über benutzerdefinierte verwaltete Identität. |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes | |
| key | string | Der API-Schlüssel zur Authentifizierung. | No |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes | |
| connection_string | string | Die Verbindungszeichenfolge zur Authentifizierung. | No |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer systemzugeordneten verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer benutzerdefinierten verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes | |
| managed_identity_resource_id | string | Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität zur Verwendung zur Authentifizierung. | No |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data nutzen kann, um die Vektorisierung von Daten für die Verwendung mit zu konfigurieren vector search. |
Yes |
onYourDataVectorizationSourceType
Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren.
Beschreibung: Repräsentiert die verfügbaren Quellen Azure OpenAI On Your Data zur Konfiguration der Vektorisierung von Daten für die Verwendung mit
vector search.
Type: string
Default:
Enum-Name: OnYourDataVectorizationSourceType
Enum Values:
| Value | Description |
|---|---|
| endpoint | Repräsentiert die Vektorisierung, die durch öffentliche Serviceaufrufe an ein Azure OpenAI-Embedding-Modell durchgeführt wird. |
| deployment_name | Stellt einen Ada-Modell-Deployment-Namen dar, der verwendet werden soll. Diese Modellbereitstellung muss in derselben Azure OpenAI-Ressource erfolgen, aber On Your Data verwendet dieses Modell über einen internen Aufruf statt eines öffentlichen Aufrufs, was Vector ermöglicht Suche sogar in privaten Netzwerken. |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem internen Embeddings-Modell-Deploymentsnamen in derselben Azure OpenAI-Ressource basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data nutzen kann, um die Vektorisierung von Daten für die Verwendung mit zu konfigurieren vector search. |
Yes | |
| deployment_name | string | Spezifiziert den Namen der Modellbereitstellung, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss in derselben Azure OpenAI-Ressource erfolgen, aber On Your Data verwendet diese Modellbereitstellung über einen internen Aufruf statt eines öffentlichen Aufrufs, was Vektorsuche auch in privaten Netzwerken ermöglicht. | No |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Embeddings basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data nutzen kann, um die Vektorisierung von Daten für die Verwendung mit zu konfigurieren vector search. |
Yes | |
| authentication | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels. | No | |
| endpoint | string | Spezifiziert den Endpunkt für die Vektorisierung. Dieser Endpunkt muss in derselben Azure OpenAI-Ressource liegen, aber On Your Data wird diesen Endpunkt über einen internen Aufruf statt eines öffentlichen verwenden, was auch in privaten Netzwerken eine Vektorsuche ermöglicht. | No |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chat-Erweiterungen an der Erstellung einer entsprechenden Antwort auf Chat-Abschlüsse beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anfrage verwendet wird, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citations | array | Das Ergebnis der Datenquellenabruf, das zur Erzeugung der Assistentennachricht in der Antwort verwendet wird. | No | |
| intent | string | Die erkannte Absicht aus dem Chatverlauf wurde verwendet, um an die nächste Runde weitergegeben zu werden, um den Kontext zu übertragen. | No |
citation
Zitationsinformationen für eine Chat-Komplettantwort-Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Zitate. | Yes | |
| title | string | Der Titel der Auszeichnung. | No | |
| url | string | Die URL des Zitats. | No | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| chunk_id | string | Die Chunk-ID der Strafzettel. | No |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die ID des Werkzeugrufs. | Yes | |
| type | toolCallType | Der Typ des Werkzeugaufrufs, in diesem Fall function. |
Yes | |
| function | object | Die Funktion, die das Modell aufgerufen hat. | Yes |
Eigenschaften der Funktion
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. |
toolCallType
Der Typ des Werkzeugaufrufs, in diesem Fall function.
Beschreibung: Der Typ des Werkzeugaufrufs, in diesem Fall function.
Type: string
Default:
Enum-Name: ToolCallType
Enum Values:
| Value | Description |
|---|---|
| function | Der Werkzeugaufruftyp ist Funktion. |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_call_id | string | Tool-Anruf, auf den diese Nachricht reagiert. | No | |
| content | string | Der Inhalt der Nachricht. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall function.Mögliche Werte: Funktion |
No | |
| name | string | Der Inhalt der Nachricht. | No | |
| content | string | Der Inhalt der Nachricht. | No |
createChatCompletionResponse
Repräsentiert eine vom Modell zurückgegebene Chat-Abschlussantwort, basierend auf der bereitgestellten Eingabe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Eine eindeutige Kennung für den Abschluss des Chats. | Yes | |
| prompt_filter_results | promptFilterResults | Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
| choices | array | Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als eins sein, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. | Yes | |
| model | string | Das Modell, das für den Chat-Abschluss verwendet wird. | Yes | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft. Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten. |
No | |
| object | enum | Der Objekttyp, der immer chat.completionist.Mögliche Werte: chat.completion |
Yes | |
| usage | completionUsage | Nutzungsstatistiken für die Abschlussanfrage. | No |
createChatCompletionStreamResponse
Repräsentiert einen gestreamten Chunk einer Chat-Abschlussantwort, die vom Modell auf Basis der bereitgestellten Eingabe zurückgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Eine eindeutige Kennung für den Abschluss des Chats. Jeder Chunk hat dieselbe ID. | Yes | |
| choices | array | Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als ein Element enthalten, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. Jeder Chunk hat denselben Zeitstempel. | Yes | |
| model | string | Das Modell, um die Komplettierung zu erzeugen. | Yes | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft. Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten. |
No | |
| object | enum | Der Objekttyp, der immer chat.completion.chunkist.Mögliche Werte: chat.completion.chunk |
Yes |
chatCompletionStreamResponseDelta
Ein Chat-Abschluss-Delta, das durch gestreamte Modellantworten erzeugt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Chunk-Nachricht. | No | |
| function_call | object | Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. |
No | |
| tool_calls | array | No | ||
| role | enum | Die Rolle des Verfassers dieser Botschaft. Mögliche Werte: System, Benutzer, Assistent, Werkzeug |
No | |
| refusal | string | Die vom Modell generierte Ablehnungsnachricht. | No |
Eigenschaften für function_call
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Yes | ||
| id | string | Die ID des Werkzeugrufs. | No | |
| type | enum | Die Art des Werkzeugs. Derzeit wird nur function unterstützt.Mögliche Werte: Funktion |
No | |
| function | object | No |
Eigenschaften der Funktion
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. |
arguments
| Name | Type | Description | Default |
|---|---|---|---|
| arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. |
chatCompletionStreamOptions
Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Wenn gesetzt, wird ein zusätzlicher Chunk vor der data: [DONE] Nachricht gestreamt. Das Feld usage in diesem Chunk zeigt die Token-Nutzungsstatistiken für die gesamte Anfrage, und das choices Feld bleibt immer ein leeres Array. Alle anderen Chunks enthalten ebenfalls ein Feld usage , allerdings mit einem Nullwert. |
No |
chatCompletionChoiceLogProbs
Protokollieren Sie die Wahrscheinlichkeitsinformationen für die Wahl.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Eine Liste von Nachrichteninhaltstoken mit Log-Wahrscheinlichkeitsinformationen. | Yes | |
| refusal | array | Eine Liste von Nachrichten-Ablehnungstoken mit Log-Wahrscheinlichkeitsinformationen. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| token | string | The token. | Yes | |
| logprob | number | Die Log-Wahrscheinlichkeit dieses Tokens. | Yes | |
| bytes | array | Eine Liste von ganzen Zahlen, die die UTF-8-Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und deren Byte-Darstellungen kombiniert werden müssen, um die korrekte Textrepräsentation zu erzeugen. Kann sein null , wenn es keine Bytes-Darstellung für das Token gibt. |
Yes | |
| top_logprobs | array | Liste der wahrscheinlichsten Token und deren Log-Wahrscheinlichkeit an dieser Token-Position. In seltenen Fällen können weniger als die Anzahl der zurückgefragten top_logprobs Personen sein. |
Yes |
chatCompletionResponseMessage
Eine vom Modell generierte Chat-Abschluss-Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | chatCompletionResponseMessageRole | Die Rolle des Autors der Antwortnachricht. | Yes | |
| refusal | string | Die vom Modell generierte Ablehnungsnachricht. | Yes | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| tool_calls | array | Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. | No | |
| function_call | chatCompletionFunctionCall | Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. |
No | |
| context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen verwendet werden bei der Erstellung einer entsprechenden Chat-Komplettantwort. Diese Kontextinformationen werden nur dann ausgefüllt, wenn mit einer Azure OpenAI-Anfrage, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird. |
No |
chatCompletionResponseMessageRole
Die Rolle des Autors der Antwortnachricht.
Beschreibung: Die Rolle des Autors der Antwortnachricht.
Type: string
Default:
Enum Values:
- assistant
chatCompletionToolChoiceOption
Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen.
none ist der Standard, wenn keine Werkzeuge vorhanden sind.
auto ist der Standard, wenn Werkzeuge vorhanden sind.
Diese Komponente kann eine der folgenden sein:
chatCompletionNamedToolChoice
Spezifiziert ein Werkzeug, das das Modell verwenden soll. Verwenden Sie, um das Modell zu zwingen, eine bestimmte Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art des Werkzeugs. Derzeit wird nur function unterstützt.Mögliche Werte: Funktion |
Yes | |
| function | object | Yes |
Eigenschaften der Funktion
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. |
ParallelToolCalls
Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionMessageToolCalls
Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionFunctionCall
Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes | |
| arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachten Sie, dass das Modell nicht immer gültiges JSON generiert und möglicherweise Parameter erzeugt, die nicht von Ihrem Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. | Yes |
completionUsage
Nutzungsstatistiken für die Abschlussanfrage.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Anzahl der Tokens im Prompt. | Yes | |
| completion_tokens | integer | Anzahl der Token in der generierten Komplettierung. | Yes | |
| total_tokens | integer | Gesamtzahl der in der Anfrage verwendeten Token (Prompt + Abschluss). | Yes | |
| completion_tokens_details | object | Aufschlüsselung der in einer Komplettierung verwendeten Token. | No |
Eigenschaften für completion_tokens_details
reasoning_tokens
| Name | Type | Description | Default |
|---|---|---|---|
| reasoning_tokens | integer | Tokens, die vom Modell zur Argumentation generiert werden. |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art des Werkzeugs. Derzeit wird nur function unterstützt.Mögliche Werte: Funktion |
Yes | |
| function | FunctionObject | Yes |
FunctionParameters
Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.
Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.
Für diese Komponente sind keine Eigenschaften definiert.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben.
Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format. Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste. |
No | |
| strict | boolean | Ob beim Erstellen des Funktionsaufrufs strikte Schema-Treue aktiviert werden soll. Wenn auf true gesetzt, folgt das Modell dem exakt im Feld parameters definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der definierte Antwortformat: textMögliche Werte: Text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der definierte Antwortformat: json_objectMögliche Werte: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der definierte Antwortformat: json_schemaMögliche Werte: json_schema |
Yes | |
| json_schema | object | Yes |
Eigenschaften für json_schema
description
| Name | Type | Description | Default |
|---|---|---|---|
| description | string | Eine Beschreibung, wofür das Antwortformat dient, verwendet vom Modell zur Bestimmung der Antwort im Format. |
name
| Name | Type | Description | Default |
|---|---|---|---|
| name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. |
schema
| Name | Type | Description | Default |
|---|---|---|---|
| schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt. |
strict
| Name | Type | Description | Default |
|---|---|---|---|
| strict | boolean | Ob strikte Schema-Compliance bei der Erzeugung der Ausgabe aktiviert werden soll. Setzt es auf wahr, folgt das Modell immer dem exakt im Feld schema definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true |
False |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | No | ||
| finish_reason | string | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die Audiodatei zum Übersetzen. | Yes | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format json war
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Übersetzter oder transkribierter Text. | Yes |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Übersetzter oder transkribierter Text. | Yes | |
| task | string | Art von Audioaufgabe. | No | |
| language | string | Language. | No | |
| duration | number | Duration. | No | |
| segments | array | No |
audioResponseFormat
Definiert das Format der Ausgabe.
Beschreibung: Definiert das Format der Ausgabe.
Type: string
Default:
Enum Values:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Das Audiodatei-Objekt, das transkribiert werden soll. | Yes | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Setzt es auf 0, verwendet das Modell die logaritmische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
| language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert Genauigkeit und Latenz. | No |
audioSegment
Transkriptions- oder Übersetzungssegment.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | integer | Segment identifier. | No | |
| seek | number | Versatz des Segments. | No | |
| start | number | Segmentstart-Offset. | No | |
| end | number | Segmentend-Offset. | No | |
| text | string | Segment text. | No | |
| tokens | array | Symbole des Textes. | No | |
| temperature | number | Temperature. | No | |
| avg_logprob | number | Durchschnittliche Log-Wahrscheinlichkeit. | No | |
| compression_ratio | number | Compression ratio. | No | |
| no_speech_prob | number | Wahrscheinlichkeit von no speech. |
No |
imageQuality
Die Qualität des erzeugten Bildes.
Beschreibung: Die Qualität des erzeugten Bildes.
Type: string
Default: standard
Enum-Name: Qualität
Enum Values:
| Value | Description |
|---|---|
| standard | Standardqualität erzeugt Bilder mit Standardqualität. |
| hd | HD-Qualität erzeugt Bilder mit feineren Details und größerer Konsistenz im gesamten Bild. |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
Beschreibung: Das Format, in dem die generierten Bilder zurückgegeben werden.
Type: string
Default: url
Enum-Name: ImagesResponseFormat
Enum Values:
| Value | Description |
|---|---|
| url | Die URL, die temporären Zugriff zum Download der generierten Bilder bietet. |
| b64_json | Die erzeugten Bilder werden als base64-kodierte Zeichenkette zurückgegeben. |
imageSize
Die Größe der generierten Bilder.
Beschreibung: Die Größe der generierten Bilder.
Type: string
Default: 1024x1024
Enum-Name: Größe
Enum Values:
| Value | Description |
|---|---|
| 1792x1024 | Die gewünschte Bildgröße beträgt 1792x1024 Pixel. |
| 1024x1792 | Die gewünschte Bildgröße beträgt 1024x1792 Pixel. |
| 1024x1024 | Die gewünschte Bildgröße beträgt 1024x1024 Pixel. |
imageStyle
Der Stil der generierten Bilder.
Beschreibung: Der Stil der generierten Bilder.
Type: string
Default: vivid
Enum-Name: Stil
Enum Values:
| Value | Description |
|---|---|
| vivid | Vivid schafft Bilder, die hyperrealistisch und dramatisch sind. |
| natural | Natürlich erzeugt Bilder, die natürlicher und weniger hyperrealistisch sind. |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prompt | string | Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 4.000 Zeichen. | Yes | |
| n | integer | Die Anzahl der zu erzeugenden Bilder. | No | 1 |
| size | imageSize | Die Größe der generierten Bilder. | No | 1024x1024 |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| quality | imageQuality | Die Qualität des erzeugten Bildes. | No | standard |
| style | imageStyle | Der Stil der generierten Bilder. | No | vivid |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Der Unix-Zeitstempel, als die Operation erstellt wurde. | Yes | |
| data | array | Die Ergebnisdaten der Operation, falls erfolgreich | Yes |
imageResult
Die Bild-URL oder das codierte Bild, falls erfolgreich, und ansonsten ein Fehler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| url | string | Die Bild-URL. | No | |
| b64_json | string | Das base64-kodierte Bild | No | |
| content_filter_results | dalleContentFilterResults | Informationen zu den Inhaltsfilterergebnissen. | No | |
| revised_prompt | string | Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. | No | |
| prompt_filter_results | dalleFilterResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundenblockliste, falls sie gefiltert wurde und deren ID. | No |
Completions extensions
Completions-Erweiterungen sind nicht Teil der neuesten GA-Version der Azure OpenAI Data Plane Inference Spec.
Chatmessage
Das Chat-Nachrichtenobjekt ist nicht Teil der neuesten GA-Version der Azure OpenAI Data Plane Inference Spec.
Text-zu-Sprache (Vorschau)
Ist derzeit nicht Teil der neuesten Azure OpenAI GA-Version der Azure OpenAI Data Plane Inference Spec. Siehe die neueste Version Preview für diese Funktion.
Next steps
Lerne mehr über Modelle und Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrundeliegenden Modelle, die Azure OpenAI antreiben.