Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel liefert Details zu den Inferenz-REST-API-Endpunkten für Azure OpenAI.
API specs
Die Verwaltung und Interaktion mit Azure OpenAI-Modellen und -Ressourcen ist auf drei Haupt-API-Oberflächen verteilt:
- Control plane
- Datenebene – Autoring
- Datenebene – Schlussfolgerung
Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API hat ihren eigenen einzigartigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA) API-Releases. Preview-Veröffentlichungen folgen derzeit meist einem monatlichen Rhythmus.
Important
Es gibt jetzt eine neue Vorschau-Inferenz-API. Erfahren Sie mehr in unserem API-Lebenszyklus-Leitfaden.
| API | Neueste Vorschau-Veröffentlichung | Neueste GA-Veröffentlichung | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | Die Control Plane API wird für Operationen wie Ressourcenerstellung, Modellbereitstellung und andere Aufgaben des höheren Ressourcenmanagements verwendet. Die Kontrollebene regelt außerdem, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist. |
| Data plane | v1 preview |
v1 |
Spec files | Die Data Plane API steuert Inferenz- und Autorenoperationen. |
Authentication
Azure OpenAI bietet zwei Methoden zur Authentifizierung an. Du kannst entweder API-Schlüssel oder Microsoft Entra ID verwenden.
API-Schlüssel-Authentifizierung: Für diese Art der Authentifizierung müssen alle API-Anfragen den API-Schlüssel im
api-keyHTTP-Header enthalten. Der Quickstart bietet Anleitungen, wie man mit dieser Art der Authentifizierung Anrufe tätigt.Microsoft Entra ID Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken sind in einer Anfrage als Header
Authorizationenthalten. Der bereitgestellte Token muss zum Beispiel vonBearervorangestellt werden, zum BeispielBearer YOUR_AUTH_TOKEN. Sie können unseren Anleitungsleitfaden zum Thema Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionierung
Die Service-APIs werden mit dem Abfrageparameter api-version versioniert. Alle Versionen folgen der YYYY-MM-DD Datumsstruktur. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferenz der Datenebene
Der Rest des Artikels behandelt die 2025-04-01-preview Vorschauversion der Azure OpenAI Data Plane Inference Specification.
Wenn Sie nach Dokumentation zur neuesten GA API-Version suchen, konsultieren Sie die neueste GA Data Plane Inference API
Vervollständigungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Verwendet mit n, best_of steuert er die Anzahl der Kandidatenabschlüsse und n gibt an, wie viele zurückzugeben sind. âìâì“ best_of muss größer als nsein.Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| echo | boolean | Echo den Prompt zusätzlich zum Abschluss | No | False |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. | No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird die Verzerrung zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird. |
No | None |
| logprobs | integer | Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der 5 wahrscheinlichsten Token zurück. Die API gibt immer das logprob des abgetasteten Tokens zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.Der maximale Wert für logprobs ist 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl der Token, die im Completion generiert werden können. Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Abschlüsse für jeden Prompt generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. | No | 0 |
| prompt | Saite oder Array | Der Prompt zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays. Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell bei fehlender Eingabeaufforderung als vom Anfang eines neuen Dokuments generiert. |
Yes | |
| seed | integer | Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| stop | Saite oder Array | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht. | No | |
| stream | boolean | Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird.
Beispiel Python Code. |
No | False |
| suffix | string | Das Suffix, das nach dem Abschluss des eingefügten Textes kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Einbettungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Erhalten Sie eine Vektordarstellung eines gegebenen Inputs, die leicht von Machine-Learning-Modellen und Algorithmen verbraucht werden kann.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Die Deployment-ID des Modells, das bereitgestellt wurde. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabe-Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. |
No | |
| encoding_format | string | Das Format, um die Einbettungen zurückzugeben. Es kann entweder float oder base64sein. Standardmäßig gilt float. |
No | |
| input | Saite oder Array | Geben Sie den Text ein, der eingebettet wird, kodiert als String oder Array von Tokens. Um mehrere Eingaben in einer einzigen Anfrage einzubetten, übergeben Sie ein Array von Strings oder ein Array von Token-Arrays. Die Eingabe darf die maximalen Eingabetoken des Modells (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenkette sein, und jedes Array muss 2.048 Dimensionen oder weniger haben. |
Yes | |
| input_type | string | Eingabetyp der Einbettungssuche zur Verwendung | No | |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Geben Sie die Einbettungen für einen bestimmten Prompt zurück.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chat-Komplettierungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Erstellt eine Vervollständigung der Chatnachricht
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für den Audioausgang. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]angefordert wird. |
No | |
| └─ format | enum | Spezifiziert das Ausgabe-Audioformat. Muss einer von wav, mp3, flac, , opusoder pcm16sein. Mögliche Werte: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Spezifiziert den Sprachtyp. Unterstützte Stimmen sind alloy, echo, fable, , onyx, novaund shimmer.Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer |
No | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| function_call | string oder chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird. none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.none ist der Standard, wenn keine Funktionen vorhanden sind.
auto ist der Standard, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird die Verzerrung zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. |
No | None |
| logprobs | boolean | Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. |
No | False |
| max_completion_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. | No | |
| max_tokens | integer | Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann. Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt. |
No | |
| messages | array | Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. Beispiel Python Code. | Yes | |
| metadata | object | Vom Entwickler definierte Tags und Werte, die zum Filtern von Abschlüssen im gespeicherten Abschluss-Dashboard verwendet werden. | No | |
| modalities | ChatCompletionModalities | Ausgabetypen, die das Modell für diese Anfrage generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist: ["text"]Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:["text", "audio"] |
No | |
| n | integer | Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Du wirst basierend auf der Anzahl der generierten Token in allen Optionen berechnet. Achten Sie n darauf, 1 die Kosten zu minimieren. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| prediction | PredictionContent | Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort im Voraus bekannt sind. Dies tritt am häufigsten auf, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu generieren. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| reasoning_effort | enum |
Nur O1-Modelle Begrenzt den Aufwand beim Schließen bei Denkmustern. Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.Mögliche Werte: low, medium, high |
No | |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.Setzen Sie auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Diese Funktion befindet sich noch in der Beta. Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| stop | Saite oder Array | Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
No | |
| store | boolean | Ob das Ergebnis dieser Chat-Abschlussanfrage für die Verwendung in unseren Modelldestillations- oder Bewertungsprodukten gespeichert werden soll oder nicht. | No | |
| stream | boolean | Wenn gesetzt, werden partielle Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird.
Beispiel Python Code. |
No | False |
| stream_options | chatCompletionStreamOptions | Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen.
none ist der Standard, wenn keine Werkzeuge vorhanden sind.
auto ist der Standard, wenn Werkzeuge vorhanden sind. |
No | |
| tools | array | Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit.
logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. |
No | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No | |
| user_security_context | userSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst und den Endnutzer beschreiben, der mit der KI-Anwendung interagiert. Diese Bereiche unterstützen Ihre Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung basierend auf Azure Search-Daten und systemzugewiesener verwalteter Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung basierend auf Azure Search Bildvektordaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung basierend auf Azure Search-Vektordaten, einer vorherigen Assistentennachricht und einer vom Benutzer zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die bereitgestellte Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die bereitgestellte Mongo-Datenbank.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für das bereitgestellte Elasticsearch.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die bereitgestellte Pineconon-Ressource.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transkribiert Audio in die Eingabesprache.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID des zu verwendenden Modells. Die Optionen sind gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1und gpt-4o-transcribe-diarize. |
Yes | |
| file | string | Das Audiodatei-Objekt, das transkribiert werden soll. | Yes | |
| language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz. | No | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription gefüllt werden sollen.
response_format muss so eingestellt verbose_json werden, dass Zeitstempel-Granularitäten verwendet werden. Entweder oder beide dieser Optionen werden unterstützt: word, oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Erstellen von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format einer von war text, vtt oder srt). |
Examples
Example
Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transkribiert und übersetzt Eingabeaudio in englischen Text.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die Audiodatei zum Übersetzen. | Yes | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format eines von Text, VTT oder SRT war). |
Examples
Example
Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Rede – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Erzeugt Audio aus dem Eingabetext.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, um Audio zu synthetisieren. Die maximale Länge beträgt 4.096 Zeichen. | Yes | |
| response_format | enum | Das Format, um das Audio zu synthetisieren. Mögliche Werte: mp3, opus, , aacflac, wav,pcm |
No | |
| speed | number | Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von bis 0.254.0aus.
1.0 ist der Standard. |
No | 1.0 |
| voice | enum | Die Stimme für Sprachsynthese. Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Synthetisiert Audio aus dem bereitgestellten Text.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Antworten: Statuscode: 200
{
"body": "101010101"
}
Bildgenerierungen – Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Erzeugt einen Batch von Bildern aus einer Textunterschrift bei der Bereitstellung eines gegebenen Bildgenerierungsmodells
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. | No | auto |
| n | integer | Die Anzahl der zu erzeugenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. | No | 1 |
| output_compression | integer | Der Kompressionswert (0–100%) für die erzeugten Bilder. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. | No | 100 |
| output_format | imagesOutputFormat | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für GPT-Image-1-Modelle unterstützt. | No | png |
| prompt | string | Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen für die GPT-Image-1-Serie und 4.000 Zeichen für Dall-e-3 | Yes | |
| partial_images | integer | Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streaming-Antworten verwendet, die teilweise Bilder zurückgeben. Der Wert muss zwischen 0 und 3 liegen. Wenn auf 0 gesetzt, ist die Antwort ein einzelnes Bild, das in einem Streaming-Event gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die volle Anzahl der Teilbilder erzeugt wurde, wenn das vollständige Bild schneller erzeugt wird. | 0 | |
| stream | boolean | Bearbeite das Bild im Streaming-Modus. | no | false |
| quality | imageQuality | Die Qualität des erzeugten Bildes. | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird für gpt-image-1-Serien-Modelle nicht unterstützt, die immer base64-codierte Bilder zurückgeben.Mögliche Werte: url, b64_json. |
No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| style | imageStyle | Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt. | No | vivid |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Ein Fehler ist aufgetreten.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Erstellt Bilder mit einem Prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Bilderzeugungen – Bearbeiten
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Bearbeitet ein Bild aus einer Textunterschrift auf einer gegebenen GPT-Image-1-Modellbereitstellung
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Saite oder Array | Die Bild(e) zum Bearbeiten. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder jpg-Datei mit weniger als 50 MB sein. | Yes | |
| input_fidelity | string | Kontrollieren Sie, wie viel Aufwand das Modell aufwenden wird, um den Stil und die Merkmale, insbesondere Gesichtszüge, der Eingabebilder anzupassen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. Supports high und low. |
no |
low. |
| mask | string | Ein zusätzliches Bild, dessen vollständig transparente Flächen (z. B. bei null Alpha) anzeigen, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Es muss eine gültige PNG-Datei sein, weniger als 4 MB, und die gleichen Abmessungen wie das Bild haben. | No | |
| n | integer | Die Anzahl der zu erzeugenden Bilder. Muss zwischen 1 und 10 liegen. | No | 1 |
| prompt | string | Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen. | Yes | |
| quality | imageQuality | Die Qualität des erzeugten Bildes. | No | auto |
| partial_images | Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streaming-Antworten verwendet, die teilweise Bilder zurückgeben. Der Wert muss zwischen 0 und 3 liegen. Wenn auf 0 gesetzt, ist die Antwort ein einzelnes Bild, das in einem Streaming-Event gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die volle Anzahl der Teilbilder erzeugt wurde, wenn das vollständige Bild schneller erzeugt wird. | |||
| stream | boolean | Bearbeite das Bild im Streaming-Modus. | no | false |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Ein Fehler ist aufgetreten.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Liste – Assistenten
Note
Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Gibt eine Liste der Assistenten zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Gibt eine Liste der Assistenten zurück.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Erstellen – Assistent
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Erstelle einen Assistenten mit einem Modell und Anleitungen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | Yes | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher ist mit diesem Assistenten verbunden. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| └─ vector_stores | array | Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und ihn an diesen Assistenten anzuhängen. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein. |
No | [] |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Erstelle einen Assistenten mit einem Modell und Anleitungen.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Hole - Assistent
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Holt einen Assistenten.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des Assistenten zu holen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Holt einen Assistenten.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modify – Assistent
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Verändert einen Assistenten.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des Assistenten zum Anpassen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | No | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung stehen. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Überschreibt den Vektorspeicher, der diesem Assistenten zugeordnet ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein. |
No | [] |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Verändert einen Assistenten.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Löschen – Assistent
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Löschen Sie einen Assistenten.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des Assistenten zum Löschen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Löscht einen Assistenten.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Erstellen - Thread
Note
Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Erstelle einen Thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Eine Liste von Nachrichten, mit denen man den Thread beginnen kann. | No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| tool_resources | object | Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No | |
| └─ vector_stores | array | Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und an diesen Thread anzuhängen. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Erstellt einen Thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Get - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Ruft einen Faden ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des abzurufenden Threads. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Ruft einen Faden ab.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modify – Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Verändert einen Thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads zum Anpassen. Nur die kann metadata modifiziert werden. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| tool_resources | object | Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Verändert einen Thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Löschen – Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Lösche einen Thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, den gelöscht werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Löscht einen Thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Liste – Nachrichten
Note
Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Gibt eine Liste von Nachrichten für einen gegebenen Thread zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen die Nachrichten gehören. |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| run_id | query | No | string | Filtere Nachrichten nach der Run-ID, die sie generiert hat. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Erstellen – Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Erstellen Sie eine Botschaft.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, für die eine Nachricht erstellt werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Eine Liste der an die Nachricht angehängten Dateien und die Werkzeuge, zu denen sie hinzugefügt werden sollten. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| role | string | Die Rolle der Entität, die die Botschaft erschafft. Erlaubte Werte umfassen: - user: Zeigt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wurde und in den meisten Fällen zur Darstellung von benutzergenerierten Nachrichten verwendet werden sollte.- assistant: Zeigt an, dass die Nachricht vom Assistenten generiert wurde. Verwenden Sie diesen Wert, um Nachrichten vom Assistenten in das Gespräch einzufügen. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Erstellen Sie eine Botschaft.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Erhalten - Nachricht
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Holen Sie eine Nachricht ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen diese Nachricht gehört. |
| message_id | path | Yes | string | Die ID der abzurufenden Nachricht. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Holen Sie eine Nachricht ab.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Ändern – Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Verändert eine Nachricht.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem diese Nachricht gehört. |
| message_id | path | Yes | string | Die ID der Nachricht, die geändert werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Ändere eine Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Erstellen – Thread erstellen und ausführen
Note
Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Erstelle einen Thread und führe ihn in einer Anfrage aus.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, um diesen Durchgang auszuführen. | Yes | |
| instructions | string | Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | Die ID der Modelle, die für diesen Durchlauf verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt. |
No | |
| stream_options | chatCompletionStreamOptions | Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.none Das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen. |
No | |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Die ID des Vektorspeichers, der mit diesem Assistenten verbunden ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Erstelle einen Thread und führe ihn in einer Anfrage aus.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Liste - Runs
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem der Lauf gehört. |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Erstellen – Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Erstelle einen Durchlauf.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, der ausgeführt werden soll. |
| include[] | query | No | array | Eine Liste zusätzlicher Felder, die in die Antwort aufgenommen werden sollten. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert, den Inhalt der Dateisuchergebnisse abzurufen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Fügen Sie am Ende der Anweisungen für den Durchlauf zusätzliche Anweisungen hinzu. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen zu überschreiben. | No | |
| additional_messages | array | Fügt dem Thread vor dem Erstellen des Runs zusätzliche Nachrichten hinzu. | No | |
| assistant_id | string | Die ID des Assistenten, um diesen Durchgang auszuführen. | Yes | |
| instructions | string | Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | Die ID des Modells, das für diesen Durchlauf verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.none Das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen. |
No | |
| tools | array | Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Erstelle einen Durchlauf.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Lauf – Lauf
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Holt einen Lauf ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der durchgeführten Threads. |
| run_id | path | Yes | string | Die ID des Laufs zum Abholen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Macht einen Lauf.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifizieren – Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Verändert einen Durchlauf.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der durchgeführten Threads. |
| run_id | path | Yes | string | Die ID des Laufs, der geändert werden soll. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Verändert einen Durchlauf.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Einreichen – Werkzeugausgaben zum Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Wenn ein Run das status: "requires_action" und required_action.type hat submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben der Werkzeugaufrufe zu senden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anfrage eingereicht werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen dieser Run gehört. |
| run_id | path | Yes | string | Die ID des Durchlaufs, für die die Werkzeugausgabe eingereicht werden muss. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt. |
No | |
| tool_outputs | array | Eine Liste der Werkzeuge, für die die Ausgaben eingereicht werden. | Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Wenn ein Run das status: "requires_action" und required_action.type hat submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben der Werkzeugaufrufe zu senden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anfrage eingereicht werden.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Abbrechen – Ausführen
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Hebt einen Durchlauf ab, der ist in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem dieser Run gehört. |
| run_id | path | Yes | string | Die ID des Laufs zum Absagen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Hebt einen Durchlauf ab, der ist in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Liste – Laufschritte
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Gibt eine Liste der Laufschritte zurück, die zu einem Lauf gehören.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem die Lauf- und Ausführensschritte gehören. |
| run_id | path | Yes | string | Die ID des Runs, zu dem die Laufschritte gehören. |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Eine Liste zusätzlicher Felder, die in die Antwort aufgenommen werden sollten. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert, den Inhalt der Dateisuchergebnisse abzurufen. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Gibt eine Liste der Laufschritte zurück, die zu einem Lauf gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Get - Run Step
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Holt einen Laufschritt ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem der Lauf- und Ausführen-Schritt gehört. |
| run_id | path | Yes | string | Die ID des Durchlaufs, zu dem der Laufschritt gehört. |
| step_id | path | Yes | string | Die ID des Laufschritts zum Abrufen. |
| include[] | query | No | array | Eine Liste zusätzlicher Felder, die in die Antwort aufgenommen werden sollten. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert, den Inhalt der Dateisuchergebnisse abzurufen. |
| api-version | query | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Holt einen Laufschritt ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Liste - Vektorspeicher
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Gibt eine Liste der Vektorspeicher zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Gibt eine Liste der Vektorspeicher zurück.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Erstellen - Vektorspeicher
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Erstelle einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. Nur dann anwendbar, wenn file_ids nicht leer ist. |
No | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Erstellt einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Erhalten - Vektorspeicher
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Ruft einen Vektorspeicher ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu abrufenden Vektorspeichers. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Ruft einen Vektorspeicher ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modify – Vektorspeicher
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Verändert einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, der modifiziert werden soll. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Verändert einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Löschen – Vektorspeicher
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Lösche einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, den gelöscht werden soll. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Löscht einen Vektorspeicher.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Liste – Vektorspeicherdateien
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Gibt eine Liste von Vektorspeicherdateien zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | string Mögliche Werte: in_progress, completed, failed, cancelled |
Filtern Sie nach Dateistatus. Einer von in_progress, completed, failed, . cancelled |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Gibt eine Liste von Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Erstellen - Vektorspeicher-Datei
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anhängen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den eine Datei erstellt werden soll. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. |
No | |
| file_id | string | Eine Datei-ID, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anhängen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Get - Vektorspeicher-Datei
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Ruft eine Vektorspeicherdatei ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der gesicherten Datei. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Ruft eine Vektorspeicherdatei ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Löschen – Vektorspeicher-Datei
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Lösche eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Um die Datei zu löschen, verwenden Sie den Endpunkt für das Löschen der Datei.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der zu löschenden Datei. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Lösche eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Um die Datei zu löschen, verwenden Sie den Endpunkt für das Löschen der Datei.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Aktualisiere Attribute in einer Vektorspeicherdatei.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der Datei, um die Attribute zu aktualisieren. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Vektorspeicher-Dateiinhalt abrufen
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Rufen Sie den geparsten Inhalt einer Vektorspeicherdatei ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers. |
| file_id | path | Yes | string | Die ID der Datei im Vektorspeicher. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Suchvektorspeicher
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Durchsuche einen Vektorspeicher nach relevanten Chunks basierend auf einem Abfrage- und Dateiattributfilter.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu suchenden Vektorspeichers. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet wird. | No | |
| max_num_results | integer | Die maximale Anzahl an Ergebnissen, die du ergeben kannst. Diese Zahl sollte zwischen 1 und 50 liegen. | No | 10 |
| query | Saite oder Array | Eine Abfragefolge für eine Suche | Yes | |
| ranking_options | object | Rangfolgeoptionen für die Suche. | No | |
| └─ ranker | enum | Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Ob die natürliche Sprachanfrage für die Vektorsuche umgeschrieben werden soll. | No | False |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Erstellen – Vektorspeicher-Datei-Batch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Erstellen Sie eine Vektorspeicher-Datei-Batch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den ein File Batch erstellt werden soll. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. |
No | |
| file_ids | array | Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. |
Yes |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Erstellen Sie eine Vektorspeicher-Datei-Batch.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Antworten: Statuscode: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get - Vektorspeicher-Dateibatch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Ruft einen Vektorspeicher-Dateibatch ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des Dateibatches, der abgerufen wird. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Ruft einen Vektorspeicher-Dateibatch ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Abbrechen – Vektorspeicher-Datei-Batch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Einen Vektorspeicher-Dateibatch abbrechen. Dies versucht, die Verarbeitung der Dateien in diesem Batch so schnell wie möglich zu beenden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des Dateibatches, um zu stornieren. |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Einen Vektorspeicher-Dateibatch abbrechen. Dies versucht, die Verarbeitung der Dateien in diesem Batch so schnell wie möglich zu beenden.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Liste – Vektorspeicher-Datei-Batchdateien
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Gibt eine Liste von Vektorspeicherdateien in einem Batch zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| batch_id | path | Yes | string | Die ID des Dateibatches, zu dem die Dateien gehören. |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende und desc absteigende Ordnung. |
| after | query | No | string | Ein Cursor für die Paginierung.
after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Paginierung.
before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | string Mögliche Werte: in_progress, completed, failed, cancelled |
Filtern Sie nach Dateistatus. Einer von in_progress, completed, failed, . cancelled |
| api-version | query | Yes | string | api version |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Gibt eine Liste von Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Erstellen – Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Erstellen Sie ein flüchtiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime API. Kann mit denselben Sitzungsparametern wie das session.update Client-Event konfiguriert werden.
Es antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein brauchbares ephemeres API-Token enthält, das zur Authentifizierung von Browser-Clients für die Echtzeit-API verwendet werden kann.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.Mögliche Werte: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird. Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird. |
No | |
| └─ type | enum | Art der Lärmunterdrückung.
near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Die Konfiguration für die Eingangs-Audiotranskription ist standardmäßig auf aus eingestellt und kann so null eingestellt werden, dass sie sich nach Einschalten ausschaltet. Eingabe-Audiotranskription ist nicht native im Modell, da das Modell Audio direkt konsumiert. Die Transkription läuft asynchron über das Transkriptions-Endpunkt und sollte als Leitfaden für die Eingabe-Audioinhalte behandelt werden, statt als genau das, was das Modell gehört hat. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung. |
No | |
| └─ language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz. |
No | |
| └─ model | string | Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1. |
No | |
| └─ prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben". |
No | |
| instructions | string | Die Standard-Systeminstruktionen (d. h. Systemnachricht) wurden vorangestellt, um Modellaufrufe zu erstellen. Dieses Feld ermöglicht es dem Client, das Modell anhand der gewünschten Antworten zu steuern. Das Modell kann zum Inhalt und Format der Antwort angewiesen werden (z. B. "sehr prägnant sein", "freundlich handeln", "hier sind Beispiele für gute Antworten") und zum Audioverhalten (z. B. "schnell sprechen", "Emotion in deine Stimme einbringen", "häufig lachen"). Die Anweisungen werden nicht garantiert vom Modell befolgt, aber sie geben dem Modell Hinweise auf das gewünschte Verhalten. Beachten Sie, dass der Server Standardbefehle setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und zu Beginn der Sitzung im session.created Event sichtbar sind. |
No | |
| max_response_output_tokens | Ganzzahl oder String | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Werkzeugaufrufe. Geben Sie eine ganze Zahl zwischen 1 und 4096 an, um die Ausgabetoken zu begrenzen oder inf für die maximal verfügbaren Token für ein bestimmtes Modell. Standardmäßig gilt inf. |
No | |
| modalities | Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"]. |
No | ||
| model | string | Der Name der für diese Sitzung verwendeten Einsatz. |
No | |
| output_audio_format | enum | Das Format der Ausgabe des Audios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.Für pcm16wird das Ausgangsaudio mit einer Frequenz von 24 kHz abgetastet.Mögliche Werte: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Stichprobentemperatur für das Modell, begrenzt auf [0,6, 1,2]. Für Audiomodelle wird eine Temperatur von 0,8 für die beste Leistung sehr empfohlen. |
No | 0.8 |
| tool_choice | string | Wie das Modell Werkzeuge auswählt. Optionen sind auto, none, , requiredoder geben Sie eine Funktion an. |
No | auto |
| tools | array | Werkzeuge (Funktionen), die dem Modell zur Verfügung stehen. | No | |
| turn_detection | object | Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet. Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt. |
No | True |
| └─ eagerness | enum | Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren.
low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller.
auto ist der Standard und äquivalent zu medium.Mögliche Werte: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen. |
No | |
| └─ threshold | number | Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden. |
No | |
| └─ type | enum | Art der Abzugserkennung. Mögliche Werte: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Statuscode: 200
Beschreibung: Sitzung erfolgreich erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Erstellen - TranskriptionEchtzeitsitzung
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Erstellen Sie ein ephemeres API-Token für die Nutzung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeit-Transkriptionen.
Kann mit denselben Sitzungsparametern wie das transcription_session.update Client-Event konfiguriert werden.
Es antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein brauchbares ephemeres API-Token enthält, das zur Authentifizierung von Browser-Clients für die Echtzeit-API verwendet werden kann.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Die Sammlung von Elementen, die in die Transkription aufgenommen werden sollten. Derzeit verfügbare Artikel sind: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.Mögliche Werte: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird. Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird. |
No | |
| └─ type | enum | Art der Lärmunterdrückung.
near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für Eingabe-Audio-Transkription. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung. |
No | |
| └─ language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz. |
No | |
| └─ model | enum | Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15und whisper-1.Mögliche Werte: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben". |
No | |
| modalities | Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"]. |
No | ||
| turn_detection | object | Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet. Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ eagerness | enum | Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren.
low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller.
auto ist der Standard und äquivalent zu medium.Mögliche Werte: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen. |
No | |
| └─ threshold | number | Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden. |
No | |
| └─ type | enum | Art der Abzugserkennung. Mögliche Werte: server_vad, semantic_vad |
No |
Responses
Statuscode: 200
Beschreibung: Sitzung erfolgreich erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Erzeugt eine Modellantwort.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | Saite oder Array | Model inputs | Yes | |
| instructions | string | Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein. Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen. |
No | |
| max_output_tokens | integer | Eine obere Obergrenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und des Gesprächszustands. |
No | |
| parallel_tool_calls | boolean | Ob das Modell Werkzeugaufrufe parallel ausführen soll. |
No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. Erfahren Sie mehr über den Gesprächszustand. |
No | |
| reasoning | Reasoning | Konfigurationsoptionen für Schlussfolgermodelle. | No | |
| store | boolean | Ob die generierte Modellantwort für eine spätere Abruf über die API gespeichert werden soll. |
No | True |
| stream | boolean | Wenn auf true gesetzt, werden die Antwortdaten des Modells an den Client gestreamt, während sie mithilfe von Server-gesendeten Ereignissen generiert werden. Weitere Informationen finden Sie im Abschnitt Streaming unten. |
No | False |
| text | object | Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt.Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.Nicht empfohlen für GPT-4o und neuere Modelle: Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind: - Integrierte Tools: Werkzeuge, die von OpenAI bereitgestellt werden und das erweitern model's capabilities |
No | |
| truncation | enum | Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser und der vorherigen Antwort die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort kürzen, um zum Kontextfenster zu passen, indem es Eingabepunkte mitten im Gespräch platziert. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Responses API – Eingabepunkte
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Ruft eine Modellantwort mit der gegebenen ID ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der Antwort, die abgerufen werden soll. |
| include | query | No | array | Zusätzliche Felder, die in die Antwort aufgenommen werden sollten. Weitere Informationen finden Sie den include obigen Parameter zur Antworterstellung. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Löscht eine Modellantwort mit der angegebenen ID.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der Antwort zum Löschen. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
Statuscode: 404
Beschreibung: Nicht gefunden
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Responses API – Liste der Antwortobjekte
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Gibt eine Liste von Eingabeelementen für eine gegebene Antwort zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der Antwort, für die Eingaben abgerufen werden soll. |
| limit | query | No | integer | Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden. Standard ist asc.- asc: Geben Sie die Eingabeelemente in aufsteigender Reihenfolge zurück.- desc: Geben Sie die Eingabeelemente in absteigender Reihenfolge zurück. |
| after | query | No | string | Eine Item-ID, nach der man die Einträge auflisten kann, verwendet in der Paginierung. |
| before | query | No | string | Eine Item-ID, um vorherige Artikel aufzulisten, verwendet in der Paginierung. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Stellen Sie hier den Azure OpenAI API-Schlüssel bereit |
Responses
Statuscode: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | No | |
| param | string | No | ||
| type | string | No |
innerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | No | |
| content_filter_results | contentFilterPromptResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. | No |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt.
| Property | Value |
|---|---|
| Description | Fehlercodes für das innere Fehlerobjekt. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt. | No | |
| content_filter_results | dalleFilterResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. | No | |
| revised_prompt | string | Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. | No |
contentFilterCompletionTextSpan
Beschreibt einen Zeitraum innerhalb des generierten Vervollständigungstextes. Offset 0 ist der erste UTF32-Codepunkt des Vervollständigungstextes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Versatz des ersten UTF32-Codepunkts, der aus der Spannweite ausgeschlossen ist. Dieses Feld ist für leere Felder immer gleich completion_start_offset. Dieses Feld ist für nichtleere Felder immer größer als completion_start_offset. | Yes | |
| completion_start_offset | integer | Versatz des UTF32-Codepunkts, der die Spanne beginnt. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informationen zu den Inhaltsfilterergebnissen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen über Texte und Schimpfwörter von Drittanbietern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Inhaltsfilterung führt für einen einzelnen Prompt in der Anfrage.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. | No | |
| prompt_index | integer | No |
promptFilterResults
Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
Für diese Komponente sind keine Eigenschaften definiert.
dalleContentFilterResults
Informationen zu den Inhaltsfilterergebnissen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. | No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. | No | |
| max_completion_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. | No | |
| max_tokens | integer | Die maximale Anzahl der Token, die für die generierte Antwort erlaubt war. Standardmäßig beträgt die Anzahl der Tokens, die das Modell zurückgeben kann, (4096 – Prompt-Token). Das ist nicht mit O1-Modellen kompatibel. | No | 4096 |
| metadata | object | Vom Entwickler definierte Tags und Werte, die zum Filtern von Abschlüssen im gespeicherten Abschluss-Dashboard verwendet werden. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. | No | 0 |
| stop | Saite oder Array | Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. | No | |
| store | boolean | Ob das Ergebnis dieser Chat-Abschlussanfrage für die Verwendung in unseren Modelldestillations- oder Bewertungsprodukten gespeichert werden soll oder nicht. | No | |
| stream | boolean | Wenn gesetzt, werden partielle Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. |
No | False |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn mit nverwendet, steuert die best_of Anzahl der Kandidatenkomplettierungen und n gibt an, wie viele zurückgegeben werden sollen.
best_of muss größer als nsein.Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| echo | boolean | Echo den Prompt zusätzlich zum Abschluss |
No | False |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird. |
No | None |
| logprobs | integer | Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der 5 wahrscheinlichsten Token zurück. Die API gibt immer das logprob von dem abgetasteten Token zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.Der maximale Wert für logprobs ist 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl der Token, die bei der Fertigstellung generiert werden können. Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Abschlüsse für jeden Prompt generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben. |
No | 1 |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| prompt | Saite oder Array | Die Eingabeaufforderung(en) zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays. Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell generiert, wenn kein Prompt angegeben ist, als ob es vom Anfang eines neuen Dokuments stammt. |
Yes | |
| seed | integer | Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| stop | Saite oder Array | Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht. |
No | |
| stream | boolean | Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird.
Beispiel Python Code. |
No | False |
| suffix | string | Das Suffix, das nach dem Abschluss des eingefügten Textes kommt. Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No |
createCompletionResponse
Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl das gestreamte als auch das nicht gestreamte Antwortobjekt haben die gleiche Form (im Gegensatz zum Chat-Endpunkt).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat. | Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, an dem die Fertigstellung erstellt wurde. | Yes | |
| id | string | Eine eindeutige Kennung für den Abschluss. | Yes | |
| model | string | Das Modell, das für die Fertigstellung verwendet wird. | Yes | |
| object | enum | Der Objekttyp, der immer "text_completion" ist. Mögliche Werte: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft. Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten. |
No | |
| usage | completionUsage | Nutzungsstatistiken für die Abschlussanfrage. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für den Audioausgang. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]angefordert wird. |
No | |
| └─ format | enum | Spezifiziert das Ausgabe-Audioformat. Muss einer von wav, mp3, flac, , opusoder pcm16sein. Mögliche Werte: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Spezifiziert den Sprachtyp. Unterstützte Stimmen sind alloy, echo, fable, , onyx, novaund shimmer.Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer |
No | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. |
No | 0 |
| function_call | string oder chatCompletionFunctionCallOption | Veraltet zugunsten von tool_choice.Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird. none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.none ist der Standard, wenn keine Funktionen vorhanden sind.
auto ist der Standard, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. |
No | None |
| logprobs | boolean | Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. |
No | False |
| max_completion_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. | No | |
| max_tokens | integer | Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann. Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt. |
No | |
| messages | array | Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. Beispiel Python Code. | Yes | |
| metadata | object | Vom Entwickler definierte Tags und Werte, die zum Filtern von Abschlüssen im gespeicherten Abschluss-Dashboard verwendet werden. | No | |
| modalities | ChatCompletionModalities | Ausgabetypen, die das Modell für diese Anfrage generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist: ["text"]Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:["text", "audio"] |
No | |
| n | integer | Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token in allen Optionen berechnet werden. Achten Sie n darauf, 1 die Kosten zu minimieren. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| prediction | PredictionContent | Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort im Voraus bekannt sind. Dies tritt am häufigsten auf, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu generieren. | No | |
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. |
No | 0 |
| reasoning_effort | enum |
Nur O1-Modelle Begrenzt den Aufwand beim Schließen bei Denkmustern. Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.Mögliche Werte: low, medium, high |
No | |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt.Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Diese Funktion befindet sich noch in der Beta. Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen. |
No | |
| stop | Saite oder Array | Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
No | |
| store | boolean | Ob das Ergebnis dieser Chat-Abschlussanfrage für die Verwendung in unseren Modelldestillations- oder Bewertungsprodukten gespeichert werden soll oder nicht. | No | |
| stream | boolean | Wenn gesetzt, werden partielle Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird.
Beispiel Python Code. |
No | False |
| stream_options | chatCompletionStreamOptions | Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen.
none ist der Standard, wenn keine Werkzeuge vorhanden sind.
auto ist der Standard, wenn Werkzeuge vorhanden sind. |
No | |
| tools | array | Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit.
logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. |
No | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. |
No | |
| user_security_context | userSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst und den Endnutzer beschreiben, der mit der KI-Anwendung interagiert. Diese Bereiche unterstützen Ihre Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. | No |
userSecurityContext
Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst und den Endnutzer beschreiben, der mit der KI-Anwendung interagiert. Diese Bereiche unterstützen Ihre Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Der Name der Anwendung. Sensible personenbezogene Daten sollten in diesem Bereich nicht enthalten sein. | No | |
| end_user_id | string | Diese Kennung ist die Microsoft Entra ID (früher Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Sensible personenbezogene Daten sollten in diesem Bereich nicht enthalten sein. | No | |
| end_user_tenant_id | string | Die Microsoft 365-Tenant-ID, zu der der Endnutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung Multitenant ist. | No | |
| source_ip | string | Erfasst die IP-Adresse des ursprünglichen Clients und akzeptiert sowohl IPv4- als auch IPv6-Formate. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben.
Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format. Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste. |
No |
chatCompletionFunctionCallOption
Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes |
chatCompletionFunctionParameters
Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe die Anleitung/ Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionRequestMessage
Diese Komponente kann eine der folgenden sein:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Vom Entwickler bereitgestellte Anweisungen, denen das Modell folgen sollte, unabhängig davon, welche Nachrichten der Nutzer gesendet hat.
Bei O1-Modellen und neueren developer ersetzen Nachrichten die vorherigen system Nachrichten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Entwicklernachricht. | Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall developer.Mögliche Werte: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Systemnachricht. | Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall system.Mögliche Werte: system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Benutzernachricht. |
Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall user.Mögliche Werte: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Assistentennachricht. Erforderlich, sofern tool_calls nicht angegeben oder function_call angegeben ist. |
No | |
| function_call | object | Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. |
No | |
| └─ arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. | No | |
| └─ name | string | Der Name der Funktion, die aufgerufen werden soll. | No | |
| name | string | Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. | No | |
| refusal | string | Die Ablehnungsnachricht der Assistentin. | No | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall assistant.Mögliche Werte: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt der Werkzeugnachricht. | Yes | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall tool.Mögliche Werte: tool |
Yes | |
| tool_call_id | string | Tool-Anruf, auf den diese Nachricht reagiert. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Funktionsnachricht. | Yes | |
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall function.Mögliche Werte: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestSystemMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestUserMessageContentPart
Diese Komponente kann eine der folgenden sein:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestToolMessageContentPart
Diese Komponente kann eine der folgenden sein:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der Textinhalt. | Yes | |
| type | enum | Die Art des Inhalts. Mögliche Werte: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Base64-kodierte Audiodaten. | No | |
| └─ format | enum | Das Format der codierten Audiodaten. Derzeit unterstützt es "wav" und "mp3". Mögliche Werte: wav, mp3 |
No | |
| type | enum | Die Art des Inhalts. Immer input_audio.Mögliche Werte: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Spezifiziert den Detailgrad des Bildes. Erfahren Sie mehr im Vision-Leitfaden. Mögliche Werte: auto, low, high |
No | |
| └─ url | string | Entweder eine URL des Bildes oder die von base64 codierten Bilddaten. | No | |
| type | enum | Die Art des Inhalts. Mögliche Werte: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die vom Modell generierte Ablehnungsnachricht. | Yes | |
| type | enum | Die Art des Inhalts. Mögliche Werte: refusal |
Yes |
azureChatExtensionConfiguration
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
###Discriminator für azureChatExtensionConfiguration
Diese Komponente nutzt die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureChatExtensionType
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
| Property | Value |
|---|---|
| Description | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search bei Verwendung als Azure OpenAI Chat-Erweiterung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Der absolute Endpunktpfad für die Azure Search-Ressource. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des Indexes, der in der referenzierten Azure Search-Ressource verfügbar ist. | Yes | |
| max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. | No | |
| query_type | azureSearchQueryType | Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird. | No | |
| semantic_configuration | string | Die zusätzliche semantische Konfiguration für die Abfrage. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | No | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| image_vector_fields | array | Die Namen von Feldern, die Bildvektordaten darstellen. | No | |
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten repräsentieren. | No |
azureSearchQueryType
Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.
| Property | Value |
|---|---|
| Description | Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB für MongoDB vCore verwendet. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureCosmosDBChatExtensionParameters
Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB für MongoDB vCore verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge. | Yes | |
| container_name | string | Der Name des Azure Cosmos DB Resource Containers. | Yes | |
| database_name | string | Der Name der MongoDB vCore-Datenbank zur Verwendung mit Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird. | Yes | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. |
No | |
| index_name | string | Der MongoDB vCore-Indexname zur Verwendung mit Azure Cosmos DB. | Yes | |
| max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | Yes | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten repräsentieren. | Yes |
elasticsearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Elasticsearch, wenn es als Azure OpenAI-Chat-Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parameter, die bei der Konfiguration von Elasticsearch® als Azure OpenAI Chat-Erweiterung verwendet werden sollten. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
elasticsearchChatExtensionParameters
Parameter, die bei der Konfiguration von Elasticsearch® als Azure OpenAI Chat-Erweiterung verwendet werden sollten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. | No | False |
| authentication | onYourDataKeyUndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Der Endpunkt von Elasticsearch.® | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Elasticsearch-Ressource® verwendet wird. | No | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. |
No | |
| index_name | string | Der Indexname von Elasticsearch.® | Yes | |
| max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. | No | |
| query_type | elasticsearchQueryType | Die Art der Elasticsearch-Abrufanfrage®, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No |
elasticsearchIndexFieldMappingOptions
Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Elasticsearch-Ressource® verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | No | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten repräsentieren. | No |
elasticsearchQueryType
Die Art der Elasticsearch-Abrufanfrage®, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Property | Value |
|---|---|
| Description | Die Art der Elasticsearch-Abrufanfrage®, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Mongo DB, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen bei der Verwendung von Mongo DB verwendet werden sollten. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
mongoDBChatExtensionParameters
Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen bei der Verwendung von Mongo DB verwendet werden sollten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. | No | False |
| app_name | string | Der Name der Mongo DB-Anwendung. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data, wenn man einen Benutzernamen und ein Passwort verwendet. | Yes | |
| collection_name | string | Der Name der Mongo DB-Sammlung. | Yes | |
| database_name | string | Der Name der Mongo DB-Datenbank. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Der Name des Mongo-DB-Cluster-Endpunkts. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Mongo-Datenbank-Ressource verwendet wird. | Yes | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des Mongo DB-Indexes. | Yes | |
| max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No |
mongoDBFieldMappingOptions
Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Mongo-Datenbank-Ressource verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | Yes | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten repräsentieren. | Yes |
pineconeChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Pinecone, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parameter zur Konfiguration von Azure OpenAI Pinecone Chat-Erweiterungen. | No | |
| type | azureChatExtensionType | Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
pineconeChatExtensionParameters
Parameter zur Konfiguration von Azure OpenAI Pinecone Chat-Erweiterungen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird, die auf einem internen Embeddings-Modell-Deployment-Namen in derselben Azure OpenAI-Ressource basiert. | Yes | |
| environment | string | Der Umweltname Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Optionale Einstellungen, um zu steuern, wie Felder bei Verwendung einer konfigurierten Pinecone-Ressource verarbeitet werden. | Yes | |
| in_scope | boolean | Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. | No | |
| include_contexts | array | Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. |
No | |
| index_name | string | Der Name des Pinecone-Datenbankindexes. | Yes | |
| max_search_queries | integer | Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. | No | |
| top_n_documents | integer | Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. | No |
pineconeFieldMappingOptions
Optionale Einstellungen, um zu steuern, wie Felder bei Verwendung einer konfigurierten Pinecone-Ressource verarbeitet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. | Yes | |
| content_fields_separator | string | Das Trennungsmuster, das Inhaltsfelder verwenden sollten. | No | |
| filepath_field | string | Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfeldes, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfeldes, das als URL verwendet werden soll. | No |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data.
Discriminator für onYourDataAuthenticationOptions
Diese Komponente nutzt die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataContextProperty
Die Kontexteigenschaft.
| Property | Value |
|---|---|
| Description | Die Kontexteigenschaft. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.
| Property | Value |
|---|---|
| Description | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der API-Schlüssel zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Die Verbindungszeichenfolge zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Elasticsearch-Schlüssel- und Schlüssel-ID-Paares.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der Elasticsearch-Schlüssel für die Authentifizierung. | No | |
| key_id | string | Die Elasticsearch-Schlüssel-ID zur Verwendung zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Elasticsearch-codierten API-Schlüssels.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Der Elasticsearch kodierte API-Schlüssel zur Verwendung zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataAccessTokenAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung des Zugriffstokens.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Der Zugangstoken zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer systemzugeordneten verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer benutzerdefinierten verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität zur Verwendung zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data, wenn man einen Benutzernamen und ein Passwort verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. zur Authentifizierung. | No | |
| type | onYourDataAuthenticationType | Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. | Yes | |
| username | string | Der Benutzername für die Authentifizierung. | No |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.
Diese Komponente nutzt die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. | Yes |
onYourDataVectorizationSourceType
Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren.
| Property | Value |
|---|---|
| Description | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Embeddings basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Die Anzahl der Dimensionen, die die Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. |
No | |
| endpoint | string | Spezifiziert die URL des Ressourcenendpunkts, von der Einbettungen abgerufen werden sollen. Es sollte im Format von https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der API-Version Query-Parameter ist nicht erlaubt. |
No | |
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. | Yes |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem internen Embeddings-Modell-Deploymentsnamen in derselben Azure OpenAI-Ressource basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Spezifiziert den Namen der Modellbereitstellung, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss in derselben Azure OpenAI-Ressource erfolgen, aber On Your Data verwendet diese Modellbereitstellung über einen internen Aufruf statt eines öffentlichen Aufrufs, was Vektorsuche auch in privaten Netzwerken ermöglicht. | No | |
| dimensions | integer | Die Anzahl der Dimensionen, die die Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. |
No | |
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. | Yes |
onYourDataIntegratedVectorizationSource
Repräsentiert den integrierten Vektorizer, der innerhalb der Suchressource definiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. | Yes |
onYourDataModelIdVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird, die auf der Modell-ID eines Suchdienstes basiert. Derzeit nur von Elasticsearch® unterstützt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Spezifiziert die Modell-ID für die Vektorisierung. Diese Modell-ID muss im Suchdienst definiert werden. | No | |
| type | onYourDataVectorizationSourceType | Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. | Yes |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chat-Erweiterungen an der Erstellung einer entsprechenden Antwort auf Chat-Abschlüsse beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anfrage verwendet wird, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Alle gesicherten Dokumente. | No | |
| citations | array | Das Ergebnis der Datenquellenabruf, das zur Erzeugung der Assistentennachricht in der Antwort verwendet wird. | No | |
| intent | string | Die erkannte Absicht aus dem Chatverlauf wurde verwendet, um an die nächste Runde weitergegeben zu werden, um den Kontext zu übertragen. | No |
citation
Zitationsinformationen für eine Chat-Komplettantwort-Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | Die Chunk-ID der Strafzettel. | No | |
| content | string | Der Inhalt der Zitate. | Yes | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| rerank_score | number | Die Rerang-Punktzahl des geborgenen Dokuments. | No | |
| title | string | Der Titel der Auszeichnung. | No | |
| url | string | Die URL des Zitats. | No |
retrievedDocument
Das abgerufene Dokument.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | Die Chunk-ID der Strafzettel. | No | |
| content | string | Der Inhalt der Zitate. | Yes | |
| data_source_index | integer | Der Index der Datenquelle. | No | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| filter_reason | filterReason | Der Filtergrund des abgerufenen Dokuments. | No | |
| original_search_score | number | Die ursprüngliche Suchwertung des abgerufenen Dokuments. | No | |
| rerank_score | number | Die Rerang-Punktzahl des geborgenen Dokuments. | No | |
| search_queries | array | Die Suchanfragen wurden verwendet, um das Dokument abzurufen. | No | |
| title | string | Der Titel der Auszeichnung. | No | |
| url | string | Die URL des Zitats. | No |
filterReason
Der Filtergrund des abgerufenen Dokuments.
| Property | Value |
|---|---|
| Description | Der Filtergrund des abgerufenen Dokuments. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktion, die das Modell aufgerufen hat. | Yes | |
| └─ arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. | No | |
| └─ name | string | Der Name der Funktion, die aufgerufen werden soll. | No | |
| id | string | Die ID des Werkzeugrufs. | Yes | |
| type | toolCallType | Der Typ des Werkzeugaufrufs, in diesem Fall function. |
Yes |
toolCallType
Der Typ des Werkzeugaufrufs, in diesem Fall function.
| Property | Value |
|---|---|
| Description | Der Typ des Werkzeugaufrufs, in diesem Fall function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Nachricht. | No | |
| tool_call_id | string | Tool-Anruf, auf den diese Nachricht reagiert. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Nachricht. | No | |
| name | string | Der Inhalt der Nachricht. | No | |
| role | enum | Die Rolle des Verfassers der Nachrichten, in diesem Fall function.Mögliche Werte: function |
No |
createChatCompletionResponse
Repräsentiert eine vom Modell zurückgegebene Chat-Abschlussantwort, basierend auf der bereitgestellten Eingabe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als eins sein, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. | Yes | |
| id | string | Eine eindeutige Kennung für den Abschluss des Chats. | Yes | |
| model | string | Das Modell, das für den Chat-Abschluss verwendet wird. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completionist.Mögliche Werte: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft. Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten. |
No | |
| usage | completionUsage | Nutzungsstatistiken für die Abschlussanfrage. | No |
createChatCompletionStreamResponse
Repräsentiert einen gestreamten Chunk einer Chat-Abschlussantwort, die vom Modell auf Basis der bereitgestellten Eingabe zurückgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als ein Element enthalten, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. Jeder Chunk hat denselben Zeitstempel. | Yes | |
| id | string | Eine eindeutige Kennung für den Abschluss des Chats. Jeder Chunk hat dieselbe ID. | Yes | |
| model | string | Das Modell, um die Komplettierung zu erzeugen. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completion.chunkist.Mögliche Werte: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft. Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten. |
No |
chatCompletionStreamResponseDelta
Ein Chat-Abschluss-Delta, das durch gestreamte Modellantworten erzeugt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Chunk-Nachricht. | No | |
| function_call | object | Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. |
No | |
| └─ arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. | No | |
| └─ name | string | Der Name der Funktion, die aufgerufen werden soll. | No | |
| refusal | string | Die vom Modell generierte Ablehnungsnachricht. | No | |
| role | enum | Die Rolle des Verfassers dieser Botschaft. Mögliche Werte: system, user, assistant, tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. | No | |
| └─ name | string | Der Name der Funktion, die aufgerufen werden soll. | No | |
| id | string | Die ID des Werkzeugrufs. | No | |
| index | integer | Yes | ||
| type | enum | Die Art des Werkzeugs. Derzeit wird nur function unterstützt.Mögliche Werte: function |
No |
chatCompletionStreamOptions
Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Wenn gesetzt, wird ein zusätzlicher Chunk vor der data: [DONE] Nachricht gestreamt. Das Feld usage in diesem Chunk zeigt die Token-Nutzungsstatistiken für die gesamte Anfrage, und das choices Feld bleibt immer ein leeres Array. Alle anderen Chunks enthalten ebenfalls ein Feld usage , allerdings mit einem Nullwert. |
No |
chatCompletionChoiceLogProbs
Protokollieren Sie die Wahrscheinlichkeitsinformationen für die Wahl.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Eine Liste von Nachrichteninhaltstoken mit Log-Wahrscheinlichkeitsinformationen. | Yes | |
| refusal | array | Eine Liste von Nachrichten-Ablehnungstoken mit Log-Wahrscheinlichkeitsinformationen. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Eine Liste von ganzen Zahlen, die die UTF-8-Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und deren Byte-Darstellungen kombiniert werden müssen, um die korrekte Textrepräsentation zu erzeugen. Kann passieren null , wenn es keine Bytes-Darstellung für das Token gibt. |
Yes | |
| logprob | number | Die Log-Wahrscheinlichkeit dieses Tokens. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Liste der wahrscheinlichsten Token und deren Log-Wahrscheinlichkeit an dieser Token-Position. In seltenen Fällen können weniger als die Anzahl der zurückgefragten top_logprobs Personen sein. |
Yes |
chatCompletionResponseMessage
Eine vom Modell generierte Chat-Abschluss-Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Wenn die Audioausgabemodalität angefordert wird, enthält dieses Objekt Daten über die Audioantwort des Modells. | No | |
| └─ data | string | Base64 kodierte Audiobytes, die vom Modell generiert wurden, in dem in der Anfrage angegebenen Format. |
No | |
| └─ expires_at | integer | Der Unix-Zeitstempel (in Sekunden) dafür, wann diese Audioantwort auf dem Server nicht mehr für mehrfache Rundengespräche zugänglich ist. |
No | |
| └─ id | string | Eindeutige Kennung für diese Audioantwort. | No | |
| └─ transcript | string | Transkript des vom Modell erzeugten Audios. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chat-Erweiterungen an der Erstellung einer entsprechenden Antwort auf Chat-Abschlüsse beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anfrage verwendet wird, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird. | No | |
| function_call | chatCompletionFunctionCall | Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. |
No | |
| refusal | string | Die vom Modell generierte Ablehnungsnachricht. | Yes | |
| role | chatCompletionResponseMessageRole | Die Rolle des Autors der Antwortnachricht. | Yes | |
| tool_calls | array | Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. | No |
chatCompletionResponseMessageRole
Die Rolle des Autors der Antwortnachricht.
| Property | Value |
|---|---|
| Description | Die Rolle des Autors der Antwortnachricht. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen.
none ist der Standard, wenn keine Werkzeuge vorhanden sind.
auto ist der Standard, wenn Werkzeuge vorhanden sind.
Diese Komponente kann eine der folgenden sein:
chatCompletionNamedToolChoice
Spezifiziert ein Werkzeug, das das Modell verwenden soll. Verwenden Sie, um das Modell zu zwingen, eine bestimmte Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Der Name der Funktion, die aufgerufen werden soll. | No | |
| type | enum | Die Art des Werkzeugs. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
ParallelToolCalls
Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll.
Für diese Komponente sind keine Eigenschaften definiert.
PredictionContent
Statisch vorhergesagte Ausgabeinhalte, wie zum Beispiel der Inhalt einer Textdatei, die regeneriert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Saite oder Array | Der Inhalt, der bei der Erstellung einer Modellantwort abgestimmt werden sollte. Wenn generierte Tokens mit diesem Inhalt übereinstimmen, kann die gesamte Modellantwort viel schneller zurückgegeben werden. | Yes | |
| type | enum | Die Art der vorhergesagten Inhalte, die Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.Mögliche Werte: content |
Yes |
chatCompletionMessageToolCalls
Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe.
Für diese Komponente sind keine Eigenschaften definiert.
ChatCompletionModalities
Ausgabetypen, die das Modell für diese Anfrage generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:
["text"]
Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:
["text", "audio"]
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionFunctionCall
Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. | Yes | |
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes |
completionUsage
Nutzungsstatistiken für die Abschlussanfrage.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der Token in der generierten Komplettierung. | Yes | |
| completion_tokens_details | object | Aufschlüsselung der in einer Komplettierung verwendeten Token. | No | |
| └─ accepted_prediction_tokens | integer | Bei Verwendung von Predicted Outputs ist die Anzahl der Token in der Vorhersage, die in der Completion erschienen sind. | No | |
| └─ audio_tokens | integer | Audio-Eingangstoken, die vom Modell generiert werden. | No | |
| └─ reasoning_tokens | integer | Tokens, die vom Modell zur Argumentation generiert werden. | No | |
| └─ rejected_prediction_tokens | integer | Bei Verwendung von Predicted Outputs ist die Anzahl der Token in der Vorhersage, die in der Completion nicht erschienen sind. Wie Reasoning-Tokens werden diese Token jedoch weiterhin in die Gesamtvervollständigungstoken für Abrechnungs-, Ausgabe- und Kontextfenstergrenzen gezählt. | No | |
| prompt_tokens | integer | Anzahl der Tokens im Prompt. | Yes | |
| prompt_tokens_details | object | Details zu den Prompt-Tokens. | No | |
| └─ audio_tokens | integer | Audio-Eingabetoken sind im Prompt vorhanden. | No | |
| └─ cached_tokens | integer | Die Anzahl der zwischengespeicherten Prompt-Token. | No | |
| total_tokens | integer | Gesamtzahl der in der Anfrage verwendeten Token (Prompt + Abschluss). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Die Art des Werkzeugs. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
FunctionParameters
Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.
Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.
Für diese Komponente sind keine Eigenschaften definiert.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben.
Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format. Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste. |
No | |
| strict | boolean | Ob beim Erstellen des Funktionsaufrufs strikte Schema-Treue aktiviert werden soll. Wenn auf true gesetzt, folgt das Modell dem exakt im Feld parameters definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der definierte Antwortformat: textMögliche Werte: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der definierte Antwortformat: json_objectMögliche Werte: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Eine Beschreibung, wofür das Antwortformat dient, verwendet vom Modell zur Bestimmung der Antwort im Format. | No | |
| └─ name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt. | No | |
| └─ strict | boolean | Ob strikte Schema-Compliance bei der Erzeugung der Ausgabe aktiviert werden soll. Setzt es auf wahr, folgt das Modell immer dem exakt im Feld schema definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true |
No | False |
| type | enum | Der definierte Antwortformat: json_schemaMögliche Werte: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die Audiodatei zum Übersetzen. | Yes | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format json war
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Übersetzter oder transkribierter Text. | Yes |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Art von Audioaufgabe. | No | |
| text | string | Übersetzter oder transkribierter Text. | Yes | |
| words | array | No |
audioResponseFormat
Definiert das Format der Ausgabe.
| Property | Value |
|---|---|
| Description | Definiert das Format der Ausgabe. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Das Audiodatei-Objekt, das transkribiert werden soll. | Yes | |
| language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz. | No | |
| prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe. | No | |
| temperature | number | Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription gefüllt werden sollen.
response_format muss so eingestellt verbose_json werden, dass Zeitstempel-Granularitäten verwendet werden. Entweder oder beide dieser Optionen werden unterstützt: word, oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Erstellen von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
audioSegment
Transkriptions- oder Übersetzungssegment.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Durchschnittliche Log-Wahrscheinlichkeit. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Segmentend-Offset. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Wahrscheinlichkeit für 'keine Rede'. | No | |
| seek | number | Versatz des Segments. | No | |
| start | number | Segmentstart-Offset. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Symbole des Textes. | No |
audioWord
Transkription oder Übersetzungswort.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Word end-Offset. | No | |
| start | number | Word Start Offset. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, um Audio zu synthetisieren. Die maximale Länge beträgt 4.096 Zeichen. | Yes | |
| response_format | enum | Das Format, um das Audio zu synthetisieren. Mögliche Werte: mp3, opus, , aacflac, wav,pcm |
No | |
| speed | number | Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von bis 0.254.0aus.
1.0 ist der Standard. |
No | 1.0 |
| voice | enum | Die Stimme für Sprachsynthese. Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer |
Yes |
imageQuality
Die Qualität des erzeugten Bildes.
| Property | Value |
|---|---|
| Description | Die Qualität des erzeugten Bildes. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
| Property | Value |
|---|---|
| Description | Das Format, in dem die generierten Bilder zurückgegeben werden. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Nur für Serienmodelle unterstützt.
| Property | Value |
|---|---|
| Description | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für GPT-Image-1-Modelle unterstützt. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
Die Größe der generierten Bilder.
| Property | Value |
|---|---|
| Description | Die Größe der generierten Bilder. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt.
| Property | Value |
|---|---|
| Description | Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt.
| Property | Value |
|---|---|
| Description | Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. | No | auto |
| n | integer | Die Anzahl der zu erzeugenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. | No | 1 |
| output_compression | integer | Der Kompressionswert (0–100%) für die erzeugten Bilder. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. | No | 100 |
| output_format | imagesOutputFormat | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für GPT-Image-1-Modelle unterstützt. | No | png |
| prompt | string | Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen für GPT-Image-1-Serienmodelle und 4000 Zeichen für DALL-e-3 | Yes | |
| quality | imageQuality | Die Qualität des erzeugten Bildes. | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. Nur für DALL-e-3 unterstützt. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| style | imageStyle | Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt. | No | vivid |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Saite oder Array | Die Bild(e) zum Bearbeiten. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder jpg-Datei mit weniger als 25 MB sein. | Yes | |
| mask | string | Ein zusätzliches Bild, dessen vollständig transparente Flächen (z. B. bei null Alpha) anzeigen, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Es muss eine gültige PNG-Datei sein, weniger als 4 MB, und die gleichen Abmessungen wie das Bild haben. | No | |
| n | integer | Die Anzahl der zu erzeugenden Bilder. | No | 1 |
| prompt | string | Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen. | Yes | |
| quality | imageQuality | Die Qualität des erzeugten Bildes. | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| user | string | Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Der Unix-Zeitstempel, als die Operation erstellt wurde. | Yes | |
| data | array | Die Ergebnisdaten der Operation, falls erfolgreich | Yes | |
| usage | imageGenerationsUsage | Repräsentiert Details zur Tokennutzung für Bildgenerierungsanfragen. Nur für Modelle der GPT-Image-1-Serie. | No |
imageResult
Die Bild-URL oder das codierte Bild, falls erfolgreich, und ansonsten ein Fehler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | Das base64-kodierte Bild | No | |
| content_filter_results | dalleContentFilterResults | Informationen zu den Inhaltsfilterergebnissen. | No | |
| prompt_filter_results | dalleFilterResults | Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. | No | |
| revised_prompt | string | Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. | No | |
| url | string | Die Bild-URL. | No |
imageGenerationsUsage
Repräsentiert Details zur Tokennutzung für Bildgenerierungsanfragen. Nur für Modelle der GPT-Image-1-Serie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | No | |
| input_tokens_details | object | Eine detaillierte Aufschlüsselung der Eingabetoken. | No | |
| └─ image_tokens | integer | Die Anzahl der Bildtokens. | No | |
| └─ text_tokens | integer | Die Anzahl der Texttokens. | No | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | No |
line
Ein Inhaltszeilenobjekt, das aus einer benachbarten Folge von Inhaltselementen besteht, wie Wörter und Auswahlmarkierungen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Ein Array von Spans, die erkannte Objekte und deren Begrenzungsbox-Informationen repräsentieren. | Yes | |
| text | string | Yes |
span
Ein Spannobjekt, das ein erkanntes Objekt und seine Begrenzungsbox-Informationen darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | Die Länge des Spannes in Zeichen, gemessen in Unicode-Codepunkten. | Yes | |
| offset | integer | Der Zeichenversatz innerhalb des Textes, wo der Abschnitt beginnt. Dieser Offset ist definiert als die Position des ersten Zeichens des Spans, der vom Anfang des Textes als Unicode-Codepunkte zählt. | Yes | |
| polygon | array | Ein Array von Objekten, die Punkte im Polygon repräsentieren, das das erkannte Objekt umschließt. | Yes | |
| text | string | Der Textinhalt des Spanns, der das erkannte Objekt darstellt. | Yes |
runCompletionUsage
Nutzungsstatistiken im Zusammenhang mit dem Lauf. Dieser Wert gilt, null wenn der Run sich nicht im terminalen Zustand befindet (d. h. in_progress, queued, usw.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der im Verlauf des Durchlaufs verwendeten Komplettmarker. | Yes | |
| prompt_tokens | integer | Anzahl der im Verlauf des Durchlaufs verwendeten Prompt-Tokens. | Yes | |
| total_tokens | integer | Gesamtzahl der verwendeten Tokens (Prompt + Abschluss). | Yes |
runStepCompletionUsage
Nutzungsstatistiken im Zusammenhang mit dem Laufschritt. Dieser Wert gilt, null während der Status in_progressdes Laufschritts ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der im Verlauf des Laufschritts verwendeten Vervollständigungstokens. | Yes | |
| prompt_tokens | integer | Anzahl der im Verlauf des Laufschritts verwendeten Prompt-Tokens. | Yes | |
| total_tokens | integer | Gesamtzahl der verwendeten Tokens (Prompt + Abschluss). | Yes |
assistantsApiResponseFormatOption
Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.
Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.
Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Diese Komponente kann eine der folgenden sein:
assistantsApiResponseFormat
Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Wenn json_object nur function der Typ tools an den Run weitergegeben werden darf. Ob text das Modell Text oder einen beliebigen benötigten Wert zurückgeben kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Muss eines von oder textjson_objectsein. |
No | text |
type Enum: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Stellt ein assistant dar, das das Modell aufrufen und Werkzeuge verwenden kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Assistent erstellt wurde. | Yes | |
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
Yes | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen. |
Yes | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
Yes | |
| model | string | ID des zu verwendenden Modells. | Yes | |
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
Yes | |
| object | string | Der Objekttyp, der immer assistantist. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Die ID des Vektorspeichers, der mit diesem Assistenten verbunden ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, file_search, oder functionsein. |
Yes | [] |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
objekt Enum: AssistantObjectType
| Value | Description |
|---|---|
| assistant | Der Objekttyp, der immer Assistant ist |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | Yes | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher ist mit diesem Assistenten verbunden. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| └─ vector_stores | array | Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und ihn an diesen Assistenten anzuhängen. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein. |
No | [] |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | No | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung stehen. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Überschreibt den Vektorspeicher, der diesem Assistenten zugeordnet ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein. |
No | [] |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objekt-Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Der definierte Werkzeugtyp: code_interpreter |
Yes |
type Enum: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Überschreibungen für das Dateisuchwerkzeug. | No | |
| └─ max_num_results | integer | Die maximale Anzahl an Ergebnissen, die das Dateisuchtool liefern sollte. Standardmäßig sind 20 für GPT-4*-Modelle und 5 für GPT-3.5-Turbo. Diese Zahl sollte zwischen 1 und 50 liegen. Beachten Sie, dass das Dateisuchwerkzeug möglicherweise weniger als max_num_results Ergebnisse liefert. |
No | |
| type | string | Der definierte Werkzeugtyp: file_search |
Yes |
type Enum: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Der definierte Werkzeugtyp: file_search |
Yes |
type Enum: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktionsdefinition. | Yes | |
| └─ description | string | Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. | No | |
| └─ name | string | Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe die Anleitung/ Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format. | No | |
| type | string | Der definierte Werkzeugtyp: function |
Yes |
type Enum: assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Die Anzahl der aktuellsten Nachrichten aus dem Thread beim Erstellen des Kontexts für den Lauf. | No | |
| type | string | Die Trunkierungsstrategie, die für den Faden verwendet werden sollte. Der Standardwert ist auto. Wenn auf last_messagesgesetzt ist, wird der Thread auf die n aktuellsten Nachrichten im Thread abgeschnitten. Wenn auf autogesetzt wird, werden Nachrichten in der Mitte des Threads verworfen, um die Kontextlänge des Modells anzupassen. max_prompt_tokens |
Yes |
Typ Enum: TrunkationsTyp
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.
Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.
Diese Komponente kann eine der folgenden sein:
assistantsNamedToolChoice
Spezifiziert ein Werkzeug, das das Modell verwenden soll. Nutze es, um das Modell zu zwingen, ein bestimmtes Werkzeug aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | Der Name der Funktion, die aufgerufen werden soll. | No | |
| type | string | Die Art des Werkzeugs. Wenn der Typ ist function, muss der Funktionsname gesetzt werden |
Yes |
type Enum: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der für die Durchführung dieses Laufs verwendet wurde. | Yes | |
| cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Lauf abgebrochen wurde. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Durchlauf abgeschlossen wurde. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Lauf erstellt wurde. | Yes | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) dafür, wann der Durchlauf abläuft. | Yes | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Durchlauf fehlgeschlagen ist. | Yes | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| incomplete_details | object | Details dazu, warum der Durchlauf unvollständig ist. Wird es sein null , solange der Durchlauf nicht unvollständig ist. |
Yes | |
| └─ reason | string | Der Grund, warum der Durchlauf unvollständig ist. Dies zeigt an, welches spezifische Token-Limit im Verlauf des Durchlaufs erreicht wurde. | No | |
| instructions | string | Die Anweisungen, die der Assistent für diesen Durchlauf benutzt hat. | Yes | |
| last_error | object | Der letzte Fehler, der mit diesem Durchlauf verbunden ist. Wird es sein null , wenn keine Fehler vorliegen. |
Yes | |
| └─ code | string | Einer von server_error oder rate_limit_exceeded. |
No | |
| └─ message | string | Eine für Menschen lesbare Beschreibung des Fehlers. | No | |
| max_completion_tokens | integer | Die maximale Anzahl der Completion Tokens, die im Verlauf des Durchlaufs verwendet werden sollen. |
Yes | |
| max_prompt_tokens | integer | Die maximale Anzahl der Prompt-Token, die im Verlauf des Durchlaufs verwendet werden sollen. |
Yes | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
Yes | |
| model | string | Das Modell, das der Assistent für diesen Lauf verwendet hat. | Yes | |
| object | string | Der Objekttyp, der immer thread.runist. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| required_action | object | Details zur Aktion, die erforderlich ist, um den Lauf fortzusetzen. Wird es sein null , wenn keine Maßnahmen erforderlich sind. |
Yes | |
| └─ submit_tool_outputs | object | Details zu den Werkzeugausgaben, die für diesen Durchlauf benötigt werden. | No | |
| └─ tool_calls | array | Eine Liste der relevanten Werkzeugaufrufe. | No | |
| └─ type | enum | Für den Moment ist das immer submit_tool_outputsso.Mögliche Werte: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Yes | |
| started_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Durchlauf gestartet wurde. | Yes | |
| status | string | Der Status des Laufs, der entweder , , , , cancellingcancelledfailed, completedoder expiredsein kann. requires_actionin_progressqueued |
Yes | |
| temperature | number | Die für diesen Durchgang verwendete Probetemperatur. Wenn nicht gesetzt, steht standardmäßig auf 1. | No | |
| thread_id | string | Die ID der Threads, auf denen im Rahmen dieses Durchlaufs ausgeführt wurde. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen. |
Yes | |
| tools | array | Die Liste der Werkzeuge, die der Assistent für diesen Durchlauf verwendet hat. | Yes | [] |
| top_p | number | Der für diesen Lauf verwendete Kernprobenwert. Wenn nicht gesetzt, steht standardmäßig auf 1. | No | |
| truncation_strategy | truncationObject | Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. | Yes | |
| usage | runCompletionUsage | Nutzungsstatistiken im Zusammenhang mit dem Lauf. Dieser Wert gilt, null wenn der Run sich nicht im terminalen Zustand befindet (d. h. in_progress, queued, usw.). |
Yes |
object Enum: runObjectType
| Value | Description |
|---|---|
| thread.run | Der Run-Objekttyp, der immer thread.run ist, ist immer thread.run |
Status Enum: RunObjectStatus
| Value | Description |
|---|---|
| queued | Der Warteschlangezustand |
| in_progress | Der in_progress Staat |
| requires_action | Der required_action Staat |
| cancelling | Der aufhebende Zustand |
| cancelled | Der aufgehobene Staat |
| failed | Der gescheiterte Staat |
| completed | Der vollendete Zustand |
| expired | Der abgelaufene Zustand |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Fügen Sie am Ende der Anweisungen für den Durchlauf zusätzliche Anweisungen hinzu. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen zu überschreiben. | No | |
| additional_messages | array | Fügt dem Thread vor dem Erstellen des Runs zusätzliche Nachrichten hinzu. | No | |
| assistant_id | string | Die ID des Assistenten, um diesen Durchgang auszuführen. | Yes | |
| instructions | string | Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | Die ID des Modells, das für diesen Durchlauf verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt. |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen. |
No | |
| tools | array | Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt. |
No | |
| tool_outputs | array | Eine Liste der Werkzeuge, für die die Ausgaben eingereicht werden. | Yes |
runToolCallObject
Werkzeugaufrufobjekte
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktionsdefinition. | Yes | |
| └─ arguments | string | Die Argumente, von denen das Modell erwartet, dass du sie an die Funktion weitergibst. | No | |
| └─ name | string | Der Name der Veranstaltung. | No | |
| id | string | Die ID des Werkzeugrufs. Diese ID muss referenziert werden, wenn du die Werkzeugausgaben einreichst, indem du die Eingabe-Tool-Ausgaben nutzt, um Endpoint auszuführen. | Yes | |
| type | string | Die Art des Werkzeugaufrufs, für den die Ausgabe erforderlich ist. Für den Moment ist das immer functionso. |
Yes |
type Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, um diesen Durchgang auszuführen. | Yes | |
| instructions | string | Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| model | string | Die ID der Modelle, die für diesen Durchlauf verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. | No | True |
| response_format | assistantsApiResponseFormatOption | Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt. |
No | |
| stream_options | chatCompletionStreamOptions | Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen. |
No | None |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen. |
No | |
| tool_resources | object | Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Die ID des Vektorspeichers, der mit diesem Assistenten verbunden ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein. |
No | |
| tools | array | Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. | No |
threadObject
Repräsentiert einen Thread, der Nachrichten enthält.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Thread erstellt wurde. | Yes | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
Yes | |
| object | string | Der Objekttyp, der immer threadist. |
Yes | |
| tool_resources | object | Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No |
Objekt Enum: ThreadObjectType
| Value | Description |
|---|---|
| thread | Der Typ des Thread-Objekts, der immer ist thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Eine Liste von Nachrichten, mit denen man den Thread beginnen kann. | No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| tool_resources | object | Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No | |
| └─ vector_stores | array | Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und an diesen Thread anzuhängen. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| tool_resources | object | Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objekt-Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | Der Zustand des Delete-Thread-Antwortobjekts, der ist thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Repräsentiert eine Nachricht innerhalb eines Threads.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Falls zutreffend, die ID des Assistenten, der diese Nachricht verfasst hat. | Yes | |
| attachments | array | Eine Liste der an die Nachricht angehängten Dateien und die Werkzeuge, zu denen sie hinzugefügt wurden. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Nachricht abgeschlossen wurde. | Yes | |
| content | array | Der Inhalt der Nachricht besteht aus Texten und/oder Bildern. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Nachricht erstellt wurde. | Yes | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| incomplete_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, in dem die Nachricht als unvollständig markiert wurde. | Yes | |
| incomplete_details | object | Bei einer unvollständigen Nachricht gibt es Details, warum die Nachricht unvollständig ist. | Yes | |
| └─ reason | string | Der Grund, warum die Nachricht unvollständig ist. | No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
Yes | |
| object | string | Der Objekttyp, der immer thread.messageist. |
Yes | |
| role | string | Die Entität, die die Botschaft erzeugt hat. Einer von user oder assistant. |
Yes | |
| run_id | string | Falls zutreffend, die ID des Laufs, der mit der Erstellung dieser Nachricht verbunden ist. | Yes | |
| status | string | Der Status der Nachricht, der entweder in_progress, incomplete, oder completedsein kann. |
Yes | |
| thread_id | string | Die Thread-ID, zu der diese Nachricht gehört. | Yes |
object Enum: MessageObjectType
| Value | Description |
|---|---|
| thread.message | Der Nachrichtenobjekttyp, der ist thread.message |
Status Enum: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
Rolle Enum: MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Repräsentiert ein Nachrichten-Delta, also alle veränderten Felder einer Nachricht während des Streamings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Das Delta, das die Felder enthält, die sich auf der Nachricht geändert haben. | Yes | |
| └─ content | array | Der Inhalt der Nachricht besteht aus Texten und/oder Bildern. | No | |
| └─ role | string | Die Entität, die die Botschaft erzeugt hat. Einer von user oder assistant. |
No | |
| id | string | Die Identifikatorin der Nachricht, die in API-Endpunkten referenziert werden kann. | Yes | |
| object | string | Der Objekttyp, der immer thread.message.deltaist. |
Yes |
Objekt-Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Eine Liste der an die Nachricht angehängten Dateien und die Werkzeuge, zu denen sie hinzugefügt werden sollten. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| role | string | Die Rolle der Entität, die die Botschaft erschafft. Erlaubte Werte umfassen: - user: Zeigt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wurde und in den meisten Fällen zur Darstellung von benutzergenerierten Nachrichten verwendet werden sollte.- assistant: Zeigt an, dass die Nachricht vom Assistenten generiert wurde. Verwenden Sie diesen Wert, um Nachrichten vom Assistenten in das Gespräch einzufügen. |
Yes |
Rollen-Enum: CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objekt Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | Der Zustand des Lösch-Nachrichten-Antwortobjekts |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | Die Datei-ID des Bildes im Nachrichteninhalt. | No | |
| type | string | Immer image_file. |
Yes |
type Enum: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Der Dateityp des Nachrichteninhalts |
messageContentTextObject
Der Text, der Teil einer Nachricht ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | Die Daten, aus denen der Text besteht. | No | |
| type | string | Immer text. |
Yes |
type Enum: messageContentTextObjectType
| Value | Description |
|---|---|
| text | Der Nachrichteninhaltstext Objekttyp |
messageContentTextAnnotationsFileCitationObject
Ein Zitat in der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die mit dem Assistenten oder der Nachricht verbunden ist. Generiert, wenn der Assistent das "Abruf"-Tool zur Durchsuchung von Dateien verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | Die ID der spezifischen Datei, aus der der Zitat stammt. | No | |
| start_index | integer | Yes | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Yes | |
| type | string | Immer file_citation. |
Yes |
type Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Der Dateizitationsobjekttyp |
messageContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zur Erstellung einer Datei verwendet hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | Die ID der erstellten Datei. | No | |
| start_index | integer | Yes | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Yes | |
| type | string | Immer file_path. |
Yes |
type Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | Der Dateipfad-Objekttyp |
messageDeltaContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | Die Datei-ID des Bildes im Nachrichteninhalt. | No | |
| index | integer | Der Inhaltsindex in der Nachricht. | Yes | |
| type | string | Immer image_file. |
Yes |
type Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Der Text, der Teil einer Nachricht ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Der Inhaltsindex in der Nachricht. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | Die Daten, aus denen der Text besteht. | No | |
| type | string | Immer text. |
Yes |
type Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Ein Zitat in der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die mit dem Assistenten oder der Nachricht verbunden ist. Generiert, wenn der Assistent das "file_search"-Tool zur Durchsuchung von Dateien verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | Die ID der spezifischen Datei, aus der der Zitat stammt. | No | |
| └─ quote | string | Das konkrete Zitat in der Akte. | No | |
| index | integer | Der Index der Annotation im Textinhalt. | Yes | |
| start_index | integer | No | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
| type | string | Immer file_citation. |
Yes |
type Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zur Erstellung einer Datei verwendet hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | Die ID der erstellten Datei. | No | |
| index | integer | Der Index der Annotation im Textinhalt. | Yes | |
| start_index | integer | No | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
| type | string | Immer file_path. |
Yes |
type Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der mit dem Laufschritt verknüpft ist. | Yes | |
| cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Laufschritt abgebrochen wurde. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Laufschritts. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführen-Schritt erstellt wurde. | Yes | |
| expired_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt des Ablaufschritts. Ein Schritt gilt als abgelaufen, wenn der Elternlauf abgelaufen ist. | Yes | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführungsschritt fehlgeschlagen ist. | Yes | |
| id | string | Die Identifikatorin des Ausführens des Schritts, die in API-Endpunkten referenziert werden kann. | Yes | |
| last_error | object | Der letzte Fehler, der mit diesem Laufschritt verbunden ist. Wird es sein null , wenn keine Fehler vorliegen. |
Yes | |
| └─ code | string | Einer von server_error oder rate_limit_exceeded. |
No | |
| └─ message | string | Eine für Menschen lesbare Beschreibung des Fehlers. | No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
Yes | |
| object | string | Der Objekttyp, der immer assistant.run.stepist. |
Yes | |
| run_id | string | Die ID des Durchlaufs, zu dem dieser Durchlaufschritt gehört. | Yes | |
| status | string | Der Status des Durchlaufs, der entweder in_progress, cancelled, , failed, completedoder expiredsein kann. |
Yes | |
| step_details | runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject | Die Details des Laufschritts. | Yes | |
| thread_id | string | Die ID der durchgeführten Threads. | Yes | |
| type | string | Der Typ des Laufschritts, der entweder message_creation oder tool_callssein kann. |
Yes |
Objekt-Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Der Objekttyp, der immer ist assistant.run.step |
Typ Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | Der message_creation Laufschritt |
| tool_calls | Der tool_calls Laufschritt |
Status Enum: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | Der in_progress Run-Status |
| cancelled | Der Status des gestrichenen Laufs |
| failed | Der Status des gestrichenen Laufs |
| completed | Der Status des gestrichenen Laufs |
| expired | Der Status des gestrichenen Laufs |
runStepDeltaObject
Repräsentiert ein Laufschritt-Delta, also alle geänderten Felder auf einem Laufschritt während des Streamings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Das Delta, das die Felder enthält, die sich im Laufschritt geändert haben. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject | Die Details des Laufschritts. | No | |
| id | string | Die Identifikatorin des Ausführens des Schritts, die in API-Endpunkten referenziert werden kann. | Yes | |
| object | string | Der Objekttyp, der immer thread.run.step.deltaist. |
Yes |
Objekt-Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Details zur Nachrichtenerstellung durch den Laufschritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | Die ID der Nachricht, die durch diesen Laufschritt erstellt wurde. | No | |
| type | string | Immer message_creation. |
Yes |
Typ Enum: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Details zur Nachrichtenerstellung durch den Laufschritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | Die ID der Nachricht, die durch diesen Laufschritt erstellt wurde. | No | |
| type | string | Immer message_creation. |
Yes |
Typ Enum: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Details des Werkzeugaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Eine Reihe von Werkzeugaufrufen, an denen der Laufschritt beteiligt war. Diese können mit einer von drei Arten von Werkzeugen assoziiert werden: code_interpreter, retrieval oder function. |
Yes | |
| type | string | Immer tool_calls. |
Yes |
type Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Details des Werkzeugaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Eine Reihe von Werkzeugaufrufen, an denen der Laufschritt beteiligt war. Diese können mit einer von drei Arten von Werkzeugen assoziiert werden: code_interpreter, file_search oder function. |
No | |
| type | string | Immer tool_calls. |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Details des Code Interpreter-Tool-Aufrufs, an dem der Ausführen-Schritt beteiligt war.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Das Code Interpreter-Tool ruft die Definition auf. | Yes | |
| └─ input | string | Die Eingabe für den Code Interpreter-Tool-Aufruf. | No | |
| └─ outputs | array | Die Ausgaben des Code Interpreter-Tool-Aufrufs. Code Interpreter kann ein oder mehrere Elemente ausgeben, darunter Text (logs) oder Bilder (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. |
No | |
| id | string | Die ID des Werkzeugrufs. | Yes | |
| type | string | Die Art von Werkzeugruf. Das gilt immer code_interpreter für diese Art von Tool-Call. |
Yes |
type Enum: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Details des Code Interpreter-Tool-Aufrufs, an dem der Ausführen-Schritt beteiligt war.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Das Code Interpreter-Tool ruft die Definition auf. | No | |
| └─ input | string | Die Eingabe für den Code Interpreter-Tool-Aufruf. | No | |
| └─ outputs | array | Die Ausgaben des Code Interpreter-Tool-Aufrufs. Code Interpreter kann ein oder mehrere Elemente ausgeben, darunter Text (logs) oder Bilder (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. |
No | |
| id | string | Die ID des Werkzeugrufs. | No | |
| index | integer | Der Index des Werkzeugaufrufs im Werkzeug ruft das Array auf. | Yes | |
| type | string | Die Art von Werkzeugruf. Das gilt immer code_interpreter für diese Art von Tool-Call. |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Textausgabe vom Code Interpreter-Tool-Aufruf als Teil eines Run-Schritts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Textausgabe aus dem Code Interpreter-Tool-Aufruf. | Yes | |
| type | string | Immer logs. |
Yes |
type Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Textausgabe vom Code Interpreter-Tool-Aufruf als Teil eines Run-Schritts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Der Index der Ausgabe im Ausgabearray. | Yes | |
| logs | string | Die Textausgabe aus dem Code Interpreter-Tool-Aufruf. | No | |
| type | string | Immer logs. |
Yes |
type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | Die Datei-ID des Bildes. | No | |
| type | string | Immer image. |
Yes |
type Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | Die Datei-ID des Bildes. | No | |
| index | integer | Der Index der Ausgabe im Ausgabearray. | Yes | |
| type | string | Immer image. |
Yes |
Typ Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Im Moment wird das immer ein leeres Objekt sein. | Yes | |
| └─ results | array | Die Ergebnisse der Dateisuche. | No | |
| id | string | Die ID des Werkzeugaufrufobjekts. | Yes | |
| type | string | Die Art von Werkzeugruf. Das gilt immer file_search für diese Art von Tool-Call. |
Yes |
Type Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Eine Ergebnisinstanz der Dateisuche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur aufgenommen, wenn er über den Include-Abfrageparameter angefordert wird. | No | |
| file_id | string | Die ID der Datei, in der das Ergebnis gefunden wurde. | Yes | |
| file_name | string | Der Name der Akte, in der dieses Ergebnis gefunden wurde. | Yes | |
| score | number | Das Ergebnis des Ergebnisses. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 haben. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Im Moment wird das immer ein leeres Objekt sein. | Yes | |
| id | string | Die ID des Werkzeugaufrufobjekts. | No | |
| index | integer | Der Index des Werkzeugaufrufs im Werkzeug ruft das Array auf. | Yes | |
| type | string | Die Art von Werkzeugruf. Das gilt immer retrieval für diese Art von Tool-Call. |
Yes |
Type Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Definition der Funktion, die genannt wurde. | Yes | |
| └─ arguments | string | Die Argumente wurden an die Veranstaltung weitergegeben. | No | |
| └─ name | string | Der Name der Veranstaltung. | No | |
| └─ output | string | Die Ausgabe der Funktion. Dies gilt, null wenn die Ergebnisse noch nicht eingereicht wurden. |
No | |
| id | string | Die ID des Werkzeugaufrufobjekts. | Yes | |
| type | string | Die Art von Werkzeugruf. Das gilt immer function für diese Art von Tool-Call. |
Yes |
type Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Definition der Funktion, die genannt wurde. | No | |
| └─ arguments | string | Die Argumente wurden an die Veranstaltung weitergegeben. | No | |
| └─ name | string | Der Name der Veranstaltung. | No | |
| └─ output | string | Die Ausgabe der Funktion. Dies gilt, null wenn die Ergebnisse noch nicht eingereicht wurden. |
No | |
| id | string | Die ID des Werkzeugaufrufobjekts. | No | |
| index | integer | Der Index des Werkzeugaufrufs im Werkzeug ruft das Array auf. | Yes | |
| type | string | Die Art von Werkzeugruf. Das gilt immer function für diese Art von Tool-Call. |
Yes |
type Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Anker-Zeitstempel, nach dem die Ablaufrichtlinie gilt. Unterstützte Anker: last_active_at. |
Yes | |
| days | integer | Die Anzahl der Tage nach der Ankerzeit, in der der Vektorspeicher abläuft. | Yes |
Anker-Enum: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Der Ankerzeitstempel, nach dem die Ablaufrichtlinie gilt. |
vectorStoreObject
Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom file_search Tool verwendet werden können.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Vektorspeicher erstellt wurde. | Yes | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) dafür, wann der Vektorspeicher abläuft. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Die Anzahl der gelöschten Dateien. | No | |
| └─ completed | integer | Die Anzahl der erfolgreich verarbeiteten Dateien. | No | |
| └─ failed | integer | Die Anzahl der Dateien, die nicht verarbeitet wurden. | No | |
| └─ in_progress | integer | Die Anzahl der aktuell bearbeiteten Dateien. | No | |
| └─ total | integer | Die Gesamtzahl der Dateien. | No | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| last_active_at | integer | Der Unix-Zeitstempel (in Sekunden) dafür, wann der Vektorspeicher zuletzt aktiv war. | Yes | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
Yes | |
| name | string | Der Name des Vektorspeichers. | Yes | |
| object | enum | Der Objekttyp, der immer vector_storeist.Mögliche Werte: vector_store |
Yes | |
| status | string | Der Status des Vektorspeichers, der entweder expired, in_progress, oder completedsein kann. Ein Status von completed zeigt an, dass der Vektorspeicher einsatzbereit ist. |
Yes | |
| usage_bytes | integer | Die Gesamtzahl der von den Dateien im Vektorspeicher verwendeten Bytes. | Yes |
Status Enum: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. Nur dann anwendbar, wenn file_ids nicht leer ist. |
No | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. |
No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| metadata | object | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objekt Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | Der Zustand des Delete-Vector-Store-Response-Objekts |
vectorStoreFileObject
Eine Liste von Dateien, die einem Vektorspeicher zugeordnet sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. Nur dann anwendbar, wenn file_ids nicht leer ist. |
No | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Vektorspeicherdatei erstellt wurde. | Yes | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| last_error | object | Der letzte Fehler, der mit dieser Vektorspeicherdatei verbunden ist. Wird es sein null , wenn keine Fehler vorliegen. |
Yes | |
| └─ code | string | Eines von server_error oder invalid_file oder .unsupported_file |
No | |
| └─ message | string | Eine für Menschen lesbare Beschreibung des Fehlers. | No | |
| object | string | Der Objekttyp, der immer vector_store.fileist. |
Yes | |
| status | string | Der Status der Vektorspeicherdatei, die entweder in_progress, completed, cancelled, oder failedsein kann. Der Status completed zeigt an, dass die Vektorspeicherdatei einsatzbereit ist. |
Yes | |
| usage_bytes | integer | Die Gesamtnutzung des Vektorspeichers in Bytes. Beachten Sie, dass dies sich von der ursprünglichen Dateigröße unterscheiden kann. | Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angehängt ist. | Yes |
Objekt-Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Status Enum: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Chunking-Strategie unbekannt ist. Typischerweise liegt dies daran, dass die Datei bereits indexiert wurde, bevor das chunking_strategy Konzept in der API eingeführt wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Immer other. |
Yes |
Typ Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Immer static. |
Yes |
Typ Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Die Anzahl der Tokens, die sich zwischen den Chunks überschneiden. Der Standardwert ist 400.Beachte, dass die Überlappung nicht die Hälfte von überschreiten max_chunk_size_tokensdarf. |
Yes | |
| max_chunk_size_tokens | integer | Die maximale Anzahl an Token in jedem Chunk. Der Standardwert ist 800. Der Mindestwert ist 100 und der Maximalwert ist 4096. |
Yes |
autoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit ein max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Immer auto.Mögliche Werte: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Immer static.Mögliche Werte: static |
Yes |
chunkingStrategyRequestParam
Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden.
Diese Komponente kann eine der folgenden sein:
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. |
No | |
| file_id | string | Eine Datei-ID, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objekt Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Eine Charge von Dateien, die an einen Vektorspeicher angehängt sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Batch-Erstellung der Vektorspeicherdateien. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Die Anzahl der gelöschten Dateien. | No | |
| └─ completed | integer | Die Anzahl der verarbeiteten Dateien. | No | |
| └─ failed | integer | Die Anzahl der Dateien, die nicht verarbeitet wurden. | No | |
| └─ in_progress | integer | Die Anzahl der aktuell bearbeiteten Dateien. | No | |
| └─ total | integer | Die Gesamtzahl der Dateien. | No | |
| id | string | Der Identifikator, der in API-Endpunkten referenziert werden kann. | Yes | |
| object | string | Der Objekttyp, der immer vector_store.file_batchist. |
Yes | |
| status | string | Der Status des Vektorspeicher-Dateien-Batches, der entweder in_progress, completed, cancelled oder failedsein kann. |
Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angehängt ist. | Yes |
Objekt-Enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Status Enum: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. |
No | |
| file_ids | array | Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. |
Yes |
assistantStreamEvent
Repräsentiert ein Ereignis, das beim Streamen eines Runs ausgelöst wird.
Jedes Ereignis in einem servergesendeten Ereignisstrom besitzt eine event Eigenschaft und data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Wir senden Ereignisse aus, wann immer ein neues Objekt erstellt wird, in einen neuen Zustand übergeht oder in Teilen (Deltas) gestreamt wird. Zum Beispiel senden wir aus, thread.run.created wenn ein neuer Run erstellt wird, thread.run.completed wenn ein Run abgeschlossen wird und so weiter. Wenn ein Assistent während eines Durchlaufs eine Nachricht erstellt, senden wir ein thread.message.created event, ein thread.message.in_progress Ereignis, viele thread.message.delta Ereignisse und schließlich ein Ereignis thread.message.completed .
Wir können im Laufe der Zeit zusätzliche Ereignisse hinzufügen, daher empfehlen wir, unbekannte Ereignisse in Ihrem Code elegant zu behandeln.
Diese Komponente kann eine der folgenden sein:
threadStreamEvent
Diese Komponente kann eine der folgenden sein:
thread.created
Tritt auf, wenn ein neuer Thread erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Repräsentiert einen Thread, der Nachrichten enthält. | Yes | |
| event | string | Yes |
Data: threadObject
Ereignis-Enum: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | Das Thread-erstellte Ereignis |
runStreamEvent
Diese Komponente kann eine der folgenden sein:
thread.run.created
Tritt auf, wenn ein neuer Durchlauf erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Tritt auf, wenn ein Lauf in einen Status queued wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Tritt auf, wenn ein Lauf in einen Status in_progress übergeht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Tritt auf, wenn ein Lauf in einen Status requires_action wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventVerlangAktion
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Tritt auf, wenn ein Durchlauf abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventAbgeschlossen
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Tritt auf, wenn ein Durchlauf fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Tritt auf, wenn ein Lauf in einen Status cancelling wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Tritt auf, wenn ein Lauf abgebrochen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Veranstaltungsübersicht: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Tritt auf, wenn ein Run abläuft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. | Yes | |
| event | string | Yes |
Data: runObject
Ereignis-Enum: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Diese Komponente kann eine der folgenden sein:
thread.run.step.created
Tritt auf, wenn ein Laufschritt erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in der Ausführung eines Durchlaufs dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Event Enum: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Tritt auf, wenn ein Laufschritt in einen Zustand in_progress übergeht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in der Ausführung eines Durchlaufs dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Ereignis-Enum: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Tritt auf, wenn Teile eines Laufschritts gestreamt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Repräsentiert ein Laufschritt-Delta, also alle geänderten Felder auf einem Laufschritt während des Streamings. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Event Enum: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in der Ausführung eines Durchlaufs dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Ereignis-Enum: RunStepStreamEventAbgeschlossen
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Tritt auf, wenn ein Laufschritt fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in der Ausführung eines Durchlaufs dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Ereignis-Enum: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Tritt auf, wenn ein Laufschritt abgebrochen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in der Ausführung eines Durchlaufs dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Event Enum: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Tritt auf, wenn ein Laufschritt abläuft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in der Ausführung eines Durchlaufs dar. |
Yes | |
| event | string | Yes |
Data: runStepObject
Ereignis-Enum: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Diese Komponente kann eine der folgenden sein:
thread.message.created
Tritt auf, wenn eine Nachricht erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Repräsentiert eine Nachricht innerhalb eines Threads. | Yes | |
| event | string | Yes |
Data: messageObject
Ereignis-Enum: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Tritt auf, wenn eine Nachricht in einen Zustand in_progress wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Repräsentiert eine Nachricht innerhalb eines Threads. | Yes | |
| event | string | Yes |
Data: messageObject
Ereignis-Enum: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Tritt auf, wenn Teile einer Nachricht gestreamt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Repräsentiert ein Nachrichten-Delta, also alle veränderten Felder einer Nachricht während des Streamings. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Ereignis-Enum: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Tritt auf, wenn eine Nachricht abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Repräsentiert eine Nachricht innerhalb eines Threads. | Yes | |
| event | string | Yes |
Data: messageObject
Ereignis-Enum: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Repräsentiert eine Nachricht innerhalb eines Threads. | Yes | |
| event | string | Yes |
Data: messageObject
Ereignis-Enum: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Diese Komponente kann eine der folgenden sein:
Click
Eine Klickaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Zeigt an, welche Maustaste während des Klicks gedrückt wurde. Einer von , , , , back, oder forward. wheelrightleftMögliche Werte: left, right, wheel, back, forward |
Yes | |
| type | enum | Spezifiziert den Ereignistyp. Für eine Klickaktion ist diese Eigenschaft immer auf clickgesetzt.Mögliche Werte: click |
Yes | |
| x | integer | Die X-Koordinate, an der der Klick stattfand. |
Yes | |
| y | integer | Die y-Koordinate, an der der Klick stattfand. |
Yes |
CodeInterpreterFileOutput
Die Ausgabe eines Code-Interpreter-Tool-Aufrufs, der eine Datei ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Der Typ der Code-Interpreter-Datei, die ausgegeben wird. Immer files.Mögliche Werte: files |
Yes |
CodeInterpreterTextOutput
Die Ausgabe eines Code-Interpreter-Tool-Aufrufs, der Text ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Protokolle des Code-Interpreter-Tool-Aufrufs. |
Yes | |
| type | enum | Der Typ der Code-Interpreter-Textausgabe. Immer logs.Mögliche Werte: logs |
Yes |
CodeInterpreterTool
Ein Tool, das Code ausführt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Die IDs der Dateien, auf denen der Code ausgeführt werden soll. |
Yes | |
| type | enum | Der Typ des Code-Interpreter-Tools. Immer code_interpreter.Mögliche Werte: code_interpreter |
Yes |
CodeInterpreterToolCall
Ein Toolaufruf, um Code auszuführen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Code zum Laufen. |
Yes | |
| id | string | Die eindeutige ID des Code-Interpreter-Tool-Aufrufs. |
Yes | |
| results | array | Die Ergebnisse des Code-Interpreter-Tool-Aufrufs. |
Yes | |
| status | enum | Der Status des Code-Interpreter-Tool-Aufrufs. Mögliche Werte: in_progress, interpreting, completed |
Yes | |
| type | enum | Der Typ des Code-Interpreter-Tool-Aufrufs. Immer code_interpreter_call.Mögliche Werte: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Diese Komponente kann eine der folgenden sein:
ComparisonFilter
Ein Filter, der verwendet wird, um einen bestimmten Attributschlüssel mit einem bestimmten Wert zu vergleichen, indem er eine definierte Vergleichsoperation verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der Schlüssel ist, den Wert zu vergleichen. | Yes | |
| type | enum | Spezifiziert den Vergleichsoperator: eq, ne, , gtgte, lt, . lte- eq: gleich- ne: nicht gleich- gt: größer als- gte: größer als oder gleich- lt: weniger als- lte: weniger als oder gleichMögliche Werte: eq, ne, , gtgte, lt,lte |
Yes | |
| value | String oder Number oder Boolean | Der zu vergleichende Wert mit dem Attributschlüssel; unterstützt Zeichenketten-, Zahlen- oder Boolean-Typen. | Yes |
CompoundFilter
Kombinieren Sie mehrere Filter mit and oder or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Ein Filter-Array zum Kombinieren. Gegenstände können ComparisonFilter sein oder CompoundFilter. |
Yes | |
| type | enum | Art der Operation: and oder or.Mögliche Werte: and, or |
Yes |
ComputerAction
Diese Komponente kann eine der folgenden sein:
ComputerScreenshotImage
Ein Computer-Screenshot-Bild, das mit dem Computerwerkzeug verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die Identifikatorin einer hochgeladenen Datei, die den Screenshot enthält. | No | |
| image_url | string | Die URL des Screenshots. | No | |
| type | enum | Spezifiziert den Ereignistyp. Für einen Computerscreenshot ist diese Eigenschaft immer auf computer_screenshotgesetzt.Mögliche Werte: computer_screenshot |
Yes |
ComputerTool
Ein Werkzeug, das einen virtuellen Computer steuert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | Die Höhe des Computerbildschirms. |
Yes | |
| display_width | number | Die Breite des Computerbildschirms. |
Yes | |
| environment | enum | Die Art von Computerumgebung, die gesteuert werden soll. Mögliche Werte: mac, windows, ubuntu, browser |
Yes | |
| type | enum | Die Art des Computerwerkzeugs. Immer computer_use_preview.Mögliche Werte: computer-use-preview |
Yes |
ComputerToolCall
Ein Werkzeugaufruf an ein Computerwerkzeug.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Ein Identifikator, der beim Antworten auf den Werkzeugaufruf mit Ausgabe verwendet wird. |
Yes | |
| id | string | Die eindeutige ID des Computeranrufs. | Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitskontrollen für den Computeranruf. |
Yes | |
| status | enum | Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
Yes | |
| type | enum | Die Art des Computeranrufs. Immer computer_call.Mögliche Werte: computer_call |
Yes |
ComputerToolCallOutput
Die Ausgabe eines Computerwerkzeuganrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die Sicherheitsprüfungen, die von der API gemeldet wurden und vom Entwickler bestätigt wurden. |
No | |
| call_id | string | Die ID des Computeraufrufs, der die Ausgabe erzeugte. |
Yes | |
| id | string | Die ID des Computerwerkzeug-Aufrufs gibt aus. |
No | |
| output | ComputerScreenshotImage | Ein Computer-Screenshot-Bild, das mit dem Computerwerkzeug verwendet wird. |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Gefüllt, wenn Eingabeeinträge über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ des Computerwerkzeugs ruft die Ausgabe. Immer computer_call_output.Mögliche Werte: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die Sicherheitsprüfungen, die von der API gemeldet wurden und vom Entwickler bestätigt wurden. |
No | |
| call_id | string | Die ID des Computeraufrufs, der die Ausgabe erzeugte. |
Yes | |
| id | string | Die eindeutige ID des Computer-Aufrufwerkzeugs. |
Yes | |
| output | ComputerScreenshotImage | Ein Computer-Screenshot-Bild, das mit dem Computerwerkzeug verwendet wird. |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Gefüllt, wenn Eingabeeinträge über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ des Computerwerkzeugs ruft die Ausgabe. Immer computer_call_output.Mögliche Werte: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Eine bevorstehende Sicherheitsüberprüfung für den Computeranruf.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Die Art der bevorstehenden Sicherheitsüberprüfung. | Yes | |
| id | string | Der Ausweis der ausstehenden Sicherheitskontrolle. | Yes | |
| message | string | Details zur ausstehenden Sicherheitsprüfung. | Yes |
Content
Multimodale Eingabe- und Ausgabeinhalte.
Diese Komponente kann eine der folgenden sein:
Coordinate
Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen. |
No | |
| model | string | Modell, das zur Erzeugung der Antworten verwendet wird. | No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | Saite oder Array | Text-, Bild- oder Dateieingaben für das Modell, die zur Erzeugung einer Antwort verwendet werden. | Yes | |
| instructions | string | Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein. Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen. |
No | |
| max_output_tokens | integer | Eine obere Schranke für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. |
No | |
| parallel_tool_calls | boolean | Ob das Modell Werkzeugaufrufe parallel ausführen soll. |
No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Schlussfolgermodelle. | No | |
| store | boolean | Ob die generierte Modellantwort für eine spätere Abruf über die API gespeichert werden soll. |
No | True |
| stream | boolean | Wenn auf true gesetzt, werden die Antwortdaten des Modells an den Client gestreamt, während sie mithilfe von Server-gesendeten Ereignissen generiert werden. | No | False |
| text | object | Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.Nicht empfohlen für GPT-4o und neuere Modelle: Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind: - Eingebaute Werkzeuge |
No | |
| truncation | enum | Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und der vorherigen die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort, um ins Kontextfenster zu passen, indem man Eingabepunkte mitten im Gespräch platziert. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
DoubleClick
Eine Doppelklick-Aktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spezifiziert den Ereignistyp. Für eine Doppelklickaktion ist diese Eigenschaft immer auf double_clickgesetzt.Mögliche Werte: double_click |
Yes | |
| x | integer | Die x-Koordinate, an der der Doppelklick stattfand. |
Yes | |
| y | integer | Die y-Koordinate, an der der Doppelklick stattfand. |
Yes |
Drag
Eine Drag-Action.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Ein Koordinatenarray, das den Weg der Dragaktion darstellt. Koordinaten erscheinen als ein Array von Objekten, z. B.[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Spezifiziert den Ereignistyp. Für eine Drag-Aktion ist diese Eigenschaft immer auf draggesetzt.Mögliche Werte: drag |
Yes |
EasyInputMessage
Eine Nachrichteneingabe an das Modell mit einer Rolle, die eine Instruktion angibt, die der Hierarchie folgt. Anweisungen, die mit der oder system Rolle developer gegeben werden, haben Vorrang vor den Anweisungen der jeweiligen user Rolle. Nachrichten mit der Rolle assistant werden angenommen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | String oder InputMessageContentList | Text-, Bild- oder Audioeingaben für das Modell, die zur Erzeugung einer Antwort verwendet werden. Kann auch Antworten früherer Assistenten enthalten. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.Mögliche Werte: user, assistant, system, developer |
Yes | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Mögliche Werte: message |
No |
FileCitation
Ein Zitat für eine Akte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Akte. |
Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. |
Yes | |
| type | enum | Der Typ der Aktenbelegung. Immer file_citation.Mögliche Werte: file_citation |
Yes |
FilePath
Ein Pfad zu einer Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Akte. |
Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. |
Yes | |
| type | enum | Der Typ des Dateipfads. Immer file_path.Mögliche Werte: file_path |
Yes |
FileSearchRanker
Der Ranker für die Dateisuche. Falls nicht angegeben, werde ich den auto Ranker verwenden.
| Property | Value |
|---|---|
| Description | Der Ranker für die Dateisuche. Falls nicht angegeben, werde ich den auto Ranker verwenden. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Ein Tool, das relevante Inhalte aus hochgeladenen Dateien sucht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet wird. | No | |
| max_num_results | integer | Die maximale Anzahl an Ergebnissen, die du ergeben kannst. Diese Zahl sollte zwischen 1 und 50 liegen. |
No | |
| ranking_options | object | Rangfolgeoptionen für die Suche. | No | |
| └─ ranker | enum | Der Ranker für die Dateisuche. Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Die Punktschwelle für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen näher bei 1 versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse liefern. |
No | 0 |
| type | enum | Der Typ des Dateisuchtools. Immer file_search.Mögliche Werte: file_search |
Yes | |
| vector_store_ids | array | Die IDs des Vektors, die durchsucht werden sollen, speichern. |
Yes |
FileSearchToolCall
Die Ergebnisse eines Dateisuchwerkzeugs aufrufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die eindeutige ID des Dateisuchwerkzeugs aufruft. |
Yes | |
| queries | array | Die Abfragen wurden verwendet, um nach Dateien zu suchen. |
Yes | |
| results | array | Die Ergebnisse des Dateisuchwerkzeugs rufen auf. |
No | |
| status | enum | Der Status des Dateisuchwerkzeugaufrufs. Einer von in_progress, searching, incomplete oder failed,Mögliche Werte: in_progress, searching, completed, incomplete, failed |
Yes | |
| type | enum | Der Typ des Dateisuch-Tool-Aufrufs. Immer file_search_call.Mögliche Werte: file_search_call |
Yes |
FunctionTool
Definiert eine Funktion in deinem eigenen Code, den das Modell aufrufen kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll oder nicht. |
No | |
| name | string | Der Name der Funktion, die aufgerufen werden soll. |
Yes | |
| parameters | object | Ein JSON-Schema-Objekt, das die Parameter der Funktion beschreibt. |
Yes | |
| strict | boolean | Ob eine strikte Parametervalidierung durchgesetzt werden soll. Standard.true |
Yes | |
| type | enum | Der Typ des Funktionswerkzeugs. Immer function.Mögliche Werte: function |
Yes |
FunctionToolCall
Ein Werkzeugaufruf, um eine Funktion auszuführen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenkette der Argumente, die an die Funktion übergeben werden sollen. |
Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionswerkzeugaufrufs. |
Yes | |
| id | string | Die eindeutige ID des Aufrufs des Funktionswerkzeugs. |
Yes | |
| name | string | Der Name der zu ausführenden Funktion. |
Yes | |
| status | enum | Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ des Funktionswerkzeugaufrufs. Immer function_call.Mögliche Werte: function_call |
Yes |
FunctionToolCallOutput
Die Ausgabe eines Funktionswerkzeugaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionswerkzeugaufrufs. |
Yes | |
| id | string | Die eindeutige ID des Aufrufs des Funktionswerkzeugs. Wird ausgefüllt, wenn dieses Element über die API zurückgegeben wird. |
No | |
| output | string | Ein JSON-String der Ausgabe des Funktionswerkzeugaufrufs. |
Yes | |
| status | enum | Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ des Funktionswerkzeugs ruft die Ausgabe auf. Immer function_call_output.Mögliche Werte: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionswerkzeugaufrufs. |
Yes | |
| id | string | Die eindeutige ID des Funktionsaufruf-Tool-Outputs. |
Yes | |
| output | string | Ein JSON-String der Ausgabe des Funktionswerkzeugaufrufs. |
Yes | |
| status | enum | Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ des Funktionswerkzeugs ruft die Ausgabe auf. Immer function_call_output.Mögliche Werte: function_call_output |
Yes |
includable
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort aufgenommen werden sollen. Derzeit unterstützte Werte sind:
-
file_search_call.results: Fügen Sie die Suchergebnisse des Dateisuchwerkzeugaufrufs ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht hinzu. -
computer_call_output.output.image_url: Bild-URLs aus der Ausgabe des Computeraufrufs einfügen.
| Property | Value |
|---|---|
| Description | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort aufgenommen werden sollen. Derzeit unterstützte Werte sind: - file_search_call.results: Fügen Sie die Suchergebnisse des Dateisuchwerkzeugaufrufs ein.- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht hinzu.- computer_call_output.output.image_url: Bild-URLs aus der Ausgabe des Computeraufrufs einfügen. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Ein Audioeingang zum Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-kodierte Audiodaten. |
Yes | |
| format | enum | Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.Mögliche Werte: mp3, wav |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_audio.Mögliche Werte: input_audio |
Yes |
InputContent
Diese Komponente kann eine der folgenden sein:
InputFile
Eine Dateieingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Der Inhalt der Datei, die an das Modell gesendet werden soll. |
No | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. |
No | |
| filename | string | Der Name der Datei, die an das Modell gesendet werden soll. |
No | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Mögliche Werte: input_file |
Yes |
InputImage
Eine Bildeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Das Detailniveau des Bildes, das an das Modell gesendet werden soll. Einer von high, low, oder auto. Standardmäßig gilt auto.Mögliche Werte: high, low, auto |
Yes | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. |
No | |
| image_url | string | Die URL des Bildes, das an das Modell gesendet werden soll. Eine vollständig qualifizierte URL oder base64-kodiertes Bild in einer Daten-URL. |
No | |
| type | enum | Der Typ des Eingabeelements. Immer input_image.Mögliche Werte: input_image |
Yes |
InputItem
Diese Komponente kann eine der folgenden sein:
InputMessage
Eine Nachrichteneingabe an das Modell mit einer Rolle, die eine Instruktion angibt, die der Hierarchie folgt. Anweisungen, die mit der oder system Rolle developer gegeben werden, haben Vorrang vor den Anweisungen der jeweiligen user Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Eine Liste von einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthalten types. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.Mögliche Werte: user, system, developer |
Yes | |
| status | enum | Der Status des Artikels. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf gestellt message.Mögliche Werte: message |
No |
InputMessageContentList
Eine Liste eines oder mehrerer Eingabeelemente für das Modell, die verschiedene Inhaltstypen enthalten.
Für diese Komponente sind keine Eigenschaften definiert.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Eine Liste von einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthalten types. |
Yes | |
| id | string | Die eindeutige ID der Nachrichteneingabe. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.Mögliche Werte: user, system, developer |
Yes | |
| status | enum | Der Status des Artikels. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf gestellt message.Mögliche Werte: message |
No |
InputText
Eine Texteingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Die Texteingabe für das Modell. |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Mögliche Werte: input_text |
Yes |
Item
Ein Inhaltselement wird verwendet, um eine Antwort zu erzeugen.
Diese Komponente kann eine der folgenden sein:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Eine interne Kennung für ein Element zum Referenzieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die ID des Artikels, auf den man sich beziehen kann. |
Yes | |
| type | enum | Die Art des Artikels, auf den man sich beziehen sollte. Immer item_reference.Mögliche Werte: item_reference |
Yes |
ItemResource
Ein Inhaltselement wird verwendet, um eine Antwort zu erzeugen.
Diese Komponente kann eine der folgenden sein:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | Die Kombination der Tasten, die das Modell anfordert, gedrückt zu werden. Dies ist ein Array von Strings, von denen jeder einen Schlüssel darstellt. |
Yes | |
| type | enum | Spezifiziert den Ereignistyp. Für eine Tastendruckaktion ist diese Eigenschaft immer auf keypressgesetzt.Mögliche Werte: keypress |
Yes |
Metadata
Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen.
Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen.
Für diese Komponente sind keine Eigenschaften definiert.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen. |
No | |
| model | string | Modell, das zur Erzeugung der Antworten verwendet wird. | No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
No | 1 |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
Move
Eine Mausbewegung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spezifiziert den Ereignistyp. Für eine Bewegungsaktion ist diese Eigenschaft immer auf movegesetzt.Mögliche Werte: move |
Yes | |
| x | integer | Die x-Koordinate, zu der man wechseln soll. |
Yes | |
| y | integer | Die y-Koordinate, zu der man wechseln soll. |
Yes |
OutputAudio
Ein Audioausgang vom Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-kodierte Audiodaten aus dem Modell. |
Yes | |
| transcript | string | Das Transkript der Audiodaten aus dem Modell. |
Yes | |
| type | enum | Die Art des Ausgangsaudios. Immer output_audio.Mögliche Werte: output_audio |
Yes |
OutputContent
Diese Komponente kann eine der folgenden sein:
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Eine JSON-Zeichenkette der Argumente, die an die Funktion übergeben werden sollen. |
Yes | |
| call_id | string | Ein Identifikator, der beim Antworten auf den Werkzeugaufruf mit Ausgabe verwendet wird. |
Yes | |
| content | array | Rationalisieren des Textinhalts. |
Yes | |
| id | string | Der eindeutige Identifikator des Argumentationsins. |
Yes | |
| name | string | Der Name der zu ausführenden Funktion. |
Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitskontrollen für den Computeranruf. |
Yes | |
| queries | array | Die Abfragen wurden verwendet, um nach Dateien zu suchen. |
Yes | |
| results | array | Die Ergebnisse des Dateisuchwerkzeugs rufen auf. |
No | |
| role | enum | Die Rolle der Ausgabenachricht. Immer assistant.Mögliche Werte: assistant |
Yes | |
| status | enum | Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
Yes | |
| type | enum | Die Art des Objekts. Immer reasoning.Mögliche Werte: reasoning |
Yes |
OutputMessage
Eine Ausgabemeldung vom Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt der Ausgabebotschaft. |
Yes | |
| id | string | Die eindeutige ID der Ausgabenachricht. |
Yes | |
| role | enum | Die Rolle der Ausgabenachricht. Immer assistant.Mögliche Werte: assistant |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Gefüllt, wenn Eingabeeinträge über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
Yes | |
| type | enum | Der Typ der Ausgabenachricht. Immer message.Mögliche Werte: message |
Yes |
OutputText
Eine Textausgabe vom Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Die Annotationen der Textausgabe. |
Yes | |
| text | string | Die Textausgabe vom Modell. |
Yes | |
| type | enum | Der Typ des Ausgabetextes. Immer output_text.Mögliche Werte: output_text |
Yes |
RealtimeSessionCreateRequest
Echtzeit-Konfiguration von Sitzungsobjekten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.Mögliche Werte: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird. Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird. |
No | |
| └─ type | enum | Art der Lärmunterdrückung.
near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Die Konfiguration für die Eingangs-Audiotranskription ist standardmäßig auf aus eingestellt und kann so null eingestellt werden, dass sie sich nach Einschalten ausschaltet. Eingabe-Audiotranskription ist nicht native im Modell, da das Modell Audio direkt konsumiert. Die Transkription läuft asynchron über das Transkriptions-Endpunkt und sollte als Leitfaden für die Eingabe-Audioinhalte behandelt werden, statt als genau das, was das Modell gehört hat. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung. |
No | |
| └─ language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz. |
No | |
| └─ model | string | Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15und whisper-1. |
No | |
| └─ prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben". |
No | |
| instructions | string | Die Standard-Systeminstruktionen (d. h. Systemnachricht) wurden vorangestellt, um Modellaufrufe zu erstellen. Dieses Feld ermöglicht es dem Client, das Modell anhand der gewünschten Antworten zu steuern. Das Modell kann zum Inhalt und Format der Antwort angewiesen werden (z. B. "sehr prägnant sein", "freundlich handeln", "hier sind Beispiele für gute Antworten") und zum Audioverhalten (z. B. "schnell sprechen", "Emotion in deine Stimme einbringen", "häufig lachen"). Die Anweisungen werden nicht garantiert vom Modell befolgt, aber sie geben dem Modell Hinweise auf das gewünschte Verhalten. Beachten Sie, dass der Server Standardbefehle setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und zu Beginn der Sitzung im session.created Event sichtbar sind. |
No | |
| max_response_output_tokens | Ganzzahl oder String | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Werkzeugaufrufe. Geben Sie eine ganze Zahl zwischen 1 und 4096 an, um die Ausgabetoken zu begrenzen oder inf für die maximal verfügbaren Token für ein bestimmtes Modell. Standardmäßig gilt inf. |
No | |
| modalities | Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"]. |
No | ||
| model | string | Der Name der für diese Sitzung verwendeten Einsatz. |
No | |
| output_audio_format | enum | Das Format der Ausgabe des Audios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.Für pcm16wird das Ausgangsaudio mit einer Frequenz von 24 kHz abgetastet.Mögliche Werte: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Stichprobentemperatur für das Modell, begrenzt auf [0,6, 1,2]. Für Audiomodelle wird eine Temperatur von 0,8 für die beste Leistung sehr empfohlen. |
No | 0.8 |
| tool_choice | string | Wie das Modell Werkzeuge auswählt. Optionen sind auto, none, , requiredoder geben Sie eine Funktion an. |
No | auto |
| tools | array | Werkzeuge (Funktionen), die dem Modell zur Verfügung stehen. | No | |
| turn_detection | object | Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet. Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt. |
No | True |
| └─ eagerness | enum | Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren.
low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller.
auto ist der Standard und äquivalent zu medium.Mögliche Werte: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen. |
No | |
| └─ threshold | number | Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden. |
No | |
| └─ type | enum | Art der Abzugserkennung. Mögliche Werte: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Eine neue Echtzeit-Session-Konfiguration mit einem flüchtigen Schlüssel. Die Standard-TTL für Tasten beträgt eine Minute.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Ephemeraler Schlüssel, der von der API zurückgegeben wird. | Yes | |
| └─ expires_at | integer | Zeitstempel für den Ablauf des Tokens. Derzeit laufen alle Token nach einer Minute ab. |
No | |
| └─ value | string | Ephemeraler Schlüssel, der in Client-Umgebungen zur Authentifizierung von Verbindungen zur Echtzeit-API verwendet werden kann. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte. |
No | |
| input_audio_format | string | Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw. |
No | |
| input_audio_transcription | object | Die Konfiguration für die Eingangs-Audiotranskription ist standardmäßig auf aus eingestellt und kann so null eingestellt werden, dass sie sich nach Einschalten ausschaltet. Eingabe-Audiotranskription ist nicht native im Modell, da das Modell Audio direkt konsumiert. Die Transkription läuft asynchron über Whisper und sollte als grobe Anleitung betrachtet werden, statt als die vom Modell verstandene Darstellung. |
No | |
| └─ model | string | Das für die Transkription whisper-1 verwendete Modell ist das einzige derzeit unterstützte Modell. |
No | |
| instructions | string | Die Standard-Systeminstruktionen (d. h. Systemnachricht) wurden vorangestellt, um Modellaufrufe zu erstellen. Dieses Feld ermöglicht es dem Client, das Modell anhand der gewünschten Antworten zu steuern. Das Modell kann in Bezug auf Antwortinhalte und -format (z. B. "sehr knapp sein", "freundlich handeln", "hier sind Beispiele guter Antworten") und auf Audioverhalten (z. B. "schnell sprechen", "Emotion in deine Stimme einbringen", "häufig lachen"). Die Anweisungen werden nicht garantiert vom Modell befolgt, aber sie geben dem Modell Hinweise auf das gewünschte Verhalten. Beachten Sie, dass der Server Standardbefehle setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und zu Beginn der Sitzung im session.created Event sichtbar sind. |
No | |
| max_response_output_tokens | Ganzzahl oder String | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Werkzeugaufrufe. Geben Sie eine ganze Zahl zwischen 1 und 4096 an, um die Ausgabetoken zu begrenzen oder inf für die maximal verfügbaren Token für ein bestimmtes Modell. Standardmäßig gilt inf. |
No | |
| modalities | Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"]. |
No | ||
| output_audio_format | string | Das Format der Ausgabe des Audios. Optionen sind pcm16, g711_ulaw, oder g711_alaw. |
No | |
| temperature | number | Stichprobentemperatur für das Modell, begrenzt auf [0,6, 1,2]. Standardmäßig auf 0,8 eingestellt. |
No | |
| tool_choice | string | Wie das Modell Werkzeuge auswählt. Optionen sind auto, none, , requiredoder geben Sie eine Funktion an. |
No | |
| tools | array | Werkzeuge (Funktionen), die dem Modell zur Verfügung stehen. | No | |
| turn_detection | object | Konfiguration für Abbiegungserkennung. Kann auf Schalten eingestellt null werden. Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet. |
No | |
| └─ prefix_padding_ms | integer | Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms. |
No | |
| └─ silence_duration_ms | integer | Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen. |
No | |
| └─ threshold | number | Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden. |
No | |
| └─ type | string | Die Art der Abzugserkennung wird derzeit nur server_vad unterstützt. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Echtzeit-Konfiguration von Transkriptionssitzungsobjekten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Die Sammlung von Elementen, die in die Transkription aufgenommen werden sollten. Derzeit verfügbare Artikel sind: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.Mögliche Werte: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird. Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird. |
No | |
| └─ type | enum | Art der Lärmunterdrückung.
near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für Eingabe-Audio-Transkription. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung. |
No | |
| └─ language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz. |
No | |
| └─ model | enum | Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1.Mögliche Werte: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben". |
No | |
| modalities | Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"]. |
No | ||
| turn_detection | object | Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet. Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └─ create_response | boolean | Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ eagerness | enum | Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren.
low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller.
auto ist der Standard und äquivalent zu medium.Mögliche Werte: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └─ prefix_padding_ms | integer | Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms. |
No | |
| └─ silence_duration_ms | integer | Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen. |
No | |
| └─ threshold | number | Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden. |
No | |
| └─ type | enum | Art der Abzugserkennung. Mögliche Werte: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Eine neue Echtzeit-Transkriptionssession-Konfiguration.
Wenn eine Sitzung auf dem Server über die REST-API erstellt wird, enthält das Sitzungsobjekt auch einen ephemeren Schlüssel. Die Standard-TTL für Tasten beträgt eine Minute. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Ephemeraler Schlüssel, der von der API zurückgegeben wird. Nur vorhanden, wenn die Sitzung auf dem Server über die REST-API erstellt wird. |
Yes | |
| └─ expires_at | integer | Zeitstempel für den Ablauf des Tokens. Derzeit laufen alle Token nach einer Minute ab. |
No | |
| └─ value | string | Ephemeraler Schlüssel, der in Client-Umgebungen zur Authentifizierung von Verbindungen zur Echtzeit-API verwendet werden kann. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte. |
No | |
| input_audio_format | string | Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw. |
No | |
| input_audio_transcription | object | Konfiguration des Transkriptionsmodells. |
No | |
| └─ language | string | Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz. |
No | |
| └─ model | enum | Das Modell für die Transkription. Kann , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, oder whisper-1seingpt-4o-transcribe.Mögliche Werte: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. |
No | |
| modalities | Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"]. |
No | ||
| turn_detection | object | Konfiguration für Abbiegungserkennung. Kann auf Schalten eingestellt null werden. Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet. |
No | |
| └─ prefix_padding_ms | integer | Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms. |
No | |
| └─ silence_duration_ms | integer | Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen. |
No | |
| └─ threshold | number | Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden. |
No | |
| └─ type | string | Die Art der Abzugserkennung wird derzeit nur server_vad unterstützt. |
No |
Reasoning
Konfigurationsoptionen für Schlussfolgermodelle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Begrenzt den Aufwand beim Schließen bei Denkmustern. Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen. |
Yes | medium |
| summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Argumentation. Dies kann nützlich sein, um das Debuggen zu debuggen und den Schlussfolgerungsprozess des Modells zu verstehen. Einer von concise oder detailed.Mögliche Werte: concise, detailed |
No |
ReasoningItem
Eine Beschreibung der Denkkette, die ein Denkmodell bei der Erzeugung einer Antwort verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Rationalisieren des Textinhalts. |
Yes | |
| id | string | Der eindeutige Identifikator des Argumentationsins. |
Yes | |
| status | enum | Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.Mögliche Werte: in_progress, completed, incomplete |
No | |
| type | enum | Die Art des Objekts. Immer reasoning.Mögliche Werte: reasoning |
Yes |
Refusal
Eine Ablehnung des Models.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die Erklärung zur Ablehnung aus dem Modell. |
Yes | |
| type | enum | Die Art der Ablehnung. Immer refusal.Mögliche Werte: refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Unix-Zeitstempel (in Sekunden) des Zeitpunktes, an dem diese Antwort erstellt wurde. |
Yes | |
| error | ResponseError | Ein Fehlerobjekt wurde zurückgegeben, wenn das Modell keine Antwort generieren konnte. |
Yes | |
| id | string | Eindeutige Kennung für diese Antwort. |
Yes | |
| incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. |
Yes | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| instructions | string | Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein. Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen. |
Yes | |
| max_output_tokens | integer | Eine obere Obergrenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und des Gesprächszustands. |
No | |
| metadata | Metadata | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen. |
Yes | |
| model | string | Modell, das zur Erzeugung der Antworten verwendet wird. | Yes | |
| object | enum | Der Objekttyp dieser Ressource – immer auf gesetzt response.Mögliche Werte: response |
Yes | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.- Anstatt auf das erste Element im output Array zuzugreifen und anzunehmen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, könntest du die output_text Eigenschaft verwenden, wo es in SDKs unterstützt wird. |
Yes | |
| output_text | string | SDK-only Convenience-Eigenschaft, die die aggregierten Textausgaben aller output_text Elemente im Array output enthält, falls welche vorhanden sind. Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| parallel_tool_calls | boolean | Ob das Modell Werkzeugaufrufe parallel ausführen soll. |
Yes | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Schlussfolgermodelle. |
No | |
| status | enum | Der Status der Reaktionsgenerierung. Einer von completed, failed, , in_progressoder incomplete.Mögliche Werte: completed, failed, in_progress, incomplete |
No | |
| temperature | number | Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides. |
Yes | 1 |
| text | object | Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.Nicht empfohlen für GPT-4o und neuere Modelle: Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann. |
Yes | |
| tools | array | Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind: - Eingebaute Werkzeuge |
Yes | |
| top_p | number | Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides. |
Yes | 1 |
| truncation | enum | Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser und der vorherigen Antwort die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort kürzen, um zum Kontextfenster zu passen, indem es Eingabepunkte mitten im Gespräch platziert. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| usage | ResponseUsage | Repräsentiert Details zur Tokennutzung, einschließlich Eingabetoken, Ausgabetoken, einer Aufschlüsselung der Ausgabetoken und der insgesamt verwendeten Tokens. |
No | |
| user | string | Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
ResponseAudioDeltaEvent
Ausgesendet, wenn eine teilweise Audioreaktion vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Ein Teil von Base64-codierten Antwort-Audiobytes. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.audio.delta.Mögliche Werte: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Ausgesendet, wenn die Audioantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art der Veranstaltung. Immer response.audio.done.Mögliche Werte: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Es wird ausgesendet, wenn ein Teilabschrift des Audios vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Das teilweise Transkript der Audioantwort. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.audio.transcript.delta.Mögliche Werte: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Gesendet, wenn das vollständige Audio-Transkript fertiggestellt ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art der Veranstaltung. Immer response.audio.transcript.done.Mögliche Werte: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Es wird ausgesendet, wenn ein teilweiser Codeschnipsel vom Code-Interpreter hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Der teilweise Codeschnipsel, der vom Code-Interpreter hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.code_interpreter_call.code.delta.Mögliche Werte: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Gesendet, wenn die Code-Snippet-Ausgabe vom Code-Interpreter finalisiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Das letzte Codeschnipsel, das vom Code-Interpreter ausgegeben wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.code_interpreter_call.code.done.Mögliche Werte: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Gesendet, wenn der Code-Interpreter-Aufruf abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf, um Code auszuführen. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.code_interpreter_call.completed.Mögliche Werte: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Gesendet, wenn ein Code-Interpreter-Aufruf läuft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf, um Code auszuführen. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.code_interpreter_call.in_progress.Mögliche Werte: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Es wird ausgesendet, wenn der Code-Interpreter aktiv den Codeausschnitt interpretiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf, um Code auszuführen. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.code_interpreter_call.interpreting.Mögliche Werte: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emittiert, wenn die Modellantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.completed.Mögliche Werte: response.completed |
Yes |
ResponseContentPartAddedEvent
Emittiert, wenn ein neuer Inhaltsteil hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhalts, der hinzugefügt wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.content_part.added.Mögliche Werte: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Emittiert, wenn ein Inhaltsteil fertig ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhalts, der erledigt wird. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.content_part.done.Mögliche Werte: response.content_part.done |
Yes |
ResponseCreatedEvent
Ein Ereignis, das ausgelöst wird, wenn eine Antwort erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.created.Mögliche Werte: response.created |
Yes |
ResponseError
Ein Fehlerobjekt wurde zurückgegeben, wenn das Modell keine Antwort generieren konnte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Der Fehlercode für die Antwort. |
Yes | |
| message | string | Eine für Menschen lesbare Beschreibung des Fehlers. |
Yes |
ResponseErrorCode
Der Fehlercode für die Antwort.
| Property | Value |
|---|---|
| Description | Der Fehlercode für die Antwort. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Es wird ausgesendet, wenn ein Fehler auftritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Fehlercode. |
Yes | |
| message | string | Die Fehlermeldung. |
Yes | |
| param | string | Der Fehlerparameter. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer error.Mögliche Werte: error |
Yes |
ResponseFailedEvent
Ein Ereignis, das ausgelöst wird, wenn eine Antwort fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.failed.Mögliche Werte: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Gesendet, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf aufruft, wird initiiert. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, den der Dateisuchaufruf aufruft, wird initiiert. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.file_search_call.completed.Mögliche Werte: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Gesendet, wenn ein Dateisuchaufruf eingeleitet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf aufruft, wird initiiert. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, den der Dateisuchaufruf aufruft, wird initiiert. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.file_search_call.in_progress.Mögliche Werte: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Gesendet, wenn eine Dateisuche gerade gesucht wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf aufruft, wird initiiert. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das die Dateisuche aufruft. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.file_search_call.searching.Mögliche Werte: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emittiert, wenn es eine partielle Funktionsaufruf-Delta gibt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Die Funktionsaufruf-Argumente delta, die hinzugefügt wird. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, zu dem die Funktionsaufruf-Argumente deltan, wird hinzugefügt. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, zu dem die Funktionsaufruf-Argumente delta hinzugefügt werden. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.function_call_arguments.delta.Mögliche Werte: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Emittiert, wenn Funktionsaufruf-Argumente finalisiert werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Funktionsaufruf-Argumente. | Yes | |
| item_id | string | Der Ausweis des Gegenstands. | Yes | |
| output_index | integer | Der Index des Ausgangselements. | Yes | |
| type | enum | Mögliche Werte: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Ausgestrahlt, wenn die Antwort läuft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.in_progress.Mögliche Werte: response.in_progress |
Yes |
ResponseIncompleteEvent
Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig endet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Die Art der Veranstaltung. Immer response.incomplete.Mögliche Werte: response.incomplete |
Yes |
responseItemList
Eine Liste von Response-Punkten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Eine Liste der Elemente, die zur Erzeugung dieser Antwort verwendet wurden. | Yes | |
| first_id | string | Die ID des ersten Punkts auf der Liste. | Yes | |
| has_more | boolean | Ob es noch mehr Gegenstände gibt. | Yes | |
| last_id | string | Die ID des letzten Punkts auf der Liste. | Yes | |
| object | enum | Die Art des zurückgegebenen Objekts muss sein list.Mögliche Werte: list |
Yes |
ResponseModalities
Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:
["text"]
Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:
["text", "audio"]
Für diese Komponente sind keine Eigenschaften definiert.
ResponseModalitiesTextOnly
Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:
["text"]
Diese API wird bald weitere Ausgabemodalitäten unterstützen, einschließlich Audio und Bilder.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseOutputItemAddedEvent
Emittiert, wenn ein neues Ausgangselement hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Der Index des hinzugefügten Output-Elements. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.output_item.added.Mögliche Werte: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Emittiert, wenn ein Ausgabepunkt als erledigt markiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Der Index des als erledigten Ausgabepunkt markierten. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.output_item.done.Mögliche Werte: response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein. Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen. |
No | |
| max_output_tokens | integer | Eine obere Obergrenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und des Gesprächszustands. |
No | |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Schlussfolgermodelle. |
No | |
| text | object | Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.Nicht empfohlen für GPT-4o und neuere Modelle: Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind: - Eingebaute Werkzeuge |
No | |
| truncation | enum | Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser und der vorherigen Antwort die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort kürzen, um zum Kontextfenster zu passen, indem es Eingabepunkte mitten im Gespräch platziert. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
ResponseRefusalDeltaEvent
Gesendet, wenn eine teilweise Ablehnung vorliegt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, zu dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| delta | string | Der Ablehnungstext, der hinzugefügt wird. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, zu dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, zu dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.refusal.delta.Mögliche Werte: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Gesendet, wenn der Ablehnungstext finalisiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhalts teilt, dass der Ablehnungstext finalisiert ist. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, in dem der Ablehnungstext steht, wird finalisiert. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen ist. |
Yes | |
| refusal | string | Die Ablehnungsnachricht, die finalisiert ist. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.refusal.done.Mögliche Werte: response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Der Index der hinzugefügten Anmerkung. |
Yes | |
| arguments | string | Die Funktionsaufruf-Argumente. | Yes | |
| code | string | Der Fehlercode. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf, um Code auszuführen. |
Yes | |
| content_index | integer | Der Index des Inhalts teilt, dass der Textinhalt finalisiert ist. |
Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde. |
Yes | |
| item | OutputItem | Der Ausgabepunkt, der als erledigt markiert wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, in dem der Textinhalt festgelegt ist, ist finalisiert. |
Yes | |
| message | string | Die Fehlermeldung. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, in dem der Textinhalt festgelegt ist, wird finalisiert. |
Yes | |
| param | string | Der Fehlerparameter. |
Yes | |
| part | OutputContent | Der Inhaltsteil, der erledigt ist. |
Yes | |
| refusal | string | Die Ablehnungsnachricht, die finalisiert ist. |
Yes | |
| response | response | Die Antwort, die unvollständig war. |
Yes | |
| text | string | Der Textinhalt, der finalisiert ist. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.output_text.done.Mögliche Werte: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Emittiert, wenn eine Textannotation hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Der Index der hinzugefügten Anmerkung. |
Yes | |
| content_index | integer | Der Index des Inhaltsteils, zu dem die Textannotation hinzugefügt wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, zu dem die Textannotation hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, zu dem die Textannotation hinzugefügt wurde. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.output_text.annotation.added.Mögliche Werte: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Es wird ausgesendet, wenn ein zusätzliches Text-Delta vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhalts, zu dem das Textdelta hinzugefügt wurde. |
Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, zu dem das Textdelta hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, zu dem das Textdelta hinzugefügt wurde. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.output_text.delta.Mögliche Werte: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Gesendet, wenn der Textinhalt finalisiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhalts teilt, dass der Textinhalt finalisiert ist. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, in dem der Textinhalt festgelegt ist, ist finalisiert. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, in dem der Textinhalt festgelegt ist, wird finalisiert. |
Yes | |
| text | string | Der Textinhalt, der finalisiert ist. |
Yes | |
| type | enum | Die Art der Veranstaltung. Immer response.output_text.done.Mögliche Werte: response.output_text.done |
Yes |
ResponseUsage
Repräsentiert Details zur Tokennutzung, einschließlich Eingabetoken, Ausgabetoken, einer Aufschlüsselung der Ausgabetoken und der insgesamt verwendeten Tokens.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | Yes | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | Yes | |
| output_tokens_details | object | Eine detaillierte Aufschlüsselung der Ausgabetoken. | Yes | |
| └─ reasoning_tokens | integer | Die Anzahl der Vernunft-Tokens. | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | Yes |
Screenshot
Eine Screenshot-Aktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spezifiziert den Ereignistyp. Für eine Screenshot-Aktion wird diese Eigenschaft immer auf screenshotgesetzt.Mögliche Werte: screenshot |
Yes |
Scroll
Eine Scroll-Aktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Die horizontale Scrolldistanz. |
Yes | |
| scroll_y | integer | Die vertikale Scrolldistanz. |
Yes | |
| type | enum | Spezifiziert den Ereignistyp. Für eine Scrollaktion ist diese Eigenschaft immer auf scrollgesetzt.Mögliche Werte: scroll |
Yes | |
| x | integer | Die x-Koordinate, an der die Schriftrolle stattfand. |
Yes | |
| y | integer | Die y-Koordinate, an der die Schriftrolle stattfand. |
Yes |
StopConfiguration
Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppfolge nicht.
Diese Komponente kann eine der folgenden sein:
TextResponseFormatConfiguration
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.
Nicht empfohlen für GPT-4o und neuere Modelle:
Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen.
Diese Komponente kann eine der folgenden sein:
TextResponseFormatJsonSchema
JSON-Schema-Antwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Erfahren Sie mehr über strukturierte Ausgaben.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung, wofür das Antwortformat dient, verwendet vom Modell zur Bestimmung der Antwort im Format. |
No | |
| name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt. | Yes | |
| strict | boolean | Ob strikte Schema-Compliance bei der Erzeugung der Ausgabe aktiviert werden soll. Setzt es auf wahr, folgt das Modell immer dem exakt im Feld schema definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true |
No | False |
| type | enum | Die Art des zu definierenden Antwortformats. Immer json_schema.Mögliche Werte: json_schema |
Yes |
Tool
Diese Komponente kann eine der folgenden sein:
ToolChoiceFunction
Verwenden Sie diese Option, um das Modell zu zwingen, eine bestimmte Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der Funktion, die aufgerufen werden soll. | Yes | |
| type | enum | Für Funktionsaufrufe ist der Typ immer function.Mögliche Werte: function |
Yes |
ToolChoiceOptions
Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.
required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss.
| Property | Value |
|---|---|
| Description | Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Zeigt an, dass das Modell ein eingebautes Tool verwenden sollte, um eine Antwort zu generieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Welche Art von gehostetem Tool das Modell verwenden sollte. Erlaubte Werte sind: - file_search- computer_use_previewMögliche Werte: file_search, computer_use_preview |
Yes |
Type
Eine Aktion, um Text einzutippen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der Text zum Tippen. |
Yes | |
| type | enum | Spezifiziert den Ereignistyp. Für eine Typaktion ist diese Eigenschaft immer auf typegesetzt.Mögliche Werte: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen. |
Yes |
UrlCitation
Ein Zitat für eine Webressource, die zur Erstellung einer Modellantwort verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Der Index des letzten Zeichens der URL-Zitation in der Nachricht. |
Yes | |
| start_index | integer | Der Index des ersten Zeichens der URL-Zitation in der Nachricht. |
Yes | |
| title | string | Der Titel der Webressource. |
Yes | |
| type | enum | Der Typ der URL-Zitate. Immer url_citation.Mögliche Werte: url_citation |
Yes | |
| url | string | Die URL der Webressource. |
Yes |
VectorStoreFileAttributes
Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen.
Für diese Komponente sind keine Eigenschaften definiert.
VectorStoreFileContentResponse
Repräsentiert den geparsten Inhalt einer Vektorspeicherdatei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Den Inhalt der Datei analysiert. | Yes | |
| has_more | boolean | Zeigt an, ob es weitere Inhaltsseiten zu holen gibt. | Yes | |
| next_page | string | Das Token für die nächste Seite, falls vorhanden. | Yes | |
| object | enum | Der Objekttyp, der immer ist vector_store.file_content.pageMögliche Werte: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet wird. | No | |
| max_num_results | integer | Die maximale Anzahl an Ergebnissen, die du ergeben kannst. Diese Zahl sollte zwischen 1 und 50 liegen. | No | 10 |
| query | Saite oder Array | Eine Abfragefolge für eine Suche | Yes | |
| ranking_options | object | Rangfolgeoptionen für die Suche. | No | |
| └─ ranker | enum | Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Ob die natürliche Sprachanfrage für die Vektorsuche umgeschrieben werden soll. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der Textinhalt wurde von der Suche zurückgegeben. | Yes | |
| type | enum | Die Art des Inhalts. Mögliche Werte: text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen. |
Yes | |
| content | array | Inhaltsabschnitte aus der Datei. | Yes | |
| file_id | string | Die ID der Vektorspeicherdatei. | Yes | |
| filename | string | Der Name der Vektorspeicherdatei. | Yes | |
| score | number | Der Ähnlichkeitswert für das Ergebnis. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Die Liste der Suchergebnis-Elemente. | Yes | |
| has_more | boolean | Zeigt an, ob es noch mehr Ergebnisse zu holen gibt. | Yes | |
| next_page | string | Das Token für die nächste Seite, falls vorhanden. | Yes | |
| object | enum | Der Objekttyp, der immer ist vector_store.search_results.pageMögliche Werte: vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Für diese Komponente sind keine Eigenschaften definiert.
Wait
Eine Warteaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spezifiziert den Ereignistyp. Für eine Warteaktion wird diese Eigenschaft immer auf waitgesetzt.Mögliche Werte: wait |
Yes |
ReasoningEffort
Begrenzt den Aufwand beim Schließen bei Denkmustern. Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.
| Property | Value |
|---|---|
| Description | Begrenzt den Aufwand beim Schließen bei Denkmustern. Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Tritt auf, wenn ein Fehler auftritt. Das kann durch einen internen Serverfehler oder eine Auszeit passieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
Event Enum: ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Tritt auf, wenn ein Stream endet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
Event Enum: DoneEventEnum
| Value | Description |
|---|---|
| done |
Data Enum: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Lerne mehr über Modelle und Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrundeliegenden Modelle, die Azure OpenAI antreiben.