Azure OpenAI in Microsoft Foundry Models REST API Vorschaureferenz

Dieser Artikel liefert Details zu den Inferenz-REST-API-Endpunkten für Azure OpenAI.

API specs

Die Verwaltung und Interaktion mit Azure OpenAI-Modellen und -Ressourcen ist auf drei Haupt-API-Oberflächen verteilt:

  • Control plane
  • Datenebene – Autoring
  • Datenebene – Schlussfolgerung

Jede API-Oberfläche/Spezifikation kapselt einen anderen Satz von Azure OpenAI-Funktionen. Jede API hat ihren eigenen einzigartigen Satz von Vorschau- und stabilen/allgemein verfügbaren (GA) API-Releases. Preview-Veröffentlichungen folgen derzeit meist einem monatlichen Rhythmus.

Important

Es gibt jetzt eine neue Vorschau-Inferenz-API. Erfahren Sie mehr in unserem API-Lebenszyklus-Leitfaden.

API Neueste Vorschau-Veröffentlichung Neueste GA-Veröffentlichung Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files Die Control Plane API wird für Operationen wie Ressourcenerstellung, Modellbereitstellung und andere Aufgaben des höheren Ressourcenmanagements verwendet. Die Kontrollebene regelt außerdem, was mit Funktionen wie Azure Resource Manager, Bicep, Terraform und Azure CLI möglich ist.
Data plane v1 preview v1 Spec files Die Data Plane API steuert Inferenz- und Autorenoperationen.

Authentication

Azure OpenAI bietet zwei Methoden zur Authentifizierung an. Du kannst entweder API-Schlüssel oder Microsoft Entra ID verwenden.

  • API-Schlüssel-Authentifizierung: Für diese Art der Authentifizierung müssen alle API-Anfragen den API-Schlüssel im api-key HTTP-Header enthalten. Der Quickstart bietet Anleitungen, wie man mit dieser Art der Authentifizierung Anrufe tätigt.

  • Microsoft Entra ID Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken sind in einer Anfrage als Header Authorization enthalten. Der bereitgestellte Token muss zum Beispiel von Bearervorangestellt werden, zum Beispiel Bearer YOUR_AUTH_TOKEN. Sie können unseren Anleitungsleitfaden zum Thema Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionierung

Die Service-APIs werden mit dem Abfrageparameter api-version versioniert. Alle Versionen folgen der YYYY-MM-DD Datumsstruktur. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferenz der Datenebene

Der Rest des Artikels behandelt die 2025-04-01-preview Vorschauversion der Azure OpenAI Data Plane Inference Specification.

Wenn Sie nach Dokumentation zur neuesten GA API-Version suchen, konsultieren Sie die neueste GA Data Plane Inference API

Vervollständigungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
best_of integer Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Verwendet mit n, best_of steuert er die Anzahl der Kandidatenabschlüsse und n gibt an, wie viele zurückzugeben sind. âìâì“ best_of muss größer als nsein.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
echo boolean Echo den Prompt zusätzlich zum Abschluss No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird die Verzerrung zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.

Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird.
No None
logprobs integer Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der 5 wahrscheinlichsten Token zurück. Die API gibt immer das logprob des abgetasteten Tokens zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.

Der maximale Wert für logprobs ist 5.
No None
max_tokens integer Die maximale Anzahl der Token, die im Completion generiert werden können.

Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Abschlüsse für jeden Prompt generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. No 0
prompt Saite oder Array Der Prompt zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays.

Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell bei fehlender Eingabeaufforderung als vom Anfang eines neuen Dokuments generiert.
Yes
seed integer Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.

Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
stop Saite oder Array Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht. No
stream boolean Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. Beispiel Python Code.
No False
suffix string Das Suffix, das nach dem Abschluss des eingefügten Textes kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Erhalten Sie eine Vektordarstellung eines gegebenen Inputs, die leicht von Machine-Learning-Modellen und Algorithmen verbraucht werden kann.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Die Deployment-ID des Modells, das bereitgestellt wurde.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabe-Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. No
encoding_format string Das Format, um die Einbettungen zurückzugeben. Es kann entweder float oder base64sein. Standardmäßig gilt float. No
input Saite oder Array Geben Sie den Text ein, der eingebettet wird, kodiert als String oder Array von Tokens. Um mehrere Eingaben in einer einzigen Anfrage einzubetten, übergeben Sie ein Array von Strings oder ein Array von Token-Arrays. Die Eingabe darf die maximalen Eingabetoken des Modells (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenkette sein, und jedes Array muss 2.048 Dimensionen oder weniger haben. Yes
input_type string Eingabetyp der Einbettungssuche zur Verwendung No
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Geben Sie die Einbettungen für einen bestimmten Prompt zurück.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chat-Komplettierungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Erstellt eine Vervollständigung der Chatnachricht

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Parameter für den Audioausgang. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]angefordert wird. No
└─ format enum Spezifiziert das Ausgabe-Audioformat. Muss einer von wav, mp3, flac, , opusoder pcm16sein.

Mögliche Werte: wav, mp3, flac, opus, pcm16
No
└─ voice enum Spezifiziert den Sprachtyp. Unterstützte Stimmen sind alloy, echo, fable, , onyx, novaund shimmer.

Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer
No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
function_call string oder chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.
Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.

none ist der Standard, wenn keine Funktionen vorhanden sind. auto ist der Standard, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird die Verzerrung zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.
No None
logprobs boolean Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. No False
max_completion_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. No
max_tokens integer Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann.

Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt.
No
messages array Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. Beispiel Python Code. Yes
metadata object Vom Entwickler definierte Tags und Werte, die zum Filtern von Abschlüssen im gespeicherten Abschluss-Dashboard verwendet werden. No
modalities ChatCompletionModalities Ausgabetypen, die das Modell für diese Anfrage generieren soll.
Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:

["text"]

Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:

["text", "audio"]
No
n integer Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Du wirst basierend auf der Anzahl der generierten Token in allen Optionen berechnet. Achten Sie n darauf, 1 die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
prediction PredictionContent Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort im Voraus bekannt sind. Dies tritt am häufigsten auf, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu generieren. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
reasoning_effort enum Nur O1-Modelle

Begrenzt den Aufwand beim Schließen bei Denkmustern.

Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.
Mögliche Werte: low, medium, high
No
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.

Setzen Sie auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.

Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Diese Funktion befindet sich noch in der Beta.
Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.
Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
stop Saite oder Array Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
No
store boolean Ob das Ergebnis dieser Chat-Abschlussanfrage für die Verwendung in unseren Modelldestillations- oder Bewertungsprodukten gespeichert werden soll oder nicht. No
stream boolean Wenn gesetzt, werden partielle Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. Beispiel Python Code.
No False
stream_options chatCompletionStreamOptions Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
tool_choice chatCompletionToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert. auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann. required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen. none ist der Standard, wenn keine Werkzeuge vorhanden sind. auto ist der Standard, wenn Werkzeuge vorhanden sind. No
tools array Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit. logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. No
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No
user_security_context userSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst und den Endnutzer beschreiben, der mit der KI-Anwendung interagiert. Diese Bereiche unterstützen Ihre Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt eine Vervollständigung für den bereitgestellten Prompt, die Parameter und das gewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung basierend auf Azure Search-Daten und systemzugewiesener verwalteter Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung basierend auf Azure Search Bildvektordaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung basierend auf Azure Search-Vektordaten, einer vorherigen Assistentennachricht und einer vom Benutzer zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die bereitgestellte Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die bereitgestellte Mongo-Datenbank.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für das bereitgestellte Elasticsearch.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die bereitgestellte Pineconon-Ressource.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transkribiert Audio in die Eingabesprache.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
model string ID des zu verwendenden Modells. Die Optionen sind gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1und gpt-4o-transcribe-diarize. Yes
file string Das Audiodatei-Objekt, das transkribiert werden soll. Yes
language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz. No
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription gefüllt werden sollen. response_format muss so eingestellt verbose_json werden, dass Zeitstempel-Granularitäten verwendet werden. Entweder oder beide dieser Optionen werden unterstützt: word, oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Erstellen von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format einer von war text, vtt oder srt).

Examples

Example

Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Erhält transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transkribiert und übersetzt Eingabeaudio in englischen Text.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Die Audiodatei zum Übersetzen. Yes
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format eines von Text, VTT oder SRT war).

Examples

Example

Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Erhält englischsprachigen transkribierten Text und zugehörige Metadaten aus bereitgestellten gesprochenen Audiodaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Rede – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Erzeugt Audio aus dem Eingabetext.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Der Text, um Audio zu synthetisieren. Die maximale Länge beträgt 4.096 Zeichen. Yes
response_format enum Das Format, um das Audio zu synthetisieren.
Mögliche Werte: mp3, opus, , aacflac, wav,pcm
No
speed number Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von bis 0.254.0aus. 1.0 ist der Standard. No 1.0
voice enum Die Stimme für Sprachsynthese.
Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer
Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Synthetisiert Audio aus dem bereitgestellten Text.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Antworten: Statuscode: 200

{
  "body": "101010101"
}

Bildgenerierungen – Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Erzeugt einen Batch von Bildern aus einer Textunterschrift bei der Bereitstellung eines gegebenen Bildgenerierungsmodells

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
background imageBackground Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. No auto
n integer Die Anzahl der zu erzeugenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. No 1
output_compression integer Der Kompressionswert (0–100%) für die erzeugten Bilder. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. No 100
output_format imagesOutputFormat Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für GPT-Image-1-Modelle unterstützt. No png
prompt string Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen für die GPT-Image-1-Serie und 4.000 Zeichen für Dall-e-3 Yes
partial_images integer Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streaming-Antworten verwendet, die teilweise Bilder zurückgeben. Der Wert muss zwischen 0 und 3 liegen. Wenn auf 0 gesetzt, ist die Antwort ein einzelnes Bild, das in einem Streaming-Event gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die volle Anzahl der Teilbilder erzeugt wurde, wenn das vollständige Bild schneller erzeugt wird. 0
stream boolean Bearbeite das Bild im Streaming-Modus. no false
quality imageQuality Die Qualität des erzeugten Bildes. No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird für gpt-image-1-Serien-Modelle nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json.
No url
size imageSize Die Größe der generierten Bilder. No auto
style imageStyle Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt. No vivid
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Ein Fehler ist aufgetreten.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Erstellt Bilder mit einem Prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Bilderzeugungen – Bearbeiten

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Bearbeitet ein Bild aus einer Textunterschrift auf einer gegebenen GPT-Image-1-Modellbereitstellung

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
image Saite oder Array Die Bild(e) zum Bearbeiten. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder jpg-Datei mit weniger als 50 MB sein. Yes
input_fidelity string Kontrollieren Sie, wie viel Aufwand das Modell aufwenden wird, um den Stil und die Merkmale, insbesondere Gesichtszüge, der Eingabebilder anzupassen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. Supports high und low. no low.
mask string Ein zusätzliches Bild, dessen vollständig transparente Flächen (z. B. bei null Alpha) anzeigen, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Es muss eine gültige PNG-Datei sein, weniger als 4 MB, und die gleichen Abmessungen wie das Bild haben. No
n integer Die Anzahl der zu erzeugenden Bilder. Muss zwischen 1 und 10 liegen. No 1
prompt string Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen. Yes
quality imageQuality Die Qualität des erzeugten Bildes. No auto
partial_images Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streaming-Antworten verwendet, die teilweise Bilder zurückgeben. Der Wert muss zwischen 0 und 3 liegen. Wenn auf 0 gesetzt, ist die Antwort ein einzelnes Bild, das in einem Streaming-Event gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die volle Anzahl der Teilbilder erzeugt wurde, wenn das vollständige Bild schneller erzeugt wird.
stream boolean Bearbeite das Bild im Streaming-Modus. no false
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
size imageSize Die Größe der generierten Bilder. No auto
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Ein Fehler ist aufgetreten.

Content-Type Type Description
application/json dalleErrorResponse

Liste – Assistenten

Note

Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Gibt eine Liste der Assistenten zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Gibt eine Liste der Assistenten zurück.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Erstellen – Assistent

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Erstelle einen Assistenten mit einem Modell und Anleitungen.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher ist mit diesem Assistenten verbunden. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
└─ vector_stores array Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und ihn an diesen Assistenten anzuhängen. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein.
No []
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Erstelle einen Assistenten mit einem Modell und Anleitungen.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Hole - Assistent

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Holt einen Assistenten.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des Assistenten zu holen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Holt einen Assistenten.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modify – Assistent

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Verändert einen Assistenten.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des Assistenten zum Anpassen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string No
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung stehen. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Überschreibt den Vektorspeicher, der diesem Assistenten zugeordnet ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein.
No []
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Verändert einen Assistenten.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Löschen – Assistent

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Löschen Sie einen Assistenten.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des Assistenten zum Löschen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Löscht einen Assistenten.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Erstellen - Thread

Note

Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Erstelle einen Thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
messages array Eine Liste von Nachrichten, mit denen man den Thread beginnen kann. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
tool_resources object Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No
└─ vector_stores array Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und an diesen Thread anzuhängen. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Erstellt einen Thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Get - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Ruft einen Faden ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des abzurufenden Threads.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Ruft einen Faden ab.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modify – Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Verändert einen Thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads zum Anpassen. Nur die kann metadata modifiziert werden.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
tool_resources object Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Verändert einen Thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Löschen – Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Lösche einen Thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, den gelöscht werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Löscht einen Thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Liste – Nachrichten

Note

Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Gibt eine Liste von Nachrichten für einen gegebenen Thread zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen die Nachrichten gehören.
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
run_id query No string Filtere Nachrichten nach der Run-ID, die sie generiert hat.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Erstellen – Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Erstellen Sie eine Botschaft.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, für die eine Nachricht erstellt werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
attachments array Eine Liste der an die Nachricht angehängten Dateien und die Werkzeuge, zu denen sie hinzugefügt werden sollten. No
content string Der Inhalt der Nachricht. Yes
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
role string Die Rolle der Entität, die die Botschaft erschafft. Erlaubte Werte umfassen:
- user: Zeigt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wurde und in den meisten Fällen zur Darstellung von benutzergenerierten Nachrichten verwendet werden sollte.
- assistant: Zeigt an, dass die Nachricht vom Assistenten generiert wurde. Verwenden Sie diesen Wert, um Nachrichten vom Assistenten in das Gespräch einzufügen.
Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Erstellen Sie eine Botschaft.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Erhalten - Nachricht

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Holen Sie eine Nachricht ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen diese Nachricht gehört.
message_id path Yes string Die ID der abzurufenden Nachricht.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Holen Sie eine Nachricht ab.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Ändern – Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Verändert eine Nachricht.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem diese Nachricht gehört.
message_id path Yes string Die ID der Nachricht, die geändert werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Ändere eine Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Erstellen – Thread erstellen und ausführen

Note

Die Assistants API ist eingestellt und wird am 26. August 2026 eingestellt. Nutzen Sie den allgemein verfügbaren Service Microsoft Foundry Agents. Folgen Sie dem Migrationsleitfaden, um Ihre Arbeitslasten zu aktualisieren. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Erstelle einen Thread und führe ihn in einer Anfrage aus.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
assistant_id string Die ID des Assistenten, um diesen Durchgang auszuführen. Yes
instructions string Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
max_prompt_tokens integer Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string Die ID der Modelle, die für diesen Durchlauf verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. No
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt.
No
stream_options chatCompletionStreamOptions Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.
Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.
No
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Die ID des Vektorspeichers, der mit diesem Assistenten verbunden ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Erstelle einen Thread und führe ihn in einer Anfrage aus.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Liste - Runs

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem der Lauf gehört.
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Gibt eine Liste von Läufen zurück, die zu einem Thread gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Erstellen – Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Erstelle einen Durchlauf.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, der ausgeführt werden soll.
include[] query No array Eine Liste zusätzlicher Felder, die in die Antwort aufgenommen werden sollten. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert, den Inhalt der Dateisuchergebnisse abzurufen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Fügen Sie am Ende der Anweisungen für den Durchlauf zusätzliche Anweisungen hinzu. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen zu überschreiben. No
additional_messages array Fügt dem Thread vor dem Erstellen des Runs zusätzliche Nachrichten hinzu. No
assistant_id string Die ID des Assistenten, um diesen Durchgang auszuführen. Yes
instructions string Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
max_prompt_tokens integer Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string Die ID des Modells, das für diesen Durchlauf verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. No
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_choice assistantsApiToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none Das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.
Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.
No
tools array Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Erstelle einen Durchlauf.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Lauf – Lauf

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Holt einen Lauf ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der durchgeführten Threads.
run_id path Yes string Die ID des Laufs zum Abholen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Macht einen Lauf.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifizieren – Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Verändert einen Durchlauf.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der durchgeführten Threads.
run_id path Yes string Die ID des Laufs, der geändert werden soll.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Verändert einen Durchlauf.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Einreichen – Werkzeugausgaben zum Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Wenn ein Run das status: "requires_action" und required_action.type hat submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben der Werkzeugaufrufe zu senden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anfrage eingereicht werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen dieser Run gehört.
run_id path Yes string Die ID des Durchlaufs, für die die Werkzeugausgabe eingereicht werden muss.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
stream boolean Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt.
No
tool_outputs array Eine Liste der Werkzeuge, für die die Ausgaben eingereicht werden. Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Wenn ein Run das status: "requires_action" und required_action.type hat submit_tool_outputs, kann dieser Endpunkt verwendet werden, um die Ausgaben der Werkzeugaufrufe zu senden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzigen Anfrage eingereicht werden.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Abbrechen – Ausführen

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Hebt einen Durchlauf ab, der ist in_progress.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem dieser Run gehört.
run_id path Yes string Die ID des Laufs zum Absagen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Hebt einen Durchlauf ab, der ist in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Liste – Laufschritte

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Gibt eine Liste der Laufschritte zurück, die zu einem Lauf gehören.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem die Lauf- und Ausführensschritte gehören.
run_id path Yes string Die ID des Runs, zu dem die Laufschritte gehören.
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string
include[] query No array Eine Liste zusätzlicher Felder, die in die Antwort aufgenommen werden sollten. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert, den Inhalt der Dateisuchergebnisse abzurufen.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Gibt eine Liste der Laufschritte zurück, die zu einem Lauf gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Get - Run Step

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Holt einen Laufschritt ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem der Lauf- und Ausführen-Schritt gehört.
run_id path Yes string Die ID des Durchlaufs, zu dem der Laufschritt gehört.
step_id path Yes string Die ID des Laufschritts zum Abrufen.
include[] query No array Eine Liste zusätzlicher Felder, die in die Antwort aufgenommen werden sollten. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert, den Inhalt der Dateisuchergebnisse abzurufen.
api-version query Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Holt einen Laufschritt ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Liste - Vektorspeicher

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Gibt eine Liste der Vektorspeicher zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Gibt eine Liste der Vektorspeicher zurück.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Erstellen - Vektorspeicher

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Erstelle einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. Nur dann anwendbar, wenn file_ids nicht leer ist. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Erstellt einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Erhalten - Vektorspeicher

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Ruft einen Vektorspeicher ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu abrufenden Vektorspeichers.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Ruft einen Vektorspeicher ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modify – Vektorspeicher

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Verändert einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, der modifiziert werden soll.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Verändert einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Löschen – Vektorspeicher

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Lösche einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, den gelöscht werden soll.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Löscht einen Vektorspeicher.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Liste – Vektorspeicherdateien

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Gibt eine Liste von Vektorspeicherdateien zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No string
Mögliche Werte: in_progress, completed, failed, cancelled
Filtern Sie nach Dateistatus. Einer von in_progress, completed, failed, . cancelled
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Gibt eine Liste von Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Erstellen - Vektorspeicher-Datei

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anhängen.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. No
file_id string Eine Datei-ID, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anhängen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Get - Vektorspeicher-Datei

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Ruft eine Vektorspeicherdatei ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der gesicherten Datei.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Ruft eine Vektorspeicherdatei ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Löschen – Vektorspeicher-Datei

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Lösche eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Um die Datei zu löschen, verwenden Sie den Endpunkt für das Löschen der Datei.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der zu löschenden Datei.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Lösche eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Um die Datei zu löschen, verwenden Sie den Endpunkt für das Löschen der Datei.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Aktualisiere Attribute in einer Vektorspeicherdatei.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der Datei, um die Attribute zu aktualisieren.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen.
Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Vektorspeicher-Dateiinhalt abrufen

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Rufen Sie den geparsten Inhalt einer Vektorspeicherdatei ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers.
file_id path Yes string Die ID der Datei im Vektorspeicher.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Suchvektorspeicher

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Durchsuche einen Vektorspeicher nach relevanten Chunks basierend auf einem Abfrage- und Dateiattributfilter.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu suchenden Vektorspeichers.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet wird. No
max_num_results integer Die maximale Anzahl an Ergebnissen, die du ergeben kannst. Diese Zahl sollte zwischen 1 und 50 liegen. No 10
query Saite oder Array Eine Abfragefolge für eine Suche Yes
ranking_options object Rangfolgeoptionen für die Suche. No
└─ ranker enum
Mögliche Werte: auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Ob die natürliche Sprachanfrage für die Vektorsuche umgeschrieben werden soll. No False

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Erstellen – Vektorspeicher-Datei-Batch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Erstellen Sie eine Vektorspeicher-Datei-Batch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, für den ein File Batch erstellt werden soll.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. No
file_ids array Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. Yes

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Erstellen Sie eine Vektorspeicher-Datei-Batch.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Antworten: Statuscode: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Get - Vektorspeicher-Dateibatch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Ruft einen Vektorspeicher-Dateibatch ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des Dateibatches, der abgerufen wird.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Ruft einen Vektorspeicher-Dateibatch ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Abbrechen – Vektorspeicher-Datei-Batch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Einen Vektorspeicher-Dateibatch abbrechen. Dies versucht, die Verarbeitung der Dateien in diesem Batch so schnell wie möglich zu beenden.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des Dateibatches, um zu stornieren.
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Einen Vektorspeicher-Dateibatch abbrechen. Dies versucht, die Verarbeitung der Dateien in diesem Batch so schnell wie möglich zu beenden.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Liste – Vektorspeicher-Datei-Batchdateien

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Gibt eine Liste von Vektorspeicherdateien in einem Batch zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
batch_id path Yes string Die ID des Dateibatches, zu dem die Dateien gehören.
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Sortiere die Reihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende und desc absteigende Ordnung.
after query No string Ein Cursor für die Paginierung. after ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, die mit obj_foo enden, kann Ihr nachfolgender Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Paginierung. before ist eine Objekt-ID, die deinen Platz in der Liste definiert. Wenn Sie beispielsweise eine Listenanfrage stellen und 100 Objekte erhalten, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No string
Mögliche Werte: in_progress, completed, failed, cancelled
Filtern Sie nach Dateistatus. Einer von in_progress, completed, failed, . cancelled
api-version query Yes string api version

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Gibt eine Liste von Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Erstellen – Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Erstellen Sie ein flüchtiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime API. Kann mit denselben Sitzungsparametern wie das session.update Client-Event konfiguriert werden. Es antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein brauchbares ephemeres API-Token enthält, das zur Authentifizierung von Browser-Clients für die Echtzeit-API verwendet werden kann.

Request Body

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.

Mögliche Werte: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.
Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird.
Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird.
No
└─ type enum Art der Lärmunterdrückung. near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Die Konfiguration für die Eingangs-Audiotranskription ist standardmäßig auf aus eingestellt und kann so null eingestellt werden, dass sie sich nach Einschalten ausschaltet. Eingabe-Audiotranskription ist nicht native im Modell, da das Modell Audio direkt konsumiert. Die Transkription läuft asynchron über das Transkriptions-Endpunkt und sollte als Leitfaden für die Eingabe-Audioinhalte behandelt werden, statt als genau das, was das Modell gehört hat. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung.
No
└─ language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz.
No
└─ model string Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1.
No
└─ prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen.
Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.
Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben".
No
instructions string Die Standard-Systeminstruktionen (d. h. Systemnachricht) wurden vorangestellt, um Modellaufrufe zu erstellen. Dieses Feld ermöglicht es dem Client, das Modell anhand der gewünschten Antworten zu steuern. Das Modell kann zum Inhalt und Format der Antwort angewiesen werden (z. B. "sehr prägnant sein", "freundlich handeln", "hier sind Beispiele für gute Antworten") und zum Audioverhalten (z. B. "schnell sprechen", "Emotion in deine Stimme einbringen", "häufig lachen"). Die Anweisungen werden nicht garantiert vom Modell befolgt, aber sie geben dem Modell Hinweise auf das gewünschte Verhalten.

Beachten Sie, dass der Server Standardbefehle setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und zu Beginn der Sitzung im session.created Event sichtbar sind.
No
max_response_output_tokens Ganzzahl oder String Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Werkzeugaufrufe. Geben Sie eine ganze Zahl zwischen 1 und 4096 an, um die Ausgabetoken zu begrenzen oder inf für die maximal verfügbaren Token für ein bestimmtes Modell. Standardmäßig gilt inf.
No
modalities Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"].
No
model string Der Name der für diese Sitzung verwendeten Einsatz.
No
output_audio_format enum Das Format der Ausgabe des Audios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
Für pcm16wird das Ausgangsaudio mit einer Frequenz von 24 kHz abgetastet.

Mögliche Werte: pcm16, g711_ulaw, g711_alaw
No
temperature number Stichprobentemperatur für das Modell, begrenzt auf [0,6, 1,2]. Für Audiomodelle wird eine Temperatur von 0,8 für die beste Leistung sehr empfohlen.
No 0.8
tool_choice string Wie das Modell Werkzeuge auswählt. Optionen sind auto, none, , requiredoder geben Sie eine Funktion an.
No auto
tools array Werkzeuge (Funktionen), die dem Modell zur Verfügung stehen. No
turn_detection object Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.
Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet.
Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt.
No True
└─ eagerness enum Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren. low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller. auto ist der Standard und äquivalent zu medium.

Mögliche Werte: low, medium, high, auto
No
└─ interrupt_response boolean Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt.
No True
└─ prefix_padding_ms integer Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms.
No
└─ silence_duration_ms integer Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen.
No
└─ threshold number Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden.
No
└─ type enum Art der Abzugserkennung.

Mögliche Werte: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Statuscode: 200

Beschreibung: Sitzung erfolgreich erstellt.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Erstellen - TranskriptionEchtzeitsitzung

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Erstellen Sie ein ephemeres API-Token für die Nutzung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeit-Transkriptionen. Kann mit denselben Sitzungsparametern wie das transcription_session.update Client-Event konfiguriert werden. Es antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein brauchbares ephemeres API-Token enthält, das zur Authentifizierung von Browser-Clients für die Echtzeit-API verwendet werden kann.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array Die Sammlung von Elementen, die in die Transkription aufgenommen werden sollten. Derzeit verfügbare Artikel sind:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.

Mögliche Werte: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.
Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird.
Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird.
No
└─ type enum Art der Lärmunterdrückung. near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für Eingabe-Audio-Transkription. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung.
No
└─ language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz.
No
└─ model enum Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15und whisper-1.

Mögliche Werte: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen.
Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.
Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben".
No
modalities Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"].
No
turn_detection object Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.
Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet.
Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ eagerness enum Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren. low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller. auto ist der Standard und äquivalent zu medium.

Mögliche Werte: low, medium, high, auto
No
└─ interrupt_response boolean Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ prefix_padding_ms integer Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms.
No
└─ silence_duration_ms integer Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen.
No
└─ threshold number Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden.
No
└─ type enum Art der Abzugserkennung.

Mögliche Werte: server_vad, semantic_vad
No

Responses

Statuscode: 200

Beschreibung: Sitzung erfolgreich erstellt.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Erzeugt eine Modellantwort.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array No
input Saite oder Array Model inputs Yes
instructions string Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein.

Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen.
No
max_output_tokens integer Eine obere Obergrenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und des Gesprächszustands.
No
parallel_tool_calls boolean Ob das Modell Werkzeugaufrufe parallel ausführen soll.
No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. Erfahren Sie mehr über den Gesprächszustand.
No
reasoning Reasoning Konfigurationsoptionen für Schlussfolgermodelle. No
store boolean Ob die generierte Modellantwort für eine spätere Abruf über die API gespeichert werden soll.
No True
stream boolean Wenn auf true gesetzt, werden die Antwortdaten des Modells an den Client gestreamt, während sie mithilfe von Server-gesendeten Ereignissen generiert werden.
Weitere Informationen finden Sie im Abschnitt Streaming unten.
No False
text object Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.

Nicht empfohlen für GPT-4o und neuere Modelle:

Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann.
No
tools array Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.

Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind:

- Integrierte Tools: Werkzeuge, die von OpenAI bereitgestellt werden und das erweitern
model's capabilities
No
truncation enum Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser und der vorherigen Antwort die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort kürzen, um zum Kontextfenster zu passen, indem es Eingabepunkte mitten im Gespräch platziert.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Responses API – Eingabepunkte

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Ruft eine Modellantwort mit der gegebenen ID ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der Antwort, die abgerufen werden soll.
include query No array Zusätzliche Felder, die in die Antwort aufgenommen werden sollten. Weitere Informationen finden Sie den include obigen Parameter zur Antworterstellung.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json response

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Löscht eine Modellantwort mit der angegebenen ID.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der Antwort zum Löschen.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Statuscode: 404

Beschreibung: Nicht gefunden

Content-Type Type Description
application/json error

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Responses API – Liste der Antwortobjekte

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Gibt eine Liste von Eingabeelementen für eine gegebene Antwort zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Unterstützt Azure OpenAI-Endpunkte (Protokoll und Hostname, zum Beispiel: https://aoairesource.openai.azure.com. Ersetze "aoairesource" durch deinen Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der Antwort, für die Eingaben abgerufen werden soll.
limit query No integer Eine Begrenzung der Anzahl der zurückzugebenden Objekte. Das Limit kann zwischen 1 und 100 liegen, und der Standard liegt bei 20.
order query No string
Mögliche Werte: asc, desc
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden. Standard ist asc.
- asc: Geben Sie die Eingabeelemente in aufsteigender Reihenfolge zurück.
- desc: Geben Sie die Eingabeelemente in absteigender Reihenfolge zurück.
after query No string Eine Item-ID, nach der man die Einträge auflisten kann, verwendet in der Paginierung.
before query No string Eine Item-ID, um vorherige Artikel aufzulisten, verwendet in der Paginierung.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Eine Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und ist sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Um ein Authentifizierungstoken mit Azure CLI zu generieren: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Stellen Sie hier den Azure OpenAI API-Schlüssel bereit

Responses

Statuscode: 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Innerer Fehler mit zusätzlichen Details. No
param string No
type string No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results contentFilterPromptResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt.

Property Value
Description Fehlercodes für das innere Fehlerobjekt.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No
param string No
type string No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt. No
content_filter_results dalleFilterResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. No
revised_prompt string Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. No

contentFilterCompletionTextSpan

Beschreibt einen Zeitraum innerhalb des generierten Vervollständigungstextes. Offset 0 ist der erste UTF32-Codepunkt des Vervollständigungstextes.

Name Type Description Required Default
completion_end_offset integer Versatz des ersten UTF32-Codepunkts, der aus der Spannweite ausgeschlossen ist. Dieses Feld ist für leere Felder immer gleich completion_start_offset. Dieses Feld ist für nichtleere Felder immer größer als completion_start_offset. Yes
completion_start_offset integer Versatz des UTF32-Codepunkts, der die Spanne beginnt. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└─ URL string No
└─ license string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informationen zu den Inhaltsfilterergebnissen.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen über Texte und Schimpfwörter von Drittanbietern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Inhaltsfilterung führt für einen einzelnen Prompt in der Anfrage.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. No
prompt_index integer No

promptFilterResults

Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Inhaltsfilterergebnissen.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Das Filtern von Inhalten liefert eine detaillierte Anzahl der Inhaltsfilter-IDs für die gefilterten Segmente. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen. No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen. No
max_completion_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. No
max_tokens integer Die maximale Anzahl der Token, die für die generierte Antwort erlaubt war. Standardmäßig beträgt die Anzahl der Tokens, die das Modell zurückgeben kann, (4096 – Prompt-Token). Das ist nicht mit O1-Modellen kompatibel. No 4096
metadata object Vom Entwickler definierte Tags und Werte, die zum Filtern von Abschlüssen im gespeicherten Abschluss-Dashboard verwendet werden. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht. No 0
stop Saite oder Array Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. No
store boolean Ob das Ergebnis dieser Chat-Abschlussanfrage für die Verwendung in unseren Modelldestillations- oder Bewertungsprodukten gespeichert werden soll oder nicht. No
stream boolean Wenn gesetzt, werden partielle Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. No False
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.
Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. No

createCompletionRequest

Name Type Description Required Default
best_of integer Erzeugt best_of serverseitige Komplettierungen und gibt das "beste" zurück (das mit der höchsten Log-Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn mit nverwendet, steuert die best_of Anzahl der Kandidatenkomplettierungen und n gibt an, wie viele zurückgegeben werden sollen. best_of muss größer als nsein.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
echo boolean Echo den Prompt zusätzlich zum Abschluss
No False
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.

Zum Beispiel kannst du passen {"50256": -100} , um zu verhindern, dass das <|endoftext|> Token generiert wird.
No None
logprobs integer Beziehen Sie die Log-Wahrscheinlichkeiten der logprobs wahrscheinlichsten Ausgabetoken sowie der ausgewählten Token ein. Zum Beispiel, wenn logprobs 5 ist, gibt die API eine Liste der 5 wahrscheinlichsten Token zurück. Die API gibt immer das logprob von dem abgetasteten Token zurück, sodass es bis zu viele logprobs+1 Elemente in der Antwort geben kann.

Der maximale Wert für logprobs ist 5.
No None
max_tokens integer Die maximale Anzahl der Token, die bei der Fertigstellung generiert werden können.

Die Token-Anzahl deines Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Abschlüsse für jeden Prompt generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen erzeugt, kann er Ihre Token-Quote schnell verbrauchen. Verwenden Sie sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stophaben.
No 1
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
prompt Saite oder Array Die Eingabeaufforderung(en) zur Generierung von Komplettierungen, codiert als String, Array von Strings, Array von Token oder Array von Token-Arrays.

Beachten Sie, dass <|endoftext|> der Dokumentseparator ist, den das Modell während des Trainings sieht, sodass das Modell generiert, wenn kein Prompt angegeben ist, als ob es vom Anfang eines neuen Dokuments stammt.
Yes
seed integer Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.

Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
stop Saite oder Array Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppsequenz nicht.
No
stream boolean Ob ich den Teilfortschritt zurückstreamen soll. Wenn gesetzt, werden Token als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. Beispiel Python Code.
No False
suffix string Das Suffix, das nach dem Abschluss des eingefügten Textes kommt.

Dieser Parameter wird nur für gpt-3.5-turbo-instructunterstützt.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No

createCompletionResponse

Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl das gestreamte als auch das nicht gestreamte Antwortobjekt haben die gleiche Form (im Gegensatz zum Chat-Endpunkt).

Name Type Description Required Default
choices array Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, an dem die Fertigstellung erstellt wurde. Yes
id string Eine eindeutige Kennung für den Abschluss. Yes
model string Das Modell, das für die Fertigstellung verwendet wird. Yes
object enum Der Objekttyp, der immer "text_completion" ist.
Mögliche Werte: text_completion
Yes
prompt_filter_results promptFilterResults Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft.

Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten.
No
usage completionUsage Nutzungsstatistiken für die Abschlussanfrage. No

createChatCompletionRequest

Name Type Description Required Default
audio object Parameter für den Audioausgang. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]angefordert wird. No
└─ format enum Spezifiziert das Ausgabe-Audioformat. Muss einer von wav, mp3, flac, , opusoder pcm16sein.

Mögliche Werte: wav, mp3, flac, opus, pcm16
No
└─ voice enum Spezifiziert den Sprachtyp. Unterstützte Stimmen sind alloy, echo, fable, , onyx, novaund shimmer.

Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer
No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chat-Erweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit des Modells verringert, dieselbe Zeile wortwörtlich zu wiederholen.
No 0
function_call string oder chatCompletionFunctionCallOption Veraltet zugunsten von tool_choice.

Kontrolliert, welche (falls vorhandene) Funktion vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Funktion aufruft, sondern stattdessen eine Nachricht generiert.
auto das bedeutet, dass das Modell zwischen der Erzeugung einer Nachricht oder dem Aufruf einer Funktion wählen kann.
Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.

none ist der Standard, wenn keine Funktionen vorhanden sind. auto ist der Standard, wenn Funktionen vorhanden sind.
No
functions array Veraltet zugunsten von tools.

Eine Liste von Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändere die Wahrscheinlichkeit, dass bestimmte Token im Completion erscheinen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) auf einen zugehörigen Bias-Wert von -100 bis 100 abbildet. Mathematisch wird der Bias zu den vom Modell vor der Stichprobe erzeugten Logits addiert. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Selektionswahrscheinlichkeit verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Bann oder zur exklusiven Auswahl des entsprechenden Tokens führen.
No None
logprobs boolean Ob die Log-Wahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen oder nicht. Wenn wahr, gibt die logaritarischen Wahrscheinlichkeiten jedes in der contentmessagevon zurückgegebenen Ausgabetokens zurück. No False
max_completion_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens. No
max_tokens integer Die maximale Anzahl der Token, die im Chat-Abschluss generiert werden kann.

Die Gesamtlänge der Eingabetoken und generierten Tokens ist durch die Kontextlänge des Modells begrenzt.
No
messages array Eine Liste der Nachrichten, die das bisherige Gespräch ausmachen. Beispiel Python Code. Yes
metadata object Vom Entwickler definierte Tags und Werte, die zum Filtern von Abschlüssen im gespeicherten Abschluss-Dashboard verwendet werden. No
modalities ChatCompletionModalities Ausgabetypen, die das Modell für diese Anfrage generieren soll.
Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:

["text"]

Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:

["text", "audio"]
No
n integer Wie viele Chat-Abschlussoptionen soll für jede Eingabenachricht generiert werden? Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token in allen Optionen berechnet werden. Achten Sie n darauf, 1 die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
prediction PredictionContent Konfiguration für eine vorhergesagte Ausgabe, die die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort im Voraus bekannt sind. Dies tritt am häufigsten auf, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu generieren. No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Tokens basierend darauf, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, dass das Modell über neue Themen spricht.
No 0
reasoning_effort enum Nur O1-Modelle

Begrenzt den Aufwand beim Schließen bei Denkmustern.

Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.
Mögliche Werte: low, medium, high
No
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o,GPT-4o Mini, GPT-4 Turbo und allen GPT-3.5 Turbo Modellen, die neuer als gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt.

Die Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der garantiert, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Diese Funktion befindet sich noch in der Beta.
Wenn angegeben, bemüht sich unser System, deterministisch zu samplingen, sodass wiederholte Anfragen mit denselben seed Parametern dasselbe Ergebnis liefern.
Determinismus ist nicht garantiert, und du solltest auf den Antwortparameter system_fingerprint zurückgreifen, um Änderungen im Backend zu überwachen.
No
stop Saite oder Array Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
No
store boolean Ob das Ergebnis dieser Chat-Abschlussanfrage für die Verwendung in unseren Modelldestillations- oder Bewertungsprodukten gespeichert werden soll oder nicht. No
stream boolean Wenn gesetzt, werden partielle Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als rein datenbasierte, servergesendete Ereignisse gesendet, sobald sie verfügbar sind, wobei der Strom durch eine data: [DONE] Nachricht beendet wird. Beispiel Python Code.
No False
stream_options chatCompletionStreamOptions Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.

Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
tool_choice chatCompletionToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert. auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann. required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen. none ist der Standard, wenn keine Werkzeuge vorhanden sind. auto ist der Standard, wenn Werkzeuge vorhanden sind. No
tools array Eine Liste der Werkzeuge, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Werkzeug unterstützt. Nutzen Sie dies, um eine Liste von Funktionen bereitzustellen, für die das Modell JSON-Eingaben generieren kann. Maximal 128 Funktionen werden unterstützt.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der wahrscheinlichsten Token angibt, die an jeder Tokenposition zurückgegeben werden sollen, jeweils mit einer zugehörigen Log-Wahrscheinlichkeit. logprobs muss auf true gesetzt werden, wenn dieser Parameter verwendet wird. No
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen.
No
user_security_context userSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst und den Endnutzer beschreiben, der mit der KI-Anwendung interagiert. Diese Bereiche unterstützen Ihre Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. No

userSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst und den Endnutzer beschreiben, der mit der KI-Anwendung interagiert. Diese Bereiche unterstützen Ihre Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.

Name Type Description Required Default
application_name string Der Name der Anwendung. Sensible personenbezogene Daten sollten in diesem Bereich nicht enthalten sein. No
end_user_id string Diese Kennung ist die Microsoft Entra ID (früher Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Sensible personenbezogene Daten sollten in diesem Bereich nicht enthalten sein. No
end_user_tenant_id string Die Microsoft 365-Tenant-ID, zu der der Endnutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung Multitenant ist. No
source_ip string Erfasst die IP-Adresse des ursprünglichen Clients und akzeptiert sowohl IPv4- als auch IPv6-Formate. No

chatCompletionFunctions

Name Type Description Required Default
description string Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. No
name string Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.
No

chatCompletionFunctionCallOption

Die Spezifizierung einer bestimmten Funktion über {"name": "my_function"} zwingt das Modell, diese Funktion aufzurufen.

Name Type Description Required Default
name string Der Name der Funktion, die aufgerufen werden soll. Yes

chatCompletionFunctionParameters

Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe die Anleitung/ Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionRequestMessage

Diese Komponente kann eine der folgenden sein:

ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, denen das Modell folgen sollte, unabhängig davon, welche Nachrichten der Nutzer gesendet hat. Bei O1-Modellen und neueren developer ersetzen Nachrichten die vorherigen system Nachrichten.

Name Type Description Required Default
content Saite oder Array Der Inhalt der Entwicklernachricht. Yes
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall developer.
Mögliche Werte: developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Systemnachricht. Yes
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall system.
Mögliche Werte: system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Benutzernachricht.
Yes
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall user.
Mögliche Werte: user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Assistentennachricht. Erforderlich, sofern tool_calls nicht angegeben oder function_call angegeben ist.
No
function_call object Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. No
└─ arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. No
└─ name string Der Name der Funktion, die aufgerufen werden soll. No
name string Ein optionaler Name für den Teilnehmer. Liefert die Modellinformationen, um Teilnehmer derselben Rolle zu unterscheiden. No
refusal string Die Ablehnungsnachricht der Assistentin. No
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall assistant.
Mögliche Werte: assistant
Yes
tool_calls chatCompletionMessageToolCalls Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content Saite oder Array Der Inhalt der Werkzeugnachricht. Yes
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall tool.
Mögliche Werte: tool
Yes
tool_call_id string Tool-Anruf, auf den diese Nachricht reagiert. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Der Inhalt der Funktionsnachricht. Yes
name string Der Name der Funktion, die aufgerufen werden soll. Yes
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall function.
Mögliche Werte: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestSystemMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestUserMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestAssistantMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestToolMessageContentPart

Diese Komponente kann eine der folgenden sein:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Der Textinhalt. Yes
type enum Die Art des Inhalts.
Mögliche Werte: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Base64-kodierte Audiodaten. No
└─ format enum Das Format der codierten Audiodaten. Derzeit unterstützt es "wav" und "mp3".

Mögliche Werte: wav, mp3
No
type enum Die Art des Inhalts. Immer input_audio.
Mögliche Werte: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Spezifiziert den Detailgrad des Bildes. Erfahren Sie mehr im Vision-Leitfaden.
Mögliche Werte: auto, low, high
No
└─ url string Entweder eine URL des Bildes oder die von base64 codierten Bilddaten. No
type enum Die Art des Inhalts.
Mögliche Werte: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Die vom Modell generierte Ablehnungsnachricht. Yes
type enum Die Art des Inhalts.
Mögliche Werte: refusal
Yes

azureChatExtensionConfiguration

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

###Discriminator für azureChatExtensionConfiguration

Diese Komponente nutzt die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureChatExtensionType

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Property Value
Description Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search bei Verwendung als Azure OpenAI Chat-Erweiterung.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn sie als Azure OpenAI Chat-Erweiterung verwendet werden.

Name Type Description Required Default
allow_partial_result boolean Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. No False
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataSystemAssignedManagedIdentityAuthenticationOptions oder onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource No
endpoint string Der absolute Endpunktpfad für die Azure Search-Ressource. Yes
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird. No
filter string Search filter. No
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. No
index_name string Der Name des Indexes, der in der referenzierten Azure Search-Ressource verfügbar ist. Yes
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. No
query_type azureSearchQueryType Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird. No
semantic_configuration string Die zusätzliche semantische Konfiguration für die Abfrage. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Search-Ressource verwendet wird.

Name Type Description Required Default
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. No
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
image_vector_fields array Die Namen von Feldern, die Bildvektordaten darstellen. No
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten repräsentieren. No

azureSearchQueryType

Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.

Property Value
Description Die Art der Azure Search-Abfrage, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chat-Erweiterung verwendet wird.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB für MongoDB vCore verwendet. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureCosmosDBChatExtensionParameters

Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen verwendet werden sollten, wenn man Azure Cosmos DB für MongoDB vCore verwendet.

Name Type Description Required Default
allow_partial_result boolean Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. No False
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge. Yes
container_name string Der Name des Azure Cosmos DB Resource Containers. Yes
database_name string Der Name der MongoDB vCore-Datenbank zur Verwendung mit Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird. Yes
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. No
index_name string Der MongoDB vCore-Indexname zur Verwendung mit Azure Cosmos DB. Yes
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Azure Cosmos DB-Ressource verwendet wird.

Name Type Description Required Default
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. Yes
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten repräsentieren. Yes

elasticsearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Elasticsearch, wenn es als Azure OpenAI-Chat-Erweiterung verwendet wird.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Parameter, die bei der Konfiguration von Elasticsearch® als Azure OpenAI Chat-Erweiterung verwendet werden sollten. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

elasticsearchChatExtensionParameters

Parameter, die bei der Konfiguration von Elasticsearch® als Azure OpenAI Chat-Erweiterung verwendet werden sollten.

Name Type Description Required Default
allow_partial_result boolean Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. No False
authentication onYourDataKeyUndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource No
endpoint string Der Endpunkt von Elasticsearch.® Yes
fields_mapping elasticsearchIndexFieldMappingOptions Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Elasticsearch-Ressource® verwendet wird. No
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. No
index_name string Der Indexname von Elasticsearch.® Yes
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. No
query_type elasticsearchQueryType Die Art der Elasticsearch-Abrufanfrage®, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No

elasticsearchIndexFieldMappingOptions

Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Elasticsearch-Ressource® verwendet wird.

Name Type Description Required Default
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. No
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten repräsentieren. No

elasticsearchQueryType

Die Art der Elasticsearch-Abrufanfrage®, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Property Value
Description Die Art der Elasticsearch-Abrufanfrage®, die ausgeführt werden sollte, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Mongo DB, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen bei der Verwendung von Mongo DB verwendet werden sollten. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

mongoDBChatExtensionParameters

Parameter, die bei der Konfiguration von Azure OpenAI On Your Data Chat-Erweiterungen bei der Verwendung von Mongo DB verwendet werden sollten.

Name Type Description Required Default
allow_partial_result boolean Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. No False
app_name string Der Name der Mongo DB-Anwendung. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data, wenn man einen Benutzernamen und ein Passwort verwendet. Yes
collection_name string Der Name der Mongo DB-Sammlung. Yes
database_name string Der Name der Mongo DB-Datenbank. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes
endpoint string Der Name des Mongo-DB-Cluster-Endpunkts. Yes
fields_mapping mongoDBFieldMappingOptions Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Mongo-Datenbank-Ressource verwendet wird. Yes
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. No
index_name string Der Name des Mongo DB-Indexes. Yes
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No

mongoDBFieldMappingOptions

Optionale Einstellungen zur Steuerung, wie Felder verarbeitet werden, wenn eine konfigurierte Mongo-Datenbank-Ressource verwendet wird.

Name Type Description Required Default
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. Yes
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten repräsentieren. Yes

pineconeChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Pinecone, wenn es als Azure OpenAI Chat-Erweiterung verwendet wird.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Parameter zur Konfiguration von Azure OpenAI Pinecone Chat-Erweiterungen. No
type azureChatExtensionType Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI Chat-Erweiterung. Dies wird von einer Chat-Abschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen nutzen sollte, um das Antwortverhalten zu verbessern.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

pineconeChatExtensionParameters

Parameter zur Konfiguration von Azure OpenAI Pinecone Chat-Erweiterungen.

Name Type Description Required Default
allow_partial_result boolean Wenn es als wahr angegeben ist, erlaubt das System die Verwendung von teilweisen Suchergebnissen, und die Anfrage schlägt ab, wenn alle Abfragen fehlschlagen. Wenn nicht angegeben oder als falsch angegeben, schlägt die Anfrage fehl, wenn eine Suchanfrage fehlschlägt. No False
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird, die auf einem internen Embeddings-Modell-Deployment-Namen in derselben Azure OpenAI-Ressource basiert. Yes
environment string Der Umweltname Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Optionale Einstellungen, um zu steuern, wie Felder bei Verwendung einer konfigurierten Pinecone-Ressource verarbeitet werden. Yes
in_scope boolean Ob Abfragen auf die Verwendung indexierter Daten beschränkt werden sollten. No
include_contexts array Die enthaltenen Eigenschaften des Ausgabekontexts. Wenn nicht angegeben, ist citations der Standardwert und intent. No
index_name string Der Name des Pinecone-Datenbankindexes. Yes
max_search_queries integer Die maximale Anzahl umgeschriebener Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Wenn dies nicht angegeben ist, bestimmt das System die Anzahl der zu sendenden Anfragen. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher ist die Präzision, aber das Erinnern an die Antwort. No
top_n_documents integer Die konfigurierte Anzahl an Dokumenten, die für die konfigurierte Abfrage angezeigt werden sollen. No

pineconeFieldMappingOptions

Optionale Einstellungen, um zu steuern, wie Felder bei Verwendung einer konfigurierten Pinecone-Ressource verarbeitet werden.

Name Type Description Required Default
content_fields array Die Namen der Indexfelder, die als Inhalt behandelt werden sollten. Yes
content_fields_separator string Das Trennungsmuster, das Inhaltsfelder verwenden sollten. No
filepath_field string Der Name des Indexfeldes, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfeldes, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfeldes, das als URL verwendet werden soll. No

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data.

Discriminator für onYourDataAuthenticationOptions

Diese Komponente nutzt die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataContextProperty

Die Kontexteigenschaft.

Property Value
Description Die Kontexteigenschaft.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.

Property Value
Description Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI auf Ihren Daten bei Verwendung eines API-Schlüssels.

Name Type Description Required Default
key string Der API-Schlüssel zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge.

Name Type Description Required Default
connection_string string Die Verbindungszeichenfolge zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Elasticsearch-Schlüssel- und Schlüssel-ID-Paares.

Name Type Description Required Default
key string Der Elasticsearch-Schlüssel für die Authentifizierung. No
key_id string Die Elasticsearch-Schlüssel-ID zur Verwendung zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Elasticsearch-codierten API-Schlüssels.

Name Type Description Required Default
encoded_api_key string Der Elasticsearch kodierte API-Schlüssel zur Verwendung zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataAccessTokenAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung des Zugriffstokens.

Name Type Description Required Default
access_token string Der Zugangstoken zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer systemzugeordneten verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer benutzerdefinierten verwalteten Identität.

Name Type Description Required Default
managed_identity_resource_id string Die Ressourcen-ID der vom Benutzer zugewiesenen verwalteten Identität zur Verwendung zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data, wenn man einen Benutzernamen und ein Passwort verwendet.

Name Type Description Required Default
password string The password. zur Authentifizierung. No
type onYourDataAuthenticationType Die Authentifizierungstypen, die mit Azure OpenAI On Your Data unterstützt werden. Yes
username string Der Benutzername für die Authentifizierung. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche.

Diese Komponente nutzt die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. Yes

onYourDataVectorizationSourceType

Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren.

Property Value
Description Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Embeddings basiert.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions No
dimensions integer Die Anzahl der Dimensionen, die die Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. No
endpoint string Spezifiziert die URL des Ressourcenendpunkts, von der Einbettungen abgerufen werden sollen. Es sollte im Format von https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der API-Version Query-Parameter ist nicht erlaubt. No
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. Yes

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird und auf einem internen Embeddings-Modell-Deploymentsnamen in derselben Azure OpenAI-Ressource basiert.

Name Type Description Required Default
deployment_name string Spezifiziert den Namen der Modellbereitstellung, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss in derselben Azure OpenAI-Ressource erfolgen, aber On Your Data verwendet diese Modellbereitstellung über einen internen Aufruf statt eines öffentlichen Aufrufs, was Vektorsuche auch in privaten Netzwerken ermöglicht. No
dimensions integer Die Anzahl der Dimensionen, die die Einbettungen haben sollten. Nur in text-embedding-3 und neueren Modellen unterstützt. No
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. Yes

onYourDataIntegratedVectorizationSource

Repräsentiert den integrierten Vektorizer, der innerhalb der Suchressource definiert ist.

Name Type Description Required Default
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. Yes

onYourDataModelIdVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data bei der Anwendung der Vektorsuche verwendet wird, die auf der Modell-ID eines Suchdienstes basiert. Derzeit nur von Elasticsearch® unterstützt.

Name Type Description Required Default
model_id string Spezifiziert die Modell-ID für die Vektorisierung. Diese Modell-ID muss im Suchdienst definiert werden. No
type onYourDataVectorizationSourceType Repräsentiert die verfügbaren Quellen, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Vektorsuche zu konfigurieren. Yes

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chat-Erweiterungen an der Erstellung einer entsprechenden Antwort auf Chat-Abschlüsse beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anfrage verwendet wird, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird.

Name Type Description Required Default
all_retrieved_documents array Alle gesicherten Dokumente. No
citations array Das Ergebnis der Datenquellenabruf, das zur Erzeugung der Assistentennachricht in der Antwort verwendet wird. No
intent string Die erkannte Absicht aus dem Chatverlauf wurde verwendet, um an die nächste Runde weitergegeben zu werden, um den Kontext zu übertragen. No

citation

Zitationsinformationen für eine Chat-Komplettantwort-Nachricht.

Name Type Description Required Default
chunk_id string Die Chunk-ID der Strafzettel. No
content string Der Inhalt der Zitate. Yes
filepath string Der Dateipfad des Zitats. No
rerank_score number Die Rerang-Punktzahl des geborgenen Dokuments. No
title string Der Titel der Auszeichnung. No
url string Die URL des Zitats. No

retrievedDocument

Das abgerufene Dokument.

Name Type Description Required Default
chunk_id string Die Chunk-ID der Strafzettel. No
content string Der Inhalt der Zitate. Yes
data_source_index integer Der Index der Datenquelle. No
filepath string Der Dateipfad des Zitats. No
filter_reason filterReason Der Filtergrund des abgerufenen Dokuments. No
original_search_score number Die ursprüngliche Suchwertung des abgerufenen Dokuments. No
rerank_score number Die Rerang-Punktzahl des geborgenen Dokuments. No
search_queries array Die Suchanfragen wurden verwendet, um das Dokument abzurufen. No
title string Der Titel der Auszeichnung. No
url string Die URL des Zitats. No

filterReason

Der Filtergrund des abgerufenen Dokuments.

Property Value
Description Der Filtergrund des abgerufenen Dokuments.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object Die Funktion, die das Modell aufgerufen hat. Yes
└─ arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. No
└─ name string Der Name der Funktion, die aufgerufen werden soll. No
id string Die ID des Werkzeugrufs. Yes
type toolCallType Der Typ des Werkzeugaufrufs, in diesem Fall function. Yes

toolCallType

Der Typ des Werkzeugaufrufs, in diesem Fall function.

Property Value
Description Der Typ des Werkzeugaufrufs, in diesem Fall function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Der Inhalt der Nachricht. No
tool_call_id string Tool-Anruf, auf den diese Nachricht reagiert. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Der Inhalt der Nachricht. No
name string Der Inhalt der Nachricht. No
role enum Die Rolle des Verfassers der Nachrichten, in diesem Fall function.
Mögliche Werte: function
No

createChatCompletionResponse

Repräsentiert eine vom Modell zurückgegebene Chat-Abschlussantwort, basierend auf der bereitgestellten Eingabe.

Name Type Description Required Default
choices array Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als eins sein, wenn n größer als 1 ist. Yes
created integer Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. Yes
id string Eine eindeutige Kennung für den Abschluss des Chats. Yes
model string Das Modell, das für den Chat-Abschluss verwendet wird. Yes
object enum Der Objekttyp, der immer chat.completionist.
Mögliche Werte: chat.completion
Yes
prompt_filter_results promptFilterResults Inhaltsfilterung führt zu null oder mehr Prompts in der Anfrage. Bei einer Streaming-Anfrage können Ergebnisse für verschiedene Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft.

Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten.
No
usage completionUsage Nutzungsstatistiken für die Abschlussanfrage. No

createChatCompletionStreamResponse

Repräsentiert einen gestreamten Chunk einer Chat-Abschlussantwort, die vom Modell auf Basis der bereitgestellten Eingabe zurückgegeben wird.

Name Type Description Required Default
choices array Eine Liste von Chat-Abschlussmöglichkeiten. Kann mehr als ein Element enthalten, wenn n größer als 1 ist.
Yes
created integer Der Unix-Zeitstempel (in Sekunden) von der Erstellung des Chat-Abschlusses. Jeder Chunk hat denselben Zeitstempel. Yes
id string Eine eindeutige Kennung für den Abschluss des Chats. Jeder Chunk hat dieselbe ID. Yes
model string Das Modell, um die Komplettierung zu erzeugen. Yes
object enum Der Objekttyp, der immer chat.completion.chunkist.
Mögliche Werte: chat.completion.chunk
Yes
system_fingerprint string Dieser Fingerabdruck stellt die Backend-Konfiguration dar, mit der das Modell läuft.
Kann zusammen mit dem seed Anfrageparameter verwendet werden, um zu verstehen, wann Backend-Änderungen vorgenommen wurden, die den Determinismus beeinflussen könnten.
No

chatCompletionStreamResponseDelta

Ein Chat-Abschluss-Delta, das durch gestreamte Modellantworten erzeugt wird.

Name Type Description Required Default
content string Der Inhalt der Chunk-Nachricht. No
function_call object Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. No
└─ arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. No
└─ name string Der Name der Funktion, die aufgerufen werden soll. No
refusal string Die vom Modell generierte Ablehnungsnachricht. No
role enum Die Rolle des Verfassers dieser Botschaft.
Mögliche Werte: system, user, assistant, tool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. No
└─ name string Der Name der Funktion, die aufgerufen werden soll. No
id string Die ID des Werkzeugrufs. No
index integer Yes
type enum Die Art des Werkzeugs. Derzeit wird nur function unterstützt.
Mögliche Werte: function
No

chatCompletionStreamOptions

Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.

Name Type Description Required Default
include_usage boolean Wenn gesetzt, wird ein zusätzlicher Chunk vor der data: [DONE] Nachricht gestreamt. Das Feld usage in diesem Chunk zeigt die Token-Nutzungsstatistiken für die gesamte Anfrage, und das choices Feld bleibt immer ein leeres Array. Alle anderen Chunks enthalten ebenfalls ein Feld usage , allerdings mit einem Nullwert.
No

chatCompletionChoiceLogProbs

Protokollieren Sie die Wahrscheinlichkeitsinformationen für die Wahl.

Name Type Description Required Default
content array Eine Liste von Nachrichteninhaltstoken mit Log-Wahrscheinlichkeitsinformationen. Yes
refusal array Eine Liste von Nachrichten-Ablehnungstoken mit Log-Wahrscheinlichkeitsinformationen. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Eine Liste von ganzen Zahlen, die die UTF-8-Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und deren Byte-Darstellungen kombiniert werden müssen, um die korrekte Textrepräsentation zu erzeugen. Kann passieren null , wenn es keine Bytes-Darstellung für das Token gibt. Yes
logprob number Die Log-Wahrscheinlichkeit dieses Tokens. Yes
token string The token. Yes
top_logprobs array Liste der wahrscheinlichsten Token und deren Log-Wahrscheinlichkeit an dieser Token-Position. In seltenen Fällen können weniger als die Anzahl der zurückgefragten top_logprobs Personen sein. Yes

chatCompletionResponseMessage

Eine vom Modell generierte Chat-Abschluss-Nachricht.

Name Type Description Required Default
audio object Wenn die Audioausgabemodalität angefordert wird, enthält dieses Objekt Daten über die Audioantwort des Modells. No
└─ data string Base64 kodierte Audiobytes, die vom Modell generiert wurden, in dem in der Anfrage angegebenen Format.
No
└─ expires_at integer Der Unix-Zeitstempel (in Sekunden) dafür, wann diese Audioantwort auf dem Server nicht mehr für mehrfache Rundengespräche zugänglich ist.
No
└─ id string Eindeutige Kennung für diese Audioantwort. No
└─ transcript string Transkript des vom Modell erzeugten Audios. No
content string Der Inhalt der Nachricht. Yes
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chat-Erweiterungen an der Erstellung einer entsprechenden Antwort auf Chat-Abschlüsse beteiligt sind. Diese Kontextinformationen werden nur ausgefüllt, wenn eine Azure OpenAI-Anfrage verwendet wird, die so konfiguriert ist, dass eine passende Erweiterung verwendet wird. No
function_call chatCompletionFunctionCall Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden. No
refusal string Die vom Modell generierte Ablehnungsnachricht. Yes
role chatCompletionResponseMessageRole Die Rolle des Autors der Antwortnachricht. Yes
tool_calls array Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe. No

chatCompletionResponseMessageRole

Die Rolle des Autors der Antwortnachricht.

Property Value
Description Die Rolle des Autors der Antwortnachricht.
Type string
Values assistant

chatCompletionToolChoiceOption

Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert. auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann. required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss. Die Angabe eines bestimmten Werkzeugs über {"type": "function", "function": {"name": "my_function"}} zwingt das Modell, dieses Werkzeug aufzurufen. none ist der Standard, wenn keine Werkzeuge vorhanden sind. auto ist der Standard, wenn Werkzeuge vorhanden sind.

Diese Komponente kann eine der folgenden sein:

chatCompletionNamedToolChoice

Spezifiziert ein Werkzeug, das das Modell verwenden soll. Verwenden Sie, um das Modell zu zwingen, eine bestimmte Funktion aufzurufen.

Name Type Description Required Default
function object Yes
└─ name string Der Name der Funktion, die aufgerufen werden soll. No
type enum Die Art des Werkzeugs. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

ParallelToolCalls

Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll.

Für diese Komponente sind keine Eigenschaften definiert.

PredictionContent

Statisch vorhergesagte Ausgabeinhalte, wie zum Beispiel der Inhalt einer Textdatei, die regeneriert wird.

Name Type Description Required Default
content Saite oder Array Der Inhalt, der bei der Erstellung einer Modellantwort abgestimmt werden sollte. Wenn generierte Tokens mit diesem Inhalt übereinstimmen, kann die gesamte Modellantwort viel schneller zurückgegeben werden. Yes
type enum Die Art der vorhergesagten Inhalte, die Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.
Mögliche Werte: content
Yes

chatCompletionMessageToolCalls

Die vom Modell generierten Werkzeugaufrufe, wie zum Beispiel Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

ChatCompletionModalities

Ausgabetypen, die das Modell für diese Anfrage generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:

["text"]

Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:

["text", "audio"]

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Abgeschafft und durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden sollte, wie sie vom Modell erzeugt werden.

Name Type Description Required Default
arguments string Die Argumente, mit denen die Funktion aufgerufen werden können, wie sie vom Modell im JSON-Format erzeugt werden. Beachte, dass das Modell nicht immer gültiges JSON erzeugt und Parameter halluzinieren kann, die nicht durch dein Funktionsschema definiert sind. Validiere die Argumente in deinem Code, bevor du deine Funktion aufrufst. Yes
name string Der Name der Funktion, die aufgerufen werden soll. Yes

completionUsage

Nutzungsstatistiken für die Abschlussanfrage.

Name Type Description Required Default
completion_tokens integer Anzahl der Token in der generierten Komplettierung. Yes
completion_tokens_details object Aufschlüsselung der in einer Komplettierung verwendeten Token. No
└─ accepted_prediction_tokens integer Bei Verwendung von Predicted Outputs ist die Anzahl der Token in der Vorhersage, die in der Completion erschienen sind. No
└─ audio_tokens integer Audio-Eingangstoken, die vom Modell generiert werden. No
└─ reasoning_tokens integer Tokens, die vom Modell zur Argumentation generiert werden. No
└─ rejected_prediction_tokens integer Bei Verwendung von Predicted Outputs ist die Anzahl der Token in der Vorhersage, die in der Completion nicht erschienen sind. Wie Reasoning-Tokens werden diese Token jedoch weiterhin in die Gesamtvervollständigungstoken für Abrechnungs-, Ausgabe- und Kontextfenstergrenzen gezählt. No
prompt_tokens integer Anzahl der Tokens im Prompt. Yes
prompt_tokens_details object Details zu den Prompt-Tokens. No
└─ audio_tokens integer Audio-Eingabetoken sind im Prompt vorhanden. No
└─ cached_tokens integer Die Anzahl der zwischengespeicherten Prompt-Token. No
total_tokens integer Gesamtzahl der in der Anfrage verwendeten Token (Prompt + Abschluss). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Die Art des Werkzeugs. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

FunctionParameters

Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Type Description Required Default
description string Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. No
name string Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. Yes
parameters FunctionParameters Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe den Leitfaden für Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format.

Das Weglassen parameters definiert eine Funktion mit einer leeren Parameterliste.
No
strict boolean Ob beim Erstellen des Funktionsaufrufs strikte Schema-Treue aktiviert werden soll. Wenn auf true gesetzt, folgt das Modell dem exakt im Feld parameters definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true No False

ResponseFormatText

Name Type Description Required Default
type enum Der definierte Antwortformat: text
Mögliche Werte: text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Der definierte Antwortformat: json_object
Mögliche Werte: json_object
Yes

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Eine Beschreibung, wofür das Antwortformat dient, verwendet vom Modell zur Bestimmung der Antwort im Format. No
└─ name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. No
└─ schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt. No
└─ strict boolean Ob strikte Schema-Compliance bei der Erzeugung der Ausgabe aktiviert werden soll. Setzt es auf wahr, folgt das Modell immer dem exakt im Feld schema definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true No False
type enum Der definierte Antwortformat: json_schema
Mögliche Werte: json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Die Audiodatei zum Übersetzen. Yes
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte auf Englisch sein. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format json war

Name Type Description Required Default
text string Übersetzter oder transkribierter Text. Yes

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn response_format verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Art von Audioaufgabe. No
text string Übersetzter oder transkribierter Text. Yes
words array No

audioResponseFormat

Definiert das Format der Ausgabe.

Property Value
Description Definiert das Format der Ausgabe.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Das Audiodatei-Objekt, das transkribiert werden soll. Yes
language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz. No
prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe. No
temperature number Die Probentemperatur liegt zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen. Wenn auf 0 gesetzt, verwendet das Modell die logaritarische Wahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht sind. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription gefüllt werden sollen. response_format muss so eingestellt verbose_json werden, dass Zeitstempel-Granularitäten verwendet werden. Entweder oder beide dieser Optionen werden unterstützt: word, oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Erstellen von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

audioSegment

Transkriptions- oder Übersetzungssegment.

Name Type Description Required Default
avg_logprob number Durchschnittliche Log-Wahrscheinlichkeit. No
compression_ratio number Compression ratio. No
end number Segmentend-Offset. No
id integer Segment identifier. No
no_speech_prob number Wahrscheinlichkeit für 'keine Rede'. No
seek number Versatz des Segments. No
start number Segmentstart-Offset. No
temperature number Temperature. No
text string Segment text. No
tokens array Symbole des Textes. No

audioWord

Transkription oder Übersetzungswort.

Name Type Description Required Default
end number Word end-Offset. No
start number Word Start Offset. No
word string Word No

createSpeechRequest

Speech request.

Name Type Description Required Default
input string Der Text, um Audio zu synthetisieren. Die maximale Länge beträgt 4.096 Zeichen. Yes
response_format enum Das Format, um das Audio zu synthetisieren.
Mögliche Werte: mp3, opus, , aacflac, wav,pcm
No
speed number Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von bis 0.254.0aus. 1.0 ist der Standard. No 1.0
voice enum Die Stimme für Sprachsynthese.
Mögliche Werte: alloy, echo, , fableonyx, nova,shimmer
Yes

imageQuality

Die Qualität des erzeugten Bildes.

Property Value
Description Die Qualität des erzeugten Bildes.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Property Value
Description Das Format, in dem die generierten Bilder zurückgegeben werden.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Nur für Serienmodelle unterstützt.

Property Value
Description Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für GPT-Image-1-Modelle unterstützt.
Type string
Default png
Values png
jpeg

imageSize

Die Größe der generierten Bilder.

Property Value
Description Die Größe der generierten Bilder.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt.

Property Value
Description Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt.
Type string
Default vivid
Values vivid
natural

imageBackground

Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt.

Property Value
Description Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Ermöglicht es, Transparenz für den Hintergrund der generierten Bilder einzustellen. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle unterstützt. No auto
n integer Die Anzahl der zu erzeugenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. No 1
output_compression integer Der Kompressionswert (0–100%) für die erzeugten Bilder. Dieser Parameter wird nur für GPT-Image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. No 100
output_format imagesOutputFormat Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für GPT-Image-1-Modelle unterstützt. No png
prompt string Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen für GPT-Image-1-Serienmodelle und 4000 Zeichen für DALL-e-3 Yes
quality imageQuality Die Qualität des erzeugten Bildes. No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Nur für DALL-e-3 unterstützt. No url
size imageSize Die Größe der generierten Bilder. No auto
style imageStyle Der Stil der generierten Bilder. Nur für DALL-e-3 unterstützt. No vivid
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

imageEditsRequest

Name Type Description Required Default
image Saite oder Array Die Bild(e) zum Bearbeiten. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder jpg-Datei mit weniger als 25 MB sein. Yes
mask string Ein zusätzliches Bild, dessen vollständig transparente Flächen (z. B. bei null Alpha) anzeigen, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Es muss eine gültige PNG-Datei sein, weniger als 4 MB, und die gleichen Abmessungen wie das Bild haben. No
n integer Die Anzahl der zu erzeugenden Bilder. No 1
prompt string Eine Textbeschreibung des gewünschten Bildes. Die maximale Länge beträgt 32.000 Zeichen. Yes
quality imageQuality Die Qualität des erzeugten Bildes. No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
size imageSize Die Größe der generierten Bilder. No auto
user string Eine eindeutige Kennung, die Ihren Endnutzer repräsentiert und dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

generateImagesResponse

Name Type Description Required Default
created integer Der Unix-Zeitstempel, als die Operation erstellt wurde. Yes
data array Die Ergebnisdaten der Operation, falls erfolgreich Yes
usage imageGenerationsUsage Repräsentiert Details zur Tokennutzung für Bildgenerierungsanfragen. Nur für Modelle der GPT-Image-1-Serie. No

imageResult

Die Bild-URL oder das codierte Bild, falls erfolgreich, und ansonsten ein Fehler.

Name Type Description Required Default
b64_json string Das base64-kodierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Inhaltsfilterergebnissen. No
prompt_filter_results dalleFilterResults Informationen über die Kategorie der Inhaltsfilterung (Hass, sexuell, Gewalt, self_harm), ob sie erkannt wurde, sowie das Schweregrad (very_low, niedrig, mittel, hoch im Maßstab, das die Intensität und das Risikoniveau schädlicher Inhalte bestimmt) und ob sie gefiltert wurden oder nicht. Informationen zu Jailbreak-Inhalten und Schimpfwörtern, ob sie erkannt wurden und ob sie gefiltert wurden oder nicht. Und Informationen zur Kundensperrliste, falls sie gefiltert wurde und deren ID es ist. No
revised_prompt string Der Prompt, mit dem das Bild generiert wurde, falls es eine Überarbeitung des Prompts gab. No
url string Die Bild-URL. No

imageGenerationsUsage

Repräsentiert Details zur Tokennutzung für Bildgenerierungsanfragen. Nur für Modelle der GPT-Image-1-Serie.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. No
input_tokens_details object Eine detaillierte Aufschlüsselung der Eingabetoken. No
└─ image_tokens integer Die Anzahl der Bildtokens. No
└─ text_tokens integer Die Anzahl der Texttokens. No
output_tokens integer Die Anzahl der Ausgabetoken. No
total_tokens integer Die Gesamtzahl der verwendeten Token. No

line

Ein Inhaltszeilenobjekt, das aus einer benachbarten Folge von Inhaltselementen besteht, wie Wörter und Auswahlmarkierungen.

Name Type Description Required Default
spans array Ein Array von Spans, die erkannte Objekte und deren Begrenzungsbox-Informationen repräsentieren. Yes
text string Yes

span

Ein Spannobjekt, das ein erkanntes Objekt und seine Begrenzungsbox-Informationen darstellt.

Name Type Description Required Default
length integer Die Länge des Spannes in Zeichen, gemessen in Unicode-Codepunkten. Yes
offset integer Der Zeichenversatz innerhalb des Textes, wo der Abschnitt beginnt. Dieser Offset ist definiert als die Position des ersten Zeichens des Spans, der vom Anfang des Textes als Unicode-Codepunkte zählt. Yes
polygon array Ein Array von Objekten, die Punkte im Polygon repräsentieren, das das erkannte Objekt umschließt. Yes
text string Der Textinhalt des Spanns, der das erkannte Objekt darstellt. Yes

runCompletionUsage

Nutzungsstatistiken im Zusammenhang mit dem Lauf. Dieser Wert gilt, null wenn der Run sich nicht im terminalen Zustand befindet (d. h. in_progress, queued, usw.).

Name Type Description Required Default
completion_tokens integer Anzahl der im Verlauf des Durchlaufs verwendeten Komplettmarker. Yes
prompt_tokens integer Anzahl der im Verlauf des Durchlaufs verwendeten Prompt-Tokens. Yes
total_tokens integer Gesamtzahl der verwendeten Tokens (Prompt + Abschluss). Yes

runStepCompletionUsage

Nutzungsstatistiken im Zusammenhang mit dem Laufschritt. Dieser Wert gilt, null während der Status in_progressdes Laufschritts ist.

Name Type Description Required Default
completion_tokens integer Anzahl der im Verlauf des Laufschritts verwendeten Vervollständigungstokens. Yes
prompt_tokens integer Anzahl der im Verlauf des Laufschritts verwendeten Prompt-Tokens. Yes
total_tokens integer Gesamtzahl der verwendeten Tokens (Prompt + Abschluss). Yes

assistantsApiResponseFormatOption

Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

Diese Komponente kann eine der folgenden sein:

assistantsApiResponseFormat

Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Wenn json_object nur function der Typ tools an den Run weitergegeben werden darf. Ob text das Modell Text oder einen beliebigen benötigten Wert zurückgeben kann.

Name Type Description Required Default
type string Muss eines von oder textjson_objectsein. No text

type Enum: AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Stellt ein assistant dar, das das Modell aufrufen und Werkzeuge verwenden kann.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Assistent erstellt wurde. Yes
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
Yes
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen.
Yes
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
Yes
model string ID des zu verwendenden Modells. Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
Yes
object string Der Objekttyp, der immer assistantist. Yes
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Die ID des Vektorspeichers, der mit diesem Assistenten verbunden ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, file_search, oder functionsein.
Yes []
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1

objekt Enum: AssistantObjectType

Value Description
assistant Der Objekttyp, der immer Assistant ist

createAssistantRequest

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256.000 Zeichen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher ist mit diesem Assistenten verbunden. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
└─ vector_stores array Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und ihn an diesen Assistenten anzuhängen. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein.
No []
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string No
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Überschreibt die Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung stehen. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Überschreibt den Vektorspeicher, der diesem Assistenten zugeordnet ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Eine Liste der auf dem Assistenten aktivierten Tools. Es können maximal 128 Werkzeuge pro Assistent sein. Werkzeuge können von den Typen code_interpreter, retrieval, oder functionsein.
No []
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objekt-Enum: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Der definierte Werkzeugtyp: code_interpreter Yes

type Enum: assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Überschreibungen für das Dateisuchwerkzeug. No
└─ max_num_results integer Die maximale Anzahl an Ergebnissen, die das Dateisuchtool liefern sollte. Standardmäßig sind 20 für GPT-4*-Modelle und 5 für GPT-3.5-Turbo. Diese Zahl sollte zwischen 1 und 50 liegen.

Beachten Sie, dass das Dateisuchwerkzeug möglicherweise weniger als max_num_results Ergebnisse liefert.
No
type string Der definierte Werkzeugtyp: file_search Yes

type Enum: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Der definierte Werkzeugtyp: file_search Yes

type Enum: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object Die Funktionsdefinition. Yes
└─ description string Eine Beschreibung dessen, was die Funktion tut, verwendet vom Modell, um zu entscheiden, wann und wie die Funktion aufgerufen wird. No
└─ name string Der Name der aufzurufenden Funktion. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64. No
└─ parameters chatCompletionFunctionParameters Die Parameter, die die Funktion akzeptiert, werden als JSON-Schema-Objekt beschrieben. Siehe die Anleitung/ Beispiele und die JSON-Schema-Referenz für die Dokumentation zum Format. No
type string Der definierte Werkzeugtyp: function Yes

type Enum: assistantToolsFunction

Value Description
function

truncationObject

Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern.

Name Type Description Required Default
last_messages integer Die Anzahl der aktuellsten Nachrichten aus dem Thread beim Erstellen des Kontexts für den Lauf. No
type string Die Trunkierungsstrategie, die für den Faden verwendet werden sollte. Der Standardwert ist auto. Wenn auf last_messagesgesetzt ist, wird der Thread auf die n aktuellsten Nachrichten im Thread abgeschnitten. Wenn auf autogesetzt wird, werden Nachrichten in der Mitte des Threads verworfen, um die Kontextlänge des Modells anzupassen. max_prompt_tokens Yes

Typ Enum: TrunkationsTyp

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird. none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert. auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann. Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.

Diese Komponente kann eine der folgenden sein:

assistantsNamedToolChoice

Spezifiziert ein Werkzeug, das das Modell verwenden soll. Nutze es, um das Modell zu zwingen, ein bestimmtes Werkzeug aufzurufen.

Name Type Description Required Default
function object No
└─ name string Der Name der Funktion, die aufgerufen werden soll. No
type string Die Art des Werkzeugs. Wenn der Typ ist function, muss der Funktionsname gesetzt werden Yes

type Enum: AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird.

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der für die Durchführung dieses Laufs verwendet wurde. Yes
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Lauf abgebrochen wurde. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Durchlauf abgeschlossen wurde. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Lauf erstellt wurde. Yes
expires_at integer Der Unix-Zeitstempel (in Sekunden) dafür, wann der Durchlauf abläuft. Yes
failed_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Durchlauf fehlgeschlagen ist. Yes
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
incomplete_details object Details dazu, warum der Durchlauf unvollständig ist. Wird es sein null , solange der Durchlauf nicht unvollständig ist. Yes
└─ reason string Der Grund, warum der Durchlauf unvollständig ist. Dies zeigt an, welches spezifische Token-Limit im Verlauf des Durchlaufs erreicht wurde. No
instructions string Die Anweisungen, die der Assistent für diesen Durchlauf benutzt hat. Yes
last_error object Der letzte Fehler, der mit diesem Durchlauf verbunden ist. Wird es sein null , wenn keine Fehler vorliegen. Yes
└─ code string Einer von server_error oder rate_limit_exceeded. No
└─ message string Eine für Menschen lesbare Beschreibung des Fehlers. No
max_completion_tokens integer Die maximale Anzahl der Completion Tokens, die im Verlauf des Durchlaufs verwendet werden sollen.
Yes
max_prompt_tokens integer Die maximale Anzahl der Prompt-Token, die im Verlauf des Durchlaufs verwendet werden sollen.
Yes
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
Yes
model string Das Modell, das der Assistent für diesen Lauf verwendet hat. Yes
object string Der Objekttyp, der immer thread.runist. Yes
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
required_action object Details zur Aktion, die erforderlich ist, um den Lauf fortzusetzen. Wird es sein null , wenn keine Maßnahmen erforderlich sind. Yes
└─ submit_tool_outputs object Details zu den Werkzeugausgaben, die für diesen Durchlauf benötigt werden. No
└─ tool_calls array Eine Liste der relevanten Werkzeugaufrufe. No
└─ type enum Für den Moment ist das immer submit_tool_outputsso.
Mögliche Werte: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Yes
started_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Durchlauf gestartet wurde. Yes
status string Der Status des Laufs, der entweder , , , , cancellingcancelledfailed, completedoder expiredsein kann. requires_actionin_progressqueued Yes
temperature number Die für diesen Durchgang verwendete Probetemperatur. Wenn nicht gesetzt, steht standardmäßig auf 1. No
thread_id string Die ID der Threads, auf denen im Rahmen dieses Durchlaufs ausgeführt wurde. Yes
tool_choice assistantsApiToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.
Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.
Yes
tools array Die Liste der Werkzeuge, die der Assistent für diesen Durchlauf verwendet hat. Yes []
top_p number Der für diesen Lauf verwendete Kernprobenwert. Wenn nicht gesetzt, steht standardmäßig auf 1. No
truncation_strategy truncationObject Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. Yes
usage runCompletionUsage Nutzungsstatistiken im Zusammenhang mit dem Lauf. Dieser Wert gilt, null wenn der Run sich nicht im terminalen Zustand befindet (d. h. in_progress, queued, usw.). Yes

object Enum: runObjectType

Value Description
thread.run Der Run-Objekttyp, der immer thread.run ist, ist immer thread.run

Status Enum: RunObjectStatus

Value Description
queued Der Warteschlangezustand
in_progress Der in_progress Staat
requires_action Der required_action Staat
cancelling Der aufhebende Zustand
cancelled Der aufgehobene Staat
failed Der gescheiterte Staat
completed Der vollendete Zustand
expired Der abgelaufene Zustand

createRunRequest

Name Type Description Required Default
additional_instructions string Fügen Sie am Ende der Anweisungen für den Durchlauf zusätzliche Anweisungen hinzu. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen zu überschreiben. No
additional_messages array Fügt dem Thread vor dem Erstellen des Runs zusätzliche Nachrichten hinzu. No
assistant_id string Die ID des Assistenten, um diesen Durchgang auszuführen. Yes
instructions string Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
max_prompt_tokens integer Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string Die ID des Modells, das für diesen Durchlauf verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. No
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt.
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
tool_choice assistantsApiToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.
Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.
No
tools array Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt.
No
tool_outputs array Eine Liste der Werkzeuge, für die die Ausgaben eingereicht werden. Yes

runToolCallObject

Werkzeugaufrufobjekte

Name Type Description Required Default
function object Die Funktionsdefinition. Yes
└─ arguments string Die Argumente, von denen das Modell erwartet, dass du sie an die Funktion weitergibst. No
└─ name string Der Name der Veranstaltung. No
id string Die ID des Werkzeugrufs. Diese ID muss referenziert werden, wenn du die Werkzeugausgaben einreichst, indem du die Eingabe-Tool-Ausgaben nutzt, um Endpoint auszuführen. Yes
type string Die Art des Werkzeugaufrufs, für den die Ausgabe erforderlich ist. Für den Moment ist das immer functionso. Yes

type Enum: RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string Die ID des Assistenten, um diesen Durchgang auszuführen. Yes
instructions string Überschreiben Sie die Standard-Systemnachricht des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl der Vervollständigungstoken, die im Verlauf des Durchlaufs verwendet werden dürfen. Der Lauf bemüht sich, nur die angegebene Anzahl der Abschlussmarker über mehrere Runden zu verwenden. Übersteigt der Run die angegebene Anzahl der Completion Tokens, endet der Run mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
max_prompt_tokens integer Die maximale Anzahl der Prompt-Token, die im Verlauf des Laufs verwendet werden können. Der Lauf bemüht sich, nur die angegebene Anzahl der Prompt-Token über mehrere Runden zu verwenden. Übersteigt der Lauf die angegebene Anzahl der Prompt-Tokens, endet der Lauf mit dem Status incomplete. Siehe incomplete_details für weitere Informationen.
No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
model string Die ID der Modelle, die für diesen Durchlauf verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt er das mit dem Assistenten verbundene Modell. Falls nicht, wird das mit dem Assistenten verbundene Modell verwendet. No
parallel_tool_calls ParallelToolCalls Ob man während der Werkzeugnutzung parallele Funktionsaufrufe aktivieren soll. No True
response_format assistantsApiResponseFormatOption Spezifiziert das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung aktiviert { "type": "json_schema", "json_schema": {...} } strukturierte Ausgaben, die sicherstellen, dass das Modell mit deinem bereitgestellten JSON-Schema übereinstimmt. Erfahren Sie mehr im Leitfaden für strukturierte Ausgaben.

Einstellung aktiviert den { "type": "json_object" } JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig ist.

Wichtig: Beim Einsatz des JSON-Modus müssen Sie das Modell auch anweisen, selbst JSON über eine System- oder Benutzernachricht zu erzeugen. Ohne dies kann das Modell einen endlosen Strom von Leerraum erzeugen, bis die Erzeugung das Token-Limit erreicht, was zu einer langanhaltenden und scheinbar "festgefahrenen" Anfrage führt. Beachten Sie auch, dass der Nachrichteninhalt teilweise abgeschnitten werden kann, wenn finish_reason="length", was darauf hinweist, dass die Generation überschritten max_tokens wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Wenn true, gibt einen Strom von Ereignissen zurück, die während des Runs als servergesendete Ereignisse auftreten, und endet, wenn der Run mit einer data: [DONE] Nachricht in einen Terminalzustand eintritt.
No
stream_options chatCompletionStreamOptions Optionen für Streaming-Antworten. Setzen Sie dies nur, wenn Sie stream: truesetzen.
No None
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.
none das bedeutet, dass das Modell keine Werkzeuge aufruft, sondern stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines Werkzeugs wählen kann.
Ein bestimmtes Werkzeug zu spezifizieren oder {"type": "file_search"}{"type": "function", "function": {"name": "my_function"}} das Modell zu zwingen, dieses Tool aufzurufen.
No
tool_resources object Eine Sammlung von Ressourcen, die von den Werkzeugen des Assistenten genutzt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Die ID des Vektorspeichers, der mit diesem Assistenten verbunden ist. Maximal 1 Vektorspeicher kann an den Assistenten angeschlossen sein.
No
tools array Überschreiben Sie die Werkzeuge, die der Assistent für diesen Durchlauf verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, diese oder die Temperatur zu verändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuerungen, wie ein Thread vor dem Durchlauf abgeschnitten wird. Nutze dies, um das anfängliche Kontextfenster des Laufs zu steuern. No

threadObject

Repräsentiert einen Thread, der Nachrichten enthält.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Thread erstellt wurde. Yes
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
Yes
object string Der Objekttyp, der immer threadist. Yes
tool_resources object Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
Yes
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No

Objekt Enum: ThreadObjectType

Value Description
thread Der Typ des Thread-Objekts, der immer ist thread

createThreadRequest

Name Type Description Required Default
messages array Eine Liste von Nachrichten, mit denen man den Thread beginnen kann. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
tool_resources object Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No
└─ vector_stores array Ein Helfer, um mit file_ids einen Vektorspeicher zu erstellen und an diesen Thread anzuhängen. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
tool_resources object Eine Sammlung von Ressourcen, die den Werkzeugen des Assistenten in diesem Thread zur Verfügung gestellt werden. Die Ressourcen sind spezifisch für die Art des Werkzeugs. Zum Beispiel benötigt das code_interpreter Tool eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs benötigt.
No
└─ code_interpreter object No
└─ file_ids array Eine Liste der Datei-IDs, die dem code_interpreter Tool zur Verfügung gestellt wurden. Es können maximal 20 Dateien mit dem Tool verknüpft sein.
No []
└─ file_search object No
└─ vector_store_ids array Der Vektorspeicher, der an diesen Thread angeschlossen ist. Maximal 1 Vektorspeicher kann an den Thread angeschlossen sein.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objekt-Enum: DeleteThreadResponseObjectState

Value Description
thread.deleted Der Zustand des Delete-Thread-Antwortobjekts, der ist thread.deleted

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Repräsentiert eine Nachricht innerhalb eines Threads.

Name Type Description Required Default
assistant_id string Falls zutreffend, die ID des Assistenten, der diese Nachricht verfasst hat. Yes
attachments array Eine Liste der an die Nachricht angehängten Dateien und die Werkzeuge, zu denen sie hinzugefügt wurden. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Nachricht abgeschlossen wurde. Yes
content array Der Inhalt der Nachricht besteht aus Texten und/oder Bildern. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Nachricht erstellt wurde. Yes
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
incomplete_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, in dem die Nachricht als unvollständig markiert wurde. Yes
incomplete_details object Bei einer unvollständigen Nachricht gibt es Details, warum die Nachricht unvollständig ist. Yes
└─ reason string Der Grund, warum die Nachricht unvollständig ist. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
Yes
object string Der Objekttyp, der immer thread.messageist. Yes
role string Die Entität, die die Botschaft erzeugt hat. Einer von user oder assistant. Yes
run_id string Falls zutreffend, die ID des Laufs, der mit der Erstellung dieser Nachricht verbunden ist. Yes
status string Der Status der Nachricht, der entweder in_progress, incomplete, oder completedsein kann. Yes
thread_id string Die Thread-ID, zu der diese Nachricht gehört. Yes

object Enum: MessageObjectType

Value Description
thread.message Der Nachrichtenobjekttyp, der ist thread.message

Status Enum: MessageObjectStatus

Value Description
in_progress
incomplete
completed

Rolle Enum: MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Repräsentiert ein Nachrichten-Delta, also alle veränderten Felder einer Nachricht während des Streamings.

Name Type Description Required Default
delta object Das Delta, das die Felder enthält, die sich auf der Nachricht geändert haben. Yes
└─ content array Der Inhalt der Nachricht besteht aus Texten und/oder Bildern. No
└─ role string Die Entität, die die Botschaft erzeugt hat. Einer von user oder assistant. No
id string Die Identifikatorin der Nachricht, die in API-Endpunkten referenziert werden kann. Yes
object string Der Objekttyp, der immer thread.message.deltaist. Yes

Objekt-Enum: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Eine Liste der an die Nachricht angehängten Dateien und die Werkzeuge, zu denen sie hinzugefügt werden sollten. No
content string Der Inhalt der Nachricht. Yes
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
role string Die Rolle der Entität, die die Botschaft erschafft. Erlaubte Werte umfassen:
- user: Zeigt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wurde und in den meisten Fällen zur Darstellung von benutzergenerierten Nachrichten verwendet werden sollte.
- assistant: Zeigt an, dass die Nachricht vom Assistenten generiert wurde. Verwenden Sie diesen Wert, um Nachrichten vom Assistenten in das Gespräch einzufügen.
Yes

Rollen-Enum: CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objekt Enum: DeleteMessageResponseObject

Value Description
thread.message.deleted Der Zustand des Lösch-Nachrichten-Antwortobjekts

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Type Description Required Default
image_file object Yes
└─ file_id string Die Datei-ID des Bildes im Nachrichteninhalt. No
type string Immer image_file. Yes

type Enum: MessageContentImageFileObjectType

Value Description
image_file Der Dateityp des Nachrichteninhalts

messageContentTextObject

Der Text, der Teil einer Nachricht ist.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ value string Die Daten, aus denen der Text besteht. No
type string Immer text. Yes

type Enum: messageContentTextObjectType

Value Description
text Der Nachrichteninhaltstext Objekttyp

messageContentTextAnnotationsFileCitationObject

Ein Zitat in der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die mit dem Assistenten oder der Nachricht verbunden ist. Generiert, wenn der Assistent das "Abruf"-Tool zur Durchsuchung von Dateien verwendet.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└─ file_id string Die ID der spezifischen Datei, aus der der Zitat stammt. No
start_index integer Yes
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. Yes
type string Immer file_citation. Yes

type Enum: FileCitationObjectType

Value Description
file_citation Der Dateizitationsobjekttyp

messageContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zur Erstellung einer Datei verwendet hat.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└─ file_id string Die ID der erstellten Datei. No
start_index integer Yes
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. Yes
type string Immer file_path. Yes

type Enum: FilePathObjectType

Value Description
file_path Der Dateipfad-Objekttyp

messageDeltaContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Type Description Required Default
image_file object No
└─ file_id string Die Datei-ID des Bildes im Nachrichteninhalt. No
index integer Der Inhaltsindex in der Nachricht. Yes
type string Immer image_file. Yes

type Enum: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Der Text, der Teil einer Nachricht ist.

Name Type Description Required Default
index integer Der Inhaltsindex in der Nachricht. Yes
text object No
└─ annotations array No
└─ value string Die Daten, aus denen der Text besteht. No
type string Immer text. Yes

type Enum: MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Ein Zitat in der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die mit dem Assistenten oder der Nachricht verbunden ist. Generiert, wenn der Assistent das "file_search"-Tool zur Durchsuchung von Dateien verwendet.

Name Type Description Required Default
end_index integer No
file_citation object No
└─ file_id string Die ID der spezifischen Datei, aus der der Zitat stammt. No
└─ quote string Das konkrete Zitat in der Akte. No
index integer Der Index der Annotation im Textinhalt. Yes
start_index integer No
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. No
type string Immer file_citation. Yes

type Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das code_interpreter Tool zur Erstellung einer Datei verwendet hat.

Name Type Description Required Default
end_index integer No
file_path object No
└─ file_id string Die ID der erstellten Datei. No
index integer Der Index der Annotation im Textinhalt. Yes
start_index integer No
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. No
type string Immer file_path. Yes

type Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Stellt einen Schritt in der Ausführung eines Durchlaufs dar.

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der mit dem Laufschritt verknüpft ist. Yes
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Laufschritt abgebrochen wurde. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Laufschritts. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführen-Schritt erstellt wurde. Yes
expired_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt des Ablaufschritts. Ein Schritt gilt als abgelaufen, wenn der Elternlauf abgelaufen ist. Yes
failed_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Ausführungsschritt fehlgeschlagen ist. Yes
id string Die Identifikatorin des Ausführens des Schritts, die in API-Endpunkten referenziert werden kann. Yes
last_error object Der letzte Fehler, der mit diesem Laufschritt verbunden ist. Wird es sein null , wenn keine Fehler vorliegen. Yes
└─ code string Einer von server_error oder rate_limit_exceeded. No
└─ message string Eine für Menschen lesbare Beschreibung des Fehlers. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
Yes
object string Der Objekttyp, der immer assistant.run.stepist. Yes
run_id string Die ID des Durchlaufs, zu dem dieser Durchlaufschritt gehört. Yes
status string Der Status des Durchlaufs, der entweder in_progress, cancelled, , failed, completedoder expiredsein kann. Yes
step_details runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject Die Details des Laufschritts. Yes
thread_id string Die ID der durchgeführten Threads. Yes
type string Der Typ des Laufschritts, der entweder message_creation oder tool_callssein kann. Yes

Objekt-Enum: RunStepObjectType

Value Description
assistant.run.step Der Objekttyp, der immer ist assistant.run.step

Typ Enum: RunStepObjectType

Value Description
message_creation Der message_creation Laufschritt
tool_calls Der tool_calls Laufschritt

Status Enum: RunStepObjectStatus

Value Description
in_progress Der in_progress Run-Status
cancelled Der Status des gestrichenen Laufs
failed Der Status des gestrichenen Laufs
completed Der Status des gestrichenen Laufs
expired Der Status des gestrichenen Laufs

runStepDeltaObject

Repräsentiert ein Laufschritt-Delta, also alle geänderten Felder auf einem Laufschritt während des Streamings.

Name Type Description Required Default
delta object Das Delta, das die Felder enthält, die sich im Laufschritt geändert haben. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject Die Details des Laufschritts. No
id string Die Identifikatorin des Ausführens des Schritts, die in API-Endpunkten referenziert werden kann. Yes
object string Der Objekttyp, der immer thread.run.step.deltaist. Yes

Objekt-Enum: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Details zur Nachrichtenerstellung durch den Laufschritt.

Name Type Description Required Default
message_creation object Yes
└─ message_id string Die ID der Nachricht, die durch diesen Laufschritt erstellt wurde. No
type string Immer message_creation. Yes

Typ Enum: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Details zur Nachrichtenerstellung durch den Laufschritt.

Name Type Description Required Default
message_creation object No
└─ message_id string Die ID der Nachricht, die durch diesen Laufschritt erstellt wurde. No
type string Immer message_creation. Yes

Typ Enum: RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Details des Werkzeugaufrufs.

Name Type Description Required Default
tool_calls array Eine Reihe von Werkzeugaufrufen, an denen der Laufschritt beteiligt war. Diese können mit einer von drei Arten von Werkzeugen assoziiert werden: code_interpreter, retrieval oder function.
Yes
type string Immer tool_calls. Yes

type Enum: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Details des Werkzeugaufrufs.

Name Type Description Required Default
tool_calls array Eine Reihe von Werkzeugaufrufen, an denen der Laufschritt beteiligt war. Diese können mit einer von drei Arten von Werkzeugen assoziiert werden: code_interpreter, file_search oder function.
No
type string Immer tool_calls. Yes

type Enum: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Details des Code Interpreter-Tool-Aufrufs, an dem der Ausführen-Schritt beteiligt war.

Name Type Description Required Default
code_interpreter object Das Code Interpreter-Tool ruft die Definition auf. Yes
└─ input string Die Eingabe für den Code Interpreter-Tool-Aufruf. No
└─ outputs array Die Ausgaben des Code Interpreter-Tool-Aufrufs. Code Interpreter kann ein oder mehrere Elemente ausgeben, darunter Text (logs) oder Bilder (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. No
id string Die ID des Werkzeugrufs. Yes
type string Die Art von Werkzeugruf. Das gilt immer code_interpreter für diese Art von Tool-Call. Yes

type Enum: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Details des Code Interpreter-Tool-Aufrufs, an dem der Ausführen-Schritt beteiligt war.

Name Type Description Required Default
code_interpreter object Das Code Interpreter-Tool ruft die Definition auf. No
└─ input string Die Eingabe für den Code Interpreter-Tool-Aufruf. No
└─ outputs array Die Ausgaben des Code Interpreter-Tool-Aufrufs. Code Interpreter kann ein oder mehrere Elemente ausgeben, darunter Text (logs) oder Bilder (image). Jede dieser Objekte wird durch einen anderen Objekttyp dargestellt. No
id string Die ID des Werkzeugrufs. No
index integer Der Index des Werkzeugaufrufs im Werkzeug ruft das Array auf. Yes
type string Die Art von Werkzeugruf. Das gilt immer code_interpreter für diese Art von Tool-Call. Yes

type Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Textausgabe vom Code Interpreter-Tool-Aufruf als Teil eines Run-Schritts.

Name Type Description Required Default
logs string Die Textausgabe aus dem Code Interpreter-Tool-Aufruf. Yes
type string Immer logs. Yes

type Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Textausgabe vom Code Interpreter-Tool-Aufruf als Teil eines Run-Schritts.

Name Type Description Required Default
index integer Der Index der Ausgabe im Ausgabearray. Yes
logs string Die Textausgabe aus dem Code Interpreter-Tool-Aufruf. No
type string Immer logs. Yes

type Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└─ file_id string Die Datei-ID des Bildes. No
type string Immer image. Yes

type Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└─ file_id string Die Datei-ID des Bildes. No
index integer Der Index der Ausgabe im Ausgabearray. Yes
type string Immer image. Yes

Typ Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Im Moment wird das immer ein leeres Objekt sein. Yes
└─ results array Die Ergebnisse der Dateisuche. No
id string Die ID des Werkzeugaufrufobjekts. Yes
type string Die Art von Werkzeugruf. Das gilt immer file_search für diese Art von Tool-Call. Yes

Type Enum: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Eine Ergebnisinstanz der Dateisuche.

Name Type Description Required Default
content array Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur aufgenommen, wenn er über den Include-Abfrageparameter angefordert wird. No
file_id string Die ID der Datei, in der das Ergebnis gefunden wurde. Yes
file_name string Der Name der Akte, in der dieses Ergebnis gefunden wurde. Yes
score number Das Ergebnis des Ergebnisses. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 haben. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Im Moment wird das immer ein leeres Objekt sein. Yes
id string Die ID des Werkzeugaufrufobjekts. No
index integer Der Index des Werkzeugaufrufs im Werkzeug ruft das Array auf. Yes
type string Die Art von Werkzeugruf. Das gilt immer retrieval für diese Art von Tool-Call. Yes

Type Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Die Definition der Funktion, die genannt wurde. Yes
└─ arguments string Die Argumente wurden an die Veranstaltung weitergegeben. No
└─ name string Der Name der Veranstaltung. No
└─ output string Die Ausgabe der Funktion. Dies gilt, null wenn die Ergebnisse noch nicht eingereicht wurden. No
id string Die ID des Werkzeugaufrufobjekts. Yes
type string Die Art von Werkzeugruf. Das gilt immer function für diese Art von Tool-Call. Yes

type Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Die Definition der Funktion, die genannt wurde. No
└─ arguments string Die Argumente wurden an die Veranstaltung weitergegeben. No
└─ name string Der Name der Veranstaltung. No
└─ output string Die Ausgabe der Funktion. Dies gilt, null wenn die Ergebnisse noch nicht eingereicht wurden. No
id string Die ID des Werkzeugaufrufobjekts. No
index integer Der Index des Werkzeugaufrufs im Werkzeug ruft das Array auf. Yes
type string Die Art von Werkzeugruf. Das gilt immer function für diese Art von Tool-Call. Yes

type Enum: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Type Description Required Default
anchor string Anker-Zeitstempel, nach dem die Ablaufrichtlinie gilt. Unterstützte Anker: last_active_at. Yes
days integer Die Anzahl der Tage nach der Ankerzeit, in der der Vektorspeicher abläuft. Yes

Anker-Enum: VectorStoreExpirationAfterAnchor

Value Description
last_active_at Der Ankerzeitstempel, nach dem die Ablaufrichtlinie gilt.

vectorStoreObject

Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom file_search Tool verwendet werden können.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Vektorspeicher erstellt wurde. Yes
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
expires_at integer Der Unix-Zeitstempel (in Sekunden) dafür, wann der Vektorspeicher abläuft. No
file_counts object Yes
└─ cancelled integer Die Anzahl der gelöschten Dateien. No
└─ completed integer Die Anzahl der erfolgreich verarbeiteten Dateien. No
└─ failed integer Die Anzahl der Dateien, die nicht verarbeitet wurden. No
└─ in_progress integer Die Anzahl der aktuell bearbeiteten Dateien. No
└─ total integer Die Gesamtzahl der Dateien. No
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
last_active_at integer Der Unix-Zeitstempel (in Sekunden) dafür, wann der Vektorspeicher zuletzt aktiv war. Yes
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
Yes
name string Der Name des Vektorspeichers. Yes
object enum Der Objekttyp, der immer vector_storeist.
Mögliche Werte: vector_store
Yes
status string Der Status des Vektorspeichers, der entweder expired, in_progress, oder completedsein kann. Ein Status von completed zeigt an, dass der Vektorspeicher einsatzbereit ist. Yes
usage_bytes integer Die Gesamtzahl der von den Dateien im Vektorspeicher verwendeten Bytes. Yes

Status Enum: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. Nur dann anwendbar, wenn file_ids nicht leer ist. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata object Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern. Tasten können maximal 64 Zeichen lang sein und Werte maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objekt Enum: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted Der Zustand des Delete-Vector-Store-Response-Objekts

vectorStoreFileObject

Eine Liste von Dateien, die einem Vektorspeicher zugeordnet sind.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. Nur dann anwendbar, wenn file_ids nicht leer ist. No
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Vektorspeicherdatei erstellt wurde. Yes
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
last_error object Der letzte Fehler, der mit dieser Vektorspeicherdatei verbunden ist. Wird es sein null , wenn keine Fehler vorliegen. Yes
└─ code string Eines von server_error oder invalid_file oder .unsupported_file No
└─ message string Eine für Menschen lesbare Beschreibung des Fehlers. No
object string Der Objekttyp, der immer vector_store.fileist. Yes
status string Der Status der Vektorspeicherdatei, die entweder in_progress, completed, cancelled, oder failedsein kann. Der Status completed zeigt an, dass die Vektorspeicherdatei einsatzbereit ist. Yes
usage_bytes integer Die Gesamtnutzung des Vektorspeichers in Bytes. Beachten Sie, dass dies sich von der ursprünglichen Dateigröße unterscheiden kann. Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angehängt ist. Yes

Objekt-Enum: VectorStoreFileObjectType

Value Description
vector_store.file

Status Enum: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Chunking-Strategie unbekannt ist. Typischerweise liegt dies daran, dass die Datei bereits indexiert wurde, bevor das chunking_strategy Konzept in der API eingeführt wurde.

Name Type Description Required Default
type string Immer other. Yes

Typ Enum: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Immer static. Yes

Typ Enum: StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Die Anzahl der Tokens, die sich zwischen den Chunks überschneiden. Der Standardwert ist 400.

Beachte, dass die Überlappung nicht die Hälfte von überschreiten max_chunk_size_tokensdarf.
Yes
max_chunk_size_tokens integer Die maximale Anzahl an Token in jedem Chunk. Der Standardwert ist 800. Der Mindestwert ist 100 und der Maximalwert ist 4096. Yes

autoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit ein max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400.

Name Type Description Required Default
type enum Immer auto.
Mögliche Werte: auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Immer static.
Mögliche Werte: static
Yes

chunkingStrategyRequestParam

Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden.

Diese Komponente kann eine der folgenden sein:

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. No
file_id string Eine Datei-ID, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objekt Enum: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Eine Charge von Dateien, die an einen Vektorspeicher angehängt sind.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Batch-Erstellung der Vektorspeicherdateien. Yes
file_counts object Yes
└─ cancelled integer Die Anzahl der gelöschten Dateien. No
└─ completed integer Die Anzahl der verarbeiteten Dateien. No
└─ failed integer Die Anzahl der Dateien, die nicht verarbeitet wurden. No
└─ in_progress integer Die Anzahl der aktuell bearbeiteten Dateien. No
└─ total integer Die Gesamtzahl der Dateien. No
id string Der Identifikator, der in API-Endpunkten referenziert werden kann. Yes
object string Der Objekttyp, der immer vector_store.file_batchist. Yes
status string Der Status des Vektorspeicher-Dateien-Batches, der entweder in_progress, completed, cancelled oder failedsein kann. Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angehängt ist. Yes

Objekt-Enum: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Status Enum: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Chunking-Strategie, die verwendet wird, um die Datei(en) zu chunken. Wenn nicht gesetzt, werde ich die Strategie auto verwenden. No
file_ids array Eine Liste von Datei-IDs, die der Vektorspeicher verwenden sollte. Nützlich für Werkzeuge wie file_search diese, die auf Dateien zugreifen können. Yes

assistantStreamEvent

Repräsentiert ein Ereignis, das beim Streamen eines Runs ausgelöst wird.

Jedes Ereignis in einem servergesendeten Ereignisstrom besitzt eine event Eigenschaft und data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Wir senden Ereignisse aus, wann immer ein neues Objekt erstellt wird, in einen neuen Zustand übergeht oder in Teilen (Deltas) gestreamt wird. Zum Beispiel senden wir aus, thread.run.created wenn ein neuer Run erstellt wird, thread.run.completed wenn ein Run abgeschlossen wird und so weiter. Wenn ein Assistent während eines Durchlaufs eine Nachricht erstellt, senden wir ein thread.message.created event, ein thread.message.in_progress Ereignis, viele thread.message.delta Ereignisse und schließlich ein Ereignis thread.message.completed .

Wir können im Laufe der Zeit zusätzliche Ereignisse hinzufügen, daher empfehlen wir, unbekannte Ereignisse in Ihrem Code elegant zu behandeln.

Diese Komponente kann eine der folgenden sein:

threadStreamEvent

Diese Komponente kann eine der folgenden sein:

thread.created

Tritt auf, wenn ein neuer Thread erstellt wird.

Name Type Description Required Default
data threadObject Repräsentiert einen Thread, der Nachrichten enthält. Yes
event string Yes

Data: threadObject

Ereignis-Enum: ThreadStreamEventEnum

Value Description
thread.created Das Thread-erstellte Ereignis

runStreamEvent

Diese Komponente kann eine der folgenden sein:

thread.run.created

Tritt auf, wenn ein neuer Durchlauf erstellt wird.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Tritt auf, wenn ein Lauf in einen Status queued wechselt.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Tritt auf, wenn ein Lauf in einen Status in_progress übergeht.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Tritt auf, wenn ein Lauf in einen Status requires_action wechselt.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventVerlangAktion

Value Description
thread.run.requires_action

thread.run.completed

Tritt auf, wenn ein Durchlauf abgeschlossen ist.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventAbgeschlossen

Value Description
thread.run.completed

thread.run.failed

Tritt auf, wenn ein Durchlauf fehlschlägt.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Tritt auf, wenn ein Lauf in einen Status cancelling wechselt.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Event Enum: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Tritt auf, wenn ein Lauf abgebrochen wird.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Veranstaltungsübersicht: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Tritt auf, wenn ein Run abläuft.

Name Type Description Required Default
data runObject Repräsentiert eine Ausführung, die auf einem Thread ausgeführt wird. Yes
event string Yes

Data: runObject

Ereignis-Enum: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Diese Komponente kann eine der folgenden sein:

thread.run.step.created

Tritt auf, wenn ein Laufschritt erstellt wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
Yes
event string Yes

Data: runStepObject

Event Enum: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Tritt auf, wenn ein Laufschritt in einen Zustand in_progress übergeht.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
Yes
event string Yes

Data: runStepObject

Ereignis-Enum: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Tritt auf, wenn Teile eines Laufschritts gestreamt werden.

Name Type Description Required Default
data runStepDeltaObject Repräsentiert ein Laufschritt-Delta, also alle geänderten Felder auf einem Laufschritt während des Streamings.
Yes
event string Yes

Data: runStepDeltaObject

Event Enum: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
Yes
event string Yes

Data: runStepObject

Ereignis-Enum: RunStepStreamEventAbgeschlossen

Value Description
thread.run.step.completed

thread.run.step.failed

Tritt auf, wenn ein Laufschritt fehlschlägt.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
Yes
event string Yes

Data: runStepObject

Ereignis-Enum: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Tritt auf, wenn ein Laufschritt abgebrochen wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
Yes
event string Yes

Data: runStepObject

Event Enum: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Tritt auf, wenn ein Laufschritt abläuft.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in der Ausführung eines Durchlaufs dar.
Yes
event string Yes

Data: runStepObject

Ereignis-Enum: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Diese Komponente kann eine der folgenden sein:

thread.message.created

Tritt auf, wenn eine Nachricht erstellt wird.

Name Type Description Required Default
data messageObject Repräsentiert eine Nachricht innerhalb eines Threads. Yes
event string Yes

Data: messageObject

Ereignis-Enum: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Tritt auf, wenn eine Nachricht in einen Zustand in_progress wechselt.

Name Type Description Required Default
data messageObject Repräsentiert eine Nachricht innerhalb eines Threads. Yes
event string Yes

Data: messageObject

Ereignis-Enum: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Tritt auf, wenn Teile einer Nachricht gestreamt werden.

Name Type Description Required Default
data messageDeltaObject Repräsentiert ein Nachrichten-Delta, also alle veränderten Felder einer Nachricht während des Streamings.
Yes
event string Yes

Data: messageDeltaObject

Ereignis-Enum: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Tritt auf, wenn eine Nachricht abgeschlossen ist.

Name Type Description Required Default
data messageObject Repräsentiert eine Nachricht innerhalb eines Threads. Yes
event string Yes

Data: messageObject

Ereignis-Enum: MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.

Name Type Description Required Default
data messageObject Repräsentiert eine Nachricht innerhalb eines Threads. Yes
event string Yes

Data: messageObject

Ereignis-Enum: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Diese Komponente kann eine der folgenden sein:

Click

Eine Klickaktion.

Name Type Description Required Default
button enum Zeigt an, welche Maustaste während des Klicks gedrückt wurde. Einer von , , , , back, oder forward. wheelrightleft

Mögliche Werte: left, right, wheel, back, forward
Yes
type enum Spezifiziert den Ereignistyp. Für eine Klickaktion ist diese Eigenschaft immer auf clickgesetzt.

Mögliche Werte: click
Yes
x integer Die X-Koordinate, an der der Klick stattfand.
Yes
y integer Die y-Koordinate, an der der Klick stattfand.
Yes

CodeInterpreterFileOutput

Die Ausgabe eines Code-Interpreter-Tool-Aufrufs, der eine Datei ist.

Name Type Description Required Default
files array Yes
type enum Der Typ der Code-Interpreter-Datei, die ausgegeben wird. Immer files.

Mögliche Werte: files
Yes

CodeInterpreterTextOutput

Die Ausgabe eines Code-Interpreter-Tool-Aufrufs, der Text ist.

Name Type Description Required Default
logs string Die Protokolle des Code-Interpreter-Tool-Aufrufs.
Yes
type enum Der Typ der Code-Interpreter-Textausgabe. Immer logs.

Mögliche Werte: logs
Yes

CodeInterpreterTool

Ein Tool, das Code ausführt.

Name Type Description Required Default
file_ids array Die IDs der Dateien, auf denen der Code ausgeführt werden soll.
Yes
type enum Der Typ des Code-Interpreter-Tools. Immer code_interpreter.

Mögliche Werte: code_interpreter
Yes

CodeInterpreterToolCall

Ein Toolaufruf, um Code auszuführen.

Name Type Description Required Default
code string Der Code zum Laufen.
Yes
id string Die eindeutige ID des Code-Interpreter-Tool-Aufrufs.
Yes
results array Die Ergebnisse des Code-Interpreter-Tool-Aufrufs.
Yes
status enum Der Status des Code-Interpreter-Tool-Aufrufs.

Mögliche Werte: in_progress, interpreting, completed
Yes
type enum Der Typ des Code-Interpreter-Tool-Aufrufs. Immer code_interpreter_call.

Mögliche Werte: code_interpreter_call
Yes

CodeInterpreterToolOutput

Diese Komponente kann eine der folgenden sein:

ComparisonFilter

Ein Filter, der verwendet wird, um einen bestimmten Attributschlüssel mit einem bestimmten Wert zu vergleichen, indem er eine definierte Vergleichsoperation verwendet.

Name Type Description Required Default
key string Der Schlüssel ist, den Wert zu vergleichen. Yes
type enum Spezifiziert den Vergleichsoperator: eq, ne, , gtgte, lt, . lte
- eq: gleich
- ne: nicht gleich
- gt: größer als
- gte: größer als oder gleich
- lt: weniger als
- lte: weniger als oder gleich

Mögliche Werte: eq, ne, , gtgte, lt,lte
Yes
value String oder Number oder Boolean Der zu vergleichende Wert mit dem Attributschlüssel; unterstützt Zeichenketten-, Zahlen- oder Boolean-Typen. Yes

CompoundFilter

Kombinieren Sie mehrere Filter mit and oder or.

Name Type Description Required Default
filters array Ein Filter-Array zum Kombinieren. Gegenstände können ComparisonFilter sein oder CompoundFilter. Yes
type enum Art der Operation: and oder or.
Mögliche Werte: and, or
Yes

ComputerAction

Diese Komponente kann eine der folgenden sein:

ComputerScreenshotImage

Ein Computer-Screenshot-Bild, das mit dem Computerwerkzeug verwendet wird.

Name Type Description Required Default
file_id string Die Identifikatorin einer hochgeladenen Datei, die den Screenshot enthält. No
image_url string Die URL des Screenshots. No
type enum Spezifiziert den Ereignistyp. Für einen Computerscreenshot ist diese Eigenschaft immer auf computer_screenshotgesetzt.

Mögliche Werte: computer_screenshot
Yes

ComputerTool

Ein Werkzeug, das einen virtuellen Computer steuert.

Name Type Description Required Default
display_height number Die Höhe des Computerbildschirms.
Yes
display_width number Die Breite des Computerbildschirms.
Yes
environment enum Die Art von Computerumgebung, die gesteuert werden soll.

Mögliche Werte: mac, windows, ubuntu, browser
Yes
type enum Die Art des Computerwerkzeugs. Immer computer_use_preview.

Mögliche Werte: computer-use-preview
Yes

ComputerToolCall

Ein Werkzeugaufruf an ein Computerwerkzeug.

Name Type Description Required Default
action ComputerAction Yes
call_id string Ein Identifikator, der beim Antworten auf den Werkzeugaufruf mit Ausgabe verwendet wird.
Yes
id string Die eindeutige ID des Computeranrufs. Yes
pending_safety_checks array Die ausstehenden Sicherheitskontrollen für den Computeranruf.
Yes
status enum Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
Yes
type enum Die Art des Computeranrufs. Immer computer_call.
Mögliche Werte: computer_call
Yes

ComputerToolCallOutput

Die Ausgabe eines Computerwerkzeuganrufs.

Name Type Description Required Default
acknowledged_safety_checks array Die Sicherheitsprüfungen, die von der API gemeldet wurden und vom Entwickler bestätigt wurden.
No
call_id string Die ID des Computeraufrufs, der die Ausgabe erzeugte.
Yes
id string Die ID des Computerwerkzeug-Aufrufs gibt aus.
No
output ComputerScreenshotImage Ein Computer-Screenshot-Bild, das mit dem Computerwerkzeug verwendet wird.
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Gefüllt, wenn Eingabeeinträge über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ des Computerwerkzeugs ruft die Ausgabe. Immer computer_call_output.

Mögliche Werte: computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array Die Sicherheitsprüfungen, die von der API gemeldet wurden und vom Entwickler bestätigt wurden.
No
call_id string Die ID des Computeraufrufs, der die Ausgabe erzeugte.
Yes
id string Die eindeutige ID des Computer-Aufrufwerkzeugs.
Yes
output ComputerScreenshotImage Ein Computer-Screenshot-Bild, das mit dem Computerwerkzeug verwendet wird.
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Gefüllt, wenn Eingabeeinträge über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ des Computerwerkzeugs ruft die Ausgabe. Immer computer_call_output.

Mögliche Werte: computer_call_output
Yes

ComputerToolCallSafetyCheck

Eine bevorstehende Sicherheitsüberprüfung für den Computeranruf.

Name Type Description Required Default
code string Die Art der bevorstehenden Sicherheitsüberprüfung. Yes
id string Der Ausweis der ausstehenden Sicherheitskontrolle. Yes
message string Details zur ausstehenden Sicherheitsprüfung. Yes

Content

Multimodale Eingabe- und Ausgabeinhalte.

Diese Komponente kann eine der folgenden sein:

Coordinate

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Type Description Required Default
x integer The x-coordinate.
Yes
y integer The y-coordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen.

Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen.
No
model string Modell, das zur Erzeugung der Antworten verwendet wird. No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input Saite oder Array Text-, Bild- oder Dateieingaben für das Modell, die zur Erzeugung einer Antwort verwendet werden. Yes
instructions string Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein.

Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen.
No
max_output_tokens integer Eine obere Schranke für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Reasoning-Tokens.
No
parallel_tool_calls boolean Ob das Modell Werkzeugaufrufe parallel ausführen soll.
No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Schlussfolgermodelle. No
store boolean Ob die generierte Modellantwort für eine spätere Abruf über die API gespeichert werden soll.
No True
stream boolean Wenn auf true gesetzt, werden die Antwortdaten des Modells an den Client gestreamt, während sie mithilfe von Server-gesendeten Ereignissen generiert werden. No False
text object Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.

Nicht empfohlen für GPT-4o und neuere Modelle:

Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann.
No
tools array Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.

Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind:

- Eingebaute Werkzeuge
No
truncation enum Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und der vorherigen die Größe des Kontextfensters des Modells übersteigt, wird das Modell die
Antwort, um ins Kontextfenster zu passen, indem man Eingabepunkte mitten im Gespräch platziert.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

DoubleClick

Eine Doppelklick-Aktion.

Name Type Description Required Default
type enum Spezifiziert den Ereignistyp. Für eine Doppelklickaktion ist diese Eigenschaft immer auf double_clickgesetzt.

Mögliche Werte: double_click
Yes
x integer Die x-Koordinate, an der der Doppelklick stattfand.
Yes
y integer Die y-Koordinate, an der der Doppelklick stattfand.
Yes

Drag

Eine Drag-Action.

Name Type Description Required Default
path array Ein Koordinatenarray, das den Weg der Dragaktion darstellt. Koordinaten erscheinen als ein Array von Objekten, z. B.[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Spezifiziert den Ereignistyp. Für eine Drag-Aktion ist diese Eigenschaft immer auf draggesetzt.

Mögliche Werte: drag
Yes

EasyInputMessage

Eine Nachrichteneingabe an das Modell mit einer Rolle, die eine Instruktion angibt, die der Hierarchie folgt. Anweisungen, die mit der oder system Rolle developer gegeben werden, haben Vorrang vor den Anweisungen der jeweiligen user Rolle. Nachrichten mit der Rolle assistant werden angenommen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Type Description Required Default
content String oder InputMessageContentList Text-, Bild- oder Audioeingaben für das Modell, die zur Erzeugung einer Antwort verwendet werden.
Kann auch Antworten früherer Assistenten enthalten.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.

Mögliche Werte: user, assistant, system, developer
Yes
type enum Der Typ der Nachrichteneingabe. Immer message.

Mögliche Werte: message
No

FileCitation

Ein Zitat für eine Akte.

Name Type Description Required Default
file_id string Die ID der Akte.
Yes
index integer Der Index der Datei in der Liste der Dateien.
Yes
type enum Der Typ der Aktenbelegung. Immer file_citation.

Mögliche Werte: file_citation
Yes

FilePath

Ein Pfad zu einer Datei.

Name Type Description Required Default
file_id string Die ID der Akte.
Yes
index integer Der Index der Datei in der Liste der Dateien.
Yes
type enum Der Typ des Dateipfads. Immer file_path.

Mögliche Werte: file_path
Yes

FileSearchRanker

Der Ranker für die Dateisuche. Falls nicht angegeben, werde ich den auto Ranker verwenden.

Property Value
Description Der Ranker für die Dateisuche. Falls nicht angegeben, werde ich den auto Ranker verwenden.
Type string
Values auto
default_2024_08_21

FileSearchTool

Ein Tool, das relevante Inhalte aus hochgeladenen Dateien sucht.

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet wird. No
max_num_results integer Die maximale Anzahl an Ergebnissen, die du ergeben kannst. Diese Zahl sollte zwischen 1 und 50 liegen.
No
ranking_options object Rangfolgeoptionen für die Suche. No
└─ ranker enum Der Ranker für die Dateisuche.
Mögliche Werte: auto, default-2024-11-15
No
└─ score_threshold number Die Punktschwelle für die Dateisuche, eine Zahl zwischen 0 und 1.
Zahlen näher bei 1 versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse liefern.
No 0
type enum Der Typ des Dateisuchtools. Immer file_search.

Mögliche Werte: file_search
Yes
vector_store_ids array Die IDs des Vektors, die durchsucht werden sollen, speichern.
Yes

FileSearchToolCall

Die Ergebnisse eines Dateisuchwerkzeugs aufrufen.

Name Type Description Required Default
id string Die eindeutige ID des Dateisuchwerkzeugs aufruft.
Yes
queries array Die Abfragen wurden verwendet, um nach Dateien zu suchen.
Yes
results array Die Ergebnisse des Dateisuchwerkzeugs rufen auf.
No
status enum Der Status des Dateisuchwerkzeugaufrufs. Einer von in_progress, searching, incomplete oder failed,

Mögliche Werte: in_progress, searching, completed, incomplete, failed
Yes
type enum Der Typ des Dateisuch-Tool-Aufrufs. Immer file_search_call.

Mögliche Werte: file_search_call
Yes

FunctionTool

Definiert eine Funktion in deinem eigenen Code, den das Modell aufrufen kann.

Name Type Description Required Default
description string Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll oder nicht.
No
name string Der Name der Funktion, die aufgerufen werden soll.
Yes
parameters object Ein JSON-Schema-Objekt, das die Parameter der Funktion beschreibt.
Yes
strict boolean Ob eine strikte Parametervalidierung durchgesetzt werden soll. Standard.true
Yes
type enum Der Typ des Funktionswerkzeugs. Immer function.

Mögliche Werte: function
Yes

FunctionToolCall

Ein Werkzeugaufruf, um eine Funktion auszuführen.

Name Type Description Required Default
arguments string Eine JSON-Zeichenkette der Argumente, die an die Funktion übergeben werden sollen.
Yes
call_id string Die eindeutige ID des vom Modell generierten Funktionswerkzeugaufrufs.
Yes
id string Die eindeutige ID des Aufrufs des Funktionswerkzeugs.
Yes
name string Der Name der zu ausführenden Funktion.
Yes
status enum Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ des Funktionswerkzeugaufrufs. Immer function_call.

Mögliche Werte: function_call
Yes

FunctionToolCallOutput

Die Ausgabe eines Funktionswerkzeugaufrufs.

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionswerkzeugaufrufs.
Yes
id string Die eindeutige ID des Aufrufs des Funktionswerkzeugs. Wird ausgefüllt, wenn dieses Element über die API zurückgegeben wird.
No
output string Ein JSON-String der Ausgabe des Funktionswerkzeugaufrufs.
Yes
status enum Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ des Funktionswerkzeugs ruft die Ausgabe auf. Immer function_call_output.

Mögliche Werte: function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionswerkzeugaufrufs.
Yes
id string Die eindeutige ID des Funktionsaufruf-Tool-Outputs.
Yes
output string Ein JSON-String der Ausgabe des Funktionswerkzeugaufrufs.
Yes
status enum Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ des Funktionswerkzeugs ruft die Ausgabe auf. Immer function_call_output.

Mögliche Werte: function_call_output
Yes

includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort aufgenommen werden sollen. Derzeit unterstützte Werte sind:

  • file_search_call.results: Fügen Sie die Suchergebnisse des Dateisuchwerkzeugaufrufs ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht hinzu.
  • computer_call_output.output.image_url: Bild-URLs aus der Ausgabe des Computeraufrufs einfügen.
Property Value
Description Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort aufgenommen werden sollen. Derzeit unterstützte Werte sind:
- file_search_call.results: Fügen Sie die Suchergebnisse des Dateisuchwerkzeugaufrufs ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht hinzu.
- computer_call_output.output.image_url: Bild-URLs aus der Ausgabe des Computeraufrufs einfügen.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Ein Audioeingang zum Modell.

Name Type Description Required Default
data string Base64-kodierte Audiodaten.
Yes
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.

Mögliche Werte: mp3, wav
Yes
type enum Der Typ des Eingabeelements. Immer input_audio.

Mögliche Werte: input_audio
Yes

InputContent

Diese Komponente kann eine der folgenden sein:

InputFile

Eine Dateieingabe für das Modell.

Name Type Description Required Default
file_data string Der Inhalt der Datei, die an das Modell gesendet werden soll.
No
file_id string Die ID der Datei, die an das Modell gesendet werden soll.
No
filename string Der Name der Datei, die an das Modell gesendet werden soll.
No
type enum Der Typ des Eingabeelements. Immer input_file.

Mögliche Werte: input_file
Yes

InputImage

Eine Bildeingabe für das Modell.

Name Type Description Required Default
detail enum Das Detailniveau des Bildes, das an das Modell gesendet werden soll. Einer von high, low, oder auto. Standardmäßig gilt auto.

Mögliche Werte: high, low, auto
Yes
file_id string Die ID der Datei, die an das Modell gesendet werden soll.
No
image_url string Die URL des Bildes, das an das Modell gesendet werden soll. Eine vollständig qualifizierte URL oder base64-kodiertes Bild in einer Daten-URL.
No
type enum Der Typ des Eingabeelements. Immer input_image.

Mögliche Werte: input_image
Yes

InputItem

Diese Komponente kann eine der folgenden sein:

InputMessage

Eine Nachrichteneingabe an das Modell mit einer Rolle, die eine Instruktion angibt, die der Hierarchie folgt. Anweisungen, die mit der oder system Rolle developer gegeben werden, haben Vorrang vor den Anweisungen der jeweiligen user Rolle.

Name Type Description Required Default
content InputMessageContentList Eine Liste von einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthalten
types.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.

Mögliche Werte: user, system, developer
Yes
status enum Der Status des Artikels. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ der Nachrichteneingabe. Immer auf gestellt message.

Mögliche Werte: message
No

InputMessageContentList

Eine Liste eines oder mehrerer Eingabeelemente für das Modell, die verschiedene Inhaltstypen enthalten.

Für diese Komponente sind keine Eigenschaften definiert.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Eine Liste von einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthalten
types.
Yes
id string Die eindeutige ID der Nachrichteneingabe.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, system, oder developer.

Mögliche Werte: user, system, developer
Yes
status enum Der Status des Artikels. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Der Typ der Nachrichteneingabe. Immer auf gestellt message.

Mögliche Werte: message
No

InputText

Eine Texteingabe für das Modell.

Name Type Description Required Default
text string Die Texteingabe für das Modell.
Yes
type enum Der Typ des Eingabeelements. Immer input_text.

Mögliche Werte: input_text
Yes

Item

Ein Inhaltselement wird verwendet, um eine Antwort zu erzeugen.

Diese Komponente kann eine der folgenden sein:

ItemReference

Eine interne Kennung für ein Element zum Referenzieren.

Name Type Description Required Default
id string Die ID des Artikels, auf den man sich beziehen kann.
Yes
type enum Die Art des Artikels, auf den man sich beziehen sollte. Immer item_reference.

Mögliche Werte: item_reference
Yes

ItemResource

Ein Inhaltselement wird verwendet, um eine Antwort zu erzeugen.

Diese Komponente kann eine der folgenden sein:

KeyPress

Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.

Name Type Description Required Default
keys array Die Kombination der Tasten, die das Modell anfordert, gedrückt zu werden. Dies ist ein Array von Strings, von denen jeder einen Schlüssel darstellt.
Yes
type enum Spezifiziert den Ereignistyp. Für eine Tastendruckaktion ist diese Eigenschaft immer auf keypressgesetzt.

Mögliche Werte: keypress
Yes

Metadata

Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen.

Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen.

Für diese Komponente sind keine Eigenschaften definiert.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen.

Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen.
No
model string Modell, das zur Erzeugung der Antworten verwendet wird. No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
No 1
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
No 1
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

Move

Eine Mausbewegung.

Name Type Description Required Default
type enum Spezifiziert den Ereignistyp. Für eine Bewegungsaktion ist diese Eigenschaft immer auf movegesetzt.

Mögliche Werte: move
Yes
x integer Die x-Koordinate, zu der man wechseln soll.
Yes
y integer Die y-Koordinate, zu der man wechseln soll.
Yes

OutputAudio

Ein Audioausgang vom Modell.

Name Type Description Required Default
data string Base64-kodierte Audiodaten aus dem Modell.
Yes
transcript string Das Transkript der Audiodaten aus dem Modell.
Yes
type enum Die Art des Ausgangsaudios. Immer output_audio.

Mögliche Werte: output_audio
Yes

OutputContent

Diese Komponente kann eine der folgenden sein:

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Eine JSON-Zeichenkette der Argumente, die an die Funktion übergeben werden sollen.
Yes
call_id string Ein Identifikator, der beim Antworten auf den Werkzeugaufruf mit Ausgabe verwendet wird.
Yes
content array Rationalisieren des Textinhalts.
Yes
id string Der eindeutige Identifikator des Argumentationsins.
Yes
name string Der Name der zu ausführenden Funktion.
Yes
pending_safety_checks array Die ausstehenden Sicherheitskontrollen für den Computeranruf.
Yes
queries array Die Abfragen wurden verwendet, um nach Dateien zu suchen.
Yes
results array Die Ergebnisse des Dateisuchwerkzeugs rufen auf.
No
role enum Die Rolle der Ausgabenachricht. Immer assistant.

Mögliche Werte: assistant
Yes
status enum Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
Yes
type enum Die Art des Objekts. Immer reasoning.

Mögliche Werte: reasoning
Yes

OutputMessage

Eine Ausgabemeldung vom Modell.

Name Type Description Required Default
content array Der Inhalt der Ausgabebotschaft.
Yes
id string Die eindeutige ID der Ausgabenachricht.
Yes
role enum Die Rolle der Ausgabenachricht. Immer assistant.

Mögliche Werte: assistant
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed, oder incomplete. Gefüllt, wenn Eingabeeinträge über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
Yes
type enum Der Typ der Ausgabenachricht. Immer message.

Mögliche Werte: message
Yes

OutputText

Eine Textausgabe vom Modell.

Name Type Description Required Default
annotations array Die Annotationen der Textausgabe.
Yes
text string Die Textausgabe vom Modell.
Yes
type enum Der Typ des Ausgabetextes. Immer output_text.

Mögliche Werte: output_text
Yes

RealtimeSessionCreateRequest

Echtzeit-Konfiguration von Sitzungsobjekten.

Name Type Description Required Default
input_audio_format enum Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.

Mögliche Werte: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.
Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird.
Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird.
No
└─ type enum Art der Lärmunterdrückung. near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Die Konfiguration für die Eingangs-Audiotranskription ist standardmäßig auf aus eingestellt und kann so null eingestellt werden, dass sie sich nach Einschalten ausschaltet. Eingabe-Audiotranskription ist nicht native im Modell, da das Modell Audio direkt konsumiert. Die Transkription läuft asynchron über das Transkriptions-Endpunkt und sollte als Leitfaden für die Eingabe-Audioinhalte behandelt werden, statt als genau das, was das Modell gehört hat. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung.
No
└─ language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz.
No
└─ model string Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15und whisper-1.
No
└─ prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen.
Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.
Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben".
No
instructions string Die Standard-Systeminstruktionen (d. h. Systemnachricht) wurden vorangestellt, um Modellaufrufe zu erstellen. Dieses Feld ermöglicht es dem Client, das Modell anhand der gewünschten Antworten zu steuern. Das Modell kann zum Inhalt und Format der Antwort angewiesen werden (z. B. "sehr prägnant sein", "freundlich handeln", "hier sind Beispiele für gute Antworten") und zum Audioverhalten (z. B. "schnell sprechen", "Emotion in deine Stimme einbringen", "häufig lachen"). Die Anweisungen werden nicht garantiert vom Modell befolgt, aber sie geben dem Modell Hinweise auf das gewünschte Verhalten.

Beachten Sie, dass der Server Standardbefehle setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und zu Beginn der Sitzung im session.created Event sichtbar sind.
No
max_response_output_tokens Ganzzahl oder String Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Werkzeugaufrufe. Geben Sie eine ganze Zahl zwischen 1 und 4096 an, um die Ausgabetoken zu begrenzen oder inf für die maximal verfügbaren Token für ein bestimmtes Modell. Standardmäßig gilt inf.
No
modalities Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"].
No
model string Der Name der für diese Sitzung verwendeten Einsatz.
No
output_audio_format enum Das Format der Ausgabe des Audios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
Für pcm16wird das Ausgangsaudio mit einer Frequenz von 24 kHz abgetastet.

Mögliche Werte: pcm16, g711_ulaw, g711_alaw
No
temperature number Stichprobentemperatur für das Modell, begrenzt auf [0,6, 1,2]. Für Audiomodelle wird eine Temperatur von 0,8 für die beste Leistung sehr empfohlen.
No 0.8
tool_choice string Wie das Modell Werkzeuge auswählt. Optionen sind auto, none, , requiredoder geben Sie eine Funktion an.
No auto
tools array Werkzeuge (Funktionen), die dem Modell zur Verfügung stehen. No
turn_detection object Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.
Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet.
Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt.
No True
└─ eagerness enum Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren. low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller. auto ist der Standard und äquivalent zu medium.

Mögliche Werte: low, medium, high, auto
No
└─ interrupt_response boolean Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt.
No True
└─ prefix_padding_ms integer Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms.
No
└─ silence_duration_ms integer Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen.
No
└─ threshold number Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden.
No
└─ type enum Art der Abzugserkennung.

Mögliche Werte: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Eine neue Echtzeit-Session-Konfiguration mit einem flüchtigen Schlüssel. Die Standard-TTL für Tasten beträgt eine Minute.

Name Type Description Required Default
client_secret object Ephemeraler Schlüssel, der von der API zurückgegeben wird. Yes
└─ expires_at integer Zeitstempel für den Ablauf des Tokens. Derzeit laufen alle Token nach einer Minute ab.
No
└─ value string Ephemeraler Schlüssel, der in Client-Umgebungen zur Authentifizierung von Verbindungen zur Echtzeit-API verwendet werden kann. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte.
No
input_audio_format string Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
No
input_audio_transcription object Die Konfiguration für die Eingangs-Audiotranskription ist standardmäßig auf aus eingestellt und kann so null eingestellt werden, dass sie sich nach Einschalten ausschaltet. Eingabe-Audiotranskription ist nicht native im Modell, da das Modell Audio direkt konsumiert. Die Transkription läuft asynchron über Whisper und sollte als grobe Anleitung betrachtet werden, statt als die vom Modell verstandene Darstellung.
No
└─ model string Das für die Transkription whisper-1 verwendete Modell ist das einzige derzeit unterstützte Modell.
No
instructions string Die Standard-Systeminstruktionen (d. h. Systemnachricht) wurden vorangestellt, um Modellaufrufe zu erstellen. Dieses Feld ermöglicht es dem Client, das Modell anhand der gewünschten Antworten zu steuern. Das Modell kann in Bezug auf Antwortinhalte und -format (z. B. "sehr knapp sein", "freundlich handeln", "hier sind Beispiele guter Antworten") und auf Audioverhalten (z. B. "schnell sprechen", "Emotion in deine Stimme einbringen", "häufig lachen"). Die Anweisungen werden nicht garantiert vom Modell befolgt, aber sie geben dem Modell Hinweise auf das gewünschte Verhalten.
Beachten Sie, dass der Server Standardbefehle setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und zu Beginn der Sitzung im session.created Event sichtbar sind.
No
max_response_output_tokens Ganzzahl oder String Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Werkzeugaufrufe. Geben Sie eine ganze Zahl zwischen 1 und 4096 an, um die Ausgabetoken zu begrenzen oder inf für die maximal verfügbaren Token für ein bestimmtes Modell. Standardmäßig gilt inf.
No
modalities Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"].
No
output_audio_format string Das Format der Ausgabe des Audios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
No
temperature number Stichprobentemperatur für das Modell, begrenzt auf [0,6, 1,2]. Standardmäßig auf 0,8 eingestellt.
No
tool_choice string Wie das Modell Werkzeuge auswählt. Optionen sind auto, none, , requiredoder geben Sie eine Funktion an.
No
tools array Werkzeuge (Funktionen), die dem Modell zur Verfügung stehen. No
turn_detection object Konfiguration für Abbiegungserkennung. Kann auf Schalten eingestellt null werden. Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet.
No
└─ prefix_padding_ms integer Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms.
No
└─ silence_duration_ms integer Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen.
No
└─ threshold number Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden.
No
└─ type string Die Art der Abzugserkennung wird derzeit nur server_vad unterstützt.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Echtzeit-Konfiguration von Transkriptionssitzungsobjekten.

Name Type Description Required Default
include array Die Sammlung von Elementen, die in die Transkription aufgenommen werden sollten. Derzeit verfügbare Artikel sind:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
Für pcm16muss das Eingangsaudio 16-Bit-PCM mit einer Abtastrate von 24 kHz, Einkanal-(Mono) und Little-Endian-Byte-Ordnung sein.

Mögliche Werte: pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschreduktion des Eingangs-Audios. Dieser kann auf null ausgeschaltet eingestellt werden.
Rauschunterdrückung filtert Audio, der dem Eingangs-Audiopuffer hinzugefügt wird, bevor er an VAD und das Modell gesendet wird.
Das Filtern des Audios kann die Genauigkeit von VAD und Kurvenerkennung verbessern (Fehlalarme reduzieren) und die Leistung modellieren, indem die Wahrnehmung des Eingabetons verbessert wird.
No
└─ type enum Art der Lärmunterdrückung. near_field ist für nah sprechende Mikrofone wie Kopfhörer, far_field ist für Fernfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für Eingabe-Audio-Transkription. Der Kunde kann optional die Sprache und den Prompt für die Transkription einstellen; diese bieten dem Transkriptionsdienst zusätzliche Orientierung.
No
└─ language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz.
No
└─ model enum Das Modell für die Transkription, aktuelle Optionen sind gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15und whisper-1.

Mögliche Werte: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen.
Für whisper-1, ist der Prompt eine Liste von Schlüsselwörtern.
Für gpt-4o-transcribe Modelle ist die Aufforderung eine Freitextzeichenkette, zum Beispiel "erwarten Sie Wörter, die mit Technologie zu tun haben".
No
modalities Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"].
No
turn_detection object Konfiguration für Zugerkennung, entweder Server-VAD oder semantisches VAD. Dies kann auf null deaktiviert eingestellt werden, wobei der Client die Modellantwort manuell auslösen muss.
Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet.
Semantisches VAD ist fortschrittlicher und verwendet ein Dreherkennungsmodell (in Verbindung mit VAD), um semantisch zu schätzen, ob der Benutzer mit dem Sprechen fertig ist, und setzt dann dynamisch eine Auszeit basierend auf dieser Wahrscheinlichkeit. Wenn zum Beispiel der User-Audio mit uhhmabklingt, wird das Modell eine geringe Wahrscheinlichkeit für das Ende der Zuge erzielen und länger warten, bis der Benutzer weiterspricht. Das kann für natürlichere Gespräche nützlich sein, kann aber eine höhere Latenz haben.
No
└─ create_response boolean Ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Stopp-Event auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ eagerness enum Wird nur für den semantic_vad Modus verwendet. Die Bereitschaft des Modells zu reagieren. low Er wartet länger, bis der Nutzer weiterspricht, antwortet high schneller. auto ist der Standard und äquivalent zu medium.

Mögliche Werte: low, medium, high, auto
No
└─ interrupt_response boolean Ob man eine laufende Antwort automatisch unterbrechen soll, die zur Standardkonversation (d. h. conversation von auto) führt, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└─ prefix_padding_ms integer Wird nur für den server_vad Modus verwendet. Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms.
No
└─ silence_duration_ms integer Wird nur für den server_vad Modus verwendet. Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen.
No
└─ threshold number Wird nur für den server_vad Modus verwendet. Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden.
No
└─ type enum Art der Abzugserkennung.

Mögliche Werte: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Eine neue Echtzeit-Transkriptionssession-Konfiguration.

Wenn eine Sitzung auf dem Server über die REST-API erstellt wird, enthält das Sitzungsobjekt auch einen ephemeren Schlüssel. Die Standard-TTL für Tasten beträgt eine Minute. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.

Name Type Description Required Default
client_secret object Ephemeraler Schlüssel, der von der API zurückgegeben wird. Nur vorhanden, wenn die Sitzung auf dem Server über die REST-API erstellt wird.
Yes
└─ expires_at integer Zeitstempel für den Ablauf des Tokens. Derzeit laufen alle Token nach einer Minute ab.
No
└─ value string Ephemeraler Schlüssel, der in Client-Umgebungen zur Authentifizierung von Verbindungen zur Echtzeit-API verwendet werden kann. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte.
No
input_audio_format string Das Format des Eingabeaudios. Optionen sind pcm16, g711_ulaw, oder g711_alaw.
No
input_audio_transcription object Konfiguration des Transkriptionsmodells.
No
└─ language string Die Sprache des eingegebenen Audios. Die Bereitstellung der Eingabesprache im ISO-639-1 (z. B. en) Format verbessert die Genauigkeit und Latenz.
No
└─ model enum Das Modell für die Transkription. Kann , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, oder whisper-1seingpt-4o-transcribe.

Mögliche Werte: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Der Prompt sollte mit der Audiosprache übereinstimmen.
No
modalities Die Menge der Modalitäten, mit denen das Modell antworten kann. Um Audio zu deaktivieren, setze dies auf ["text"].
No
turn_detection object Konfiguration für Abbiegungserkennung. Kann auf Schalten eingestellt null werden. Server-VAD bedeutet, dass das Modell den Beginn und das Ende der Sprache basierend auf der Lautstärke erkennt und am Ende der Benutzersprache antwortet.
No
└─ prefix_padding_ms integer Menge an Audio, die vor der Erkennung der Sprache (in Millisekunden) durch das VAD enthalten sein sollte. Standardmäßig liegt es auf 300 ms.
No
└─ silence_duration_ms integer Dauer der Stille zur Erkennung des Sprachstopps (in Millisekunden). Standardmäßig 500 ms. Bei kürzeren Werten reagiert das Modell schneller, kann aber bei kurzen Pausen des Nutzers eingreifen.
No
└─ threshold number Aktivierungsschwelle für VAD (0,0 bis 1,0) liegt standardmäßig bei 0,5. Ein höherer Schwellenwert erfordert lauteren Ton, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser abschneiden.
No
└─ type string Die Art der Abzugserkennung wird derzeit nur server_vad unterstützt.
No

Reasoning

Konfigurationsoptionen für Schlussfolgermodelle.

Name Type Description Required Default
effort ReasoningEffort Begrenzt den Aufwand beim Schließen bei Denkmustern.
Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.
Yes medium
summary enum Eine Zusammenfassung der vom Modell durchgeführten Argumentation. Dies kann nützlich sein, um das Debuggen zu debuggen und den Schlussfolgerungsprozess des Modells zu verstehen.
Einer von concise oder detailed.

Mögliche Werte: concise, detailed
No

ReasoningItem

Eine Beschreibung der Denkkette, die ein Denkmodell bei der Erzeugung einer Antwort verwendet.

Name Type Description Required Default
content array Rationalisieren des Textinhalts.
Yes
id string Der eindeutige Identifikator des Argumentationsins.
Yes
status enum Der Status des Gegenstands. Einer von in_progress, completed, oder incomplete. Wird angezeigt, wenn Items über die API zurückgegeben werden.

Mögliche Werte: in_progress, completed, incomplete
No
type enum Die Art des Objekts. Immer reasoning.

Mögliche Werte: reasoning
Yes

Refusal

Eine Ablehnung des Models.

Name Type Description Required Default
refusal string Die Erklärung zur Ablehnung aus dem Modell.
Yes
type enum Die Art der Ablehnung. Immer refusal.

Mögliche Werte: refusal
Yes

response

Name Type Description Required Default
created_at number Unix-Zeitstempel (in Sekunden) des Zeitpunktes, an dem diese Antwort erstellt wurde.
Yes
error ResponseError Ein Fehlerobjekt wurde zurückgegeben, wenn das Modell keine Antwort generieren konnte.
Yes
id string Eindeutige Kennung für diese Antwort.
Yes
incomplete_details object Details dazu, warum die Antwort unvollständig ist.
Yes
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
instructions string Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein.

Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen.
Yes
max_output_tokens integer Eine obere Obergrenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und des Gesprächszustands.
No
metadata Metadata Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen.

Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen.
Yes
model string Modell, das zur Erzeugung der Antworten verwendet wird. Yes
object enum Der Objekttyp dieser Ressource – immer auf gesetzt response.

Mögliche Werte: response
Yes
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
- Anstatt auf das erste Element im output Array zuzugreifen und anzunehmen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, könntest du die output_text Eigenschaft verwenden, wo es in SDKs unterstützt wird.
Yes
output_text string SDK-only Convenience-Eigenschaft, die die aggregierten Textausgaben aller output_text Elemente im Array output enthält, falls welche vorhanden sind.
Unterstützt in den Python- und JavaScript-SDKs.
No
parallel_tool_calls boolean Ob das Modell Werkzeugaufrufe parallel ausführen soll.
Yes True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Schlussfolgermodelle.
No
status enum Der Status der Reaktionsgenerierung. Einer von completed, failed, , in_progressoder incomplete.

Mögliche Werte: completed, failed, in_progress, incomplete
No
temperature number Welche Sampling-Temperatur soll verwendet werden, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
Wir empfehlen im Allgemeinen, dies zu ändern oder top_p , aber nicht beides.
Yes 1
text object Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.

Nicht empfohlen für GPT-4o und neuere Modelle:

Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann.
Yes
tools array Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.

Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind:

- Eingebaute Werkzeuge
Yes
top_p number Eine Alternative zur Sampling mit Temperatur, genannt Nucleus-Sampling, bei der das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse betrachtet. 0,1 bedeutet also, dass nur die Token der Top 10% Wahrscheinlichkeitsmasse berücksichtigt werden.

Wir empfehlen im Allgemeinen, dies zu ändern oder temperature , aber nicht beides.
Yes 1
truncation enum Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser und der vorherigen Antwort die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort kürzen, um zum Kontextfenster zu passen, indem es Eingabepunkte mitten im Gespräch platziert.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No
usage ResponseUsage Repräsentiert Details zur Tokennutzung, einschließlich Eingabetoken, Ausgabetoken, einer Aufschlüsselung der Ausgabetoken und der insgesamt verwendeten Tokens.
No
user string Eine eindeutige Identifikator, die Ihren Endnutzer repräsentiert und OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

ResponseAudioDeltaEvent

Ausgesendet, wenn eine teilweise Audioreaktion vorhanden ist.

Name Type Description Required Default
delta string Ein Teil von Base64-codierten Antwort-Audiobytes.
Yes
type enum Die Art der Veranstaltung. Immer response.audio.delta.

Mögliche Werte: response.audio.delta
Yes

ResponseAudioDoneEvent

Ausgesendet, wenn die Audioantwort abgeschlossen ist.

Name Type Description Required Default
type enum Die Art der Veranstaltung. Immer response.audio.done.

Mögliche Werte: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Es wird ausgesendet, wenn ein Teilabschrift des Audios vorhanden ist.

Name Type Description Required Default
delta string Das teilweise Transkript der Audioantwort.
Yes
type enum Die Art der Veranstaltung. Immer response.audio.transcript.delta.

Mögliche Werte: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Gesendet, wenn das vollständige Audio-Transkript fertiggestellt ist.

Name Type Description Required Default
type enum Die Art der Veranstaltung. Immer response.audio.transcript.done.

Mögliche Werte: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Es wird ausgesendet, wenn ein teilweiser Codeschnipsel vom Code-Interpreter hinzugefügt wird.

Name Type Description Required Default
delta string Der teilweise Codeschnipsel, der vom Code-Interpreter hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung.
Yes
type enum Die Art der Veranstaltung. Immer response.code_interpreter_call.code.delta.

Mögliche Werte: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Gesendet, wenn die Code-Snippet-Ausgabe vom Code-Interpreter finalisiert wird.

Name Type Description Required Default
code string Das letzte Codeschnipsel, das vom Code-Interpreter ausgegeben wird.
Yes
output_index integer Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung.
Yes
type enum Die Art der Veranstaltung. Immer response.code_interpreter_call.code.done.

Mögliche Werte: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Gesendet, wenn der Code-Interpreter-Aufruf abgeschlossen ist.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf, um Code auszuführen.
Yes
output_index integer Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung.
Yes
type enum Die Art der Veranstaltung. Immer response.code_interpreter_call.completed.

Mögliche Werte: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Gesendet, wenn ein Code-Interpreter-Aufruf läuft.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf, um Code auszuführen.
Yes
output_index integer Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung.
Yes
type enum Die Art der Veranstaltung. Immer response.code_interpreter_call.in_progress.

Mögliche Werte: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Es wird ausgesendet, wenn der Code-Interpreter aktiv den Codeausschnitt interpretiert.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf, um Code auszuführen.
Yes
output_index integer Der Index des Ausgabeelements, das der Code-Interpreter aufruft, befindet sich in Bearbeitung.
Yes
type enum Die Art der Veranstaltung. Immer response.code_interpreter_call.interpreting.

Mögliche Werte: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Emittiert, wenn die Modellantwort abgeschlossen ist.

Name Type Description Required Default
response response Yes
type enum Die Art der Veranstaltung. Immer response.completed.

Mögliche Werte: response.completed
Yes

ResponseContentPartAddedEvent

Emittiert, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Type Description Required Default
content_index integer Der Index des Inhalts, der hinzugefügt wurde.
Yes
item_id string Die ID des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde.
Yes
part OutputContent Yes
type enum Die Art der Veranstaltung. Immer response.content_part.added.

Mögliche Werte: response.content_part.added
Yes

ResponseContentPartDoneEvent

Emittiert, wenn ein Inhaltsteil fertig ist.

Name Type Description Required Default
content_index integer Der Index des Inhalts, der erledigt wird.
Yes
item_id string Die ID des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, zu dem der Inhaltsteil hinzugefügt wurde.
Yes
part OutputContent Yes
type enum Die Art der Veranstaltung. Immer response.content_part.done.

Mögliche Werte: response.content_part.done
Yes

ResponseCreatedEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort erstellt wird.

Name Type Description Required Default
response response Yes
type enum Die Art der Veranstaltung. Immer response.created.

Mögliche Werte: response.created
Yes

ResponseError

Ein Fehlerobjekt wurde zurückgegeben, wenn das Modell keine Antwort generieren konnte.

Name Type Description Required Default
code ResponseErrorCode Der Fehlercode für die Antwort.
Yes
message string Eine für Menschen lesbare Beschreibung des Fehlers.
Yes

ResponseErrorCode

Der Fehlercode für die Antwort.

Property Value
Description Der Fehlercode für die Antwort.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Es wird ausgesendet, wenn ein Fehler auftritt.

Name Type Description Required Default
code string Der Fehlercode.
Yes
message string Die Fehlermeldung.
Yes
param string Der Fehlerparameter.
Yes
type enum Die Art der Veranstaltung. Immer error.

Mögliche Werte: error
Yes

ResponseFailedEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort fehlschlägt.

Name Type Description Required Default
response response Yes
type enum Die Art der Veranstaltung. Immer response.failed.

Mögliche Werte: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Gesendet, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf aufruft, wird initiiert.
Yes
output_index integer Der Index des Ausgabeelements, den der Dateisuchaufruf aufruft, wird initiiert.
Yes
type enum Die Art der Veranstaltung. Immer response.file_search_call.completed.

Mögliche Werte: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Gesendet, wenn ein Dateisuchaufruf eingeleitet wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf aufruft, wird initiiert.
Yes
output_index integer Der Index des Ausgabeelements, den der Dateisuchaufruf aufruft, wird initiiert.
Yes
type enum Die Art der Veranstaltung. Immer response.file_search_call.in_progress.

Mögliche Werte: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Gesendet, wenn eine Dateisuche gerade gesucht wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf aufruft, wird initiiert.
Yes
output_index integer Der Index des Ausgabeelements, das die Dateisuche aufruft.
Yes
type enum Die Art der Veranstaltung. Immer response.file_search_call.searching.

Mögliche Werte: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Emittiert, wenn es eine partielle Funktionsaufruf-Delta gibt.

Name Type Description Required Default
delta string Die Funktionsaufruf-Argumente delta, die hinzugefügt wird.
Yes
item_id string Die ID des Ausgabeelements, zu dem die Funktionsaufruf-Argumente deltan, wird hinzugefügt.
Yes
output_index integer Der Index des Ausgabeelements, zu dem die Funktionsaufruf-Argumente delta hinzugefügt werden.
Yes
type enum Die Art der Veranstaltung. Immer response.function_call_arguments.delta.

Mögliche Werte: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Emittiert, wenn Funktionsaufruf-Argumente finalisiert werden.

Name Type Description Required Default
arguments string Die Funktionsaufruf-Argumente. Yes
item_id string Der Ausweis des Gegenstands. Yes
output_index integer Der Index des Ausgangselements. Yes
type enum
Mögliche Werte: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Ausgestrahlt, wenn die Antwort läuft.

Name Type Description Required Default
response response Yes
type enum Die Art der Veranstaltung. Immer response.in_progress.

Mögliche Werte: response.in_progress
Yes

ResponseIncompleteEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig endet.

Name Type Description Required Default
response response Yes
type enum Die Art der Veranstaltung. Immer response.incomplete.

Mögliche Werte: response.incomplete
Yes

responseItemList

Eine Liste von Response-Punkten.

Name Type Description Required Default
data array Eine Liste der Elemente, die zur Erzeugung dieser Antwort verwendet wurden. Yes
first_id string Die ID des ersten Punkts auf der Liste. Yes
has_more boolean Ob es noch mehr Gegenstände gibt. Yes
last_id string Die ID des letzten Punkts auf der Liste. Yes
object enum Die Art des zurückgegebenen Objekts muss sein list.
Mögliche Werte: list
Yes

ResponseModalities

Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:

["text"]

Das gpt-4o-audio-preview Modell kann auch zur Audioerzeugung verwendet werden. Um zu verlangen, dass dieses Modell sowohl Text- als auch Audioantworten erzeugt, können Sie verwenden:

["text", "audio"]

Für diese Komponente sind keine Eigenschaften definiert.

ResponseModalitiesTextOnly

Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren, was standardmäßig ist:

["text"]

Diese API wird bald weitere Ausgabemodalitäten unterstützen, einschließlich Audio und Bilder.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseOutputItemAddedEvent

Emittiert, wenn ein neues Ausgangselement hinzugefügt wird.

Name Type Description Required Default
item OutputItem Yes
output_index integer Der Index des hinzugefügten Output-Elements.
Yes
type enum Die Art der Veranstaltung. Immer response.output_item.added.

Mögliche Werte: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Emittiert, wenn ein Ausgabepunkt als erledigt markiert wird.

Name Type Description Required Default
item OutputItem Yes
output_index integer Der Index des als erledigten Ausgabepunkt markierten.
Yes
type enum Die Art der Veranstaltung. Immer response.output_item.done.

Mögliche Werte: response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Fügt eine System- (oder Entwickler-) Nachricht als erstes Element im Kontext des Modells ein.

Wenn man zusammen mit previous_response_idverwendet, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übernommen. Dadurch ist es einfach, System- (oder Entwickler-) Nachrichten in neuen Antworten auszutauschen.
No
max_output_tokens integer Eine obere Obergrenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und des Gesprächszustands.
No
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Nutzen Sie dies, um Gespräche mit mehreren Runden zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Schlussfolgermodelle.
No
text object Konfigurationsoptionen für eine Textantwort des Modells. Es können Klartext oder strukturierte JSON-Daten sein. Learn more:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit dem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.

Nicht empfohlen für GPT-4o und neuere Modelle:

Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen sollte, welches Tool (oder welche Werkzeuge) es bei der Generierung einer Antwort verwendet. Sehen Sie sich den Parameter tools an, um zu sehen, welche Werkzeuge das Modell aufrufen kann.
No
tools array Ein Array von Werkzeugen, die das Modell aufrufen kann, während es eine Antwort erzeugt. Du kannst angeben, welches Werkzeug du verwenden sollst, indem du den Parameter tool_choice einlegst.

Die zwei Kategorien von Werkzeugen, die Sie dem Modell bereitstellen können, sind:

- Eingebaute Werkzeuge
No
truncation enum Die Abschneidungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser und der vorherigen Antwort die Größe des Kontextfensters des Modells übersteigt, wird das Modell die Antwort kürzen, um zum Kontextfenster zu passen, indem es Eingabepunkte mitten im Gespräch platziert.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße eines Modells überschreitet, schlägt die Anfrage mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

ResponseRefusalDeltaEvent

Gesendet, wenn eine teilweise Ablehnung vorliegt.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, zu dem der Ablehnungstext hinzugefügt wird.
Yes
delta string Der Ablehnungstext, der hinzugefügt wird.
Yes
item_id string Die ID des Ausgabeelements, zu dem der Ablehnungstext hinzugefügt wird.
Yes
output_index integer Der Index des Ausgabeelements, zu dem der Ablehnungstext hinzugefügt wird.
Yes
type enum Die Art der Veranstaltung. Immer response.refusal.delta.

Mögliche Werte: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Gesendet, wenn der Ablehnungstext finalisiert ist.

Name Type Description Required Default
content_index integer Der Index des Inhalts teilt, dass der Ablehnungstext finalisiert ist.
Yes
item_id string Die ID des Ausgabeelements, in dem der Ablehnungstext steht, wird finalisiert.
Yes
output_index integer Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen ist.
Yes
refusal string Die Ablehnungsnachricht, die finalisiert ist.
Yes
type enum Die Art der Veranstaltung. Immer response.refusal.done.

Mögliche Werte: response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Der Index der hinzugefügten Anmerkung.
Yes
arguments string Die Funktionsaufruf-Argumente. Yes
code string Der Fehlercode.
Yes
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf, um Code auszuführen.
Yes
content_index integer Der Index des Inhalts teilt, dass der Textinhalt finalisiert ist.
Yes
delta string Das Textdelta, das hinzugefügt wurde.
Yes
item OutputItem Der Ausgabepunkt, der als erledigt markiert wurde.
Yes
item_id string Die ID des Ausgabeelements, in dem der Textinhalt festgelegt ist, ist finalisiert.
Yes
message string Die Fehlermeldung.
Yes
output_index integer Der Index des Ausgabeelements, in dem der Textinhalt festgelegt ist, wird finalisiert.
Yes
param string Der Fehlerparameter.
Yes
part OutputContent Der Inhaltsteil, der erledigt ist.
Yes
refusal string Die Ablehnungsnachricht, die finalisiert ist.
Yes
response response Die Antwort, die unvollständig war.
Yes
text string Der Textinhalt, der finalisiert ist.
Yes
type enum Die Art der Veranstaltung. Immer response.output_text.done.

Mögliche Werte: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Emittiert, wenn eine Textannotation hinzugefügt wird.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Der Index der hinzugefügten Anmerkung.
Yes
content_index integer Der Index des Inhaltsteils, zu dem die Textannotation hinzugefügt wurde.
Yes
item_id string Die ID des Ausgabeelements, zu dem die Textannotation hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, zu dem die Textannotation hinzugefügt wurde.
Yes
type enum Die Art der Veranstaltung. Immer response.output_text.annotation.added.

Mögliche Werte: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Es wird ausgesendet, wenn ein zusätzliches Text-Delta vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhalts, zu dem das Textdelta hinzugefügt wurde.
Yes
delta string Das Textdelta, das hinzugefügt wurde.
Yes
item_id string Die ID des Ausgabeelements, zu dem das Textdelta hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, zu dem das Textdelta hinzugefügt wurde.
Yes
type enum Die Art der Veranstaltung. Immer response.output_text.delta.

Mögliche Werte: response.output_text.delta
Yes

ResponseTextDoneEvent

Gesendet, wenn der Textinhalt finalisiert ist.

Name Type Description Required Default
content_index integer Der Index des Inhalts teilt, dass der Textinhalt finalisiert ist.
Yes
item_id string Die ID des Ausgabeelements, in dem der Textinhalt festgelegt ist, ist finalisiert.
Yes
output_index integer Der Index des Ausgabeelements, in dem der Textinhalt festgelegt ist, wird finalisiert.
Yes
text string Der Textinhalt, der finalisiert ist.
Yes
type enum Die Art der Veranstaltung. Immer response.output_text.done.

Mögliche Werte: response.output_text.done
Yes

ResponseUsage

Repräsentiert Details zur Tokennutzung, einschließlich Eingabetoken, Ausgabetoken, einer Aufschlüsselung der Ausgabetoken und der insgesamt verwendeten Tokens.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. Yes
output_tokens integer Die Anzahl der Ausgabetoken. Yes
output_tokens_details object Eine detaillierte Aufschlüsselung der Ausgabetoken. Yes
└─ reasoning_tokens integer Die Anzahl der Vernunft-Tokens. No
total_tokens integer Die Gesamtzahl der verwendeten Token. Yes

Screenshot

Eine Screenshot-Aktion.

Name Type Description Required Default
type enum Spezifiziert den Ereignistyp. Für eine Screenshot-Aktion wird diese Eigenschaft immer auf screenshotgesetzt.

Mögliche Werte: screenshot
Yes

Scroll

Eine Scroll-Aktion.

Name Type Description Required Default
scroll_x integer Die horizontale Scrolldistanz.
Yes
scroll_y integer Die vertikale Scrolldistanz.
Yes
type enum Spezifiziert den Ereignistyp. Für eine Scrollaktion ist diese Eigenschaft immer auf scrollgesetzt.

Mögliche Werte: scroll
Yes
x integer Die x-Koordinate, an der die Schriftrolle stattfand.
Yes
y integer Die y-Koordinate, an der die Schriftrolle stattfand.
Yes

StopConfiguration

Bis zu 4 Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält die Stoppfolge nicht.

Diese Komponente kann eine der folgenden sein:

TextResponseFormatConfiguration

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Die Konfiguration { "type": "json_schema" } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen.

Nicht empfohlen für GPT-4o und neuere Modelle:

Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültiges JSON ist. Die Verwendung json_schema ist bevorzugt für Modelle, die sie unterstützen.

Diese Komponente kann eine der folgenden sein:

TextResponseFormatJsonSchema

JSON-Schema-Antwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Erfahren Sie mehr über strukturierte Ausgaben.

Name Type Description Required Default
description string Eine Beschreibung, wofür das Antwortformat dient, verwendet vom Modell zur Bestimmung der Antwort im Format.
No
name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Striche enthalten, mit einer maximalen Länge von 64.
No
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, beschrieben als JSON-Schema-Objekt. Yes
strict boolean Ob strikte Schema-Compliance bei der Erzeugung der Ausgabe aktiviert werden soll.
Setzt es auf wahr, folgt das Modell immer dem exakt im Feld schema definierten Schema. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn strict .true
No False
type enum Die Art des zu definierenden Antwortformats. Immer json_schema.
Mögliche Werte: json_schema
Yes

Tool

Diese Komponente kann eine der folgenden sein:

ToolChoiceFunction

Verwenden Sie diese Option, um das Modell zu zwingen, eine bestimmte Funktion aufzurufen.

Name Type Description Required Default
name string Der Name der Funktion, die aufgerufen werden soll. Yes
type enum Für Funktionsaufrufe ist der Typ immer function.
Mögliche Werte: function
Yes

ToolChoiceOptions

Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.

none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.

auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.

required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss.

Property Value
Description Kontrolliert, welches (falls vorhandenes) Werkzeug vom Modell aufgerufen wird.

none Das bedeutet, dass das Modell kein Tool aufruft, sondern stattdessen eine Nachricht generiert.

auto das bedeutet, dass das Modell zwischen der Generierung einer Nachricht oder dem Aufrufen eines oder mehrerer Werkzeuge wählen kann.

required das bedeutet, dass das Modell ein oder mehrere Werkzeuge aufrufen muss.
Type string
Values none
auto
required

ToolChoiceTypes

Zeigt an, dass das Modell ein eingebautes Tool verwenden sollte, um eine Antwort zu generieren.

Name Type Description Required Default
type enum Welche Art von gehostetem Tool das Modell verwenden sollte. Erlaubte Werte sind:
- file_search
- computer_use_preview

Mögliche Werte: file_search, computer_use_preview
Yes

Type

Eine Aktion, um Text einzutippen.

Name Type Description Required Default
text string Der Text zum Tippen.
Yes
type enum Spezifiziert den Ereignistyp. Für eine Typaktion ist diese Eigenschaft immer auf typegesetzt.

Mögliche Werte: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen.
Yes

UrlCitation

Ein Zitat für eine Webressource, die zur Erstellung einer Modellantwort verwendet wird.

Name Type Description Required Default
end_index integer Der Index des letzten Zeichens der URL-Zitation in der Nachricht.
Yes
start_index integer Der Index des ersten Zeichens der URL-Zitation in der Nachricht.
Yes
title string Der Titel der Webressource.
Yes
type enum Der Typ der URL-Zitate. Immer url_citation.

Mögliche Werte: url_citation
Yes
url string Die URL der Webressource.
Yes

VectorStoreFileAttributes

Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen.

Für diese Komponente sind keine Eigenschaften definiert.

VectorStoreFileContentResponse

Repräsentiert den geparsten Inhalt einer Vektorspeicherdatei.

Name Type Description Required Default
data array Den Inhalt der Datei analysiert. Yes
has_more boolean Zeigt an, ob es weitere Inhaltsseiten zu holen gibt. Yes
next_page string Das Token für die nächste Seite, falls vorhanden. Yes
object enum Der Objekttyp, der immer ist vector_store.file_content.page
Mögliche Werte: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet wird. No
max_num_results integer Die maximale Anzahl an Ergebnissen, die du ergeben kannst. Diese Zahl sollte zwischen 1 und 50 liegen. No 10
query Saite oder Array Eine Abfragefolge für eine Suche Yes
ranking_options object Rangfolgeoptionen für die Suche. No
└─ ranker enum Mögliche Werte: auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Ob die natürliche Sprachanfrage für die Vektorsuche umgeschrieben werden soll. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Der Textinhalt wurde von der Suche zurückgegeben. Yes
type enum Die Art des Inhalts.
Mögliche Werte: text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Menge von 16 Schlüssel-Wert-Paaren, die an ein Objekt angehängt werden können. Dies kann nützlich sein, um zusätzliche Informationen über das Objekt in einem strukturierten Format zu speichern und Objekte über die API oder das Dashboard abzufragen. Tasten sind Zeichenketten mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenketten mit einer maximalen Länge von 512 Zeichen, Booleans oder Zahlen.
Yes
content array Inhaltsabschnitte aus der Datei. Yes
file_id string Die ID der Vektorspeicherdatei. Yes
filename string Der Name der Vektorspeicherdatei. Yes
score number Der Ähnlichkeitswert für das Ergebnis. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array Die Liste der Suchergebnis-Elemente. Yes
has_more boolean Zeigt an, ob es noch mehr Ergebnisse zu holen gibt. Yes
next_page string Das Token für die nächste Seite, falls vorhanden. Yes
object enum Der Objekttyp, der immer ist vector_store.search_results.page
Mögliche Werte: vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Für diese Komponente sind keine Eigenschaften definiert.

Wait

Eine Warteaktion.

Name Type Description Required Default
type enum Spezifiziert den Ereignistyp. Für eine Warteaktion wird diese Eigenschaft immer auf waitgesetzt.

Mögliche Werte: wait
Yes

ReasoningEffort

Begrenzt den Aufwand beim Schließen bei Denkmustern. Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.

Property Value
Description Begrenzt den Aufwand beim Schließen bei Denkmustern.
Derzeit unterstützte Werte sind low, medium, und high. Eine Reduzierung des Schlussarbeitsaufwands kann zu schnelleren Antworten und weniger Token beim Schließen in einer Antwort führen.
Type string
Default medium
Values low
medium
high

errorEvent

Tritt auf, wenn ein Fehler auftritt. Das kann durch einen internen Serverfehler oder eine Auszeit passieren.

Name Type Description Required Default
data error Yes
event string Yes

Event Enum: ErrorEventEnum

Value Description
error

doneEvent

Tritt auf, wenn ein Stream endet.

Name Type Description Required Default
data string Yes
event string Yes

Event Enum: DoneEventEnum

Value Description
done

Data Enum: DoneEventDataEnum

Value Description
[DONE]

Next steps

Lerne mehr über Modelle und Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrundeliegenden Modelle, die Azure OpenAI antreiben.