Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Zurzeit wird folgendes angezeigt:Foundry (klassische) Portalversion - Wechseln zur Version für das neue Foundry-Portal
Eine Foundry-Ressource bietet einen einheitlichen Zugriff auf Modelle, Agents und Tools. In diesem Artikel wird erläutert, welches SDK und welcher Endpunkt für Ihr Szenario verwendet werden soll.
| SDK | Wozu es dient | Endpunkt |
|---|---|---|
| Foundry SDK | Gießereispezifische Funktionen mit OpenAI-kompatiblen Schnittstellen. Umfasst den Zugriff auf direkte Foundry-Modelle über die Responses-API (nicht Chat-Completions). | https://<resource-name>.services.ai.azure.com/api/projects/<project-name> |
| OpenAI SDK | Neueste OpenAI SDK-Modelle und -Features mit der vollständigen OpenAI-API-Oberfläche, einschließlich Einbettungen. Direkte Foundry-Modelle sind über die Chat-Vervollständigungs-API (nicht die Antworten-API) verfügbar. | https://<resource-name>.openai.azure.com/openai/v1 |
| Foundry Tools SDKs | Vorgefertigte Lösungen (Vision, Speech, Content Safety und mehr). | Toolspezifische Endpunkte (variiert je nach Dienst). |
| Agent Framework | Multi-Agent-Orchestrierung im Code. Cloudagnostisch. | Verwendet den Projektendpunkt über das Foundry SDK. |
Wählen Sie Ihr SDK aus:
- Verwenden Sie das Foundry SDK beim Erstellen von Apps mit Agents, Auswertungen oder Foundry-spezifischen Features
- Verwenden Sie openAI SDK , wenn maximale OpenAI-Kompatibilität erforderlich ist, wenn Einbettungen generiert werden, oder verwenden Sie Foundry Direct Models über Chat-Vervollständigungen
- Verwenden von Foundry Tools SDKs beim Arbeiten mit bestimmten KI-Diensten (Vision, Spracherkennung, Sprache usw.)
- Verwenden des Agent-Frameworks beim Erstellen von Multi-Agent-Systemen im Code (lokale Orchestrierung)
Hinweis
Ressourcentypen: Eine Foundry-Ressource stellt alle zuvor aufgeführten Endpunkte bereit. Eine Azure OpenAI-Ressource stellt nur den endpunkt /openai/v1 bereit.
Authentication: Beispiele verwenden hier Microsoft Entra ID (DefaultAzureCredential). API-Schlüssel arbeiten mit /openai/v1. Übergeben Sie den Schlüssel als api_key anstelle eines Tokenanbieters.
Voraussetzungen
-
Ein Azure Konto mit einem aktiven Abonnement. Wenn Sie kein Konto haben, erstellen Sie ein free Azure Konto, das ein kostenloses Testabonnement enthält.
Führen Sie eine der folgenden Azure RBAC-Rollen zum Erstellen und Verwalten von Foundry-Ressourcen aus:
- Azure AI User (Rolle mit den geringsten Berechtigungen für die Entwicklung)
- Azure AI Project Manager (für die Verwaltung von Foundry-Projekten)
- Mitwirkender oder Besitzer (für Berechtigungen auf Abonnementebene)
Ausführliche Informationen zu den Berechtigungen der einzelnen Rollen finden Sie unter Role-basierte Zugriffssteuerung für Microsoft Foundry.
Installieren Sie die erforderlichen Sprachlaufzeiten, globalen Tools und VS-Codeerweiterungen, wie unter "Vorbereiten Der Entwicklungsumgebung" beschrieben.
Wichtig
Bevor Sie beginnen, stellen Sie sicher, dass Ihre Entwicklungsumgebung bereit ist.
Dieser Artikel konzentriert sich auf szenariospezifische Schritte wie SDK-Installation , Authentifizierung und Ausführen von Beispielcode.
Überprüfen der Voraussetzungen
Bevor Sie fortfahren, bestätigen Sie Folgendes:
- Azure Abonnement ist aktiv:
az account show - Sie verfügen über die erforderliche RBAC-Rolle: Überprüfen sie Azure Portal → Foundry-Ressource → Zugriffssteuerung (IAM)
- Installierte Sprachlaufzeit:
- Python:
python --version(≥3.8)
- Python:
- Installierte Sprachlaufzeit:
- Node.js:
node --version(≥18)
- Node.js:
- Installierte Sprachlaufzeit:
- .NET:
dotnet --version(≥6.0)
- .NET:
- Installierte Sprachlaufzeit:
- Java:
java --version(≥11)
- Java:
Foundry SDK
Das Foundry SDK stellt eine Verbindung mit einem einzelnen Projektendpunkt her, der Zugriff auf die beliebtesten Foundry-Funktionen bietet:
https://<resource-name>.services.ai.azure.com/api/projects/<project-name>
Hinweis
Wenn Ihre Organisation eine benutzerdefinierte Unterdomäne verwendet, ersetzen Sie <resource-name> durch <your-custom-subdomain> in der Endpunkt-URL.
Dieser Ansatz vereinfacht die Anwendungskonfiguration. Anstatt mehrere Endpunkte zu verwalten, konfigurieren Sie einen.
Installieren des SDK
Hinweis
Dieser Artikel bezieht sich auf ein Foundry-Projekt. Der hier gezeigte Code funktioniert nicht für ein hubbasiertes Projekt. Weitere Informationen finden Sie unter Projekttypen.
Hinweis
SDK-Versionen: In diesem Artikel wird die Installation des 1.x SDK behandelt. Stellen Sie sicher, dass die folgenden Beispiele ihrem installierten Paket entsprechen. Wechseln Sie zur neuen Dokumentation des Foundry-Portals, um Artikel für 2.x anzuzeigen.
| SDK-Version | Portalversion | Status | Python-Paket |
|---|---|---|---|
| 2.x | Gießerei (neu) | Stabil | azure-ai-projects>=2.0.0 |
| 1.x | Gießerei (klassisch) | Stabil | azure-ai-projects==1.0.0 |
Die Azure AI Projects-Clientbibliothek für Python ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen Projektendpunkt herstellen.
Führen Sie diesen Befehl aus, um die 1.x-Pakete für klassische Foundry-Projekte zu installieren.
pip install openai azure-identity azure-ai-projects==1.0.0
| SDK-Version | Portalversion | Status | Java-Paket |
|---|---|---|---|
| 2.0.0 | Gießerei (neu) | Stabil | azure-ai-projectsazure-ai-agents |
| SDK-Version | Portalversion | Status | JavaScript-Paket |
|---|---|---|---|
| 2.0.1 | Gießerei (neu) | Zuverlässig | @azure/ai-projects |
| 1.0.1 | Foundry Classic | Stabil | @azure/ai-projects |
| SDK-Version | Portalversion | Status | .NET-Paket |
|---|---|---|---|
| 2.0.0-beta.1 (Vorschau) | Gießerei (neu) | Vorschau | Azure.AI.ProjectsAzure.AI.Projects.OpenAI |
| 1.1.0 (GA) | Foundry Classic | Stabil | Azure.AI.Projects |
Die Azure AI Projects-Clientbibliothek für Java ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen Projektendpunkt herstellen.
Wichtig
Das paket "Java azure-ai-projects" verfügt nicht über eine 1.x GA-Version. Die Codebeispiele in den Abschnitten Java verwenden das azure-ai-inference-Paket direkt, das veraltet ist und am 30. Mai 2026 eingestellt wird.
Wechseln Sie für das 2.x Projects SDK zur neuen Dokumentation des Foundry-Portals.
Fügen Sie diese Abhängigkeiten zu Ihren klassischen Projekten von Maven pom.xml für Foundry hinzu.
<dependency>
<groupId>com.azure</groupId>
<artifactId>azure-ai-inference</artifactId>
<version>1.0.0-beta.6</version>
</dependency>
<dependency>
<groupId>com.azure</groupId>
<artifactId>azure-identity</artifactId>
<version>1.18.2</version>
</dependency>
Die Azure AI Projects-Clientbibliothek für JavaScript ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen Projektendpunkt herstellen.
Führen Sie diesen Befehl aus, um die 1.x JavaScript-Pakete für klassische Foundry-Projekte zu installieren.
npm install @azure/ai-projects@1.0.1 @azure/identity
Die Azure AI Projects-Clientbibliothek für .NET ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen Projektendpunkt herstellen.
Führen Sie diese Befehle aus, um die 1.x Azure AI SDK-Pakete für klassische Foundry-Projekte hinzuzufügen.
# Add 1.x Azure AI SDK packages
dotnet add package Azure.Identity
dotnet add package Azure.AI.Projects --version 1.1.0
dotnet add package Azure.AI.Agents.Persistent --version 1.1.0
dotnet add package Azure.AI.Inference
Verwenden des Foundry SDK
Das SDK macht zwei Clienttypen verfügbar, da Foundry und OpenAI unterschiedliche API-Shapes haben:
- Project client – Wird für Foundry-native Vorgänge verwendet, bei denen OpenAI keine Entsprechung hat. Beispiele: Auflisten von Verbindungen, Abrufen von Projekteigenschaften, Aktivieren der Ablaufverfolgung.
-
OpenAI-kompatibler Client – Verwendung für Foundry-Funktionen, die auf OpenAI-Konzepten basieren. Die Responses-API, Agents, Auswertungen und Feinabstimmungen verwenden alle Anforderungs-/Antwortmuster im OpenAI-Stil. Dieser Client bietet Ihnen auch Zugriff auf direct-Modelle für Foundry (nichtAzure-OpenAI Modelle, die in Foundry gehostet werden). Der Projektendpunkt leitet diesen Datenverkehr über die
/openaiRoute.
Die meisten Apps verwenden beide Clients. Verwenden Sie den Projektclient für die Einrichtung und Konfiguration, und verwenden Sie dann den OpenAI-kompatiblen Client zum Ausführen von Agenten, Bewertungen und zum Aufrufen von Modellen (einschließlich Foundry-Direct-Modelle).
Erstellen eines Projektclients:
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_client = AIProjectClient(
endpoint="https://<resource-name>.services.ai.azure.com/api/projects/<project-name>",
credential=DefaultAzureCredential(),
)
Erstellen Sie einen openAI-kompatiblen Client aus Ihrem Projekt:
models = project_client.get_openai_client(api_version="2024-10-21")
chat_responses = models.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "What is the size of France in square miles?"},
],
)
print(chat_responses.choices[0].message.content)
Erstellen eines Projektclients:
package com.azure.ai.foundry.samples;
import com.azure.ai.inference.ChatCompletionsClient;
import com.azure.ai.inference.ChatCompletionsClientBuilder;
import com.azure.ai.inference.models.ChatCompletions;
import com.azure.core.credential.AzureKeyCredential;
import com.azure.core.credential.TokenCredential;
import com.azure.core.exception.HttpResponseException;
import com.azure.core.util.logging.ClientLogger;
import com.azure.identity.DefaultAzureCredentialBuilder;
String prompt = "What best practices should I follow when asking an AI model to review Java code?";
String endpoint = "https://<resource-name>.services.ai.azure.com/api/projects/<project-name>";
TokenCredential credential = new DefaultAzureCredentialBuilder().build();
ChatCompletionsClient client = new ChatCompletionsClientBuilder()
.credential(credential)
.endpoint(endpoint)
.buildClient();
```**Create and use an OpenAI-compatible client from your project:**
```java
ChatCompletions completions = client.complete(prompt);
String content = completions.getChoice().getMessage().getContent();
System.out.println("\nResponse from AI assistant:\n" + content);
Erstellen eines Projektclients:
const endpoint = "https://<resource-name>.services.ai.azure.com/api/projects/<project-name>";
const deployment = "gpt-4o";
const project = new AIProjectClient(endpoint, new DefaultAzureCredential());
Erstellen Sie einen openAI-kompatiblen Client aus Ihrem Projekt:
const client = await project.getAzureOpenAIClient({
// The API version should match the version of the Azure OpenAI resource
apiVersion: "2024-12-01-preview"
});
const chatCompletion = await client.chat.completions.create({
model: deployment,
messages: [
{ role: "system", content: "You are a helpful assistant" },
{ role: "user", content: "What is the speed of light?" },
],
});
console.log(chatCompletion.choices[0].message.content);
Erstellen eines Projektclients:
using System.ClientModel.Primitives;
using Azure.AI.OpenAI;
using Azure.AI.Projects;
using Azure.Identity;
using OpenAI.Chat;
string endpoint = "https://<resource-name>.services.ai.azure.com/api/projects/<project-name>";
AIProjectClient projectClient = new AIProjectClient(new Uri(endpoint), new DefaultAzureCredential());
Erstellen Sie einen openAI-kompatiblen Client aus Ihrem Projekt:
ClientConnection connection = projectClient.GetConnection(typeof(AzureOpenAIClient).FullName!);
if (!connection.TryGetLocatorAsUri(out Uri uri) || uri is null)
{
throw new InvalidOperationException("Invalid URI.");
}
uri = new Uri($"https://{uri.Host}");
const string modelDeploymentName = "gpt-4o";
AzureOpenAIClient azureOpenAIClient = new AzureOpenAIClient(uri, new DefaultAzureCredential());
ChatClient chatClient = azureOpenAIClient.GetChatClient(deploymentName: modelDeploymentName);
Console.WriteLine("Complete a chat");
ChatCompletion result = chatClient.CompleteChat("List all the rainbow colors");
Console.WriteLine(result.Content[0].Text);
Was Sie mit dem Foundry SDK tun können
- Access Foundry Models, einschließlich Azure OpenAI
- Verwenden des Foundry Agent-Diensts
- Ausführen von Cloud-Auswertungen
- Aktivieren der App-Ablaufverfolgung
- Optimieren eines Modells
- Abrufen von Endpunkten und Schlüsseln für Foundry Tools, lokale Orchestrierung und vieles mehr
Problembehandlung
Authentifizierungsfehler
Wenn Sie Folgendes sehen: DefaultAzureCredential failed to retrieve a token
Verify Azure CLI wird authentifiziert:
az account show az login # if not logged inÜberprüfen der RBAC-Rollenzuweisung:
- Vergewissern Sie sich, dass Sie mindestens über die Azure KI-Benutzerrolle im Foundry-Projekt verfügen.
- Siehe Zuweisen von Azure-Rollen
Für verwaltete Identität in der Produktion:
- Stellen Sie sicher, dass der verwalteten Identität die entsprechende Rolle zugewiesen ist.
- Siehe Konfigurieren verwalteter Identitäten
Endpunktkonfigurationsfehler
Wenn Connection refused oder 404 Not Found angezeigt wird:
- Überprüfen, ob Ressourcen- und Projektnamen ihrer tatsächlichen Bereitstellung entsprechen
-
Endpunkt-URL-Format überprüfen: Sollte sein
https://<resource-name>.services.ai.azure.com/api/projects/<project-name> -
Für benutzerdefinierte Unterdomänen: Ersetzen Sie
<resource-name>durch Ihre benutzerdefinierte Unterdomäne
Nichtübereinstimmungen der SDK-Version
Wenn Codebeispiele mit AttributeError oder ModuleNotFoundError fehlschlagen:
SDK-Version überprüfen:
pip show azure-ai-projects # Python npm list @azure/ai-projects # JavaScript dotnet list package # .NETNeuinstallation mit korrekten Versionskennzeichnungen: Siehe Installationsbefehle in den einzelnen Sprachabschnitten oben
OpenAI SDK
Verwenden Sie das OpenAI SDK, wenn Sie die vollständige OpenAI-API-Oberfläche und maximale Clientkompatibilität benötigen. Dieser Endpunkt bietet Zugriff auf Azure OpenAI-Modelle und Foundry Direct-Modelle (über die Chat-Abschluss-API). Es bietet keinen Zugriff auf Foundry-spezifische Features wie Agents und Auswertungen.
Der folgende Codeausschnitt zeigt, wie Sie den Azure OpenAI /openai/v1 Endpunkt direkt verwenden.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://ai.azure.com/.default"
)
client = OpenAI(
base_url = "https://<resource-name>.openai.azure.com/openai/v1/",
api_key=token_provider,
)
response = client.responses.create(
model="model_deployment_name",
input= "What is the size of France in square miles?"
)
print(response.model_dump_json(indent=2))
Weitere Informationen finden Sie unter Azure OpenAI unterstützte Programmiersprachen. Erwartete Ausgabe:
{
"id": "resp_abc123",
"object": "response",
"created": 1234567890,
"model": "gpt-5.2",
"output_text": "France has an area of approximately 213,011 square miles (551,695 square kilometers)."
}
Weitere Informationen finden Sie unter Azure OpenAI unterstützte Programmiersprachen
Wichtig
In diesem Artikel markierte Elemente (Vorschau) befinden sich derzeit in der öffentlichen Vorschau. Diese Vorschau wird ohne Vereinbarung auf Serviceebene bereitgestellt und wird für Produktionsworkloads nicht empfohlen. Bestimmte Features werden möglicherweise nicht unterstützt oder weisen eingeschränkte Funktionen auf. Weitere Informationen finden Sie unter Supplementale Nutzungsbedingungen für Microsoft Azure Previews.
Der folgende Codeausschnitt zeigt, wie Sie den Azure OpenAI /openai/v1 Endpunkt direkt verwenden.
import com.azure.ai.openai.OpenAIClient;
import com.azure.ai.openai.OpenAIClientBuilder;
import com.azure.ai.openai.models.ChatChoice;
import com.azure.ai.openai.models.ChatCompletions;
import com.azure.ai.openai.models.ChatCompletionsOptions;
import com.azure.ai.openai.models.ChatRequestAssistantMessage;
import com.azure.ai.openai.models.ChatRequestMessage;
import com.azure.ai.openai.models.ChatRequestSystemMessage;
import com.azure.ai.openai.models.ChatRequestUserMessage;
import com.azure.ai.openai.models.ChatResponseMessage;
import com.azure.core.credential.AzureKeyCredential;
import com.azure.core.util.Configuration;
import java.util.ArrayList;
import java.util.List;
String endpoint = "https://<resource-name>.openai.azure.com/openai/v1";
String deploymentName = "gpt-5.2";
TokenCredential defaultCredential = new DefaultAzureCredentialBuilder().build();
OpenAIClient client = new OpenAIClientBuilder()
.credential(defaultCredential)
.endpoint("{endpoint}")
.buildClient();
List<ChatRequestMessage> chatMessages = new ArrayList<>();
chatMessages.add(new ChatRequestSystemMessage("You are a helpful assistant."));
chatMessages.add(new ChatRequestUserMessage("What is the speed of light?"));
ChatCompletions chatCompletions = client.getChatCompletions(deploymentName, new ChatCompletionsOptions(chatMessages));
System.out.printf("Model ID=%s is created at %s.%n", chatCompletions.getId(), chatCompletions.getCreatedAt());
for (ChatChoice choice : chatCompletions.getChoices()) {
ChatResponseMessage message = choice.getMessage();
System.out.printf("Index: %d, Chat Role: %s.%n", choice.getIndex(), message.getRole());
System.out.println("Message:");
System.out.println(message.getContent());
Weitere Informationen zur Verwendung des OpenAI SDK finden Sie unter Azure OpenAI unterstützte Programmiersprachen.
import { AzureOpenAI } from "openai";
import { DefaultAzureCredential, getBearerTokenProvider } from "@azure/identity";
const deployment = "gpt-4o";
const endpoint = "https://<resource-name>.openai.azure.com";
const scope = "https://ai.azure.com/.default";
const apiVersion = "2024-04-01-preview";
const azureADTokenProvider = getBearerTokenProvider(new DefaultAzureCredential(), scope);
const options = { azureADTokenProvider, deployment, apiVersion, endpoint };
const client = new AzureOpenAI(options);
const result = await client.chat.completions.create({
model: deployment,
messages: [
{ role: "system", content: "You are a helpful assistant" },
{ role: "user", content: "What is the speed of light?" },
],
});
console.log(result.choices[0].message.content);
Weitere Informationen zur Verwendung des OpenAI SDK finden Sie unter Azure OpenAI unterstützte Programmiersprachen.
- Installieren Sie das OpenAI-Paket: Führen Sie diesen Befehl aus, um Ihrem .NET Projekt die OpenAI-Clientbibliothek hinzuzufügen.
dotnet add package OpenAI ```When it succeeds, the .NET CLI confirms that it installed the `OpenAI` package. This snippet configures `DefaultAzureCredential`, builds `OpenAIClientOptions`, and creates a `ChatClient` for the Azure OpenAI v1 endpoint. ```csharp using System.ClientModel.Primitives; using Azure.Identity; using OpenAI; using OpenAI.Chat; #pragma warning disable OPENAI001 const string directModelEndpoint = "https://<resource-name>.openai.azure.com/openai/v1/"; const string modelDeploymentName = "gpt-5.2"; BearerTokenPolicy tokenPolicy = new( new DefaultAzureCredential(), "https://ai.azure.com/.default"); OpenAIClient openAIClient = new( authenticationPolicy: tokenPolicy, options: new OpenAIClientOptions() { Endpoint = new($"{directModelEndpoint}"), }); ChatClient chatClient = openAIClient.GetChatClient(modelDeploymentName); ChatCompletion completion = await chatClient.CompleteChatAsync( [ new SystemChatMessage("You are a helpful assistant."), new UserChatMessage("How many feet are in a mile?") ]); Console.WriteLine(completion.Content[0].Text); #pragma warning restore OPENAI001
Weitere Informationen zur Verwendung des OpenAI SDK finden Sie unter Azure OpenAI unterstützte Programmiersprachen.
Verwenden des Agent-Frameworks für die lokale Orchestrierung
Microsoft Agent Framework ist ein Open Source SDK zum Erstellen von Multi-Agent-Systemen im Code (z. B. .NET und Python) mit einer cloud-provider-agnostischen Schnittstelle.
Verwenden Sie Agent Framework, wenn Sie Agents lokal definieren und koordinieren möchten. Koppeln Sie es mit dem Foundry SDK, wenn diese Agents für Foundry-Modelle ausgeführt werden sollen oder wenn Sie möchten, dass Agent Framework Agents koordiniert, die in Foundry gehostet werden.
Weitere Informationen finden Sie in der Übersicht über das Microsoft Agent Framework.
Foundry Tools SDKs
Foundry Tools (früher Azure AI Services) sind vorgefertigte Point-Lösungen mit dedizierten SDKs. Verwenden Sie die folgenden Endpunkte, um mit Foundry Tools zu arbeiten.
Welchen Endpunkt sollten Sie verwenden?
Wählen Sie einen Endpunkt basierend auf Ihren Anforderungen aus:
Verwenden Sie den Azure AI Services-Endpunkt, um auf Maschinelles Sehen, Inhaltssicherheit, Dokumentintelligenz, Sprache, Übersetzung und Token foundry Tools zuzugreifen.
Endpunkt Foundry Tools: https://<your-resource-name>.cognitiveservices.azure.com/
Hinweis
Endpunkte verwenden entweder Ihren Ressourcennamen oder eine benutzerdefinierte Unterdomäne. Wenn Ihre Organisation eine benutzerdefinierte Unterdomäne eingerichtet hat, ersetzen Sie your-resource-name durch your-custom-subdomain in allen Endpunktbeispielen.
Wenn Ihre Workloads ablaufende Azure KI Language Features verwenden, z. B. Stimmungsanalyse, Extraktion von Schlüsselbegriffen, Zusammenfassung, Entitätsverknüpfung, CLU oder CQA, sollten Sie den Wechsel zu Foundry-Lösungen von Microsoft planen. Für neue Entwicklung sollten Sie das Foundry SDK oder den openAI-kompatiblen Endpunkt verwenden, wie weiter oben in diesem Artikel beschrieben. Siehe Migrate von Language Studio zu Microsoft Foundry.
Verwenden Sie für die Sprach- und Übersetzungstools die Endpunkte in den folgenden Tabellen. Ersetzen Sie Platzhalter durch Ihre Ressourceninformationen.
Sprachendpunkte
| Gießerei-Werkzeug | Endpunkt |
|---|---|
| Sprache zu Text (Standard) | https://<YOUR-RESOURCE-REGION>.stt.speech.microsoft.com |
| Sprachsynthese (Neural) | https://<YOUR-RESOURCE-REGION>.tts.speech.microsoft.com |
| Benutzerdefinierte Stimme | https://<YOUR-RESOURCE-NAME>.cognitiveservices.azure.com/ |
Übersetzungsendpunkte
| Gießereiwerkzeug | Endpunkt |
|---|---|
| Textübersetzung | https://api.cognitive.microsofttranslator.com/ |
| Dokumentübersetzung | https://<YOUR-RESOURCE-NAME>.cognitiveservices.azure.com/ |
Sprachendpunkte
| Gießereitool | Endpunkt |
|---|---|
| Textanalyse | https://<YOUR-RESOURCE-NAME>.cognitiveservices.azure.com |
Wichtig
Am 20. März 2027 wird Azure Language Studio eingestellt und zu Microsoft Foundry migriert. Alle Funktionen und zukünftigen Verbesserungen werden in Microsoft Foundry verfügbar sein.
Am 31. März 2029 werden die folgenden Azure Sprachfunktionen eingestellt (Ende des Supports). Vor diesem Datum sollten Benutzer vorhandene Arbeitslasten migrieren und neue Projekte in Microsoft Foundry-Modelle integrieren, um das Verständnis der natürlichen Sprache und die vereinfachte Anwendungsintegration zu verbessern:
- Schlüsselphrasenextraktion
- Stimmungsanalyse und Meinungs-Mining
- Benutzerdefinierte Textklassifizierung
- Konversations-Language Understanding (CLU)
- Benutzerdefinierte Frageantwort (CQA)
- Orchestrierungs-Workflow
- Zusammenfassung (extraktiv und abstraktiv, für Dokumente und Unterhaltungen)
- Entitätsverknüpfung
Kernfunktionen mit fortgesetzter Unterstützung: Spracherkennung, PII-Erkennung, Textanalysen für Gesundheit, Vordefinierter NER und Benutzerdefinierter NER.
Migrationsoptionen finden Sie unter Migrate from Language Studio to Microsoft Foundry.