Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Verwenden Sie das paket langchain-azure-ai als Einstiegspunkt zum Erstellen von LangChain- und LangGraph-Anwendungen mit Microsoft Foundry-Funktionen. In diesem Artikel erhalten Sie eine allgemeine Karte des Pakets, damit Sie schnell beginnen können, und dann zur richtigen Deep-Dive-Dokumentation für jede Funktion wechseln.
Voraussetzungen
- Ein Azure-Abonnement. Erstellen Sie eine kostenlos.
- Ein Foundry-Projekt.
- Die Rolle Azure AI User auf dem Foundry-Projekt (mit minimalen Berechtigungen für die Entwicklung). Wenn Sie auch Ressourcen erstellen oder verwalten, verwenden Sie nach Bedarf Mitwirkender oder Besitzer. Ausführliche Informationen finden Sie unter Role-based access control for Microsoft Foundry.
- Python 3.10 oder höher.
- Azure CLI ist angemeldet (
az login), damitDefaultAzureCredentialsich authentifizieren kann.
Tipp
In diesem Artikel wird die Unterstützung für Microsoft Foundry (new) erwähnt, die Version azure-ai-projects>=2.0 verwendet.
Wenn Sie die klassische Version von Foundry verwenden, verwenden Sie stattdessen langchain-azure-ai[v1].
Installieren des Pakets
Installieren Sie das Basispaket:
pip install -U langchain-azure-ai azure-identity
Installieren Sie optionale Extras basierend auf Ihrem Szenario:
pip install -U "langchain-azure-ai[tools]"
pip install -U "langchain-azure-ai[opentelemetry]"
- Verwenden Sie
[tools], wenn Ihre App Tools aus dem Namespacelangchain_azure_ai.tools.*verwendet, z. B. Dokumentintelligenz. - Verwenden Sie
[opentelemetry], wenn Sie Tracing-Integration über OpenTelemetry wünschen.
Auswählen von Integrationsbausteinen
Verwenden Sie diese Karte, um den richtigen Namespace für Ihre Lösung auszuwählen.
| Fähigkeit | Namespace | Typische Verwendung |
|---|---|---|
| Gießerei-Agentendienst | langchain_azure_ai.agents |
Erstellen Sie verwaltete Agent-Knoten, um komplexe Diagramme und Flüsse für LangGraph und LangChain zu erstellen. Ausführliche Beispiele finden Sie hier. |
| Sicherheit von Gießereiinhalten | langchain_azure_ai.agents.middleware |
Verwenden Sie Foundry Content Safety und Moderation, um sicherzustellen, dass Sie eine Lösung mit den richtigen Schutzschienen bereitstellen können. Ausführliche Beispiele finden Sie hier. |
| Chatmodelle | langchain_azure_ai.chat_models |
Rufen Sie Azure OpenAI- und Modellkatalog-Chatmodelle auf. Ausführliche Beispiele finden Sie hier. |
| Einbettungen | langchain_azure_ai.embeddings |
Rufen Sie Einbettungsmodelle aus dem Katalog auf und generieren Sie Vektoren für Such-, Abruf- und Bewertungsworkflows. Ausführliche Beispiele finden Sie hier. |
| Vektorspeicher | langchain_azure_ai.vectorstores |
Verwenden Sie Azure KI-Suche- und Cosmos DB-Vektorintegrationen. |
| Retriever | langchain_azure_ai.retrievers |
Führen Sie Abrufoperationen über Azure-unterstützte Indizes und Speicherplätze aus. |
| Chat-Verlaufspeicherung | langchain_azure_ai.chat_message_histories |
Speichern und Wiedergeben des Chatverlaufs über Sitzungen hinweg. Verwenden Sie speicherbasierte Historien, um den konsolidierten Chatverlauf abzurufen. Ausführliche Beispiele finden Sie hier. |
| Werkzeuge | langchain_azure_ai.tools |
Fügen Sie Tools wie Document Intelligence, Vision, Textanalyse im Gesundheitswesen und Logik-Apps hinzu. |
| Rückrufe und Ablaufverfolgung | langchain_azure_ai.callbacks |
Erfassen Sie Ausführungsereignisse und senden Sie OpenTelemetry-Traces. Ausführliche Beispiele finden Sie hier. |
| Abfragekonstruktoren | langchain_azure_ai.query_constructors |
Erstellen Sie back-End-spezifische Abfragefilter für Abrufszenarien. |
Weitere Informationen zu konkreten Anleitungen finden Sie im Abschnitt Jede Funktion im Detail lernen.
Verbindung mit Projektendpunkten und Anmeldeinformationen herstellen
Viele langchain-azure-ai Klassen unterstützen die Verbindung über einen Foundry-Projektendpunkt. Legen Sie AZURE_AI_PROJECT_ENDPOINT einmal fest, und verwenden Sie sie dann für alle unterstützten Klassen wieder.
export AZURE_AI_PROJECT_ENDPOINT="https://<resource>.services.ai.azure.com/api/projects/<project>"
Wenn Sie project_endpoint verwenden, verwendet die Authentifizierung Microsoft Entra ID und Azure RBAC für das Projekt.
API-Schlüssel werden für direkte Serviceendpunkte, z.B. /openai/v1, verwendet.
export OPENAI_BASE_URL="https://<resource>.services.ai.azure.com/openai/v1"
export OPENAI_API_KEY="<your-key>"
Beispiel: Verwenden von Foundry-Modellen
Nachdem die Umgebungsvariablen konfiguriert wurden, können Sie ein Modell verwenden, indem Sie:
import langchain.chat_models import init_chat_model
model = init_chat_model("azure_ai:gpt-5.2")
Sie können Clients auch speziell konfigurieren. Als Beispiel betrachten wir AzureAIOpenAIApiChatModel als repräsentatives Muster:
import os
from azure.identity import DefaultAzureCredential
from langchain_azure_ai.chat_models import AzureAIOpenAIApiChatModel
# Option A: Use a Foundry project endpoint (Microsoft Entra ID required).
model_from_project = AzureAIOpenAIApiChatModel(
project_endpoint=os.environ["AZURE_AI_PROJECT_ENDPOINT"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option B: Use a service endpoint directly.
model_from_endpoint = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option C: Use a different credential strategy.
model_with_cli_credential = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential="super-secret",
model="gpt-5.2",
)
Funktionsweise dieses Codeausschnitts: Zeigt dasselbe Modell, das von einem Foundry-Projektendpunkt oder von einem direkten Dienstendpunkt initialisiert wurde, und zeigt, wie Anmeldeinformationen ausgetauscht werden.
Sie können dasselbe Muster auf Tools anwenden. So kann AzureAIDocumentIntelligenceTool den Projektendpunkt und DefaultAzureCredential ohne zusätzliche Konfiguration verwenden, wenn AZURE_AI_PROJECT_ENDPOINT festgelegt ist:
from langchain_azure_ai.tools import AzureAIDocumentIntelligenceTool
document_tool = AzureAIDocumentIntelligenceTool()
Wie DefaultAzureCredential funktioniert
DefaultAzureCredential versucht mehrere Microsoft Entra ID Anmeldedatenquellen in einer bestimmten Reihenfolge und verwendet die erste, die funktioniert. Allgemeine Quellen sind Umgebungsvariablen, verwaltete Identität, Entwicklertools und Azure CLI.
Verwenden Sie DefaultAzureCredential als Standard für lokale Entwicklungs- und Bereitstellungs-Workloads. Wenn Sie eine strengere Kontrolle benötigen, ersetzen Sie sie durch bestimmte Anmeldeinformationen wie AzureCliCredential für die lokale Entwicklung oder ManagedIdentityCredential für Produktionsworkloads in Azure.
Dasselbe Projektendpunktmuster wird auch von anderen Klassen verwendet.
Lernen Sie die einzelnen Funktionen im Detail kennen
Beginnen Sie mit diesen Leitfäden in diesem Dokumentationssatz:
- Verwenden von Foundry-Modellen mit LangChain und LangGraph
- Verwenden von Foundry Content Safety Middleware
- Verwenden des Foundry Agent-Diensts mit LangGraph
- Verwenden von Foundry-Speicher mit LangChain und LangGraph
- Verwenden von Foundry Observability zum Nachverfolgen von Apps
Verwenden Sie diese Paketressourcen für Details und Updates auf Modulebene: