Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt nur für:klassisches Foundry Portal. Dieser Artikel ist für das neue Foundry-Portal nicht verfügbar.
Erfahren Sie mehr über das neue Portal.
Hinweis
Links in diesem Artikel können Inhalte in der neuen Microsoft Foundry-Dokumentation anstelle der jetzt angezeigten Foundry-Dokumentation (klassisch) öffnen.
Tipp
Eine alternative Schnellstartanleitung für Das Foundry-Projekt ist verfügbar: Quickstart: Erste Schritte mit Microsoft Foundry (Foundry Projects).
Diese Schnellstartanleitung richtet Ihre lokale Umgebung für Hub-basierte Projekte ein, stellt ein Modell bereit und erstellt ein einfaches nachverfolgbares/bewertbares Chatskript.
Voraussetzungen
- Azure Abonnement.
- Vorhandenes Hubprojekt (oder erstellen Sie eins). Andernfalls sollten Sie erwägen, ein Foundry-Projekt-Quickstart zu verwenden.
Einrichten Ihrer Entwicklungsumgebung
- Installieren Sie die erforderlichen Komponenten (Python, Azure CLI, Anmelden).
- Installieren von Paketen:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Unterschiedliche Projekttypen benötigen unterschiedliche Azure-ai-Projekte-Versionen. Bewahren Sie jedes Projekt in einer eigenen isolierten Umgebung auf, um Konflikte zu vermeiden.
Bereitstellen eines Modells
- Portal: Anmelden, Hubprojekt öffnen.
- Modellkatalog: wählen Sie gpt-4o-mini aus.
- Verwenden Sie dieses Modell > , um den Standardmäßigen Bereitstellungsnamen > "Deploy" zu akzeptieren.
- Nach Erfolg: Öffnen Sie im Playground, um dies zu überprüfen.
Erstellen Ihrer Chat-App
Erstellen sie chat.py mit Beispielcode:
Tipp
Code verwendet Azure AI Projects 1.x SDK und ist mit Azure AI Projects 2.x nicht kompatibel. Stellen Sie sicher, dass Sie die richtige Version azure-ai-projects==1.0.0b10 installieren, die mit dem Code in diesem Artikel verwendet werden soll.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Fügen Sie Ihre Projekt-Verbindungszeichenfolge von der Projektübersichtsseite ein (kopieren und im Code den Platzhalter ersetzen).
Ausführen:
python chat.py
Promptvorlagen hinzufügen
Fügen Sie get_chat_response mithilfe der Vorlage "Mustache" hinzu (siehe chat-template.py Beispiel), und rufen Sie dann benutzer-/kontextbezogene Nachrichten auf.
Bitte den Befehl erneut ausführen, um die vorlagenbasierte Antwort anzuzeigen.
Bereinigen von Ressourcen
Löschen Sie die Bereitstellung oder das Projekt, wenn Sie dies getan haben, um Gebühren zu vermeiden.
Nächster Schritt
Übersicht über Microsoft Foundry-Clientbibliothek
Verwandte Inhalte
Schnellstart: Erste Schritte mit Foundry (Foundry-Projekte).