Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Vorsicht
Der Image Analysis 4.0-Dienst in Azure Vision in Foundry Tools ist veraltet und wird am 25. September 2028 eingestellt, nachdem Aufrufe an den Dienst fehlschlagen. Es wird empfohlen, zu einer der verfügbaren Alternativen zu wechseln, die im Migrationshandbuch beschrieben sind.
In diesem Artikel wird erläutert, wie Sie mithilfe der Image Analysis REST-API oder Clientbibliotheken ein einfaches Bildtaggingskript einrichten. Der Analysebilddienst bietet Ihnen KI-Algorithmen für die Verarbeitung von Bildern und das Zurückgeben von Informationen zu ihren visuellen Features. Führen Sie die folgenden Schritte aus, um ein Paket in Ihrer Anwendung zu installieren und den Beispielcode auszuprobieren.
Verwenden Sie die Bildanalyse-Clientbibliothek für C#, um ein Bild für Inhaltstags zu analysieren. Diese Schnellstartanleitung definiert eine Methode, die das Clientobjekt verwendet, AnalyzeImageUrlum ein Remotebild zu analysieren und die Ergebnisse zu drucken.
Reference-Dokumentation | Library Quellcode | Package (NuGet) | Beispiele
Tipp
Sie können auch ein lokales Bild analysieren. Sehen Sie sich die ComputerVisionClient-Methoden an, z. B. AnalyzeImageInStreamAsync. Oder sehen Sie sich den Beispielcode für GitHub für Szenarien mit lokalen Bildern an.
Tipp
Die Analyseimage-API kann viele andere Vorgänge ausführen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Voraussetzungen
- Ein Azure-Abonnement. Sie können eine kostenlos erstellen.
- Die Visual Studio-IDE oder die aktuelle Version von .NET Core.
- Nachdem Sie Ihr Azure-Abonnement haben, erstellen Sie eine Maschinelles Sehen-Ressource im Azure-Portal, um Ihren Schlüssel und Endpunkt abzurufen. Wählen Sie nach der Bereitstellung die Option "Zur Ressource wechseln" aus.
- Sie benötigen den Schlüssel und Endpunkt aus der Ressource, die Sie erstellen, um Ihre Anwendung mit Azure Vision in Foundry Tools zu verbinden.
- Sie können das kostenlose Preisniveau (
F0) verwenden, um den Dienst zu testen und später auf eine kostenpflichtige Stufe für die Produktion zu aktualisieren.
Erstellen von Umgebungsvariablen
Schreiben Sie in diesem Beispiel Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Wechseln Sie zum Azure-Portal. Wenn die Ressource, die Sie im Abschnitt "Voraussetzungen" erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter "Nächste Schritte" die Option "Zur Ressource wechseln" aus. Auf der Seite "Schlüssel und Endpunkt" der Face-Ressource finden Sie Ihren Schlüssel und Endpunkt unter "Ressourcenverwaltung". Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Schlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster, und befolgen Sie die Anweisungen für Ihr Betriebssystem und die Entwicklungsumgebung.
- Ersetzen Sie zum Festlegen der Umgebungsvariablen
VISION_KEY<your_key>durch einen der Schlüssel für Ihre Ressource. - Um die Umgebungsvariable
VISION_ENDPOINTfestzulegen, ersetzen Sie<your_endpoint>durch den Endpunkt für Ihre Ressource.
Wichtig
Wir empfehlen die Verwendung der Microsoft Entra ID-Authentifizierung in Verbindung mit verwalteten Identitäten für Azure-Ressourcen, um zu vermeiden, dass Zugangsdaten mit Ihren Anwendungen gespeichert werden, die in der Cloud ausgeführt werden.
Verwenden Sie API-Schlüssel mit Vorsicht. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und veröffentlichen Sie ihn nie öffentlich. Wenn Sie API-Schlüssel verwenden, speichern Sie sie sicher in Azure Key Vault, drehen Sie die Schlüssel regelmäßig, und beschränken Sie den Zugriff auf Azure Key Vault mithilfe rollenbasierter Zugriffssteuerung und Netzwerkzugriffseinschränkungen. Weitere Informationen zur sicheren Verwendung von API-Schlüsseln in Ihren Apps finden Sie unter API-Schlüssel mit Azure Key Vault.
Weitere Informationen zur Sicherheit von AI-Diensten finden Sie unter Authenticate-Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariablen hinzugefügt haben, müssen Sie möglicherweise alle ausgeführten Programme neu starten, die die Umgebungsvariablen lesen, einschließlich des Konsolenfensters.
Bild analysieren
Erstellen Sie eine neue C#-Anwendung.
Erstellen Sie mit Visual Studio eine neue .NET Core-Anwendung.
Installieren der Clientbibliothek
Nachdem Sie ein neues Projekt erstellt haben, installieren Sie die Clientbibliothek, indem Sie mit der rechten Maustaste auf die Projektmappe im Projektmappen-Explorer klicken und Manage NuGet Packages auswählen. Im Paket-Manager, der sich öffnet, wählen Sie Durchsuchen, überprüfen Sie Einschließen von Vorversionen und suchen Sie nach
Microsoft.Azure.CognitiveServices.Vision.ComputerVision. Wählen Sie "Version7.0.0" und dann "Installieren" aus.Öffnen Sie im Projektverzeichnis die Program.cs Datei in Ihrem bevorzugten Editor oder ihrer bevorzugten IDE. Fügen Sie den folgenden Code ein:
using System; using System.Collections.Generic; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision; using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models; using System.Threading.Tasks; using System.IO; using Newtonsoft.Json; using Newtonsoft.Json.Linq; using System.Threading; using System.Linq; namespace ComputerVisionQuickstart { class Program { // Add your Computer Vision key and endpoint static string key = Environment.GetEnvironmentVariable("VISION_KEY"); static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT"); // URL image used for analyzing an image (image of puppy) private const string ANALYZE_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg"; static void Main(string[] args) { Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example"); Console.WriteLine(); // Create a client ComputerVisionClient client = Authenticate(endpoint, key); // Analyze an image to get features and other properties. AnalyzeImageUrl(client, ANALYZE_URL_IMAGE).Wait(); } /* * AUTHENTICATE * Creates a Computer Vision client used by each example. */ public static ComputerVisionClient Authenticate(string endpoint, string key) { ComputerVisionClient client = new ComputerVisionClient(new ApiKeyServiceClientCredentials(key)) { Endpoint = endpoint }; return client; } public static async Task AnalyzeImageUrl(ComputerVisionClient client, string imageUrl) { Console.WriteLine("----------------------------------------------------------"); Console.WriteLine("ANALYZE IMAGE - URL"); Console.WriteLine(); // Creating a list that defines the features to be extracted from the image. List<VisualFeatureTypes?> features = new List<VisualFeatureTypes?>() { VisualFeatureTypes.Tags }; Console.WriteLine($"Analyzing the image {Path.GetFileName(imageUrl)}..."); Console.WriteLine(); // Analyze the URL image ImageAnalysis results = await client.AnalyzeImageAsync(imageUrl, visualFeatures: features); // Image tags and their confidence score Console.WriteLine("Tags:"); foreach (var tag in results.Tags) { Console.WriteLine($"{tag.Name} {tag.Confidence}"); } Console.WriteLine(); } } }Wichtig
Wir empfehlen die Verwendung der Microsoft Entra ID-Authentifizierung in Verbindung mit verwalteten Identitäten für Azure-Ressourcen, um zu vermeiden, dass Zugangsdaten mit Ihren Anwendungen gespeichert werden, die in der Cloud ausgeführt werden.
Verwenden Sie API-Schlüssel mit Vorsicht. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und veröffentlichen Sie ihn nie öffentlich. Wenn Sie API-Schlüssel verwenden, speichern Sie sie sicher in Azure Key Vault, drehen Sie die Schlüssel regelmäßig, und beschränken Sie den Zugriff auf Azure Key Vault mithilfe rollenbasierter Zugriffssteuerung und Netzwerkzugriffseinschränkungen. Weitere Informationen zur sicheren Verwendung von API-Schlüsseln in Ihren Apps finden Sie unter API-Schlüssel mit Azure Key Vault.
Weitere Informationen zur Sicherheit von AI-Diensten finden Sie unter Authenticate-Anforderungen an Azure KI Services.
Ausführen der Anwendung
Führen Sie die Anwendung aus, indem Sie oben im IDE-Fenster auf die Schaltfläche " Debuggen " klicken.
Ausgabe
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
----------------------------------------------------------
ANALYZE IMAGE - URL
Analyzing the image sample16.png...
Tags:
grass 0.9957543611526489
dog 0.9939157962799072
mammal 0.9928356409072876
animal 0.9918001890182495
dog breed 0.9890419244766235
pet 0.974603533744812
outdoor 0.969241738319397
companion dog 0.906731367111206
small greek domestic dog 0.8965123891830444
golden retriever 0.8877675533294678
labrador retriever 0.8746421337127686
puppy 0.872604250907898
ancient dog breeds 0.8508287668228149
field 0.8017748594284058
retriever 0.6837497353553772
brown 0.6581960916519165
Bereinigen von Ressourcen
Wenn Sie ein Foundry Tools-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder Ressourcengruppe löschen. Durch das Löschen der Ressourcengruppe werden auch alle anderen ressourcen gelöscht, die ihr zugeordnet sind.
Verwandte Inhalte
In dieser Schnellstartanleitung haben Sie erfahren, wie Sie die Image Analysis-Clientbibliothek installieren und grundlegende Imageanalyseaufrufe ausführen. Erfahren Sie als Nächstes mehr über die Features der Bildanalyse-API.
Verwenden Sie die Image Analysis-Clientbibliothek für Python, um ein Remotebild auf Inhalts-Tags zu analysieren.
Tipp
Sie können auch ein lokales Bild analysieren. Siehe die ComputerVisionClientOperationsMixin-Methoden, wie z. B. analyze_image_in_stream. Oder sehen Sie sich den Beispielcode auf GitHub für Szenarien mit lokalen Bildern an.
Tipp
Die Analyseimage-API kann viele andere Vorgänge ausführen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Reference-Dokumentation | Library Quellcode | Package (PiPy) | Beispiele
Voraussetzungen
- Ein Azure-Abonnement. Sie können eine kostenlos erstellen.
-
Python 3.x.
- Ihre Python-Installation sollte pip enthalten. Sie können überprüfen, ob pip installiert ist, indem Sie
pip --versionauf der Befehlszeile ausführen. Erhalten Sie pip durch die Installation der neuesten Version von Python.
- Ihre Python-Installation sollte pip enthalten. Sie können überprüfen, ob pip installiert ist, indem Sie
- Nachdem Sie Ihr Azure-Abonnement haben, erstellen Sie eine Maschinelles Sehen-Ressource im Azure-Portal, um Ihren Schlüssel und Endpunkt abzurufen. Wählen Sie nach der Bereitstellung die Option "Zur Ressource wechseln" aus.
- Sie benötigen den Schlüssel und Endpunkt aus der Ressource, die Sie erstellen, um Ihre Anwendung mit Azure Vision in Foundry Tools zu verbinden.
- Sie können das kostenlose Preisniveau (
F0) verwenden, um den Dienst zu testen und später auf eine kostenpflichtige Stufe für die Produktion zu aktualisieren.
Erstellen von Umgebungsvariablen
Schreiben Sie in diesem Beispiel Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Wechseln Sie zum Azure-Portal. Wenn die Ressource, die Sie im Abschnitt "Voraussetzungen" erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter "Nächste Schritte" die Option "Zur Ressource wechseln" aus. Auf der Seite "Schlüssel und Endpunkt" der Face-Ressource finden Sie Ihren Schlüssel und Endpunkt unter "Ressourcenverwaltung". Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Schlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster, und befolgen Sie die Anweisungen für Ihr Betriebssystem und die Entwicklungsumgebung.
- Ersetzen Sie zum Festlegen der Umgebungsvariablen
VISION_KEY<your_key>durch einen der Schlüssel für Ihre Ressource. - Um die Umgebungsvariable
VISION_ENDPOINTfestzulegen, ersetzen Sie<your_endpoint>durch den Endpunkt für Ihre Ressource.
Wichtig
Wir empfehlen die Verwendung der Microsoft Entra ID-Authentifizierung in Verbindung mit verwalteten Identitäten für Azure-Ressourcen, um zu vermeiden, dass Zugangsdaten mit Ihren Anwendungen gespeichert werden, die in der Cloud ausgeführt werden.
Verwenden Sie API-Schlüssel mit Vorsicht. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und veröffentlichen Sie ihn nie öffentlich. Wenn Sie API-Schlüssel verwenden, speichern Sie sie sicher in Azure Key Vault, drehen Sie die Schlüssel regelmäßig, und beschränken Sie den Zugriff auf Azure Key Vault mithilfe rollenbasierter Zugriffssteuerung und Netzwerkzugriffseinschränkungen. Weitere Informationen zur sicheren Verwendung von API-Schlüsseln in Ihren Apps finden Sie unter API-Schlüssel mit Azure Key Vault.
Weitere Informationen zur Sicherheit von AI-Diensten finden Sie unter Authenticate-Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariablen hinzugefügt haben, müssen Sie möglicherweise alle ausgeführten Programme neu starten, die die Umgebungsvariablen lesen, einschließlich des Konsolenfensters.
Bild analysieren
Installieren Sie die Clientbibliothek.
Sie können die Client-Bibliothek mit installieren:
pip install --upgrade azure-cognitiveservices-vision-computervisionInstallieren Sie auch die Pillow-Bibliothek.
pip install pillowErstellen Sie eine neue Python Anwendung.
Erstellen Sie eine neue Python Datei. Sie können es z. B. quickstart-file.py benennen.
Öffnen Sie quickstart-file.py in einem Text-Editor oder einer IDE, und fügen Sie den folgenden Code ein.
from azure.cognitiveservices.vision.computervision import ComputerVisionClient from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes from msrest.authentication import CognitiveServicesCredentials from array import array import os from PIL import Image import sys import time ''' Authenticate Authenticates your credentials and creates a client. ''' subscription_key = os.environ["VISION_KEY"] endpoint = os.environ["VISION_ENDPOINT"] computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key)) ''' END - Authenticate ''' ''' Quickstart variables These variables are shared by several examples ''' # Images used for the examples: Describe an image, Categorize an image, Tag an image, # Detect faces, Detect adult or racy content, Detect the color scheme, # Detect domain-specific content, Detect image types, Detect objects images_folder = os.path.join (os.path.dirname(os.path.abspath(__file__)), "images") remote_image_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/landmark.jpg" ''' END - Quickstart variables ''' ''' Tag an Image - remote This example returns a tag (key word) for each thing in the image. ''' print("===== Tag an image - remote =====") # Call API with remote image tags_result_remote = computervision_client.tag_image(remote_image_url ) # Print results with confidence score print("Tags in the remote image: ") if (len(tags_result_remote.tags) == 0): print("No tags detected.") else: for tag in tags_result_remote.tags: print("'{}' with confidence {:.2f}%".format(tag.name, tag.confidence * 100)) print() ''' END - Tag an Image - remote ''' print("End of Computer Vision quickstart.")Führen Sie die Anwendung mithilfe des
pythonBefehls in der Schnellstartdatei aus.python quickstart-file.py
Ausgabe
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
===== Tag an image - remote =====
Tags in the remote image:
'outdoor' with confidence 99.00%
'building' with confidence 98.81%
'sky' with confidence 98.21%
'stadium' with confidence 98.17%
'ancient rome' with confidence 96.16%
'ruins' with confidence 95.04%
'amphitheatre' with confidence 93.99%
'ancient roman architecture' with confidence 92.65%
'historic site' with confidence 89.55%
'ancient history' with confidence 89.54%
'history' with confidence 86.72%
'archaeological site' with confidence 84.41%
'travel' with confidence 65.85%
'large' with confidence 61.02%
'city' with confidence 56.57%
End of Azure Vision quickstart.
Bereinigen von Ressourcen
Wenn Sie ein Foundry Tools-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder Ressourcengruppe löschen. Durch das Löschen der Ressourcengruppe werden auch alle anderen ressourcen gelöscht, die ihr zugeordnet sind.
Nächster Schritt
In dieser Schnellstartanleitung haben Sie erfahren, wie Sie die Image Analysis-Clientbibliothek installieren und grundlegende Imageanalyseaufrufe ausführen. Erfahren Sie als Nächstes mehr über die Features der Analyseimage-API.
Verwenden Sie die Java-Clientbibliothek für die Bildanalyse, um ein Fernbild auf Tags, Textbeschreibungen, Gesichter, Inhalte für Erwachsene und vieles mehr zu analysieren.
Tipp
Sie können auch ein lokales Bild analysieren. Siehe die ComputerVision-Methoden, wie AnalyzeImage. Oder sehen Sie sich den Beispielcode auf GitHub für Szenarien mit lokalen Bildern an.
Tipp
Die Analyseimage-API kann viele andere Vorgänge ausführen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Referenzdokumentation | Bibliotheksquellcode |Artefakt (Maven) | Beispiele
Voraussetzungen
- Ein Azure-Abonnement. Sie können eine kostenlos erstellen.
- Die aktuelle Version des Java Development Kit (JDK).
- Das Gradle-Buildtool oder ein anderer Abhängigkeits-Manager.
- Nachdem Sie Ihr Azure-Abonnement haben, erstellen Sie eine Maschinelles Sehen-Ressource im Azure-Portal, um Ihren Schlüssel und Endpunkt abzurufen. Wählen Sie nach der Bereitstellung die Option "Zur Ressource wechseln" aus.
- Sie benötigen den Schlüssel und endpunkt aus der Ressource, die Sie erstellen, um Ihre Anwendung mit dem Azure Vision in Foundry Tools zu verbinden.
- Sie können das kostenlose Preisniveau (
F0) verwenden, um den Dienst zu testen und später auf eine kostenpflichtige Stufe für die Produktion zu aktualisieren.
Erstellen von Umgebungsvariablen
Schreiben Sie in diesem Beispiel Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Wechseln Sie zum Azure-Portal. Wenn die Ressource, die Sie im Abschnitt "Voraussetzungen" erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter "Nächste Schritte" die Option "Zur Ressource wechseln" aus. Auf der Seite "Schlüssel und Endpunkt" der Face-Ressource finden Sie Ihren Schlüssel und Endpunkt unter "Ressourcenverwaltung". Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Schlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster, und befolgen Sie die Anweisungen für Ihr Betriebssystem und die Entwicklungsumgebung.
- Ersetzen Sie zum Festlegen der Umgebungsvariablen
VISION_KEY<your_key>durch einen der Schlüssel für Ihre Ressource. - Um die Umgebungsvariable
VISION_ENDPOINTfestzulegen, ersetzen Sie<your_endpoint>durch den Endpunkt für Ihre Ressource.
Wichtig
Wir empfehlen die Verwendung der Microsoft Entra ID-Authentifizierung in Verbindung mit verwalteten Identitäten für Azure-Ressourcen, um zu vermeiden, dass Zugangsdaten mit Ihren Anwendungen gespeichert werden, die in der Cloud ausgeführt werden.
Verwenden Sie API-Schlüssel mit Vorsicht. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und veröffentlichen Sie ihn nie öffentlich. Wenn Sie API-Schlüssel verwenden, speichern Sie sie sicher in Azure Key Vault, drehen Sie die Schlüssel regelmäßig, und beschränken Sie den Zugriff auf Azure Key Vault mithilfe rollenbasierter Zugriffssteuerung und Netzwerkzugriffseinschränkungen. Weitere Informationen zur sicheren Verwendung von API-Schlüsseln in Ihren Apps finden Sie unter API-Schlüssel mit Azure Key Vault.
Weitere Informationen zur Sicherheit von AI-Diensten finden Sie unter Authenticate-Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariablen hinzugefügt haben, müssen Sie möglicherweise alle ausgeführten Programme neu starten, die die Umgebungsvariablen lesen, einschließlich des Konsolenfensters.
Bild analysieren
Erstellen Sie ein neues Gradle-Projekt.
Erstellen Sie in einem Konsolenfenster (z. B. cmd, PowerShell oder Bash) ein neues Verzeichnis für Ihre App, und navigieren Sie zu ihr.
mkdir myapp && cd myappFühren Sie den
gradle initBefehl aus Ihrem Arbeitsverzeichnis aus. Mit diesem Befehl werden wichtige Builddateien für Gradle erstellt, einschließlich build.gradle.kts, die zur Laufzeit zum Erstellen und Konfigurieren Ihrer Anwendung verwendet werden.gradle init --type basicWenn Sie aufgefordert werden, ein DSL auszuwählen, wählen Sie Kotlin aus.
Installieren Sie die Clientbibliothek.
In dieser Schnellstartanleitung wird der Gradle-Abhängigkeits-Manager verwendet. Sie finden die Clientbibliothek und Informationen für andere Abhängigkeitsmanager im Maven Central Repository.
Suchen Sie build.gradle.kts , und öffnen Sie sie mit Ihrer bevorzugten IDE oder Ihrem Text-Editor. Kopieren Sie dann die folgende Buildkonfiguration, und fügen Sie sie in die Datei ein. Diese Konfiguration definiert das Projekt als Java Anwendung, deren Einstiegspunkt die Klasse
ImageAnalysisQuickstartist. Sie importiert Azure Vision-Bibliothek.plugins { java application } application { mainClass.set("ImageAnalysisQuickstart") } repositories { mavenCentral() } dependencies { implementation(group = "com.microsoft.azure.cognitiveservices", name = "azure-cognitiveservices-computervision", version = "1.0.9-beta") }Erstellen Sie eine Java Datei.
Führen Sie in Ihrem Arbeitsverzeichnis den folgenden Befehl aus, um einen Projektquellordner zu erstellen:
mkdir -p src/main/javaNavigieren Sie zum neuen Ordner, und erstellen Sie eine Datei namens ImageAnalysisQuickstart.java.
Öffnen Sie ImageAnalysisQuickstart.java in Ihrem bevorzugten Editor oder ihrer bevorzugten IDE, und fügen Sie den folgenden Code ein.
import com.microsoft.azure.cognitiveservices.vision.computervision.*; import com.microsoft.azure.cognitiveservices.vision.computervision.implementation.ComputerVisionImpl; import com.microsoft.azure.cognitiveservices.vision.computervision.models.*; import java.io.*; import java.nio.file.Files; import java.util.ArrayList; import java.util.List; import java.util.UUID; public class ImageAnalysisQuickstart { // Use environment variables static String key = System.getenv("VISION_KEY"); static String endpoint = System.getenv("VISION_ENDPOINT"); public static void main(String[] args) { System.out.println("\nAzure Cognitive Services Computer Vision - Java Quickstart Sample"); // Create an authenticated Computer Vision client. ComputerVisionClient compVisClient = Authenticate(key, endpoint); // Analyze local and remote images AnalyzeRemoteImage(compVisClient); } public static ComputerVisionClient Authenticate(String key, String endpoint){ return ComputerVisionManager.authenticate(key).withEndpoint(endpoint); } public static void AnalyzeRemoteImage(ComputerVisionClient compVisClient) { /* * Analyze an image from a URL: * * Set a string variable equal to the path of a remote image. */ String pathToRemoteImage = "https://github.com/Azure-Samples/cognitive-services-sample-data-files/raw/master/ComputerVision/Images/faces.jpg"; // This list defines the features to be extracted from the image. List<VisualFeatureTypes> featuresToExtractFromRemoteImage = new ArrayList<>(); featuresToExtractFromRemoteImage.add(VisualFeatureTypes.TAGS); System.out.println("\n\nAnalyzing an image from a URL ..."); try { // Call the Computer Vision service and tell it to analyze the loaded image. ImageAnalysis analysis = compVisClient.computerVision().analyzeImage().withUrl(pathToRemoteImage) .withVisualFeatures(featuresToExtractFromRemoteImage).execute(); // Display image tags and confidence values. System.out.println("\nTags: "); for (ImageTag tag : analysis.tags()) { System.out.printf("\'%s\' with confidence %f\n", tag.name(), tag.confidence()); } } catch (Exception e) { System.out.println(e.getMessage()); e.printStackTrace(); } } // END - Analyze an image from a URL. }Navigieren Sie zurück zum Projektstammordner, und erstellen Sie dann die App mit:
gradle buildFühren Sie ihn mit dem folgenden Befehl aus:
gradle run
Ausgabe
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
Azure Vision - Java Quickstart Sample
Analyzing an image from a URL ...
Tags:
'person' with confidence 0.998895
'human face' with confidence 0.997437
'smile' with confidence 0.991973
'outdoor' with confidence 0.985962
'happy' with confidence 0.969785
'clothing' with confidence 0.961570
'friendship' with confidence 0.946441
'tree' with confidence 0.917331
'female person' with confidence 0.890976
'girl' with confidence 0.888741
'social group' with confidence 0.872044
'posing' with confidence 0.865493
'adolescent' with confidence 0.857371
'love' with confidence 0.852553
'laugh' with confidence 0.850097
'people' with confidence 0.849922
'lady' with confidence 0.844540
'woman' with confidence 0.818172
'group' with confidence 0.792975
'wedding' with confidence 0.615252
'dress' with confidence 0.517169
Bereinigen von Ressourcen
Wenn Sie ein Foundry Tools-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder Ressourcengruppe löschen. Durch das Löschen der Ressourcengruppe werden auch alle anderen ressourcen gelöscht, die ihr zugeordnet sind.
Nächster Schritt
In dieser Schnellstartanleitung haben Sie erfahren, wie Sie die Image Analysis-Clientbibliothek installieren und grundlegende Imageanalyseaufrufe ausführen. Erfahren Sie als Nächstes mehr über die Features der Analyseimage-API.
Verwenden Sie die Bildanalyse-Clientbibliothek für JavaScript, um ein Remotebild für Inhaltstags zu analysieren.
Tipp
Sie können auch ein lokales Bild analysieren. Sehen Sie sich die ComputerVisionClient-Methoden an, z. B. describeImageInStream. Oder sehen Sie sich den Beispielcode auf GitHub für Szenarien mit lokalen Bildern an.
Tipp
Die Analyseimage-API kann viele andere Vorgänge ausführen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Referenzdokumentation | Paket (npm) | Proben
Voraussetzungen
- Ein Azure-Abonnement. Sie können eine kostenlos erstellen.
- Die aktuelle Version von Node.js.
- Nachdem Sie Ihr Azure-Abonnement haben, erstellen Sie eine Maschinelles Sehen-Ressource im Azure-Portal, um Ihren Schlüssel und Endpunkt abzurufen. Wählen Sie nach der Bereitstellung die Option "Zur Ressource wechseln" aus.
- Sie benötigen den Schlüssel und Endpunkt aus der Ressource, die Sie erstellen, um Ihre Anwendung mit Azure Vision in Foundry Tools zu verbinden.
- Sie können das kostenlose Preisniveau (
F0) verwenden, um den Dienst zu testen und später auf eine kostenpflichtige Stufe für die Produktion zu aktualisieren.
Erstellen von Umgebungsvariablen
Schreiben Sie in diesem Beispiel Ihre Anmeldeinformationen in Umgebungsvariablen auf dem lokalen Computer, auf dem die Anwendung ausgeführt wird.
Wechseln Sie zum Azure-Portal. Wenn die Ressource, die Sie im Abschnitt "Voraussetzungen" erstellt haben, erfolgreich bereitgestellt wurde, wählen Sie unter "Nächste Schritte" die Option "Zur Ressource wechseln" aus. Auf der Seite "Schlüssel und Endpunkt" der Face-Ressource finden Sie Ihren Schlüssel und Endpunkt unter "Ressourcenverwaltung". Ihr Ressourcenschlüssel ist nicht mit Ihrer Azure-Abonnement-ID identisch.
Um die Umgebungsvariable für Ihren Schlüssel und Endpunkt festzulegen, öffnen Sie ein Konsolenfenster, und befolgen Sie die Anweisungen für Ihr Betriebssystem und die Entwicklungsumgebung.
- Ersetzen Sie zum Festlegen der Umgebungsvariablen
VISION_KEY<your_key>durch einen der Schlüssel für Ihre Ressource. - Um die Umgebungsvariable
VISION_ENDPOINTfestzulegen, ersetzen Sie<your_endpoint>durch den Endpunkt für Ihre Ressource.
Wichtig
Wir empfehlen die Verwendung der Microsoft Entra ID-Authentifizierung in Verbindung mit verwalteten Identitäten für Azure-Ressourcen, um zu vermeiden, dass Zugangsdaten mit Ihren Anwendungen gespeichert werden, die in der Cloud ausgeführt werden.
Verwenden Sie API-Schlüssel mit Vorsicht. Fügen Sie den API-Schlüssel nicht direkt in Ihren Code ein, und veröffentlichen Sie ihn nie öffentlich. Wenn Sie API-Schlüssel verwenden, speichern Sie sie sicher in Azure Key Vault, drehen Sie die Schlüssel regelmäßig, und beschränken Sie den Zugriff auf Azure Key Vault mithilfe rollenbasierter Zugriffssteuerung und Netzwerkzugriffseinschränkungen. Weitere Informationen zur sicheren Verwendung von API-Schlüsseln in Ihren Apps finden Sie unter API-Schlüssel mit Azure Key Vault.
Weitere Informationen zur Sicherheit von AI-Diensten finden Sie unter Authenticate-Anforderungen an Azure KI Services.
setx VISION_KEY <your_key>
setx VISION_ENDPOINT <your_endpoint>
Nachdem Sie die Umgebungsvariablen hinzugefügt haben, müssen Sie möglicherweise alle ausgeführten Programme neu starten, die die Umgebungsvariablen lesen, einschließlich des Konsolenfensters.
Bild analysieren
Erstellen einer neuen Node.js Anwendung
Erstellen Sie in einem Konsolenfenster (z. B. cmd, PowerShell oder Bash) ein neues Verzeichnis für Ihre App, und navigieren Sie zu ihr.
mkdir myapp && cd myappFühren Sie den
npm initBefehl aus, um eine Knotenanwendung mit einer package.json Datei zu erstellen.npm initInstallieren der Clientbibliothek
Installieren Sie das
ms-rest-azurepaket und@azure/cognitiveservices-computervisionnpm:npm install @azure/cognitiveservices-computervisionInstallieren Sie außerdem das asynchrone Modul:
npm install asyncDie Datei Ihrer App
package.jsonwird mit den Abhängigkeiten aktualisiert.Erstellen Sie eine neue Datei ,index.js.
Öffnen Sie index.js in einem Text-Editor, und fügen Sie den folgenden Code ein.
'use strict'; const async = require('async'); const fs = require('fs'); const https = require('https'); const path = require("path"); const createReadStream = require('fs').createReadStream const sleep = require('util').promisify(setTimeout); const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient; const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials; /** * AUTHENTICATE * This single client is used for all examples. */ const key = process.env.VISION_KEY; const endpoint = process.env.VISION_ENDPOINT; const computerVisionClient = new ComputerVisionClient( new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint); /** * END - Authenticate */ function computerVision() { async.series([ async function () { /** * DETECT TAGS * Detects tags for an image, which returns: * all objects in image and confidence score. */ console.log('-------------------------------------------------'); console.log('DETECT TAGS'); console.log(); // Image of different kind of dog. const tagsURL = 'https://github.com/Azure-Samples/cognitive-services-sample-data-files/blob/master/ComputerVision/Images/house.jpg'; // Analyze URL image console.log('Analyzing tags in image...', tagsURL.split('/').pop()); const tags = (await computerVisionClient.analyzeImage(tagsURL, { visualFeatures: ['Tags'] })).tags; console.log(`Tags: ${formatTags(tags)}`); // Format tags for display function formatTags(tags) { return tags.map(tag => (`${tag.name} (${tag.confidence.toFixed(2)})`)).join(', '); } /** * END - Detect Tags */ console.log(); console.log('-------------------------------------------------'); console.log('End of quickstart.'); }, function () { return new Promise((resolve) => { resolve(); }) } ], (err) => { throw (err); }); } computerVision();Führen Sie die Anwendung mit dem
nodeBefehl in der Schnellstartdatei aus.node index.js
Ausgabe
Die Ausgabe des Vorgangs sollte wie im folgenden Beispiel aussehen.
-------------------------------------------------
DETECT TAGS
Analyzing tags in image... sample16.png
Tags: grass (1.00), dog (0.99), mammal (0.99), animal (0.99), dog breed (0.99), pet (0.97), outdoor (0.97), companion dog (0.91), small greek domestic dog (0.90), golden retriever (0.89), labrador retriever (0.87), puppy (0.87), ancient dog breeds (0.85), field (0.80), retriever (0.68), brown (0.66)
-------------------------------------------------
End of quickstart.
Bereinigen von Ressourcen
Wenn Sie ein Foundry Tools-Abonnement bereinigen und entfernen möchten, können Sie die Ressource oder Ressourcengruppe löschen. Durch das Löschen der Ressourcengruppe werden auch alle anderen ressourcen gelöscht, die ihr zugeordnet sind.
Nächster Schritt
In dieser Schnellstartanleitung haben Sie erfahren, wie Sie die Image Analysis-Clientbibliothek installieren und grundlegende Imageanalyseaufrufe ausführen. Erfahren Sie als Nächstes mehr über die Features der Analyseimage-API.
Verwenden Sie die REST-API für die Bildanalyse, um ein Bild für Tags zu analysieren.
Tipp
Die Analyseimage-API kann viele andere Vorgänge ausführen, als Bildtags zu generieren. In der Anleitung zur Bildanalyse finden Sie Beispiele, die alle verfügbaren Features präsentieren.
Hinweis
In dieser Schnellstartanleitung werden cURL-Befehle zum Aufrufen der REST-API verwendet. Sie können die REST-API auch mit einer Programmiersprache aufrufen. In den GitHub-Beispielen finden Sie Beispiele für C#, Python, Java und JavaScript.
Voraussetzungen
- Ein Azure-Abonnement. Sie können eine kostenlos erstellen.
- Nachdem Sie Ihr Azure-Abonnement haben, erstellen Sie eine Maschinelles Sehen-Ressource im Azure-Portal, um Ihren Schlüssel und Endpunkt abzurufen. Wählen Sie nach der Bereitstellung die Option "Zur Ressource wechseln" aus.
- Sie benötigen den Schlüssel und Endpunkt aus der Ressource, die Sie erstellen, um Ihre Anwendung mit Azure Vision in Foundry Tools zu verbinden.
- Sie können das kostenlose Preisniveau (
F0) verwenden, um den Dienst zu testen und später auf eine kostenpflichtige Stufe für die Produktion zu aktualisieren.
- cURL installiert.
Analysieren eines Bilds
Führen Sie die folgenden Schritte aus, um ein Bild für verschiedene visuelle Features zu analysieren:
Kopieren Sie den folgenden Befehl in einen Text-Editor.
curl.exe -H "Ocp-Apim-Subscription-Key: <yourKey>" -H "Content-Type: application/json" "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/analyze?visualFeatures=Tags" -d "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"Nehmen Sie bei Bedarf die folgenden Änderungen am Befehl vor:
- Ersetzen Sie den Wert von
<yourKey>durch den Schlüssel aus Ihrer Maschinelles Sehen-Ressource. - Ersetzen Sie den ersten Teil der Anforderungs-URL (
westcentralus.api.cognitive.microsoft.com) durch Ihre eigene Endpunkt-URL.Hinweis
Neue Ressourcen, die nach dem 1. Juli 2019 erstellt wurden, verwenden benutzerdefinierte Unterdomänennamen. Weitere Informationen und eine vollständige Liste der regionalen Endpunkte finden Sie unter benutzerdefinierte Unterdomänennamen für Foundry Tools.
- Ändern Sie optional die Bild-URL im Anforderungstext (
https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) in die URL eines anderen zu analysierenden Bilds.
- Ersetzen Sie den Wert von
Öffnen Sie ein Eingabeaufforderungsfenster.
Fügen Sie den bearbeiteten
curlBefehl aus dem Text-Editor in das Eingabeaufforderungsfenster ein, und führen Sie dann den Befehl aus.
Überprüfen der Antwort
Eine erfolgreiche Antwort wird im JSON-Format zurückgegeben. Die Beispielanwendung analysiert und zeigt eine erfolgreiche Antwort im Eingabeaufforderungsfenster an, ähnlich dem folgenden Beispiel:
{
"tags":[
{
"name":"text",
"confidence":0.9992657899856567
},
{
"name":"post-it note",
"confidence":0.9879657626152039
},
{
"name":"handwriting",
"confidence":0.9730165004730225
},
{
"name":"rectangle",
"confidence":0.8658561706542969
},
{
"name":"paper product",
"confidence":0.8561884760856628
},
{
"name":"purple",
"confidence":0.5961999297142029
}
],
"requestId":"2788adfc-8cfb-43a5-8fd6-b3a9ced35db2",
"metadata":{
"height":945,
"width":1000,
"format":"Jpeg"
},
"modelVersion":"2021-05-01"
}
Nächster Schritt
In dieser Schnellstartanleitung haben Sie erfahren, wie Sie grundlegende Bildanalyseaufrufe mithilfe der REST-API durchführen. Erfahren Sie als Nächstes mehr über die Features der Analyseimage-API.