Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird das Azure Content Understanding in Foundry Tools-Preismodell mit klaren Beispielen und Kostenaufschlüsselungen erläutert. Erfahren Sie, was Ihnen berechnet wird und wie Sie die Kosten für Ihre Workload schätzen.
Spezifische Preissätze finden Sie unter Azure Content Understanding Pricing.
Grundlegendes zu den beiden Arten von Gebühren
Azure Preise für Inhaltsverständnis basieren auf zwei Hauptnutzungskategorien:
1. Gebühren für die Inhaltsextraktion
Die Inhaltsextraktion transformiert unstrukturierte Eingaben (Dokumente, Audio, Video) in strukturierten, durchsuchbaren Text und Inhalt. Diese Ausgabe enthält optische Zeichenerkennung (OCR) für Dokumente, Sprach-zu-Text für Audio/Video und Layouterkennung. Sie zahlen pro verarbeiteter Eingabeeinheit:
- Dokumente: Pro 1.000 Seiten
- Audio und Video: Pro Minute
2. Belastungen durch generative Funktionen
Wenn Sie KI-basierte Features verwenden, die große Sprachmodelle (LLMs) aufrufen, entstehen zwei Arten von Gebühren:
- Kontextualisierungsgebühren: Bereitet den Kontext vor, generiert Konfidenzbewertungen, gewährleistet die Quellenverankerung und formatiert die Ausgabe. Ausführliche Informationen finden Sie unter Kontextisierungstoken.
- Generative Modellgebühren: Tokenbasierte Kosten aus Microsoft Foundry-Modellbereitstellungen (LLMs für die Generation, Einbettungen für Schulungsbeispiele). Content Understanding verwendet die von Ihnen bereitgestellte Foundry-Modellimplementierung für alle generativen KI-bezogenen Aufrufe. Sie sehen keine Abrechnung der Verwendung von LLM oder Embedding Token in Content Understanding. Diese Nutzung wird bei der Bereitstellung Ihres Foundry Models angezeigt. Ausführliche Informationen finden Sie unter generative Modellgebühren.
Zu den generativen Features gehören: Feldextraktion, Abbildungsanalyse, Segmentierung, Kategorisierung, Schulung.
Kostengleichung
Ihre Gesamtkosten für die Ausführung einer Inhaltsverständnisanalyse folgen dieser Formel:
Total Cost = Content Extraction + Contextualization Tokens + LLM Input Tokens + LLM Output Tokens + Embeddings Tokens
Wenn Sie nur Inhaltsextraktion ohne generative Funktionen verwenden, werden Sie nur für die Inhaltsextraktion in Rechnung gestellt. Wenn Sie generative Features verwenden, gelten alle anwendbaren Gebühren.
So schätzen Sie Ihre Kosten
1. Test mit repräsentativen Dateien
Führen Sie eine kleine Testanalyse mit Ihren tatsächlichen Dateien und Schemas aus. Um die tatsächliche Tokennutzung anzuzeigen, überprüfen Sie das usage Objekt in der Analyse-API-Antwort:
"usage": {
"documentPagesMinimal": 0, // Pages processed at the minimal level (i.e. txt, xlsx, html, and other digital file types)
"documentPagesBasic": 0, // Pages processed at the basic level (i.e. read)
"documentPagesStandard": 2, // Pages processed at the standard level (i.e. layout)
"contextualizationToken": 2000,
"tokens": {
"gpt-4.1-input": 10400,
"gpt-4.1-output": 360
}
}
2. Verwenden Des Azure Preisrechners
Suchen von Content Understanding im Azure-Preisrechner und Konfigurieren Ihrer Einstellungen:
- Hinzufügen von "Inhaltsverständnis" zum Rechner
- Verwenden Sie die Testergebnisse aus Schritt 1, um die Mittelwerte des Tokens pro Seite oder Minute zu berechnen.
- Geben Sie die Anzahl der Token zusammen mit Ihrer Region, dem Dateityp, dem erwarteten Volumen und der Modell-Bereitstellung ein.
Der Rechner bietet genaue Kostenprognosen für Ihre Arbeitsauslastung.
Preisbeispiel: Rechnungsfeldextraktion
Im Anschluss an den Schätzungsansatz sehen wir uns ein konkretes Beispiel manuell an, um zu veranschaulichen, wie die Kosten berechnet werden.
Szenario: Sie verarbeiten Rechnungen, um strukturierte Daten wie Lieferantenname, Rechnungsnummer, Gesamtbetrag und Positionen zu extrahieren. Sie möchten 1.000 Rechnungsseiten mit deaktivierter Quellgrundung und Konfidenzbewertung verarbeiten.
Schritt 1: Testen mit repräsentativen Dateien Nach dem Testen repräsentativer Dateien haben Sie die folgende durchschnittliche Tokenverwendung pro Seite gefunden:
- Eingabetoken: 1.100 pro Seite
- Ausgabetoken: 60 pro Seite
- Kontextualisierung: 1.000 Token pro Seite (feste Rate)
Für 1.000 Seiten entspricht die Summe:
- Gesamteingabetoken: 1.000 Seiten × 1.100 = 1.100.000 Token
- Gesamtausgabetoken: 1.000 Seiten × 60 = 60.000 Token
- Gesamtkontextisierungstoken: 1.000 Seiten × 1.000 = 1.000.000 Token
Schritt 2: Manuelles Berechnen von Kosten (anstelle des Preisrechners) Verwenden einer globalen Bereitstellung mit den folgenden Preisannahmen:
Preisannahmen :
- Inhaltsextraktion: $ 5,00 pro 1.000 Seiten
- Kontextualisierung: $1,00 pro 1M Token
- Eingabetoken: $0,40 pro 1M Token
- Ausgabetoken: $1,60 pro 1M Token
- Einbettungen: $0,02 pro 1.000 Token. Sie verwenden keine Wissensbasis mit Schulungsbeispielen, sodass keine Einbettungsgebühren anfallen. Wenn Sie gekennzeichnete Beispiele hinzufügen, um die Genauigkeit zu verbessern, fügt das System die Verwendung von Einbettungstoken hinzu, um den Text aus den Eingabedokumenten einzubetten, sowie Token zur Vervollständigung der Eingabe, um die dem Kontextfenster hinzugefügten Beispieldaten zu verarbeiten.
Kostenberechnung:
- Inhaltsextraktion: 1.000 Seiten × $ 5,00 pro 1.000 Seiten = 5,00 $
- Kontextualisierung: 1.000.000 Token × $ 1,00 pro 1M Token = 1,00 $
- Eingabetoken: 1.100.000 Token × $0,40 pro 1M Token = $0,44
- Ausgabetoken: 60.000 Token × $1,60 pro 1M Token = $0,10
- Einbettungen: Nicht verwendet = $0,00
Total Cost = $5.00 + $1.00 + $0.44 + $0.10 + $0.00 = $6.54 per 1000 pages
Hinweis
Diese Preise dienen nur zu Veranschaulichungszwecken und sind nicht für die tatsächlichen Kosten vorgesehen. Überprüfen Sie Azure Content Understanding Pricing und Azure OpenAI Pricing auf aktuelle Preise.
Detaillierte Kostenkomponenten
Inhaltsextraktion
Die Inhaltsextraktion ist der wichtigste erste Schritt zum Transformieren unstrukturierter Eingaben – unabhängig davon, ob es sich um ein Dokument, Audio oder Video handelt – in ein standardisiertes, wiederverwendbares Format. Diese grundlegende Verarbeitung ist für alle generativen Features erforderlich und kann eigenständig verwendet werden.
Preise für die Inhaltsextraktion nach Modalität:
- Dokumente: Dreistufige Zähler (Minimal, Basis oder Standard) basierend auf der Verarbeitungskomplexität
- Audio: Sprach-zu-Text-Transkription (einzelner Standardzähler, preisgepreist pro Minute)
- Video: Bildextraktion, Schnitt-Erkennung und Sprach-zu-Text-Transkription (einzelner Standardmeter, Preis pro Minute)
- Bilder: Keine Inhaltsextraktion verfügbar
Dokumentinhaltsextraktionszähler
Für Dokumente werden Ihnen Gebühren basierend auf den durch Content Understanding durchgeführten Verarbeitungsarten berechnet. Die Gebühren für Content Understanding basieren auf der tatsächlichen Arbeit auf jeder Seite, nicht auf dem ausgewählten Analysator.
Minimaler Meter: Gilt für digitale Dokumente (DOCX, XLSX, PPTX, HTML, TXT, MSG, EML), bei denen keine OCR- oder Layoutverarbeitung erforderlich ist. Dieses Messgerät ist die kostengünstigste Option für digital-nativen Dokumente. Unabhängig davon, welche Analyseanalyse Sie verwenden, wird ihnen die minimale Rate in Rechnung gestellt– auch wenn Sie einen Layoutanalyse für ein digitales Dokument aufrufen, werden Sie nur für die minimale Verarbeitung belastet.
Grundeinheit: Wird angewendet, wenn das Inhaltserkennungssystem OCR-Verarbeitung durchführt, um Text aus bildbasierten Dokumenten (gescannte PDFs, Bilder, TIFFs) ohne Layoutanalyse zu extrahieren.
Standardmeter: Gilt, wenn Inhaltsverständnis Layoutanalysen durchführt, einschließlich Tabellenerkennung und Erkennung von Strukturelementen aus bildbasierten Dokumenten (gescannte PDFs, Bilder, TIFFs).
Die folgende Tabelle zeigt, welcher Zähler basierend auf dem Dateityp und der Analyseebene angewendet wird.
| Dateityp | Lesen (Einfach) | Layout (Standard) |
|---|---|---|
| Bildbasiert (PDF, PNG, TIFF, JPG usw.) | Standardzähler | Standardzähler |
| Digitale Formate (DOCX, XLSX, HTML, TXT usw.) | Minimaler Messgerät | Minimaler Meter |
Tipp
Die berechnete Verbrauchseinheit hängt von der tatsächlichen Verarbeitung ab, die Content Understanding durchführt, nicht davon, welches Analysetool Sie wählen. Digitale Dokumente verwenden immer das minimale Maß, da sie keine OCR- oder Layoutverarbeitung erfordern.
Generative Funktionen
Die generativen Funktionen von Content Understanding verwenden generative KI-Modelle, um die Qualität der Ausgabe zu verbessern. In der neuesten API-Version [2025-11-01], können Sie ein generatives Modell basierend auf Ihrem Anwendungsfall auswählen.
Wenn Sie irgendwelche generativen Funktionalitäten nutzen, verwendet Content Understanding die von Ihnen bereitgestellte Bereitstellung von Foundry Models. Die Verwendung von Token für die Vervollständigungs- oder Einbettungsmodelle erfolgt in dieser Bereitstellung.
Kontextbezogene Token
Kontextualisierung ist die Verarbeitungsebene von Content Understanding, die den Kontext für generative Modelle vorbereitet und deren Ausgabe in die endgültigen strukturierten Ergebnisse vorbereitet.
Welche Kontextualisierung bietet:
- Ausgabenormalisierung und Formatierung in strukturierte Schemas
- Herkunftsergrundung, um anzuzeigen, woher Informationen stammen
- Berechnung des Konfidenzscore zur Bestimmung der Extraktionszuverlässigkeit
- Kontexttechnik zur Optimierung der LLM-Nutzung und -Genauigkeit
Wenn Sie belastet werden: Wann immer Sie generative Funktionen verwenden (Feldextraktion, Abbildungsanalyse, Segmentierung, Kategorisierung, Schulung).
Preise: Feste Rate pro Inhaltseinheit
Kontextbezogene Token werden pro Inhaltseinheit berechnet:
| Einheiten | Kontextbezogene Token | Effektiver Standardpreis pro Einheit |
|---|---|---|
| Pro Seite | 1.000 Kontextisierungstoken | $ 1 pro 1.000 Seiten |
| Pro Bild | 1.000 Kontextisierungstoken | $ 1 pro 1.000 Bilder |
| Pro Stunde Audio | 100.000 Kontextisierungstoken | $ 0,10 pro Stunde |
| Pro Stunde Video | 1.000.000 Kontextisierungstoken | $1 pro Stunde |
Angenommen, 1,00 USD pro 1 Million Kontextisierungstoken.
Generative Modellgebühren (LLM)
Tokenbasierte Gebühren von Foundry-Modellen, die die tatsächliche Feldextraktion, Analyse und andere generative Funktionen unterstützen.
Zu den Eingabetoken gehören
- Extrahierter Text und Transkriptionen
- Bildtoken (für visuelle Analyse)
- Ihre Schemadefinitionen
- Systemaufforderungen
- Schulungsbeispiele (bei Verwendung der Knowledge Base)
Ausgabetoken sind:
- Feldwerte und strukturierte Daten
- Konfidenzbewertungen und Quellgrundung
- Analyseergebnisse und Beschreibungen
Kostenoptimierung: Wählen Sie kleinere Modelle oder globale Bereitstellungen aus, um erhebliche Einsparungen zu erzielen.
Einbettungsgebühren
Tokenbasierte Gebühren für Einbettungsmodelle, die beim Trainieren von benutzerdefinierten Analysetools mit beschrifteten Beispielen zur Verbesserung der Genauigkeit verwendet werden.
- Bei geladenem Zustand: Nur bei Verwendung der Trainingsfunktion mit markierten Daten
- Modelle: text-embedding-3-large, text-embedding-3-small oder text-embedding-ada-002
- Typische Verwendung: Das gesamte Dokument ist eingebettet. Die Verwendung kann je nach Textdichte variieren, aber ~1.500 Token pro Seite sind eine gute Anfangsschätzung.
Details zu generativen Funktionen
Es gibt mehrere generative Features, von denen jede geringfügig unterschiedliche Kostenauswirkungen hat.
Feldextraktion
Generiert strukturierte Schlüsselwertpaare basierend auf ihrer Schemadefinition. Beispiele sind Rechnungssender/Empfänger, Positionen oder Videowerbungselemente wie Slogan und Produktpräsentation.
Kostenwirkung: Kostenskala mit Schemakomplexität und Inhaltsgröße.
Diagrammanalyse
Erstellt beschreibenden Text für Bilder, Grafiken und Diagramme, um visuelle Inhalte in RAG-Workflows durchsuchbar zu machen.
Kostenauswirkungen: LLM-Token pro analysierten Bildern – sowohl Eingabetoken für Bildinterpretation als auch Ausgabetoken für Beschreibungen. Die Verwendung wird mit der Größe und Anzahl der im Dokument enthaltenen Bilder skaliert.
Segmentierung
Teilt Dokumente oder Videos in logische Abschnitte für die gezielte Verarbeitung und verbesserte Effizienz auf.
Kostenauswirkungen: Ausgabetokenkosten für jedes erstellte Segment. Optionalerweise können Sie Analysatoren zur weiteren Analyse der einzelnen Segmente verketten. Beim Verketten entstehen Ihnen mehr Kosten für die Extraktion von Inhalten und den generativen Verbrauch, die denen entsprechen, die bei einer unabhängigen Ausführung der verketteten Analysetools anfallen würden.
Kategorisierung
Weist Dokumenten oder Segmenten Bezeichnungen zur Klassifizierung und zum intelligenten Routing an spezielle Analysewerkzeuge zu.
Kostenwirkung: LLM- und Kontextisierungskosten für die Klassifizierung. Das Routing an andere Analysetools addiert deren jeweiligen Gebühren hinzu.
Ausbildung
Erstellt benutzerdefinierte Analysegeräte mit beschrifteten Beispielen für domänenspezifische Genauigkeitsverbesserungen.
Kostenauswirkungen: Einbetten der Tokennutzung beim Hinzufügen von etikettierten Daten sowie zusätzliche LLM-Token während der Analyse, wenn Trainingsbeispiele abgerufen und dem Modell zur Verfügung gestellt werden.
Wissensdatenbank
Verbessert benutzerdefinierte Analysegeräte mit beschrifteten Schulungsbeispielen für domänenspezifische Genauigkeitsverbesserungen.
Kosteneffekt: Das Einbettungsmodell wird zum Indizieren und Abrufen der Beispiele verwendet. Darüber hinaus werden LLM-Token während der Analyse verwendet, wenn Schulungsbeispiele abgerufen und dem Modell bereitgestellt werden.
Häufig gestellte Fragen
Wann wird mir die LLM-Nutzung in Rechnung gestellt?
Sie werden nur für LLM-Token belastet, wenn Sie dem Analysetool eine Foundry-Bereitstellung bereitstellen und eine generative Funktion in Content Understanding verwenden. Analysatoren, die nur Inhaltsextraktion (z. B. prebuilt-readprebuilt-layout, oder benutzerdefinierte Analysegeräte ohne generative Funktionen) ausführen, verursachen keine LLM-Gebühren.
Wie kann ich feststellen, welcher Inhaltsextraktionszähler auf meine Dokumente zutrifft?
Die tatsächliche Verarbeitung bestimmt den Zähler, nicht den von Ihnen ausgewählten Analyzer:
- Minimal: Digitale Dokumente (DOCX, XLSX, HTML, TXT usw.) verwenden immer minimal, unabhängig von der Analyse
- Einfach: Bildbasierte Dokumente mit nur OCR-Verarbeitung (Read Analyzer)
- Standard: Bildbasierte Dokumente mit Layoutanalyse (Layoutanalyse)
Weitere Informationen zu Zählern finden Sie unter Dokumentinhaltsextraktionszähler.
Wird mir zweimal die Nutzung des Foundry-Modells in Rechnung gestellt?
Nein. Content Understanding verwendet die LLM-Bereitstellungen, die für alle LLM- und Einbettungsaufrufe verknüpft sind. Ihnen werden für diese Bereitstellungen Kosten in Rechnung gestellt. Sie zahlen für den Content Understanding-Dienst für Inhaltsextraktion und Kontextualisierung sowie für die Foundry für die Tokens der generativen Modelle (Eingabe- und Ausgabetoken sowie Einbettungen).
Wie viel kann ich mit kleineren Modellen sparen?
Das Auswählen eines -mini Modells anstelle von Standard kann die LLM-Kosten um bis zu 80%reduzieren. Globale Bereitstellungen bieten zusätzliche Einsparungen. Inhaltsextraktions- und Kontextualisierungsgebühren bleiben unabhängig von der Modellauswahl gleich.
Was erhöht die Tokennutzung?
Mehrere Features multiplizieren die Tokennutzung:
- Quellenverankerung + Konfidenzbewertungen: ~2x Token-Verwendung
- Extraktivmodus: ~1,5x Tokenverwendung
- Schulungsbeispiele: ungefähr doppelter Tokenverbrauch
- Segmentierung/Kategorisierung: ~2x Tokenverwendung
Wird mir in Rechnung gestellt, wenn meine Anforderung fehlschlägt?
Beim Inhaltsverständnis fallen keine Gebühren für die Inhaltsextraktion oder Kontextualisierung an, wenn eine Anforderung mit einem Fehler fehlschlägt (z. B. einem 400-Fehler). Wenn ein Aufruf des Foundry-Completion-Modells vor dem Ausfall erfolgreich war, wird Ihnen die Nutzung dieses Foundry-Modells gemäß den Richtlinien von Foundry in Rechnung gestellt.
Tipps zur Kostenoptimierung
- Mit Minimodellen beginnen - Minimodelle bieten erhebliche Einsparungen für die meisten Extraktionsaufgaben
- Verwenden Sie globale Bereitstellungen, wenn Datenresidenz und Compliance zulässig sind.
- Erweiterte Funktionen selektiv aktivieren – Verwenden Sie Quellenverankerung und Konfidenzbewertungen nur dann, wenn benötigt.
- Testen Sie repräsentative Dateien vor der Skalierung, um den tatsächlichen Tokenverbrauch zu verstehen.
- Überwachen Sie die Nutzung regelmäßig über das Azure-Portal, um Optimierungsmöglichkeiten zu identifizieren
Weitere Preisbeispiele
Hier finden Sie detaillierte Beispiele, die zeigen, wie die Preise in verschiedenen Szenarien funktionieren:
Beispiel 1: Dokumentverarbeitung für RAG-Workflows
Szenario: Sie müssen Inhalte aus Dokumenten für eine RAG-Lösung (Retrieval-Augmented Generation) extrahieren. Sie verwenden prebuilt-documentSearch, um Text-, Layout- und Abbildungsbeschreibungen zu extrahieren.
Eingabe:
- 1.000 Seiten
- Modell: GLOBALE GPT-4.1-Bereitstellung
- Region: Ost-USA
Preisaufschlüsselung:
Inhaltsextraktion: 1.000 Seiten
- Kosten: (1.000 / 1.000) × 5,00 $ = 5,00 $
Abbildungsanalyse:
Angenommen, zwei Zahlen pro Seite. Es kostet ca. 1000 Eingabe- und 200 Ausgabetoken pro Abbildung.
- Eingabetoken: 2.000 Abbildungen × 1000 Token/Image = 2.000.000 Token
- Kosten: (2.000.000 / 1.000.000) × $ 2,00 = $ 4,00
- Ausgabetoken: 2.000 Seiten × 200 Token/Seite = 400.000 Token
- Kosten: (400.000 / 1.000.000) × $ 8,00 = $ 3,2
Kontextualisierung: 1.000 Seiten × 1.000 Token/Seite = 1.000.000 Token
- Kosten: (1.000.000 / 1.000.000) × 1,00 $ = 1,00 $
Geschätzte Gesamtkosten: 5,00 $ + 4 $ + 3,2 $ + 1,00 $ = 13,20 $
Hinweis
Diese Preise dienen nur zu Veranschaulichungszwecken und sind nicht für die tatsächlichen Kosten vorgesehen. Azure Content Understanding Pricing und Azure OpenAI Pricing auf aktuelle Preise überprüfen
Beispiel 2: Verarbeiten von Rechnungen mit Feldextraktion
Szenario: Sie automatisieren die Rechnungsverarbeitung, indem Sie prebuilt-invoice verwenden, um strukturierte Daten (Rechnungsnummer, Datum, Lieferant, Gesamtbetrag, Einzelposten) zu extrahieren.
Eingabe:
- 1.000 Seiten
- Modell: GPT-4.1-mini globale Bereitstellung (kostenoptimiert)
- Features: Extraktivmodus + Quellenschätzung + Konfidenzbewertung
- Region: Ost-USA
Preisaufschlüsselung:
Inhaltsextraktion: 1.000 Seiten
- Kosten: (1.000 / 1.000) × 5,00 $ = 5,00 $
Feldextraktion: Mit aktivierter Quellenschätzung + Konfidenz beträgt die Tokenverwendung ca. 2x mehr pro Seite:
- Basiseingabetoken: 1.000 Seiten × 5.200 Token/Seite = 5.200.000 Token
- Kosten: (5.200.000 / 1.000.000) × 0,40 $ = 2,08 $
- Basisausgabetoken: 1.000 Seiten × 180 Token/Seite = 180.000 Token
- Kosten: (180.000 / 1.000.000) × $ 1,60 = 0,29 $
Kontextualisierung: 1.000 Seiten × 1.000 Token/Seite = 1.000.000 Token
- Kosten: (1.000.000 / 1.000.000) × 1,00 $ = 1,00 $
Geschätzte Gesamtkosten: 5,00 $ + 2,08 $ + 0,29 $ + 1,00 $ = 8,37 $
Hinweis
Die Verwendung einer standardmäßigen globalen GPT-4.1-Bereitstellung anstelle von Mini würde die Kosten für die Feldextraktion um ca. 5x erhöhen, wodurch die Gesamtsumme auf ca. 33 $ erhöht würde.
Hinweis
Diese Preise dienen nur zu Veranschaulichungszwecken und sind nicht für die tatsächlichen Kosten vorgesehen. Azure Content Understanding Pricing und Azure OpenAI Pricing auf aktuelle Preise überprüfen
Beispiel 3: Analysieren von Videoinhalten mit Feldextraktion auf Segmentebene
Szenario: Sie extrahieren eine strukturierte Darstellung von Videoinhalten für eine RAG-Anwendung. Um strukturierte Daten aus jedem Videosegment zu extrahieren, können Sie das prebuilt-videoSearch verwenden. Segmente sind kurze Clips von 15-30 Sekunden im Durchschnitt, was zu zahlreichen Ausgabesegmenten mit einem einzigen Sammelfeld pro Segment führt.
Eingabe:
- 60 Minuten (1 Stunde) Video
- Modell: GLOBALE GPT-4.1-Bereitstellung
- Region: Ost-USA
Annahmen:
- Eingabetoken: 7.500 Token pro Minute (basierend auf ausgewählten Frames, Transkription, Schemaschablonen und Metaprompts)
- Ausgabetoken: 900 Token pro Minute (vorausgesetzt, 10-20 kurze strukturierte Felder pro Segment mit automatischer Segmentierung)
- Kontextualisierung: 1.000.000 Token pro Stunde Video
Preisaufschlüsselung:
Inhaltsextraktion: 60 Minuten
- Kosten: 60 Minuten × $ 1/Stunde = $ 1,00
Feldextraktion:
- Eingabetoken: 60 Minuten × 7.500 Token/Minute = 450.000 Token
- Kosten: (450.000 / 1.000.000) × 2,00 $ = 0,90 $
- Ausgabetoken: 60 Minuten × 900 Token/Minute = 54.000 Token
- Kosten: (54.000 / 1.000.000) × $ 8,00 = 0,43 $
Kontextualisierung: 1.000.000 Token pro Stunde
- Kosten: (1.000.000 / 1.000.000) × 1,00 $ = 1,00 $
Geschätzte Gesamtkosten: 1,00 $ + 0,90 $ + 0,43 $ + 1,00 $ = 3,33 $
Hinweis
Die tatsächlichen Kosten variieren je nach den Besonderheiten Ihrer Eingabe und Ausgabe. Dieses transparente, nutzungsbasierte Abrechnungsmodell stellt sicher, dass Sie nur für ihre Nutzung bezahlen.
Hinweis
Diese Preise dienen nur zu Veranschaulichungszwecken und sind nicht für die tatsächlichen Kosten vorgesehen. Azure Content Understanding Pricing und Azure OpenAI Pricing auf aktuelle Preise überprüfen
Beispiel 4: Verarbeiten von Audioanrufzentralenaufzeichnungen
Szenario: Sie analysieren Aufzeichnungen von Call-Centern mit prebuilt-callCenter, um Transkripte, Sprechertagebücher, Stimmungsanalysen und Zusammenfassungen zu generieren.
Eingabe:
- 60 Minuten Audio
- Modell: Globale Bereitstellung von GPT-4.1-mini
- Region: Ost-USA
Preisaufschlüsselung:
Inhaltsextraktion: 60 Minuten
- Kosten: 60 Minuten × $ 0,36 / Minute = $ 0,36
Feldextraktion:
- Eingabetoken: 60 Minuten × 604 Token/Minute = 36.240 Token
- Kosten: (36.240 / 1.000.000) × 0,40 $ = 0,01 $
- Ausgabetoken: 60 Minuten × 19 Token/Minute = 1,140 Token
- Kosten: (1.140 / 1.000.000) × $ 1,60 = 0,00 $
Kontextualisierung: 60 Minuten × 1.667 Token/Minute = 100.020 Token
- Kosten: (100.020 / 1.000.000) × 1,00 $ = 0,10 $
Geschätzte Gesamtkosten: 0,36 $ + 0,01 $ + 0,00 $ + 0,10 $ = 0,47 $
Hinweis
Diese Preise dienen nur zu Veranschaulichungszwecken und sind nicht für die tatsächlichen Kosten vorgesehen. Azure Content Understanding Pricing und Azure OpenAI Pricing auf aktuelle Preise überprüfen
Beispiel 5: Verarbeiten von Bildern mit Beschriftungen
Szenario: Sie generieren beschreibende Beschriftungen für Produktbilder mithilfe von prebuilt-imageSearch.
Eingabe:
- 1.000 Bilder
- Modell: GLOBALE GPT-4.1-Bereitstellung
- Region: Ost-USA
Preisaufschlüsselung:
Inhaltsextraktion: Keine Gebühr für Bilder
- Kosten: $0,00
Feldextraktion:
- Eingabetoken: 1.000 Bilder × 1.043 Token/Image = 1.043.000 Token
- Kosten: (1.043.000 / 1.000.000) × $ 2,00 = $ 2,09
- Ausgabetoken: 1.000 Bilder × 170 Token/Image = 170.000 Token
- Kosten: (170.000 / 1.000.000) × $ 8,00 = 1,36 $
Kontextualisierung: 1.000 Bilder × 1.000 Token/Image = 1.000.000 Token
- Kosten: (1.000.000 / 1.000.000) × 1,00 $ = 1,00 $
Geschätzte Gesamtkosten: 0,00 $ + 2,09 $ + 1,36 $ + 1,00 $ = 4,45 $
Hinweis
Diese Preise dienen nur zu Veranschaulichungszwecken und sind nicht für die tatsächlichen Kosten vorgesehen. Azure Content Understanding Pricing und Azure OpenAI Pricing auf aktuelle Preise überprüfen