Indexes - Create
新しい検索インデックスを作成します。
POST {endpoint}/indexes?api-version=2026-04-01
URI パラメーター
| 名前 | / | 必須 | 型 | 説明 |
|---|---|---|---|---|
|
endpoint
|
path | True |
string (uri) |
検索サービスのエンドポイント URL。 |
|
api-version
|
query | True |
string minLength: 1 |
この操作に使用する API バージョン。 |
要求ヘッダー
| 名前 | 必須 | 型 | 説明 |
|---|---|---|---|
| Accept |
Acceptヘッダーです。 |
||
| x-ms-client-request-id |
string (uuid) |
要求の非透過的なグローバルに一意のクライアント生成文字列識別子。 |
要求本文
| 名前 | 必須 | 型 | 説明 |
|---|---|---|---|
| fields | True |
インデックスのフィールド。 |
|
| name | True |
string |
インデックスの名前。 |
| @odata.etag |
string |
インデックスの ETag。 |
|
| analyzers | LexicalAnalyzer[]: |
インデックスのアナライザー。 |
|
| charFilters | CharFilter[]: |
インデックスの文字フィルター。 |
|
| corsOptions |
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプション。 |
||
| defaultScoringProfile |
string |
クエリで何も指定されていない場合に使用するスコアリング プロファイルの名前。 このプロパティが設定されておらず、クエリでスコアリング プロファイルが指定されていない場合は、既定のスコアリング (tf-idf) が使用されます。 |
|
| description |
string |
インデックスの説明。 |
|
| encryptionKey |
Azure Key Vault で作成する暗号化キーの説明。 この鍵は、誰も、Microsoftでさえもあなたのデータを復号できないと完全に保証したい場合に、データに対して追加の暗号化レベルを提供するために使われます。 データを暗号化すると、常に暗号化されたままになります。 検索サービスは、このプロパティを null に設定しようとすると無視されます。 暗号化キーをローテーションする場合は、必要に応じてこのプロパティを変更できます。データは影響を受けません。 カスタマー マネージド キーを使用した暗号化は、無料の検索サービスでは使用できません。また、2019 年 1 月 1 日以降に作成された有料サービスでのみ使用できます。 |
||
| normalizers | LexicalNormalizer[]: |
インデックスのノーマライザー。 |
|
| scoringProfiles |
インデックスのスコアリング プロファイル。 |
||
| semantic |
セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。 |
||
| similarity | SimilarityAlgorithm: |
検索クエリに一致するドキュメントのスコア付けとランク付けに使用する類似性アルゴリズムの種類。 類似性アルゴリズムは、インデックス作成時にのみ定義でき、既存のインデックスでは変更できません。 null の場合は、ClassicSimilarity アルゴリズムが使用されます。 |
|
| suggesters |
インデックスのサジェスター。 |
||
| tokenFilters |
TokenFilter[]:
|
インデックスのトークン フィルター。 |
|
| tokenizers | LexicalTokenizer[]: |
インデックスのトークナイザー。 |
|
| vectorSearch |
ベクター検索に関連する構成オプションが含まれています。 |
応答
| 名前 | 型 | 説明 |
|---|---|---|
| 201 Created |
要求が成功し、結果として新しいリソースが作成されました。 |
|
| Other Status Codes |
予期しないエラー応答。 |
セキュリティ
api-key
型:
apiKey
/:
header
OAuth2Auth
型:
oauth2
フロー:
implicit
Authorization URL (承認 URL):
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
スコープ
| 名前 | 説明 |
|---|---|
| https://search.azure.com/.default |
例
SearchServiceCreateIndex
要求のサンプル
POST https://exampleservice.search.windows.net/indexes?api-version=2026-04-01
{
"name": "temp-example-index",
"description": "description",
"fields": [
{
"name": "id",
"type": "Edm.String",
"key": true,
"sortable": true
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 20,
"vectorSearchProfile": "config1"
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 10,
"vectorSearchProfile": "config2"
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 5,
"vectorSearchProfile": "config3"
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 5,
"vectorSearchProfile": "config3"
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 10,
"vectorSearchProfile": "config2"
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 32,
"vectorSearchProfile": "config4"
},
{
"name": "name",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "description",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "standard.lucene"
},
{
"name": "category",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "ownerId",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "price",
"type": "Edm.Double",
"retrievable": true,
"filterable": true,
"sortable": true,
"facetable": true
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"tag": {
"tagsParameter": "categoryTag"
},
"type": "tag",
"fieldName": "category",
"boost": 2
}
]
}
],
"defaultScoringProfile": "stringFieldBoost",
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
],
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer"
}
],
"tokenizers": [
{
"maxTokenLength": 100,
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer"
}
],
"tokenFilters": [
{
"preserveOriginal": false,
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter"
}
],
"charFilters": [
{
"mappings": [
".=>,",
"_=>-"
],
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping"
}
],
"normalizers": [
{
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
],
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer"
}
],
"similarity": {
"k1": 10,
"b": 0.1,
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
},
"rankingOrder": "BoostedRerankerScore"
}
]
},
"vectorSearch": {
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"algorithms": [
{
"hnswParameters": {
"metric": "cosine"
},
"name": "cosine",
"kind": "hnsw"
},
{
"hnswParameters": {
"metric": "euclidean"
},
"name": "euclidean",
"kind": "hnsw"
},
{
"hnswParameters": {
"metric": "dotProduct"
},
"name": "dotProduct",
"kind": "hnsw"
}
],
"vectorizers": [
{
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com/",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
},
"name": "openai",
"kind": "azureOpenAI"
},
{
"customWebApiParameters": {
"uri": "https://my-custom-endpoint.org/",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"httpMethod": "POST",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
},
"name": "custom-web-api",
"kind": "customWebApi"
},
{
"amlParameters": {
"uri": "https://my-custom-endpoint.org/",
"resourceId": "aml resource id",
"timeout": "PT1M",
"region": "aml region",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
},
"name": "aml",
"kind": "aml"
},
{
"amlParameters": {
"uri": "https://my-custom-endpoint.org/",
"resourceId": "aml resource id",
"timeout": "PT1M",
"region": "aml region",
"modelName": "Cohere-embed-v4"
},
"name": "aml-cohere",
"kind": "aml"
}
],
"compressions": [
{
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"name": "mySQ8",
"kind": "scalarQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
},
"truncationDimension": 2
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
},
"truncationDimension": 2
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
},
"truncationDimension": 2
}
]
},
"@odata.etag": "0x1234568AE7E58A1"
}
応答のサンプル
{
"@odata.etag": "0x1234568AE7E58A1",
"name": "temp-example-index",
"description": "description",
"defaultScoringProfile": "stringFieldBoost",
"fields": [
{
"name": "id",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": true,
"synonymMaps": []
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 20,
"vectorSearchProfile": "config1",
"synonymMaps": []
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 32,
"vectorSearchProfile": "config4",
"synonymMaps": []
},
{
"name": "name",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "standard.lucene",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "ownerId",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "price",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"functionAggregation": "sum",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"fieldName": "category",
"interpolation": "linear",
"type": "tag",
"boost": 2,
"tag": {
"tagsParameter": "categoryTag"
}
}
]
}
],
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer",
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
]
}
],
"normalizers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer",
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
]
}
],
"tokenizers": [
{
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer",
"maxTokenLength": 100
}
],
"tokenFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter",
"preserveOriginal": false
}
],
"charFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping",
"mappings": [
".=>,",
"_=>-"
]
}
],
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"k1": 10,
"b": 0.1
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"rankingOrder": "BoostedRerankerScore",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "cosine",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "euclidean",
"kind": "hnsw",
"hnswParameters": {
"metric": "euclidean",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "dotProduct",
"kind": "hnsw",
"hnswParameters": {
"metric": "dotProduct",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
}
],
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"vectorizers": [
{
"name": "openai",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
}
},
{
"name": "custom-web-api",
"kind": "customWebApi",
"customWebApiParameters": {
"httpMethod": "POST",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
}
},
{
"name": "aml",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
}
},
{
"name": "aml-cohere",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "Cohere-embed-v4"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"truncationDimension": 2,
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
}
}
]
}
}
定義
| 名前 | 説明 |
|---|---|
| Accept |
Acceptヘッダーです。 |
|
AIFoundry |
Azure AI Foundryカタログの埋め込みモデルの名前です。 |
| AMLParameters |
AML ベクターライザーに接続するためのプロパティを指定します。 |
| AMLVectorizer |
Azure AI Foundry Model Catalogを通じてデプロイされるAzure Machine Learningエンドポイントを指定し、クエリ文字列のベクトル埋め込みを生成すること。 |
|
Ascii |
最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Azure |
呼び出される Azure Open AI モデル名。 |
|
Azure |
クエリ文字列のベクトル化に使用される Azure OpenAI リソースを指定します。 |
|
Azure |
Azure OpenAI リソースに接続するためのパラメーターを指定します。 |
|
Binary |
インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。 |
|
BM25Similarity |
Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。 |
|
Char |
検索エンジンでサポートされているすべての文字フィルターの名前を定義します。 |
|
Cjk |
標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Cjk |
CjkBigramTokenFilter によって無視できるスクリプト。 |
|
Classic |
TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。 |
|
Classic |
ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Common |
インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Cors |
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。 |
|
Custom |
テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。 |
|
Custom |
フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では、厳密な照合で動作します。 これは、格納されるトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。 |
|
Dictionary |
多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Distance |
地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。 |
|
Distance |
距離スコアリング関数にパラメーター値を提供します。 |
|
Edge |
入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Edge |
入力のどちら側から n-gram を生成するかを指定します。 |
|
Edge |
入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Edge |
エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Elision |
省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Error |
リソース管理エラーの追加情報。 |
|
Error |
エラーの詳細。 |
|
Error |
すべてのAzure Resource Manager APIで失敗した操作に対してエラー詳細を返す共通のエラー応答です。 (これは、OData エラー応答形式にも従います)。 |
|
Exhaustive |
クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。 |
|
Exhaustive |
完全な KNN アルゴリズムに固有のパラメーターが含まれています。 |
|
Freshness |
日時フィールドの値に基づいてスコアをブーストする関数を定義します。 |
|
Freshness |
新度スコアリング関数にパラメーター値を提供します。 |
|
Hnsw |
インデックス作成とクエリ中に使用される HNSW 近似最近傍アルゴリズムに固有の構成オプションが含まれています。 HNSW アルゴリズムは、検索速度と精度の間で調整可能なトレードオフを提供します。 |
|
Hnsw |
HNSW アルゴリズムに固有のパラメーターが含まれます。 |
|
Keep |
指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Keyword |
用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Keyword |
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Keyword |
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Length |
長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Lexical |
検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。 |
|
Lexical |
検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。 |
|
Lexical |
検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。 |
|
Limit |
インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Lucene |
Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 |
|
Lucene |
Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Lucene |
Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Magnitude |
数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。 |
|
Magnitude |
パラメーター値をマグニチュード スコアリング関数に提供します。 |
|
Mapping |
マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。 |
|
Microsoft |
言語固有のルールを使用してテキストを分割し、単語を基本形に変換します。 |
|
Microsoft |
言語固有のルールを使用してテキストが分割されます。 |
|
Microsoft |
Microsoft言語の語幹トークナイザーでサポートされている言語を一覧化しています。 |
|
Microsoft |
Microsoft言語トークナイザーでサポートされている言語を一覧にしています。 |
|
NGram |
指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
NGram |
指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
NGram |
指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Path |
パス風階層用のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Pattern |
正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。 |
|
Pattern |
Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Pattern |
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。 |
|
Pattern |
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Pattern |
正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Phonetic |
PhoneticTokenFilter で使用する発信エンコーダーの種類を識別します。 |
|
Phonetic |
音韻一致用のトークンを作成してください。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Ranking |
ドキュメントの並べ替え順序に使用するスコアを表します。 |
|
Rescoring |
再スコアリングのオプションが含まれています。 |
|
Scalar |
インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。 |
|
Scalar |
スカラー量子化に固有のパラメーターを格納します。 |
|
Scoring |
スコアリングプロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。 |
|
Scoring |
さまざまなドキュメントにわたってスコアブーストを補間するために使用される関数を定義します。 |
|
Scoring |
検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。 |
|
Search |
インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。 |
|
Search |
検索インデックス内のフィールドのデータ型を定義します。 |
|
Search |
インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。 |
|
Search |
データソースの ID プロパティをクリアします。 |
|
Search |
使用するデータソースの ID を指定します。 |
|
Search |
Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーを使用して、インデックスやシノニム マップなどの保存データの暗号化または暗号化解除を行うことができます。 |
|
Search |
Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。 |
|
Semantic |
セマンティック機能のコンテキストで使用する特定の構成を定義します。 |
|
Semantic |
セマンティック構成の一部として使用されるフィールド。 |
|
Semantic |
セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。 |
|
Semantic |
セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。 |
|
Shingle |
トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Snowball |
Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Snowball |
Snowball トークンフィルターに使用する言語。 |
|
Stemmer |
ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html を参照してください |
|
Stemmer |
言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください |
|
Stemmer |
ステマートークンフィルターに使用する言語。 |
|
Stop |
テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。 |
|
Stopwords |
言語固有のストップワードの事前定義リストを識別します。 |
|
Stopwords |
トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください |
|
Synonym |
トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Tag |
特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。 |
|
Tag |
タグ スコアリング関数にパラメーター値を提供します。 |
|
Text |
検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。 |
|
Token |
トークン フィルターが操作できる文字のクラスを表します。 |
|
Token |
検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。 |
|
Truncate |
用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Uax |
URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。 |
|
Unique |
前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
|
Vector |
ベクトル フィールドの内容を解釈するためのエンコード形式。 |
|
Vector |
ベクター検索に関連する構成オプションが含まれています。 |
|
Vector |
インデックス作成とクエリに使用されるアルゴリズム。 |
|
Vector |
ベクトル比較に使用する類似性メトリック。 埋め込みモデルがトレーニングされたのと同じ類似性メトリックを選択することをお勧めします。 |
|
Vector |
インデックス作成とクエリに使用される圧縮方法。 |
|
Vector |
圧縮ベクトル値の量子化されたデータ型。 |
|
Vector |
ベクター検索で使用する構成の組み合わせを定義します。 |
|
Vector |
クエリ時に使用するベクトル化方法。 |
|
Web |
クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。 |
|
Web |
ユーザー定義ベクターライザーに接続するためのプロパティを指定します。 |
|
Word |
単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 |
Accept
Acceptヘッダーです。
| 値 | 説明 |
|---|---|
| application/json;odata.metadata=minimal |
AIFoundryModelCatalogName
Azure AI Foundryカタログの埋め込みモデルの名前です。
| 値 | 説明 |
|---|---|
| OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
| Facebook-DinoV2-Image-Embeddings-ViT-Base |
Facebook-DinoV2-イメージ-埋め込み-ViT-Base |
| Facebook-DinoV2-Image-Embeddings-ViT-Giant |
Facebook-DinoV2-イメージ埋め込み-ViT-Giant |
| Cohere-embed-v3-english |
Cohere-embed-v3-english |
| Cohere-embed-v3-multilingual |
Cohere-embed-v3-multilingual |
| Cohere-embed-v4 |
テキストと画像の両方から埋め込みを生成するための Cohere embed v4 モデル。 |
AMLParameters
AML ベクターライザーに接続するためのプロパティを指定します。
| 名前 | 型 | 説明 |
|---|---|---|
| key |
string |
(キー認証に必要)AML サービスのキー。 |
| modelName |
Azure AI Foundryカタログの埋め込みモデルの名前で、提供されたエンドポイントに展開されています。 |
|
| region |
string |
(トークン認証の場合は省略可能)。 AML サービスがデプロイされているリージョン。 |
| resourceId |
string |
(トークン認証に必要)。 AMLサービスのAzure Resource ManagerリソースIDです。 フォーマットはsubscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoftのはずです。MachineLearningServices/workspaces/{workspace-name}/services/{service_name}. |
| timeout |
string (duration) |
(省略可能) 指定した場合は、API 呼び出しを行う http クライアントのタイムアウト値を示します。 |
| uri |
string (uri) |
(認証またはキー認証がない場合は必須)JSON ペイロードの送信先となる AML サービスのスコア付け URI。 https URI スキームのみが許可されます。 |
AMLVectorizer
Azure AI Foundry Model Catalogを通じてデプロイされるAzure Machine Learningエンドポイントを指定し、クエリ文字列のベクトル埋め込みを生成すること。
| 名前 | 型 | 説明 |
|---|---|---|
| amlParameters |
AML ベクターライザーのプロパティを指定します。 |
|
| kind |
string:
aml |
VectorSearchVectorizerの種類。 |
| name |
string |
この特定のベクター化メソッドに関連付ける名前。 |
AsciiFoldingTokenFilter
最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| preserveOriginal |
boolean |
False |
元のトークンを保持するかどうかを示す値。 既定値は falseです。 |
AzureOpenAIModelName
呼び出される Azure Open AI モデル名。
| 値 | 説明 |
|---|---|
| text-embedding-ada-002 |
TextEmbeddingAda002モデル。 |
| text-embedding-3-large |
TextEmbedding3Largeモデル。 |
| text-embedding-3-small |
TextEmbedding3Small モデル。 |
| gpt-5-mini |
GPT5Miniモデル。 |
| gpt-5-nano |
Gpt5Nanoモデルです。 |
| gpt-5.4-mini |
GPT54Miniモデル。 |
| gpt-5.4-nano |
Gpt54Nanoモデル。 |
AzureOpenAIVectorizer
クエリ文字列のベクトル化に使用される Azure OpenAI リソースを指定します。
| 名前 | 型 | 説明 |
|---|---|---|
| azureOpenAIParameters |
Azure OpenAI 埋め込みベクトル化に固有のパラメーターが含まれています。 |
|
| kind |
string:
azure |
VectorSearchVectorizerの種類。 |
| name |
string |
この特定のベクター化メソッドに関連付ける名前。 |
AzureOpenAIVectorizerParameters
Azure OpenAI リソースに接続するためのパラメーターを指定します。
| 名前 | 型 | 説明 |
|---|---|---|
| apiKey |
string |
指定された Azure OpenAI リソースの API キー。 |
| authIdentity | SearchIndexerDataIdentity: |
送信接続に使用されるユーザー割り当てマネージド ID。 |
| deploymentId |
string |
指定されたリソースに対する Azure OpenAI モデルデプロイの ID。 |
| modelName |
指定された deploymentId パスにデプロイされる埋め込みモデルの名前。 |
|
| resourceUri |
string (uri) |
Azure OpenAI リソースのリソース URI。 |
BinaryQuantizationCompression
インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。
| 名前 | 型 | 説明 |
|---|---|---|
| kind |
string:
binary |
ベクトル検索圧縮の種類。 |
| name |
string |
この特定の構成に関連付ける名前。 |
| rescoringOptions |
再スコアリングのオプションが含まれています。 |
|
| truncationDimension |
integer (int32) |
ベクターを切り捨てるディメンションの数。 ベクターを切り捨てると、ベクターのサイズと、検索中に転送する必要があるデータの量が減ります。 これにより、ストレージ コストを節約し、リコールを犠牲にして検索のパフォーマンスを向上させることができます。 これは、OpenAI text-embedding-3-large (small) などの Matryoshka Representation Learning (MRL) でトレーニングされた埋め込みにのみ使用する必要があります。 既定値は null です。これは切り捨てがないことを意味します。 |
BM25SimilarityAlgorithm
Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| b |
number (double) |
このプロパティは、ドキュメントの長さが関連性スコアに与える影響を制御します。 既定では、値 0.75 が使用されます。 値 0.0 は長さの正規化が適用されていないことを意味し、値 1.0 は、スコアがドキュメントの長さによって完全に正規化されていることを意味します。 |
| k1 |
number (double) |
このプロパティは、一致する各用語の用語頻度と、ドキュメント とクエリのペアの最終的な関連性スコアの間のスケーリング関数を制御します。 既定では、値 1.2 が使用されます。 値が 0.0 の場合、スコアは用語の頻度が増加してもスケーリングされません。 |
CharFilterName
検索エンジンでサポートされているすべての文字フィルターの名前を定義します。
| 値 | 説明 |
|---|---|
| html_strip |
HTML コンストラクトを取り除こうとする文字フィルター。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html を参照してください |
CjkBigramTokenFilter
標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| ignoreScripts |
無視するスクリプト。 |
||
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| outputUnigrams |
boolean |
False |
ユニグラムとビグラムの両方を出力するか (true の場合)、または単に bigram (false の場合) を出力するかを示す値。 既定値は falseです。 |
CjkBigramTokenFilterScripts
CjkBigramTokenFilter によって無視できるスクリプト。
| 値 | 説明 |
|---|---|
| han |
CJK用語のバイグラムを形成するときは、漢文字を無視します。 |
| hiragana |
CJK用語のバイグラムを形成するときは、ひらがな文字を無視します。 |
| katakana |
CJK 用語のバイグラムを形成するときは、カタカナ文字を無視します。 |
| hangul |
CJK用語のバイグラムを形成するときは、ハングルスクリプトを無視します。 |
ClassicSimilarityAlgorithm
TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
ClassicTokenizer
ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
CommonGramTokenFilter
インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| commonWords |
string[] |
一般的な単語のセット。 |
|
| ignoreCase |
boolean |
False |
一般的な単語の一致で大文字と小文字が区別されないかどうかを示す値。 既定値は falseです。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| queryMode |
boolean |
False |
トークン フィルターがクエリ モードであるかどうかを示す値。 クエリ モードの場合、トークン フィルターはビッグラムを生成し、共通の単語と 1 つの用語の後に共通の単語を削除します。 既定値は falseです。 |
CorsOptions
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| allowedOrigins |
string[] |
JavaScript コードにインデックスへのアクセスを許可されるオリジンのリスト。 {protocol}://{fully-qualified-domain-name}[:{port#}] 形式のホストのリスト、またはすべてのオリジンを許可する 1 つの '*' を含めることができます (推奨されません)。 |
| maxAgeInSeconds |
integer (int64) |
ブラウザーが CORS プリフライト応答をキャッシュする期間。 デフォルトは 5 分です。 |
CustomAnalyzer
テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| charFilters |
トークナイザーによって処理される前に入力テキストを準備するために使用される文字フィルターのリスト。 たとえば、特定の文字や記号を置き換えることができます。 フィルターは、一覧表示されている順序で実行されます。 |
|
| name |
string |
アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
| tokenFilters |
トークナイザーによって生成されたトークンを除外または変更するために使用されるトークン フィルターのリスト。 たとえば、すべての文字を小文字に変換する lowercase フィルターを指定することができます。 フィルターは、一覧表示されている順序で実行されます。 |
|
| tokenizer |
文を単語に分割するなど、連続テキストを一連のトークンに分割するために使用するトークナイザーの名前。 |
CustomNormalizer
フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では、厳密な照合で動作します。 これは、格納されるトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| charFilters |
入力テキストを処理する前に準備するために使用される文字フィルターの一覧。 たとえば、特定の文字や記号を置き換えることができます。 フィルターは、一覧表示されている順序で実行されます。 |
|
| name |
string |
文字フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
| tokenFilters |
入力トークンをフィルター処理または変更するために使用されるトークン フィルターの一覧。 たとえば、すべての文字を小文字に変換する lowercase フィルターを指定することができます。 フィルターは、一覧表示されている順序で実行されます。 |
DictionaryDecompounderTokenFilter
多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxSubwordSize |
integer (int32) maximum: 300 |
15 |
サブワードの最大サイズ。 これより短いサブワードのみが出力されます。 既定値は 15 です。 最大値は 300 です。 |
| minSubwordSize |
integer (int32) maximum: 300 |
2 |
最小サブワード サイズ。 これより長いサブワードのみが出力されます。 既定値は 2 です。 最大値は 300 です。 |
| minWordSize |
integer (int32) maximum: 300 |
5 |
単語の最小サイズ。 これより長い単語のみが処理されます。 既定値は 5 です。 最大値は 300 です。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| onlyLongestMatch |
boolean |
False |
最も長い一致するサブワードのみを出力に追加するかどうかを示す値。 既定値は falseです。 |
| wordList |
string[] |
一致する単語の一覧。 |
DistanceScoringFunction
地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| boost |
number (double) |
生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。 |
| distance |
距離スコアリング関数のパラメーター値。 |
|
| fieldName |
string |
スコアリング関数への入力として使用されるフィールドの名前。 |
| interpolation |
ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。 |
|
| type |
string:
distance |
スコア関数の種類。 |
DistanceScoringParameters
距離スコアリング関数にパラメーター値を提供します。
| 名前 | 型 | 説明 |
|---|---|---|
| boostingDistance |
number (double) |
ブースト範囲が終了する基準位置からの距離(キロメートル単位)。 |
| referencePointParameter |
string |
参照場所を指定するために検索クエリで渡されるパラメーターの名前。 |
EdgeNGramTokenFilter
入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxGram |
integer (int32) |
2 |
n グラムの最大長。 既定値は 2 です。 |
| minGram |
integer (int32) |
1 |
n グラムの最小長。 既定値は 1 です。 maxGram の値より小さくする必要があります。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| side | front |
n-gram を生成する入力のどちら側から生成するかを指定します。 デフォルトは「front」です。 |
EdgeNGramTokenFilterSide
入力のどちら側から n-gram を生成するかを指定します。
| 値 | 説明 |
|---|---|
| front |
n-gram が入力の前面から生成されるように指定します。 |
| back |
n-gram を入力の背面から生成することを指定します。 |
EdgeNGramTokenFilterV2
入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
n グラムの最大長。 既定値は 2 です。 最大値は 300 です。 |
| minGram |
integer (int32) maximum: 300 |
1 |
n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| side | front |
n-gram を生成する入力のどちら側から生成するかを指定します。 デフォルトは「front」です。 |
EdgeNGramTokenizer
エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
n グラムの最大長。 既定値は 2 です。 最大値は 300 です。 |
| minGram |
integer (int32) maximum: 300 |
1 |
n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| tokenChars |
トークンに保持する文字クラス。 |
ElisionTokenFilter
省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| articles |
string[] |
削除するアーティクルのセット。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
ErrorAdditionalInfo
リソース管理エラーの追加情報。
| 名前 | 型 | 説明 |
|---|---|---|
| info |
追加情報。 |
|
| type |
string |
追加情報の種類。 |
ErrorDetail
エラーの詳細。
| 名前 | 型 | 説明 |
|---|---|---|
| additionalInfo |
エラーの追加情報。 |
|
| code |
string |
エラー コード。 |
| details |
エラーの詳細。 |
|
| message |
string |
エラー メッセージ。 |
| target |
string |
エラーターゲット。 |
ErrorResponse
すべてのAzure Resource Manager APIで失敗した操作に対してエラー詳細を返す共通のエラー応答です。 (これは、OData エラー応答形式にも従います)。
| 名前 | 型 | 説明 |
|---|---|---|
| error |
エラー オブジェクト。 |
ExhaustiveKnnAlgorithmConfiguration
クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。
| 名前 | 型 | 説明 |
|---|---|---|
| exhaustiveKnnParameters |
完全な KNN アルゴリズムに固有のパラメーターが含まれています。 |
|
| kind |
string:
exhaustive |
ベクトルサーチアルゴリズムの設定の種類。 |
| name |
string |
この特定の構成に関連付ける名前。 |
ExhaustiveKnnParameters
完全な KNN アルゴリズムに固有のパラメーターが含まれています。
| 名前 | 型 | 説明 |
|---|---|---|
| metric |
ベクトル比較に使用する類似性メトリック。 |
FreshnessScoringFunction
日時フィールドの値に基づいてスコアをブーストする関数を定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| boost |
number (double) |
生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。 |
| fieldName |
string |
スコアリング関数への入力として使用されるフィールドの名前。 |
| freshness |
鮮度スコアリング関数のパラメーター値。 |
|
| interpolation |
ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。 |
|
| type |
string:
freshness |
スコア関数の種類。 |
FreshnessScoringParameters
新度スコアリング関数にパラメーター値を提供します。
| 名前 | 型 | 説明 |
|---|---|---|
| boostingDuration |
string (duration) |
特定のドキュメントのブーストが停止するまでの有効期限。 |
HnswAlgorithmConfiguration
インデックス作成とクエリ中に使用される HNSW 近似最近傍アルゴリズムに固有の構成オプションが含まれています。 HNSW アルゴリズムは、検索速度と精度の間で調整可能なトレードオフを提供します。
| 名前 | 型 | 説明 |
|---|---|---|
| hnswParameters |
HNSW アルゴリズムに固有のパラメーターが含まれます。 |
|
| kind |
string:
hnsw |
ベクトルサーチアルゴリズムの設定の種類。 |
| name |
string |
この特定の構成に関連付ける名前。 |
HnswParameters
HNSW アルゴリズムに固有のパラメーターが含まれます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| efConstruction |
integer (int32) minimum: 100maximum: 1000 |
400 |
インデックス時に使用される最近傍を含む動的リストのサイズ。 このパラメーターを増やすと、インデックス作成時間が長くなる代わりに、インデックスの品質が向上する可能性があります。 ある時点で、このパラメータを増やすと収益が減少します。 |
| efSearch |
integer (int32) minimum: 100maximum: 1000 |
500 |
最近傍を含む動的リストのサイズで、検索時に使用されます。 このパラメーターを増やすと、検索結果が改善される可能性がありますが、検索速度が遅くなります。 ある時点で、このパラメータを増やすと収益が減少します。 |
| m |
integer (int32) minimum: 4maximum: 10 |
4 |
コンストラクション中に新しい要素ごとに作成される双方向リンクの数。 このパラメーター値を増やすと、メモリ消費量の増加とインデックス作成時間の延長を犠牲にして、固有の次元の高いデータセットの再現率が向上し、取得時間が短縮される可能性があります。 |
| metric |
ベクトル比較に使用する類似性メトリック。 |
KeepTokenFilter
指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| keepWords |
string[] |
保持する単語の一覧。 |
|
| keepWordsCase |
boolean |
False |
すべての単語を最初に小文字にするかどうかを示す値。 既定値は falseです。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
KeywordMarkerTokenFilter
用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| ignoreCase |
boolean |
False |
大文字と小文字を無視するかどうかを示す値。 true の場合、すべての単語が最初に小文字に変換されます。 既定値は falseです。 |
| keywords |
string[] |
キーワードとしてマークする単語の一覧。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
KeywordTokenizer
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| bufferSize |
integer (int32) |
256 |
読み取りバッファーのサイズ (バイト単位)。 デフォルトは 256 です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
KeywordTokenizerV2
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxTokenLength |
integer (int32) maximum: 300 |
256 |
トークンの最大長。 デフォルトは 256 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
LengthTokenFilter
長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| max |
integer (int32) maximum: 300 |
300 |
最大文字数。 既定値と最大値は 300 です。 |
| min |
integer (int32) maximum: 300 |
0 |
文字の最小長。 既定値は 0 です。 最大値は 300 です。 max の値より小さくする必要があります。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
LexicalAnalyzerName
検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。
| 値 | 説明 |
|---|---|
| ar.microsoft |
Microsoft analyzer for Arabic。 |
| ar.lucene |
アラビア語用のLucene分析装置。 |
| hy.lucene |
アルメニア語用のLucene分析装置。 |
| bn.microsoft |
Microsoft analyzer for Bangla。 |
| eu.lucene |
バスク語のLucene分析装置。 |
| bg.microsoft |
Microsoft Analyzer for Bulgarian。 |
| bg.lucene |
ブルガリア語用のLucene分析装置。 |
| ca.microsoft |
Microsoft analyzer for Catalan. |
| ca.lucene |
カタロニア語用のLucene分析装置。 |
| zh-Hans.microsoft |
Microsoft analyzer for China(簡体字)。 |
| zh-Hans.lucene |
中国語用Lucene分析装置(簡体字)。 |
| zh-Hant.microsoft |
中国語(繁体)用のMicrosoftアナライザー。 |
| zh-Hant.lucene |
中国語(繁体字)用のLucene分析装置。 |
| hr.microsoft |
Microsoft analyzer for Croatian。 |
| cs.microsoft |
Microsoft analyzer for Czech. |
| cs.lucene |
チェコ語のLucene分析装置 |
| da.microsoft |
Microsoft analyzer for Danish。 |
| da.lucene |
デンマーク語のLucene分析装置。 |
| nl.microsoft |
Microsoft analyzer for Dutch. |
| nl.lucene |
オランダ語用のLucene分析装置。 |
| en.microsoft |
Microsoft analyzer for English。 |
| en.lucene |
英語用のLucene分析装置。 |
| et.microsoft |
Microsoft analyzer for Estonian。 |
| fi.microsoft |
Microsoft analyzer for Finnish. |
| fi.lucene |
フィンランド語用のLucene分析装置。 |
| fr.microsoft |
Microsoft analyzer for French。 |
| fr.lucene |
フランス語用Lucene分析装置 |
| gl.lucene |
ガリシア語のLucene分析装置 |
| de.microsoft |
ドイツ語版Microsoftアナライザー。 |
| de.lucene |
ドイツ語のLucene分析装置 |
| el.microsoft |
Microsoft analyzer for Greek。 |
| el.lucene |
ギリシャ語のLucene分析装置。 |
| gu.microsoft |
Microsoft analyzer for Gujarati. |
| he.microsoft |
Microsoft analyzer for Hebrew。 |
| hi.microsoft |
Microsoft analyzer for Hindi。 |
| hi.lucene |
ヒンディー語用のLucene分析装置。 |
| hu.microsoft |
Microsoft analyzer for Hungarian. |
| hu.lucene |
ハンガリー語のLucene分析装置。 |
| is.microsoft |
Microsoft Analyzer for Icelandic。 |
| id.microsoft |
Microsoft analyzer for Indonesian (Bahasa). |
| id.lucene |
インドネシア語用Lucene分析装置 |
| ga.lucene |
アイルランド語用のLucene分析装置。 |
| it.microsoft |
Microsoft analyzer for Italian. |
| it.lucene |
イタリア語のLucene分析装置。 |
| ja.microsoft |
日本語版Microsoftアナライザー。 |
| ja.lucene |
日本語用ルセン分析装置 |
| kn.microsoft |
Microsoft analyzer for Kannada. |
| ko.microsoft |
Microsoft Analyzer for Korean。 |
| ko.lucene |
韓国語用ルセン分析装置 |
| lv.microsoft |
Microsoft analyzer for Latvian. |
| lv.lucene |
ラトビア語のLucene分析装置 |
| lt.microsoft |
Microsoft analyzer for Lituanian。 |
| ml.microsoft |
Microsoft analyzer for Malayalam. |
| ms.microsoft |
Microsoft analyzer for Malay (Latin) |
| mr.microsoft |
Microsoft analyzer for Marathi。 |
| nb.microsoft |
Microsoft analyzer for Norwegian (Bokmål). |
| no.lucene |
ノルウェー語のLucene分析装置。 |
| fa.lucene |
ペルシャ語用のLucene分析装置 |
| pl.microsoft |
Microsoft analyzer for Polish。 |
| pl.lucene |
ポーランド語用Lucene分析装置 |
| pt-BR.microsoft |
Microsoft analyzer for Portuguese (Brazil). |
| pt-BR.lucene |
ポルトガル語(ブラジル)用のLucene分析装置。 |
| pt-PT.microsoft |
Microsoft analyzer for Portuguese (Portugal). |
| pt-PT.lucene |
ポルトガル語(ポルトガル)のLuceneアナライザー。 |
| pa.microsoft |
Microsoft analyzer for Punjabi. |
| ro.microsoft |
Microsoft analyzer for Romanian。 |
| ro.lucene |
ルーマニア語用のLucene分析装置。 |
| ru.microsoft |
Microsoft analyzer for Russian。 |
| ru.lucene |
ロシア語用のLucene分析装置。 |
| sr-cyrillic.microsoft |
Microsoft analyzer for Serbian (Cyrillic). |
| sr-latin.microsoft |
Microsoft analyzer for Serbian (Latin). |
| sk.microsoft |
Microsoft analyzer for Slovak. |
| sl.microsoft |
Microsoft analyzer for Slovenian. |
| es.microsoft |
Microsoft analyzer for Spanish。 |
| es.lucene |
スペイン語用のLucene分析装置。 |
| sv.microsoft |
Microsoft analyzer for Swedish。 |
| sv.lucene |
スウェーデン語用Lucene分析装置 |
| ta.microsoft |
Microsoft analyzer for Tamil。 |
| te.microsoft |
Microsoft analyzer for Telugu. |
| th.microsoft |
Microsoft analyzer for Thai. |
| th.lucene |
タイ語用ルセン分析装置。 |
| tr.microsoft |
Microsoft analyzer for Turkish。 |
| tr.lucene |
トルコ語用Lucene分析装置。 |
| uk.microsoft |
Microsoft analyzer for Ukrainian. |
| ur.microsoft |
Microsoft analyzer for Urdu. |
| vi.microsoft |
Microsoft analyzer for Vietnamese。 |
| standard.lucene |
標準的なLucene分析装置。 |
| standardasciifolding.lucene |
標準ASCII折りたたみ式Lucene分析装置 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers を参照してください |
| keyword |
フィールドの内容全体を 1 つのトークンとして扱います。 これは、郵便番号、ID、一部の製品名などのデータに役立ちます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html を参照してください |
| pattern |
正規表現のパターンを使用してテキストを用語に柔軟に分割します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html を参照してください |
| simple |
テキストを非文字で分割し、それらを小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html を参照してください |
| stop |
テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html を参照してください |
| whitespace |
空白文字トークナイザーを使用するアナライザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html を参照してください |
LexicalNormalizerName
検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。
| 値 | 説明 |
|---|---|
| asciifolding |
最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください |
| elision |
省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください |
| lowercase |
トークンテキストを小文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください |
| standard |
標準ノーマライザーは、小文字とアスキーフォールディングで構成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください |
| uppercase |
トークンテキストを大文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください |
LexicalTokenizerName
検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。
LimitTokenFilter
インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| consumeAllTokens |
boolean |
False |
maxTokenCount に達した場合でも、入力からのすべてのトークンを使用する必要があるかどうかを示す値。 既定値は falseです。 |
| maxTokenCount |
integer (int32) |
1 |
生成するトークンの最大数。 既定値は 1 です。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
LuceneStandardAnalyzer
Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。 |
| name |
string |
アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| stopwords |
string[] |
ストップワードの一覧。 |
LuceneStandardTokenizer
Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxTokenLength |
integer (int32) |
255 |
トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
LuceneStandardTokenizerV2
Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
MagnitudeScoringFunction
数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| boost |
number (double) |
生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。 |
| fieldName |
string |
スコアリング関数への入力として使用されるフィールドの名前。 |
| interpolation |
ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。 |
|
| magnitude |
マグニチュード スコアリング関数のパラメーター値。 |
|
| type |
string:
magnitude |
スコア関数の種類。 |
MagnitudeScoringParameters
パラメーター値をマグニチュード スコアリング関数に提供します。
| 名前 | 型 | 説明 |
|---|---|---|
| boostingRangeEnd |
number (double) |
ブーストが終了するフィールド値。 |
| boostingRangeStart |
number (double) |
ブーストが開始されるフィールド値。 |
| constantBoostBeyondRange |
boolean |
範囲の終了値を超えるフィールド値に一定のブーストを適用するかどうかを示す値。デフォルトは false です。 |
MappingCharFilter
マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| mappings |
string[] |
"a=>b" という形式のマッピングの一覧 (文字 "a" のすべての出現箇所は文字 "b" に置き換えられます)。 |
| name |
string |
文字フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
MicrosoftLanguageStemmingTokenizer
言語固有のルールを使用してテキストを分割し、単語を基本形に変換します。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| isSearchTokenizer |
boolean |
False |
トークナイザーの使用方法を示す値。 検索トークナイザーとして使用する場合は true に設定し、インデックス作成トークナイザーとして使用する場合は false に設定します。 既定値は falseです。 |
| language |
使用する言語。 既定値は英語です。 |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
トークンの最大長。 最大長より長いトークンは分割されます。 使用できる最大トークン長は、300 文字です。 300 文字を超えるトークンは、最初に長さ 300 のトークンに分割され、その後、各トークンは最大トークン長セットに基づいて分割されます。 既定値は 255 です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
MicrosoftLanguageTokenizer
言語固有のルールを使用してテキストが分割されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| isSearchTokenizer |
boolean |
False |
トークナイザーの使用方法を示す値。 検索トークナイザーとして使用する場合は true に設定し、インデックス作成トークナイザーとして使用する場合は false に設定します。 既定値は falseです。 |
| language |
使用する言語。 既定値は英語です。 |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
トークンの最大長。 最大長より長いトークンは分割されます。 使用できる最大トークン長は、300 文字です。 300 文字を超えるトークンは、最初に長さ 300 のトークンに分割され、その後、各トークンは最大トークン長セットに基づいて分割されます。 既定値は 255 です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
MicrosoftStemmingTokenizerLanguage
Microsoft言語の語幹トークナイザーでサポートされている言語を一覧化しています。
| 値 | 説明 |
|---|---|
| arabic |
アラビア語用にMicrosoftのステミングトークナイザーを選択します。 |
| bangla |
Microsoftのステミング・トークナイザーをバングラ語で選択します。 |
| bulgarian |
ブルガリア語用にMicrosoftのステミングトークナイザーを選択します。 |
| catalan |
Catalanの用Microsoftステミングトークナイザーを選択します。 |
| croatian |
クロアチア語用にMicrosoftのステミングトークナイザーを選択します。 |
| czech |
チェコ語用Microsoftのステミングトークナイザーを選択します。 |
| danish |
デンマーク語用にMicrosoftのステミングトークナイザーを選択します。 |
| dutch |
オランダ語用にMicrosoftのステミングトークナイザーを選択します。 |
| english |
英語用にMicrosoftのステミングトークナイザーを選択します。 |
| estonian |
エストニア語のMicrosoft語幹幹トークナイザーを選択します。 |
| finnish |
フィンランド語用にMicrosoftのステミングトークナイザーを選択します。 |
| french |
フランス語のMicrosoftステミングトークナイザーを選択します。 |
| german |
ドイツ語用にMicrosoftのステミングトークナイザーを選択します。 |
| greek |
ギリシャ語用にMicrosoftのステミングトークナイザーを選択します。 |
| gujarati |
グジャラート語の Microsoft stemming tokenizer を選択します。 |
| hebrew |
ヘブライ語用Microsoftのステミングトークナイザーを選択します。 |
| hindi |
ヒンディー語用にMicrosoftのステミングトークナイザーを選択します。 |
| hungarian |
ハンガリー語用にMicrosoftのステミングトークナイザーを選択します。 |
| icelandic |
アイスランド語の Microsoft ステミング・トークナイザーを選択します。 |
| indonesian |
インドネシア語用にMicrosoftのステミング・トークナイザーを選択します。 |
| italian |
イタリア語用にMicrosoftのstemming tokenizerを選択します。 |
| kannada |
カンナダ語用にMicrosoftのステミングトークナイザーを選択します。 |
| latvian |
ラトビア語用にMicrosoftのステミング・トークナイザーを選択します。 |
| lithuanian |
リトアニア語用Microsoftのステミングトークナイザーを選択します。 |
| malay |
マレー語用Microsoftのステミングトークナイザーを選択します。 |
| malayalam |
マラヤーラム語の Microsoft ステミング・トークナイザーを選択します。 |
| marathi |
マラーティー語用にMicrosoftのステミングトークナイザーを選択します。 |
| norwegianBokmaal |
Selects the Microsoft stemming tokenizer for Norwegian (BokmÃll). |
| polish |
ポーランド語用にMicrosoftのステミングトークナイザーを選択します。 |
| portuguese |
ポルトガル語用にMicrosoftのstemming tokenizerを選択します。 |
| portugueseBrazilian |
Selects the Microsoft stemming tokenizer for Portuguese (Brazil) |
| punjabi |
PunjabiのMicrosoftステミングトークンナイザーを選択します。 |
| romanian |
ルーマニア語用にMicrosoftのステミングトークナイザーを選択します。 |
| russian |
ロシア語のMicrosoftステミングトークナイザーを選択します。 |
| serbianCyrillic |
Selects the Microsoft stemming tokenizer for Serbian (Cyrillic) |
| serbianLatin |
セルビア語(ラテン語)の Microsoft stemming tokenizer を選択します。 |
| slovak |
SlovakのMicrosoftステミングトークナイザーを選択します。 |
| slovenian |
スロベニア語のMicrosoftステミングトークナイザーを選択します。 |
| spanish |
スペイン語用にMicrosoftの語幹トークナイザーを選択します。 |
| swedish |
スウェーデン語の Microsoft ステミング トークナイザーを選択します。 |
| tamil |
タミル語の Microsoft ステミングトークナイザーを選択します。 |
| telugu |
テルグ語用Microsoftのステミングトークナイザーを選択します。 |
| turkish |
トルコ語用にMicrosoftのステミングトークナイザーを選択します。 |
| ukrainian |
ウクライナ語のMicrosoftステミングトークナイザーを選択します。 |
| urdu |
ウルドゥー語のMicrosoft語幹トークナイザーを選択します。 |
MicrosoftTokenizerLanguage
Microsoft言語トークナイザーでサポートされている言語を一覧にしています。
| 値 | 説明 |
|---|---|
| bangla |
バングラ語用にMicrosoftのトークナイザーを選択します。 |
| bulgarian |
ブルガリア語用にMicrosoftトークナイザーを選択します。 |
| catalan |
CatalanのMicrosoftトークナイザーを選択します。 |
| chineseSimplified |
中国語(簡体字)でMicrosoftトークナイザーを選択します。 |
| chineseTraditional |
中国語(繁体字)でMicrosoftのトークナイザーを選択します。 |
| croatian |
クロアチア語のMicrosoftトークナイザーを選択します。 |
| czech |
チェコ語用Microsoftトークナイザーを選択します。 |
| danish |
デンマーク語用にMicrosoftトークナイザーを選択します。 |
| dutch |
オランダ語用のMicrosoftトークナイザーを選択します。 |
| english |
英語用にMicrosoftのトークナイザーを選択します。 |
| french |
フランス語用にMicrosoftトークナイザーを選択します。 |
| german |
ドイツ語用にMicrosoftトークナイザーを選択します。 |
| greek |
ギリシャ語用にMicrosoftのトークナイザーを選択します。 |
| gujarati |
グジャラート語のMicrosoftトークナイザーを選択します。 |
| hindi |
ヒンディー語用のMicrosoftトークナイザーを選択します。 |
| icelandic |
アイスランド語のMicrosoftトークナイザーを選択します。 |
| indonesian |
インドネシア語用にMicrosoftトークナイザーを選択します。 |
| italian |
イタリア語用にMicrosoftトークナイザーを選択します。 |
| japanese |
日本語版のMicrosoftトークナイザーを選択します。 |
| kannada |
カンナダ語のMicrosoftトークナイザーを選択します。 |
| korean |
韓国語用にMicrosoftトークナイザーを選択します。 |
| malay |
マレー語用にMicrosoftトークナイザーを選択します。 |
| malayalam |
マラヤーラム語のMicrosoftトークナイザーを選択します。 |
| marathi |
マラーティー語用のMicrosoftトークナイザーを選択します。 |
| norwegianBokmaal |
Selects the Microsoft tokenizer for Norwegian (BokmÃll). |
| polish |
ポーランド語のMicrosoftトークナイザーを選択します。 |
| portuguese |
ポルトガル語用にMicrosoftのトークナイザーを選択します。 |
| portugueseBrazilian |
Selects the Microsoft tokenizer for Portuguese (Brazil). |
| punjabi |
PunjabiのSelects the Microsoft tokenizer。 |
| romanian |
ルーマニア語用にMicrosoftトークナイザーを選択します。 |
| russian |
ロシア語用のMicrosoftトークナイザーを選択します。 |
| serbianCyrillic |
セルビア語(キリル文字)のMicrosoftトークナイザーを選択します。 |
| serbianLatin |
セルビア語(ラテン語)のMicrosoftトークナイザーを選択します。 |
| slovenian |
スロベニア語のMicrosoftトークナイザーを選択します。 |
| spanish |
スペイン語用にMicrosoftのトークナイザーを選択します。 |
| swedish |
スウェーデン語のMicrosoftトークナイザーを選択します。 |
| tamil |
タミル語のMicrosoftトークナイザーを選択します。 |
| telugu |
テルグ語のMicrosoftトークナイザーを選択します。 |
| thai |
Microsoftのトークナイザーをタイ語で選択します。 |
| ukrainian |
ウクライナ語のMicrosoftトークナイザーを選択します。 |
| urdu |
ウルドゥー語用Microsoftトークナイザーを選択します。 |
| vietnamese |
ベトナム語のMicrosoftトークナイザーを選択します。 |
NGramTokenFilter
指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxGram |
integer (int32) |
2 |
n グラムの最大長。 既定値は 2 です。 |
| minGram |
integer (int32) |
1 |
n グラムの最小長。 既定値は 1 です。 maxGram の値より小さくする必要があります。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
NGramTokenFilterV2
指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
n グラムの最大長。 既定値は 2 です。 最大値は 300 です。 |
| minGram |
integer (int32) maximum: 300 |
1 |
n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
NGramTokenizer
指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
n グラムの最大長。 既定値は 2 です。 最大値は 300 です。 |
| minGram |
integer (int32) maximum: 300 |
1 |
n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| tokenChars |
トークンに保持する文字クラス。 |
PathHierarchyTokenizerV2
パス風階層用のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| delimiter |
string maxLength: 1 |
/ |
使用する区切り文字。 既定値は "/" です。 |
| maxTokenLength |
integer (int32) maximum: 300 |
300 |
トークンの最大長。 既定値と最大値は 300 です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| replacement |
string maxLength: 1 |
/ |
設定されている場合、区切り文字を置き換える値。 既定値は "/" です。 |
| reverse |
boolean |
False |
トークンを逆の順序で生成するかどうかを示す値。 既定値は falseです。 |
| skip |
integer (int32) |
0 |
スキップする初期トークンの数。 既定値は 0 です。 |
PatternAnalyzer
正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| flags |
string |
正則表現フラグは、RegexFlagsの値の「|」で分離された文字列として指定されます。 |
|
| lowercase |
boolean |
True |
用語を小文字にするかどうかを示す値。 既定値は True です。 |
| name |
string |
アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| pattern |
string |
\W+ |
トークン区切り記号を一致させる正規表現パターン。 デフォルトは、1 つ以上の単語以外の文字に一致する式です。 |
| stopwords |
string[] |
ストップワードの一覧。 |
PatternCaptureTokenFilter
Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| patterns |
string[] |
各トークンと照合するパターンの一覧。 |
|
| preserveOriginal |
boolean |
True |
いずれかのパターンが一致した場合でも、元のトークンを返すかどうかを示す値。 既定値は True です。 |
PatternReplaceCharFilter
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| name |
string |
文字フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
| pattern |
string |
正規表現パターン。 |
| replacement |
string |
置換テキスト。 |
PatternReplaceTokenFilter
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
| pattern |
string |
正規表現パターン。 |
| replacement |
string |
置換テキスト。 |
PatternTokenizer
正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| flags |
string |
正則表現フラグは、RegexFlagsの値の「|」で分離された文字列として指定されます。 |
|
| group |
integer (int32) |
-1 |
トークンに抽出する正規表現パターン内の一致グループの 0 から始まる序数。 パターン全体を使用して、一致するグループに関係なく、入力をトークンに分割する場合は、-1 を使用します。 デフォルトは -1 です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| pattern |
string |
\W+ |
トークン区切り記号を一致させる正規表現パターン。 デフォルトは、1 つ以上の単語以外の文字に一致する式です。 |
PhoneticEncoder
PhoneticTokenFilter で使用する発信エンコーダーの種類を識別します。
| 値 | 説明 |
|---|---|
| metaphone |
トークンをメタフォン値にエンコードします。 |
| doubleMetaphone |
トークンをダブルメタフォン値にエンコードします。 |
| soundex |
トークンをSoundex値にエンコードします。 |
| refinedSoundex |
トークンを Refined Soundex 値にエンコードします。 |
| caverphone1 |
トークンを Caverphone 1.0 値にエンコードします。 |
| caverphone2 |
トークンを Caverphone 2.0 値にエンコードします。 |
| cologne |
トークンをケルン音声値にエンコードします。 |
| nysiis |
トークンをNYSIIS値にエンコードします。 |
| koelnerPhonetik |
Kölner Phonetik アルゴリズムを使用してトークンをエンコードします。 |
| haasePhonetik |
Kölner Phonetik アルゴリズムの Haase 改良を使用してトークンをエンコードします。 |
| beiderMorse |
トークンを Beider-Morse 値にエンコードします。 |
PhoneticTokenFilter
音韻一致用のトークンを作成してください。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| encoder | metaphone |
使用するふりがなエンコーダー。 既定値は "metaphone" です。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| replace |
boolean |
True |
エンコードされたトークンが元のトークンを置き換える必要があるかどうかを示す値。 false の場合、エンコードされたトークンはシノニムとして追加されます。 既定値は True です。 |
RankingOrder
ドキュメントの並べ替え順序に使用するスコアを表します。
| 値 | 説明 |
|---|---|
| BoostedRerankerScore |
並べ替え順序を BoostedRerankerScore に設定します。 |
| RerankerScore |
並べ替え順序を ReRankerScore に設定します |
RescoringOptions
再スコアリングのオプションが含まれています。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| defaultOversampling |
number (double) |
既定のオーバーサンプリング係数。 オーバーサンプリングは、量子化による分解能の損失を相殺するために、より多くの潜在的なドキュメントのセットを取得します。 これにより、全精度ベクトルで再採点される結果のセットが増加します。 最小値は 1 で、オーバーサンプリング (1x) がないことを意味します。 このパラメータは、'enableRescoring' が true の場合にのみ設定できます。 値を大きくすると、待機時間を犠牲にして再現率が向上します。 |
|
| enableRescoring |
boolean |
True |
true に設定すると、圧縮ベクトルの初期検索の後、類似性スコアは全精度ベクトルを使用して再計算されます。 これにより、待機時間を犠牲にして再現率が向上します。 |
| rescoreStorageMethod |
enum:
|
preserveOriginals |
元のベクトルの保存方法を制御します。 この設定は不変です。 |
ScalarQuantizationCompression
インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。
| 名前 | 型 | 説明 |
|---|---|---|
| kind |
string:
scalar |
ベクトル検索圧縮の種類。 |
| name |
string |
この特定の構成に関連付ける名前。 |
| rescoringOptions |
再スコアリングのオプションが含まれています。 |
|
| scalarQuantizationParameters |
スカラー量子化に固有のパラメーターを格納します。 |
|
| truncationDimension |
integer (int32) |
ベクターを切り捨てるディメンションの数。 ベクターを切り捨てると、ベクターのサイズと、検索中に転送する必要があるデータの量が減ります。 これにより、ストレージ コストを節約し、リコールを犠牲にして検索のパフォーマンスを向上させることができます。 これは、OpenAI text-embedding-3-large (small) などの Matryoshka Representation Learning (MRL) でトレーニングされた埋め込みにのみ使用する必要があります。 既定値は null です。これは切り捨てがないことを意味します。 |
ScalarQuantizationParameters
スカラー量子化に固有のパラメーターを格納します。
| 名前 | 型 | 説明 |
|---|---|---|
| quantizedDataType |
圧縮ベクトル値の量子化されたデータ型。 |
ScoringFunctionAggregation
スコアリングプロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。
| 値 | 説明 |
|---|---|
| sum |
すべてのスコアリング関数の結果の合計でスコアをブーストします。 |
| average |
すべてのスコアリング関数の結果の平均でスコアをブーストします。 |
| minimum |
すべてのスコアリング関数の結果の最小値でスコアをブーストします。 |
| maximum |
すべてのスコアリング関数の結果の最大値でスコアをブーストします。 |
| firstMatching |
スコアリングプロファイルで最初に適用可能なスコアリング関数を使用してスコアをブーストします。 |
| product |
すべてのスコアリング関数の結果の積によってスコアをブーストします。 |
ScoringFunctionInterpolation
さまざまなドキュメントにわたってスコアブーストを補間するために使用される関数を定義します。
| 値 | 説明 |
|---|---|
| linear |
スコアを直線的に減少する量だけブーストします。 これは、スコアリング関数のデフォルトの補間です。 |
| constant |
一定の係数でスコアをブーストします。 |
| quadratic |
スコアを2次的に減少する量だけブーストします。 ブーストは、スコアが高いほどゆっくりと減少し、スコアが下がるにつれて急速に減少します。 この補間オプションは、タグスコアリング関数では使用できません。 |
| logarithmic |
対数的に減少する量だけスコアをブーストします。 ブーストはスコアが高いほど急速に減少し、スコアが減少するにつれてゆっくりと減少します。 この補間オプションは、タグスコアリング関数では使用できません。 |
ScoringProfile
検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| functionAggregation |
個々のスコアリング関数の結果をどのように組み合わせるかを示す値。 デフォルトは「合計」です。 スコアリング関数がない場合は無視されます。 |
|
| functions | ScoringFunction[]: |
ドキュメントのスコアリングに影響を与える関数のコレクション。 |
| name |
string |
スコアリングプロファイルの名前。 |
| text |
特定のインデックスフィールドのテキスト一致に基づいてスコアリングを向上させるパラメーター。 |
SearchField
インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。
| 名前 | 型 | 説明 |
|---|---|---|
| analyzer |
フィールドに使用するアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用でき、searchAnalyzer または indexAnalyzer と一緒に設定することはできません。 アナライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。 |
|
| dimensions |
integer (int32) minimum: 2maximum: 4096 |
ベクター フィールドの次元。 |
| facetable |
boolean |
ファセット クエリでフィールドを参照できるようにするかどうかを示す値。 通常、カテゴリ別のヒット カウントを含む検索結果のプレゼンテーションで使用されます (たとえば、デジタル カメラを検索し、ブランド別、メガピクセル別、価格別などでヒットを表示する場合)。 このプロパティは、複合フィールドの場合は null にする必要があります。 Edm.GeographyPoint 型または Collection(Edm.GeographyPoint) 型のフィールドをファセット可能にすることはできません。 デフォルトは、他のすべての単純なフィールドに対して true です。 |
| fields |
サブフィールドが Edm.ComplexType 型または Collection(Edm.ComplexType) 型のフィールドである場合のサブフィールドの一覧。 単純なフィールドの場合は null または空にする必要があります。 |
|
| filterable |
boolean |
$filterクエリでフィールドを参照できるようにするかどうかを示す値。 filterable は、文字列の処理方法で検索可能とは異なります。 フィルター可能な Edm.String 型または Collection(Edm.String) 型のフィールドは単語区切りを行わないので、比較は完全一致のみを対象とします。 たとえば、このようなフィールド f を "晴れた日" に設定した場合、$filter=f eq 'sunny' は一致しませんが、$filter=f eq 'sunny day' になります。 このプロパティは、複合フィールドの場合は null にする必要があります。 デフォルトは、単純フィールドの場合は true、複合フィールドの場合は null です。 |
| indexAnalyzer |
フィールドのインデックス作成時に使用されるアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用できます。 searchAnalyzer と共に設定する必要があり、アナライザー オプションと一緒に設定することはできません。 このプロパティを言語アナライザーの名前に設定することはできません。言語アナライザーが必要な場合は、代わりにアナライザー プロパティを使用してください。 アナライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。 |
|
| key |
boolean |
フィールドがインデックス内のドキュメントを一意に識別するかどうかを示す値。 キー フィールドとして各インデックスの最上位フィールドを 1 つだけ選択し、Edm.String 型にする必要があります。 キー フィールドを使用して、ドキュメントを直接検索したり、特定のドキュメントを更新または削除したりできます。 デフォルトは、単純フィールドの場合は false、複合フィールドの場合は null です。 |
| name |
string |
フィールドの名前。インデックスまたは親フィールドのフィールド コレクション内で一意である必要があります。 |
| normalizer |
フィールドに使用するノーマライザーの名前。 このオプションは、フィルタリング可能、ソート可能、またはファセット可能が有効になっているフィールドでのみ使用できます。 ノーマライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。 |
|
| retrievable |
boolean |
検索結果でフィールドを返すことができるかどうかを示す値。 フィルター、並べ替え、またはスコア付けメカニズムとしてフィールド (余白など) を使用するが、エンド ユーザーにフィールドを表示したくない場合は、このオプションを無効にすることができます。 このプロパティは、キー フィールドの場合は true である必要があり、複雑なフィールドの場合は null である必要があります。 このプロパティは、既存のフィールドで変更できます。 このプロパティを有効にしても、インデックス ストレージの要件は増加しません。 デフォルトは、単純フィールドの場合は true、ベクトル フィールドの場合は false、複合フィールドの場合は null です。 |
| searchAnalyzer |
フィールドの検索時に使用されるアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用できます。 indexAnalyzer と一緒に設定する必要があり、analyzer オプションと一緒に設定することはできません。 このプロパティを言語アナライザーの名前に設定することはできません。言語アナライザーが必要な場合は、代わりにアナライザー プロパティを使用してください。 このアナライザーは、既存のフィールドで更新できます。 複合フィールドの場合は null にする必要があります。 |
|
| searchable |
boolean |
フィールドがフルテキスト検索可能かどうかを示す値。 つまり、インデックス作成中に単語区切りなどの分析が行われます。 検索可能なフィールドを "晴れた日" のような値に設定すると、内部的には個々のトークン "sunny" と "day" に分割されます。 これにより、これらの語句をフルテキスト検索できます。 Edm.String 型または Collection(Edm.String) 型のフィールドは、既定で検索できます。 このプロパティは、他の非文字列データ型の単純フィールドの場合は false に、複合フィールドの場合は null にする必要があります。 注: 検索可能フィールドは、フルテキスト検索のフィールド値のトークン化された追加バージョンに対応するために、インデックスに余分なスペースを消費します。 インデックスの領域を節約する必要があり、検索にフィールドを含める必要がない場合は、検索可能を false に設定します。 |
| sortable |
boolean |
$orderby式でフィールドを参照できるようにするかどうかを示す値。 既定では、検索エンジンは結果をスコアで並べ替えますが、多くのエクスペリエンスでは、ユーザーはドキュメント内のフィールドで並べ替える必要があります。 単純フィールドは、単一値である場合にのみ並べ替えることができます (親ドキュメントのスコープ内に 1 つの値があります)。 単純なコレクション フィールドは複数値であるため、並べ替えできません。 複合コレクションの単純なサブフィールドも複数値であるため、並べ替えできません。 これは、それが直接の親フィールドであるか、先祖フィールドであるかに関係なくあてはまり、複合コレクションです。 複雑なフィールドは並べ替えできず、そのようなフィールドでは sortable プロパティが null である必要があります。 sortable のデフォルトは、単一値の単純フィールドの場合は true、複数値の単純フィールドの場合は false、複合フィールドの場合は null です。 |
| stored |
boolean |
フィールドが検索結果に返されるディスク上に個別に保持されるかどうかを示す変更できない値。 検索応答でフィールドの内容を返してストレージのオーバーヘッドを節約する予定がない場合は、このオプションを無効にすることができます。 これは、インデックスの作成時にのみ設定でき、ベクター フィールドに対してのみ設定できます。 既存のフィールドに対してこのプロパティを変更したり、新しいフィールドに対して false に設定したりすることはできません。 このプロパティが false に設定されている場合は、プロパティ 'retrievable' も false に設定する必要があります。 このプロパティは、キー フィールド、新しいフィールド、および非ベクター フィールドの場合は true または unset である必要があり、複合フィールドの場合は null にする必要があります。 このプロパティを無効にすると、インデックスストレージの要件が減ります。 ベクトル フィールドの既定値は true です。 |
| synonymMaps |
string[] |
このフィールドに関連付けるシノニム マップの名前の一覧。 このオプションは、検索可能なフィールドでのみ使用できます。 現在は、フィールドごとに 1 つのみのシノニム マップがサポートされます。 フィールドにシノニム マップを割り当てると、そのフィールドを対象とするクエリ用語が、クエリ時にシノニム マップのルールを使用して展開されます。 この属性は、既存のフィールドのものを変更できます。 複合フィールドの場合は null または空のコレクションである必要があります。 |
| type |
フィールドのデータ型。 |
|
| vectorEncoding |
フィールドの内容を解釈するエンコード形式。 |
|
| vectorSearchProfile |
string |
ベクター フィールドを検索するときに使用するアルゴリズムとベクターライザーを指定するベクター検索プロファイルの名前。 |
SearchFieldDataType
検索インデックス内のフィールドのデータ型を定義します。
| 値 | 説明 |
|---|---|
| Edm.String |
フィールドに文字列が含まれていることを示します。 |
| Edm.Int32 |
フィールドに 32 ビット符号付き整数が含まれていることを示します。 |
| Edm.Int64 |
フィールドに 64 ビット符号付き整数が含まれていることを示します。 |
| Edm.Double |
フィールドに IEEE 倍精度浮動小数点数が含まれていることを示します。 |
| Edm.Boolean |
フィールドにブール値 (true または false) が含まれていることを示します。 |
| Edm.DateTimeOffset |
フィールドに、タイムゾーン情報を含む日付/時刻値が含まれていることを示します。 |
| Edm.GeographyPoint |
フィールドに経度と緯度の観点から geo 位置が含まれていることを示します。 |
| Edm.ComplexType |
フィールドに、他の型のサブフィールドを持つ 1 つ以上の複雑なオブジェクトが含まれていることを示します。 |
| Edm.Single |
フィールドに単精度浮動小数点数が含まれていることを示します。 これは Collection(Edm.Single) で使用した場合にのみ有効です。 |
| Edm.Half |
フィールドに半精度浮動小数点数が含まれていることを示します。 これは Collection(Edm.Half) と共に使用した場合にのみ有効です。 |
| Edm.Int16 |
フィールドに 16 ビット符号付き整数が含まれていることを示します。 これは Collection(Edm.Int16) で使用した場合にのみ有効です。 |
| Edm.SByte |
フィールドに 8 ビット符号付き整数が含まれていることを示します。 これは Collection(Edm.SByte) で使用した場合にのみ有効です。 |
| Edm.Byte |
フィールドに 8 ビット符号なし整数が含まれていることを示します。 これは Collection(Edm.Byte) で使用した場合にのみ有効です。 |
SearchIndex
インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.etag |
string |
インデックスの ETag。 |
| analyzers | LexicalAnalyzer[]: |
インデックスのアナライザー。 |
| charFilters | CharFilter[]: |
インデックスの文字フィルター。 |
| corsOptions |
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプション。 |
|
| defaultScoringProfile |
string |
クエリで何も指定されていない場合に使用するスコアリング プロファイルの名前。 このプロパティが設定されておらず、クエリでスコアリング プロファイルが指定されていない場合は、既定のスコアリング (tf-idf) が使用されます。 |
| description |
string |
インデックスの説明。 |
| encryptionKey |
Azure Key Vault で作成する暗号化キーの説明。 この鍵は、誰も、Microsoftでさえもあなたのデータを復号できないと完全に保証したい場合に、データに対して追加の暗号化レベルを提供するために使われます。 データを暗号化すると、常に暗号化されたままになります。 検索サービスは、このプロパティを null に設定しようとすると無視されます。 暗号化キーをローテーションする場合は、必要に応じてこのプロパティを変更できます。データは影響を受けません。 カスタマー マネージド キーを使用した暗号化は、無料の検索サービスでは使用できません。また、2019 年 1 月 1 日以降に作成された有料サービスでのみ使用できます。 |
|
| fields |
インデックスのフィールド。 |
|
| name |
string |
インデックスの名前。 |
| normalizers | LexicalNormalizer[]: |
インデックスのノーマライザー。 |
| scoringProfiles |
インデックスのスコアリング プロファイル。 |
|
| semantic |
セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。 |
|
| similarity | SimilarityAlgorithm: |
検索クエリに一致するドキュメントのスコア付けとランク付けに使用する類似性アルゴリズムの種類。 類似性アルゴリズムは、インデックス作成時にのみ定義でき、既存のインデックスでは変更できません。 null の場合は、ClassicSimilarity アルゴリズムが使用されます。 |
| suggesters |
インデックスのサジェスター。 |
|
| tokenFilters |
TokenFilter[]:
|
インデックスのトークン フィルター。 |
| tokenizers | LexicalTokenizer[]: |
インデックスのトークナイザー。 |
| vectorSearch |
ベクター検索に関連する構成オプションが含まれています。 |
SearchIndexerDataNoneIdentity
データソースの ID プロパティをクリアします。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
ID のタイプを指定する URI フラグメント。 |
SearchIndexerDataUserAssignedIdentity
使用するデータソースの ID を指定します。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
ID のタイプを指定する URI フラグメント。 |
| userAssignedIdentity |
string |
通常、ユーザー割り当てマネージド ID の完全修飾 Azure リソース ID は、検索サービスに割り当てられている必要がある "/subscriptions/12345678-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" の形式です。 |
SearchResourceEncryptionKey
Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーを使用して、インデックスやシノニム マップなどの保存データの暗号化または暗号化解除を行うことができます。
| 名前 | 型 | 説明 |
|---|---|---|
| accessCredentials.applicationId |
string |
保存データの暗号化時に使用される Azure Key Vault に対する必要なアクセス許可が付与された AAD アプリケーション ID。 アプリケーション ID は、AAD アプリケーションのオブジェクト ID と混同しないでください。 |
| accessCredentials.applicationSecret |
string |
指定した AAD アプリケーションの認証キー。 |
| identity | SearchIndexerDataIdentity: |
この暗号化キーに使用する明示的なマネージド ID。 指定されず、アクセス資格情報プロパティが null の場合は、システム割り当てマネージド ID が使用されます。 リソースの更新時に、明示的な ID が指定されていない場合、変更されません。 "none" が指定されている場合、このプロパティの値はクリアされます。 |
| keyVaultKeyName |
string |
保存データの暗号化に使用する Azure Key Vault キーの名前。 |
| keyVaultKeyVersion |
string |
保存データの暗号化に使用する Azure Key Vault キーのバージョン。 |
| keyVaultUri |
string |
保存データの暗号化に使用するキーを含む Azure Key Vault の URI (DNS 名とも呼ばれます)。 URI の例は、 |
SearchSuggester
Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| name |
string |
サジェスタの名前。 |
| searchMode |
enum:
analyzing |
サジェスターの機能を示す値。 |
| sourceFields |
string[] |
サジェスターが適用されるフィールド名のリスト。 各フィールドは検索可能である必要があります。 |
SemanticConfiguration
セマンティック機能のコンテキストで使用する特定の構成を定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| name |
string |
セマンティック構成の名前。 |
| prioritizedFields |
セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、およびキーワード フィールドについて説明します。 3 つのサブ プロパティ (titleField、prioritizedKeywordsFields、prioritizedContentFields) のうち少なくとも 1 つを設定する必要があります。 |
|
| rankingOrder |
検索結果の並べ替え順序に使用するスコアの種類を指定します。 |
SemanticField
セマンティック構成の一部として使用されるフィールド。
| 名前 | 型 | 説明 |
|---|---|---|
| fieldName |
string |
ファイル名 |
SemanticPrioritizedFields
セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。
| 名前 | 型 | 説明 |
|---|---|---|
| prioritizedContentFields |
セマンティック ランク付け、キャプション、ハイライト、および回答に使用するコンテンツ フィールドを定義します。 最良の結果を得るには、選択したフィールドに自然言語形式のテキストが含まれている必要があります。 配列内のフィールドの順序は、その優先順位を表します。 優先度の低いフィールドは、コンテンツが長い場合、切り捨てられる可能性があります。 |
|
| prioritizedKeywordsFields |
セマンティック ランキング、キャプション、ハイライト、および回答に使用するキーワード フィールドを定義します。 最良の結果を得るには、選択したフィールドにキーワードのリストが含まれている必要があります。 配列内のフィールドの順序は、その優先順位を表します。 優先度の低いフィールドは、コンテンツが長い場合、切り捨てられる可能性があります。 |
|
| titleField |
セマンティック ランク付け、キャプション、ハイライト、および回答に使用するタイトル フィールドを定義します。 インデックスにタイトルフィールドがない場合は、空白のままにします。 |
SemanticSearch
セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| configurations |
インデックスのセマンティック構成。 |
|
| defaultConfiguration |
string |
インデックス内のデフォルトのセマンティック構成の名前を設定し、毎回クエリパラメータとして渡すことをオプションにすることができます。 |
ShingleTokenFilter
トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| filterToken |
string |
_ |
トークンがない位置ごとに挿入する文字列。 既定値はアンダースコア ("_") です。 |
| maxShingleSize |
integer (int32) minimum: 2 |
2 |
最大の真ん中の大きさ。 既定値と最小値は 2 です。 |
| minShingleSize |
integer (int32) minimum: 2 |
2 |
最小の真ん中の大きさ。 既定値と最小値は 2 です。 maxShingleSize の値より小さくする必要があります。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| outputUnigrams |
boolean |
True |
出力ストリームに入力トークン (ユニグラム) と輝きが含まれるかどうかを示す値。 既定値は True です。 |
| outputUnigramsIfNoShingles |
boolean |
False |
これらの時刻に対して、使用できる輝きがない場合にユニグラムを出力するかどうかを示す値。 outputUnigrams が false に設定されている場合、このプロパティが優先されます。 既定値は falseです。 |
| tokenSeparator |
string |
隣接するトークンを結合して輝きを形成するときに使用する文字列。 既定値は 1 つのスペース (" ") です。 |
SnowballTokenFilter
Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| language |
使用する言語。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
SnowballTokenFilterLanguage
Snowball トークンフィルターに使用する言語。
| 値 | 説明 |
|---|---|
| armenian |
アルメニア語の Lucene Snowball ステミング トークナイザーを選択します。 |
| basque |
バスク語の Lucene Snowball ステミングトークナイザーを選択します。 |
| catalan |
カタロニア語の Lucene Snowball ステミング トークナイザーを選択します。 |
| danish |
デンマーク語の Lucene Snowball ステミング トークナイザーを選択します。 |
| dutch |
オランダ語の Lucene Snowball ステミング トークナイザーを選択します。 |
| english |
英語の Lucene Snowball ステミング トークナイザーを選択します。 |
| finnish |
フィンランド語の Lucene Snowball 語幹記号取得トークナイザーを選択します。 |
| french |
フランス語の Lucene Snowball ステミング トークナイザーを選択します。 |
| german |
ドイツ語の Lucene Snowball ステミング トークナイザーを選択します。 |
| german2 |
ドイツ語のバリアントアルゴリズムを使用する Lucene Snowball ステミングトークナイザーを選択します。 |
| hungarian |
ハンガリー語の Lucene Snowball ステミングトークナイザーを選択します。 |
| italian |
イタリア語の Lucene Snowball ステミング トークナイザーを選択します。 |
| kp |
Kraaij-Pohlmann ステミングアルゴリズムを使用するオランダ語の Lucene Snowball ステミングトークナイザーを選択します。 |
| lovins |
Lovins ステミングアルゴリズムを使用する英語の Lucene Snowball ステミングトークナイザーを選択します。 |
| norwegian |
ノルウェー語の Lucene Snowball ステミングトークナイザーを選択します。 |
| porter |
Porter ステミングアルゴリズムを使用する英語の Lucene Snowball ステミングトークナイザーを選択します。 |
| portuguese |
ポルトガル語の Lucene Snowball 語幹記号取得トークナイザーを選択します。 |
| romanian |
ルーマニア語の Lucene Snowball ステミングトークナイザーを選択します。 |
| russian |
ロシア語の Lucene Snowball ステミング トークナイザーを選択します。 |
| spanish |
スペイン語の Lucene Snowball ステミング トークナイザーを選択します。 |
| swedish |
スウェーデン語の Lucene Snowball ステミングトークナイザーを選択します。 |
| turkish |
トルコ語の Lucene Snowball ステミング トークナイザーを選択します。 |
StemmerOverrideTokenFilter
ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html を参照してください
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
| rules |
string[] |
"word => stem" という形式のステミング 規則の一覧 (例: "ran => run")。 |
StemmerTokenFilter
言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| language |
使用する言語。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
StemmerTokenFilterLanguage
ステマートークンフィルターに使用する言語。
| 値 | 説明 |
|---|---|
| arabic |
アラビア語の Lucene ステミング トークナイザーを選択します。 |
| armenian |
アルメニア語の Lucene ステミング トークナイザーを選択します。 |
| basque |
バスク語の Lucene ステミング トークナイザーを選択します。 |
| brazilian |
ポルトガル語 (ブラジル) の Lucene ステミング トークナイザーを選択します。 |
| bulgarian |
ブルガリア語の Lucene ステミング トークナイザーを選択します。 |
| catalan |
カタロニア語の Lucene ステミング トークナイザーを選択します。 |
| czech |
チェコ語の Lucene ステミングトークナイザーを選択します。 |
| danish |
デンマーク語の Lucene ステミング トークナイザーを選択します。 |
| dutch |
オランダ語の Lucene ステミング トークナイザーを選択します。 |
| dutchKp |
Kraaij-Pohlmann ステミングアルゴリズムを使用するオランダ語のLuceneステミングトークナイザーを選択します。 |
| english |
英語の Lucene ステミング トークナイザーを選択します。 |
| lightEnglish |
ライトステミングを行う英語の Lucene ステミング トークナイザーを選択します。 |
| minimalEnglish |
最小限のステミングを行う英語の Lucene ステミング トークナイザーを選択します。 |
| possessiveEnglish |
単語から末尾の所有格を削除する英語の Lucene ステミング トークナイザーを選択します。 |
| porter2 |
Porter2 ステミングアルゴリズムを使用する英語の Lucene ステミングトークナイザーを選択します。 |
| lovins |
Lovins ステミングアルゴリズムを使用する英語の Lucene ステミングトークナイザーを選択します。 |
| finnish |
フィンランド語の Lucene ステミング トークナイザーを選択します。 |
| lightFinnish |
ライトステミングを行うフィンランド語の Lucene ステミング トークナイザーを選択します。 |
| french |
フランス語の Lucene ステミング トークナイザーを選択します。 |
| lightFrench |
ライトステミングを行うフランス語の Lucene ステミング トークナイザーを選択します。 |
| minimalFrench |
最小限のステミングを行うフランス語の Lucene ステミング トークナイザーを選択します。 |
| galician |
ガリシア語の Lucene ステミング トークナイザーを選択します。 |
| minimalGalician |
最小限のステミングを行うガリシア語の Lucene ステミング トークナイザーを選択します。 |
| german |
ドイツ語の Lucene ステミング トークナイザーを選択します。 |
| german2 |
ドイツ語バリアントアルゴリズムを使用するLuceneステミングトークナイザーを選択します。 |
| lightGerman |
ライトステミングを行うドイツ語のLuceneステミングトークナイザーを選択します。 |
| minimalGerman |
最小限のステミングを行うドイツ語のLuceneステミングトークナイザーを選択します。 |
| greek |
ギリシャ語の Lucene ステミング トークナイザーを選択します。 |
| hindi |
ヒンディー語の Lucene ステミング トークナイザーを選択します。 |
| hungarian |
ハンガリー語の Lucene ステミング トークナイザーを選択します。 |
| lightHungarian |
ライトステミングを行うハンガリー語の Lucene ステミング トークナイザーを選択します。 |
| indonesian |
インドネシア語の Lucene ステミング トークナイザーを選択します。 |
| irish |
アイルランド語の Lucene ステミング トークナイザーを選択します。 |
| italian |
イタリア語の Lucene ステミング トークナイザーを選択します。 |
| lightItalian |
ライトステミングを行うイタリア語のLuceneステミングトークナイザーを選択します。 |
| sorani |
Sorani の Lucene ステミングトークナイザーを選択します。 |
| latvian |
ラトビア語の Lucene ステミング トークナイザーを選択します。 |
| norwegian |
ノルウェー語(BokmÃll)のLucene語幹トークナイザーを選択します。 |
| lightNorwegian |
ノルウェー語(BokmÃll)のルーセン語の語幹トークナイザーを選び、軽い語彙整理を行います。 |
| minimalNorwegian |
ノルウェー語(BokmÃll)のルセネ語幹トークナイザーを選択し、語幹の付けを最小限にします。 |
| lightNynorsk |
ライトステミングを行うノルウェー語 (Nynorsk) の Lucene ステミング トークナイザーを選択します。 |
| minimalNynorsk |
最小限のステミングを行うノルウェー語 (Nynorsk) の Lucene ステミング トークナイザーを選択します。 |
| portuguese |
ポルトガル語の Lucene ステミング トークナイザーを選択します。 |
| lightPortuguese |
ライトステミングを行うポルトガル語のLuceneステミングトークナイザーを選択します。 |
| minimalPortuguese |
最小限のステミングを行うポルトガル語の Lucene ステミング トークナイザーを選択します。 |
| portugueseRslp |
RSLP ステミングアルゴリズムを使用するポルトガル語の Lucene ステミングトークナイザーを選択します。 |
| romanian |
ルーマニア語の Lucene ステミング トークナイザーを選択します。 |
| russian |
ロシア語の Lucene ステミング トークナイザーを選択します。 |
| lightRussian |
ライトステミングを行うロシア語のLuceneステミングトークナイザーを選択します。 |
| spanish |
スペイン語の Lucene ステミング トークナイザーを選択します。 |
| lightSpanish |
ライトステミングを行うスペイン語の Lucene ステミング トークナイザーを選択します。 |
| swedish |
スウェーデン語の Lucene 語幹記号トークナイザーを選択します。 |
| lightSwedish |
ライトステミングを行うスウェーデン語の Lucene ステミング トークナイザーを選択します。 |
| turkish |
トルコ語の Lucene ステミング トークナイザーを選択します。 |
StopAnalyzer
テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 説明 |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
| name |
string |
アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
| stopwords |
string[] |
ストップワードの一覧。 |
StopwordsList
言語固有のストップワードの事前定義リストを識別します。
| 値 | 説明 |
|---|---|
| arabic |
アラビア語のストップワードリストを選択します。 |
| armenian |
アルメニア語のストップワードリストを選択します。 |
| basque |
バスク語のストップワードリストを選択します。 |
| brazilian |
ポルトガル語 (ブラジル) のストップワード リストを選択します。 |
| bulgarian |
ブルガリア語のストップワードリストを選択します。 |
| catalan |
カタロニア語のストップワードリストを選択します。 |
| czech |
チェコ語のストップワードリストを選択します。 |
| danish |
デンマーク語のストップワードリストを選択します。 |
| dutch |
オランダ語のストップワードリストを選択します。 |
| english |
英語のストップワードリストを選択します。 |
| finnish |
フィンランド語のストップワードリストを選択します。 |
| french |
フランス語のストップワードリストを選択します。 |
| galician |
ガリシア語のストップワードリストを選択します。 |
| german |
ドイツ語のストップワード・リストを選択します。 |
| greek |
ギリシャ語のストップワード・リストを選択します。 |
| hindi |
ヒンディー語のストップワード・リストを選択します。 |
| hungarian |
ハンガリー語のストップワード・リストを選択します。 |
| indonesian |
インドネシア語のストップワードリストを選択します。 |
| irish |
アイルランド語のストップワードリストを選択します。 |
| italian |
イタリア語のストップワードリストを選択します。 |
| latvian |
ラトビア語のストップワードリストを選択します。 |
| norwegian |
ノルウェー語のストップワード・リストを選択します。 |
| persian |
ペルシア語のストップワードリストを選択します。 |
| portuguese |
ポルトガル語のストップワードリストを選択します。 |
| romanian |
ルーマニア語のストップワードリストを選択します。 |
| russian |
ロシア語のストップワードリストを選択します。 |
| sorani |
ソラニのストップワードリストを選択します。 |
| spanish |
スペイン語のストップワードリストを選択します。 |
| swedish |
スウェーデン語のストップワード・リストを選択します。 |
| thai |
タイ語のストップワードリストを選択します。 |
| turkish |
トルコ語のストップワードリストを選択します。 |
StopwordsTokenFilter
トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| ignoreCase |
boolean |
False |
大文字と小文字を無視するかどうかを示す値。 true の場合、すべての単語が最初に小文字に変換されます。 既定値は falseです。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| removeTrailing |
boolean |
True |
最後の検索語句がストップ ワードの場合に無視するかどうかを示す値。 既定値は True です。 |
| stopwords |
string[] |
ストップワードの一覧。 このプロパティとストップワード リスト プロパティの両方を設定することはできません。 |
|
| stopwordsList | english |
使用するストップワードの定義済みリスト。 このプロパティとストップワード プロパティの両方を設定することはできません。 既定値は英語です。 |
SynonymTokenFilter
トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| expand |
boolean |
True |
シノニムの一覧内のすべての単語 (=> 表記が使用されていない場合) が相互にマップされるかどうかを示す値。 true の場合、シノニムの一覧内のすべての単語 (=> 表記が使用されていない場合) は相互にマップされます。 次のリスト:信じられないほどの、信じられないほどの、素晴らしい、素晴らしいに相当します:信じられないほどの、信じられないほどの、素晴らしい、素晴らしい=> 信じられないほどの、素晴らしい、素晴らしい。 誤った場合、次のリスト: 信じられないほどの、信じられないほどの、素晴らしい、素晴らしいと同等になります:信じられないほどの、信じられないほどの、素晴らしい、素晴らしい=> 信じられないほどの。 既定値は True です。 |
| ignoreCase |
boolean |
False |
一致する入力を大文字と小文字を区別するかどうかを示す値。 既定値は falseです。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| synonyms |
string[] |
次のいずれかの形式のシノニムの一覧: 1。 信じられないほどの、信じられないほどの、素晴らしい=> 素晴らしい - => 記号の左側のすべての用語は、右側のすべての用語に置き換えられます。2. 信じられないほどの、信じられないほどの、素晴らしい、素晴らしい - 同等の単語のコンマ区切りのリスト。 このリストの解釈方法を変更するには、expand オプションを設定します。 |
TagScoringFunction
特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| boost |
number (double) |
生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。 |
| fieldName |
string |
スコアリング関数への入力として使用されるフィールドの名前。 |
| interpolation |
ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。 |
|
| tag |
タグ スコアリング関数のパラメーター値。 |
|
| type |
string:
tag |
スコア関数の種類。 |
TagScoringParameters
タグ スコアリング関数にパラメーター値を提供します。
| 名前 | 型 | 説明 |
|---|---|---|
| tagsParameter |
string |
ターゲットフィールドと比較するタグのリストを指定するために検索クエリで渡されるパラメータの名前。 |
TextWeights
検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| weights |
object |
ドキュメントのスコアリングを高めるためのフィールドごとの重みの辞書。 キーはフィールド名で、値は各フィールドの重みです。 |
TokenCharacterKind
トークン フィルターが操作できる文字のクラスを表します。
| 値 | 説明 |
|---|---|
| letter |
文字をトークンに保持します。 |
| digit |
トークンに数字を保持します。 |
| whitespace |
トークンに空白を保持します。 |
| punctuation |
句読点をトークンに保持します。 |
| symbol |
シンボルをトークンに保持します。 |
TokenFilterName
検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。
TruncateTokenFilter
用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| length |
integer (int32) maximum: 300 |
300 |
用語が切り捨てられる長さ。 既定値と最大値は 300 です。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
UaxUrlEmailTokenizer
URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。 |
| name |
string |
トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
UniqueTokenFilter
前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| onlyOnSamePosition |
boolean |
False |
同じ位置でのみ重複を削除するかどうかを示す値。 既定値は falseです。 |
VectorEncodingFormat
ベクトル フィールドの内容を解釈するためのエンコード形式。
| 値 | 説明 |
|---|---|
| packedBit |
より広いデータ型にパックされたビットを表すエンコード形式。 |
VectorSearch
ベクター検索に関連する構成オプションが含まれています。
| 名前 | 型 | 説明 |
|---|---|---|
| algorithms | VectorSearchAlgorithmConfiguration[]: |
インデックス作成またはクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれています。 |
| compressions | VectorSearchCompression[]: |
インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。 |
| profiles |
ベクター検索で使用する構成の組み合わせを定義します。 |
|
| vectorizers | VectorSearchVectorizer[]: |
テキスト ベクター クエリをベクター化する方法に関する構成オプションが含まれています。 |
VectorSearchAlgorithmKind
インデックス作成とクエリに使用されるアルゴリズム。
| 値 | 説明 |
|---|---|
| hnsw |
HNSW (階層的なナビゲート可能な小さな世界)、概ね最も近い近隣アルゴリズムの一種。 |
| exhaustiveKnn |
ブルート フォース検索を実行する完全な KNN アルゴリズム。 |
VectorSearchAlgorithmMetric
ベクトル比較に使用する類似性メトリック。 埋め込みモデルがトレーニングされたのと同じ類似性メトリックを選択することをお勧めします。
| 値 | 説明 |
|---|---|
| cosine |
ベクトル間の角度を測定して類似性を定量化し、大きさを無視します。 角度が小さいと、類似性が近くなります。 |
| euclidean |
多次元空間内のベクトル間の直線距離を計算します。 距離が小さいと、類似性が近くなります。 |
| dotProduct |
要素ごとの積の合計を計算して、アライメントと大きさの類似性を測定します。 大きく、より肯定的なほど、類似性が近くなります。 |
| hamming |
ビット パックされたバイナリ データ型にのみ適用されます。 バイナリ ベクトル内の異なる位置をカウントすることによって、非類似性を判断します。 違いが少ないほど、類似性が近くなります。 |
VectorSearchCompressionKind
インデックス作成とクエリに使用される圧縮方法。
| 値 | 説明 |
|---|---|
| scalarQuantization |
スカラー量子化。圧縮方法の一種です。 スカラー量子化では、元のベクトル値は、量子化された値の小さなセットを使用してベクトルの各コンポーネントを分離して表すことによって、より狭い型に圧縮され、それによって全体的なデータ サイズが小さくなります。 |
| binaryQuantization |
バイナリ量子化。圧縮方法の一種です。 二項量子化では、元のベクトル値は、バイナリ値を使用してベクトルの各コンポーネントを分離して表すことによって、より狭いバイナリ型に圧縮され、それによって全体的なデータ サイズが小さくなります。 |
VectorSearchCompressionTarget
圧縮ベクトル値の量子化されたデータ型。
| 値 | 説明 |
|---|---|
| int8 |
8 ビット符号付き整数。 |
VectorSearchProfile
ベクター検索で使用する構成の組み合わせを定義します。
| 名前 | 型 | 説明 |
|---|---|---|
| algorithm |
string |
アルゴリズムとオプションのパラメーターを指定するベクトル検索アルゴリズム構成の名前。 |
| compression |
string |
圧縮方法とオプションのパラメーターを指定する圧縮方法構成の名前。 |
| name |
string |
この特定のベクトル検索プロファイルに関連付ける名前。 |
| vectorizer |
string |
ベクトル検索で使用するために構成されているベクトル化の名前。 |
VectorSearchVectorizerKind
クエリ時に使用するベクトル化方法。
| 値 | 説明 |
|---|---|
| azureOpenAI |
クエリ時に Azure OpenAI リソースを使用して埋め込みを生成します。 |
| customWebApi |
クエリ時にカスタム Web エンドポイントを使用して埋め込みを生成します。 |
| aiServicesVision |
Azure AI Services Vision Vectorize API を使用して、クエリ時に画像またはテキスト入力の埋め込みを生成します。 |
| aml |
クエリ時に Azure AI Foundry モデル カタログを介してデプロイされた Azure Machine Learning エンドポイントを使用して埋め込みを生成します。 |
WebApiVectorizer
クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。
| 名前 | 型 | 説明 |
|---|---|---|
| customWebApiParameters |
ユーザー定義のベクトル化器のプロパティを指定します。 |
|
| kind |
string:
custom |
VectorSearchVectorizerの種類。 |
| name |
string |
この特定のベクター化メソッドに関連付ける名前。 |
WebApiVectorizerParameters
ユーザー定義ベクターライザーに接続するためのプロパティを指定します。
| 名前 | 型 | 説明 |
|---|---|---|
| authIdentity | SearchIndexerDataIdentity: |
送信接続に使用されるユーザー割り当てマネージド ID。 authResourceId が指定されていて、指定されていない場合は、システム割り当てマネージド ID が使用されます。 インデクサーの更新時に、ID が指定されていない場合、値は変更されません。 「none」に設定すると、このプロパティの値はクリアされます。 |
| authResourceId |
string |
Azure関数や変換を提供する他のアプリケーションで外部コードに接続するカスタムエンドポイントに適用されます。 この値は、関数またはアプリが Azure Active Directory に登録されたときに作成されたアプリケーション ID である必要があります。 指定すると、ベクトル化は、検索サービスのマネージド ID (システムまたはユーザー割り当て) と関数またはアプリのアクセス トークンを使用して関数またはアプリに接続し、この値をアクセス トークンのスコープを作成するためのリソース ID として使用します。 |
| httpHeaders |
object |
HTTP 要求を行うために必要なヘッダー。 |
| httpMethod |
string |
HTTP 要求のメソッド。 |
| timeout |
string (duration) |
要求に必要なタイムアウト。 既定値は 30 秒です。 |
| uri |
string (uri) |
ベクタライザーを提供する Web API の URI。 |
WordDelimiterTokenFilter
単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
| 名前 | 型 | 規定値 | 説明 |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
派生型の識別子。 |
|
| catenateAll |
boolean |
False |
すべてのサブワード部分を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure-Search-1" は "AzureSearch1" になります。 既定値は falseです。 |
| catenateNumbers |
boolean |
False |
数値部分の最大実行数を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"1- 2" は "12" になります。 既定値は falseです。 |
| catenateWords |
boolean |
False |
単語部分の最大実行数を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure-Search" は "AzureSearch" になります。 既定値は falseです。 |
| generateNumberParts |
boolean |
True |
数値サブワードを生成するかどうかを示す値。 既定値は True です。 |
| generateWordParts |
boolean |
True |
パート ワードを生成するかどうかを示す値。 設定すると、単語の一部が生成されます。たとえば、"AzureSearch" は "Azure" "Search" になります。 既定値は True です。 |
| name |
string |
トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。 |
|
| preserveOriginal |
boolean |
False |
元の単語を保持してサブワード リストに追加するかどうかを示す値。 既定値は falseです。 |
| protectedWords |
string[] |
区切られるのを防ぎ、保護するトークンの一覧。 |
|
| splitOnCaseChange |
boolean |
True |
caseChange で単語を分割するかどうかを示す値。 たとえば、これが true に設定されている場合、"AzureSearch" は "Azure" "Search" になります。 既定値は True です。 |
| splitOnNumerics |
boolean |
True |
数値で分割するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure1Search" は "Azure" "1" "Search" になります。 既定値は True です。 |
| stemEnglishPossessive |
boolean |
True |
各サブワードの末尾の "'s" を削除するかどうかを示す値。 既定値は True です。 |