Indexes - Create

新しい検索インデックスを作成します。

POST {endpoint}/indexes?api-version=2026-04-01

URI パラメーター

名前 / 必須 説明
endpoint
path True

string (uri)

検索サービスのエンドポイント URL。

api-version
query True

string

minLength: 1

この操作に使用する API バージョン。

要求ヘッダー

名前 必須 説明
Accept

Accept

Acceptヘッダーです。

x-ms-client-request-id

string (uuid)

要求の非透過的なグローバルに一意のクライアント生成文字列識別子。

要求本文

名前 必須 説明
fields True

SearchField[]

インデックスのフィールド。

name True

string

インデックスの名前。

@odata.etag

string

インデックスの ETag。

analyzers LexicalAnalyzer[]:

インデックスのアナライザー。

charFilters CharFilter[]:

インデックスの文字フィルター。

corsOptions

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプション。

defaultScoringProfile

string

クエリで何も指定されていない場合に使用するスコアリング プロファイルの名前。 このプロパティが設定されておらず、クエリでスコアリング プロファイルが指定されていない場合は、既定のスコアリング (tf-idf) が使用されます。

description

string

インデックスの説明。

encryptionKey

SearchResourceEncryptionKey

Azure Key Vault で作成する暗号化キーの説明。 この鍵は、誰も、Microsoftでさえもあなたのデータを復号できないと完全に保証したい場合に、データに対して追加の暗号化レベルを提供するために使われます。 データを暗号化すると、常に暗号化されたままになります。 検索サービスは、このプロパティを null に設定しようとすると無視されます。 暗号化キーをローテーションする場合は、必要に応じてこのプロパティを変更できます。データは影響を受けません。 カスタマー マネージド キーを使用した暗号化は、無料の検索サービスでは使用できません。また、2019 年 1 月 1 日以降に作成された有料サービスでのみ使用できます。

normalizers LexicalNormalizer[]:

CustomNormalizer[]

インデックスのノーマライザー。

scoringProfiles

ScoringProfile[]

インデックスのスコアリング プロファイル。

semantic

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

similarity SimilarityAlgorithm:

検索クエリに一致するドキュメントのスコア付けとランク付けに使用する類似性アルゴリズムの種類。 類似性アルゴリズムは、インデックス作成時にのみ定義でき、既存のインデックスでは変更できません。 null の場合は、ClassicSimilarity アルゴリズムが使用されます。

suggesters

SearchSuggester[]

インデックスのサジェスター。

tokenFilters TokenFilter[]:

インデックスのトークン フィルター。

tokenizers LexicalTokenizer[]:

インデックスのトークナイザー。

vectorSearch

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

応答

名前 説明
201 Created

SearchIndex

要求が成功し、結果として新しいリソースが作成されました。

Other Status Codes

ErrorResponse

予期しないエラー応答。

セキュリティ

api-key

型: apiKey
/: header

OAuth2Auth

型: oauth2
フロー: implicit
Authorization URL (承認 URL): https://login.microsoftonline.com/common/oauth2/v2.0/authorize

スコープ

名前 説明
https://search.azure.com/.default

SearchServiceCreateIndex

要求のサンプル

POST https://exampleservice.search.windows.net/indexes?api-version=2026-04-01


{
  "name": "temp-example-index",
  "description": "description",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "key": true,
      "sortable": true
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 20,
      "vectorSearchProfile": "config1"
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 32,
      "vectorSearchProfile": "config4"
    },
    {
      "name": "name",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "standard.lucene"
    },
    {
      "name": "category",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "retrievable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "tag": {
            "tagsParameter": "categoryTag"
          },
          "type": "tag",
          "fieldName": "category",
          "boost": 2
        }
      ]
    }
  ],
  "defaultScoringProfile": "stringFieldBoost",
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer"
    }
  ],
  "tokenizers": [
    {
      "maxTokenLength": 100,
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer"
    }
  ],
  "tokenFilters": [
    {
      "preserveOriginal": false,
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter"
    }
  ],
  "charFilters": [
    {
      "mappings": [
        ".=>,",
        "_=>-"
      ],
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping"
    }
  ],
  "normalizers": [
    {
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer"
    }
  ],
  "similarity": {
    "k1": 10,
    "b": 0.1,
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        },
        "rankingOrder": "BoostedRerankerScore"
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "algorithms": [
      {
        "hnswParameters": {
          "metric": "cosine"
        },
        "name": "cosine",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "euclidean"
        },
        "name": "euclidean",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "dotProduct"
        },
        "name": "dotProduct",
        "kind": "hnsw"
      }
    ],
    "vectorizers": [
      {
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com/",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        },
        "name": "openai",
        "kind": "azureOpenAI"
      },
      {
        "customWebApiParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "httpMethod": "POST",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        },
        "name": "custom-web-api",
        "kind": "customWebApi"
      },
      {
        "amlParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "resourceId": "aml resource id",
          "timeout": "PT1M",
          "region": "aml region",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        },
        "name": "aml",
        "kind": "aml"
      },
      {
        "amlParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "resourceId": "aml resource id",
          "timeout": "PT1M",
          "region": "aml region",
          "modelName": "Cohere-embed-v4"
        },
        "name": "aml-cohere",
        "kind": "aml"
      }
    ],
    "compressions": [
      {
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        },
        "truncationDimension": 2
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        },
        "truncationDimension": 2
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        },
        "truncationDimension": 2
      }
    ]
  },
  "@odata.etag": "0x1234568AE7E58A1"
}

応答のサンプル

{
  "@odata.etag": "0x1234568AE7E58A1",
  "name": "temp-example-index",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 32,
      "vectorSearchProfile": "config4",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer",
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      },
      {
        "name": "aml",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        }
      },
      {
        "name": "aml-cohere",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "Cohere-embed-v4"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        }
      }
    ]
  }
}

定義

名前 説明
Accept

Acceptヘッダーです。

AIFoundryModelCatalogName

Azure AI Foundryカタログの埋め込みモデルの名前です。

AMLParameters

AML ベクターライザーに接続するためのプロパティを指定します。

AMLVectorizer

Azure AI Foundry Model Catalogを通じてデプロイされるAzure Machine Learningエンドポイントを指定し、クエリ文字列のベクトル埋め込みを生成すること。

AsciiFoldingTokenFilter

最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。

AzureOpenAIModelName

呼び出される Azure Open AI モデル名。

AzureOpenAIVectorizer

クエリ文字列のベクトル化に使用される Azure OpenAI リソースを指定します。

AzureOpenAIVectorizerParameters

Azure OpenAI リソースに接続するためのパラメーターを指定します。

BinaryQuantizationCompression

インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。

BM25SimilarityAlgorithm

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。

CharFilterName

検索エンジンでサポートされているすべての文字フィルターの名前を定義します。

CjkBigramTokenFilter

標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

CjkBigramTokenFilterScripts

CjkBigramTokenFilter によって無視できるスクリプト。

ClassicSimilarityAlgorithm

TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

CommonGramTokenFilter

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

CustomAnalyzer

テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

CustomNormalizer

フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では、厳密な照合で動作します。 これは、格納されるトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。

DictionaryDecompounderTokenFilter

多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenFilterSide

入力のどちら側から n-gram を生成するかを指定します。

EdgeNGramTokenFilterV2

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenizer

エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

ElisionTokenFilter

省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ErrorAdditionalInfo

リソース管理エラーの追加情報。

ErrorDetail

エラーの詳細。

ErrorResponse

すべてのAzure Resource Manager APIで失敗した操作に対してエラー詳細を返す共通のエラー応答です。 (これは、OData エラー応答形式にも従います)。

ExhaustiveKnnAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

FreshnessScoringParameters

新度スコアリング関数にパラメーター値を提供します。

HnswAlgorithmConfiguration

インデックス作成とクエリ中に使用される HNSW 近似最近傍アルゴリズムに固有の構成オプションが含まれています。 HNSW アルゴリズムは、検索速度と精度の間で調整可能なトレードオフを提供します。

HnswParameters

HNSW アルゴリズムに固有のパラメーターが含まれます。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordMarkerTokenFilter

用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordTokenizer

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

KeywordTokenizerV2

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

LengthTokenFilter

長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LexicalAnalyzerName

検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。

LexicalNormalizerName

検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。

LexicalTokenizerName

検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。

LimitTokenFilter

インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。

LuceneStandardTokenizer

Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。

LuceneStandardTokenizerV2

Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

MagnitudeScoringParameters

パラメーター値をマグニチュード スコアリング関数に提供します。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストを分割し、単語を基本形に変換します。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

MicrosoftStemmingTokenizerLanguage

Microsoft言語の語幹トークナイザーでサポートされている言語を一覧化しています。

MicrosoftTokenizerLanguage

Microsoft言語トークナイザーでサポートされている言語を一覧にしています。

NGramTokenFilter

指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenFilterV2

指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenizer

指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

PathHierarchyTokenizerV2

パス風階層用のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PatternAnalyzer

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

PatternCaptureTokenFilter

Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PhoneticEncoder

PhoneticTokenFilter で使用する発信エンコーダーの種類を識別します。

PhoneticTokenFilter

音韻一致用のトークンを作成してください。 このトークン フィルターは、Apache Lucene を使用して実装されます。

RankingOrder

ドキュメントの並べ替え順序に使用するスコアを表します。

RescoringOptions

再スコアリングのオプションが含まれています。

ScalarQuantizationCompression

インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターを格納します。

ScoringFunctionAggregation

スコアリングプロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。

ScoringFunctionInterpolation

さまざまなドキュメントにわたってスコアブーストを補間するために使用される関数を定義します。

ScoringProfile

検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。

SearchField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

SearchFieldDataType

検索インデックス内のフィールドのデータ型を定義します。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

SearchIndexerDataNoneIdentity

データソースの ID プロパティをクリアします。

SearchIndexerDataUserAssignedIdentity

使用するデータソースの ID を指定します。

SearchResourceEncryptionKey

Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーを使用して、インデックスやシノニム マップなどの保存データの暗号化または暗号化解除を行うことができます。

SearchSuggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

SemanticField

セマンティック構成の一部として使用されるフィールド。

SemanticPrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

ShingleTokenFilter

トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SnowballTokenFilterLanguage

Snowball トークンフィルターに使用する言語。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html を参照してください

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください

StemmerTokenFilterLanguage

ステマートークンフィルターに使用する言語。

StopAnalyzer

テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

StopwordsList

言語固有のストップワードの事前定義リストを識別します。

StopwordsTokenFilter

トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

TagScoringFunction

特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

TextWeights

検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。

TokenCharacterKind

トークン フィルターが操作できる文字のクラスを表します。

TokenFilterName

検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

UaxUrlEmailTokenizer

URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

UniqueTokenFilter

前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

VectorEncodingFormat

ベクトル フィールドの内容を解釈するためのエンコード形式。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

VectorSearchAlgorithmKind

インデックス作成とクエリに使用されるアルゴリズム。

VectorSearchAlgorithmMetric

ベクトル比較に使用する類似性メトリック。 埋め込みモデルがトレーニングされたのと同じ類似性メトリックを選択することをお勧めします。

VectorSearchCompressionKind

インデックス作成とクエリに使用される圧縮方法。

VectorSearchCompressionTarget

圧縮ベクトル値の量子化されたデータ型。

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

VectorSearchVectorizerKind

クエリ時に使用するベクトル化方法。

WebApiVectorizer

クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。

WebApiVectorizerParameters

ユーザー定義ベクターライザーに接続するためのプロパティを指定します。

WordDelimiterTokenFilter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

Accept

Acceptヘッダーです。

説明
application/json;odata.metadata=minimal

AIFoundryModelCatalogName

Azure AI Foundryカタログの埋め込みモデルの名前です。

説明
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-イメージ-埋め込み-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Facebook-DinoV2-イメージ埋め込み-ViT-Giant

Cohere-embed-v3-english

Cohere-embed-v3-english

Cohere-embed-v3-multilingual

Cohere-embed-v3-multilingual

Cohere-embed-v4

テキストと画像の両方から埋め込みを生成するための Cohere embed v4 モデル。

AMLParameters

AML ベクターライザーに接続するためのプロパティを指定します。

名前 説明
key

string

(キー認証に必要)AML サービスのキー。

modelName

AIFoundryModelCatalogName

Azure AI Foundryカタログの埋め込みモデルの名前で、提供されたエンドポイントに展開されています。

region

string

(トークン認証の場合は省略可能)。 AML サービスがデプロイされているリージョン。

resourceId

string

(トークン認証に必要)。 AMLサービスのAzure Resource ManagerリソースIDです。 フォーマットはsubscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoftのはずです。MachineLearningServices/workspaces/{workspace-name}/services/{service_name}.

timeout

string (duration)

(省略可能) 指定した場合は、API 呼び出しを行う http クライアントのタイムアウト値を示します。

uri

string (uri)

(認証またはキー認証がない場合は必須)JSON ペイロードの送信先となる AML サービスのスコア付け URI。 https URI スキームのみが許可されます。

AMLVectorizer

Azure AI Foundry Model Catalogを通じてデプロイされるAzure Machine Learningエンドポイントを指定し、クエリ文字列のベクトル埋め込みを生成すること。

名前 説明
amlParameters

AMLParameters

AML ベクターライザーのプロパティを指定します。

kind string:

aml

VectorSearchVectorizerの種類。

name

string

この特定のベクター化メソッドに関連付ける名前。

AsciiFoldingTokenFilter

最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

派生型の識別子。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

preserveOriginal

boolean

False

元のトークンを保持するかどうかを示す値。 既定値は falseです。

AzureOpenAIModelName

呼び出される Azure Open AI モデル名。

説明
text-embedding-ada-002

TextEmbeddingAda002モデル。

text-embedding-3-large

TextEmbedding3Largeモデル。

text-embedding-3-small

TextEmbedding3Small モデル。

gpt-5-mini

GPT5Miniモデル。

gpt-5-nano

Gpt5Nanoモデルです。

gpt-5.4-mini

GPT54Miniモデル。

gpt-5.4-nano

Gpt54Nanoモデル。

AzureOpenAIVectorizer

クエリ文字列のベクトル化に使用される Azure OpenAI リソースを指定します。

名前 説明
azureOpenAIParameters

AzureOpenAIVectorizerParameters

Azure OpenAI 埋め込みベクトル化に固有のパラメーターが含まれています。

kind string:

azureOpenAI

VectorSearchVectorizerの種類。

name

string

この特定のベクター化メソッドに関連付ける名前。

AzureOpenAIVectorizerParameters

Azure OpenAI リソースに接続するためのパラメーターを指定します。

名前 説明
apiKey

string

指定された Azure OpenAI リソースの API キー。

authIdentity SearchIndexerDataIdentity:

送信接続に使用されるユーザー割り当てマネージド ID。

deploymentId

string

指定されたリソースに対する Azure OpenAI モデルデプロイの ID。

modelName

AzureOpenAIModelName

指定された deploymentId パスにデプロイされる埋め込みモデルの名前。

resourceUri

string (uri)

Azure OpenAI リソースのリソース URI。

BinaryQuantizationCompression

インデックス作成およびクエリ中に使用されるバイナリ量子化圧縮方法に固有の構成オプションが含まれています。

名前 説明
kind string:

binaryQuantization

ベクトル検索圧縮の種類。

name

string

この特定の構成に関連付ける名前。

rescoringOptions

RescoringOptions

再スコアリングのオプションが含まれています。

truncationDimension

integer (int32)

ベクターを切り捨てるディメンションの数。 ベクターを切り捨てると、ベクターのサイズと、検索中に転送する必要があるデータの量が減ります。 これにより、ストレージ コストを節約し、リコールを犠牲にして検索のパフォーマンスを向上させることができます。 これは、OpenAI text-embedding-3-large (small) などの Matryoshka Representation Learning (MRL) でトレーニングされた埋め込みにのみ使用する必要があります。 既定値は null です。これは切り捨てがないことを意味します。

BM25SimilarityAlgorithm

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御される) と、用語の頻度の飽和 ('k1' パラメーターによって制御) が含まれます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

派生型の識別子。

b

number (double)

このプロパティは、ドキュメントの長さが関連性スコアに与える影響を制御します。 既定では、値 0.75 が使用されます。 値 0.0 は長さの正規化が適用されていないことを意味し、値 1.0 は、スコアがドキュメントの長さによって完全に正規化されていることを意味します。

k1

number (double)

このプロパティは、一致する各用語の用語頻度と、ドキュメント とクエリのペアの最終的な関連性スコアの間のスケーリング関数を制御します。 既定では、値 1.2 が使用されます。 値が 0.0 の場合、スコアは用語の頻度が増加してもスケーリングされません。

CharFilterName

検索エンジンでサポートされているすべての文字フィルターの名前を定義します。

説明
html_strip

HTML コンストラクトを取り除こうとする文字フィルター。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html を参照してください

CjkBigramTokenFilter

標準トークナイザーから生成される CJK 用語のビグラムを形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

派生型の識別子。

ignoreScripts

CjkBigramTokenFilterScripts[]

無視するスクリプト。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

outputUnigrams

boolean

False

ユニグラムとビグラムの両方を出力するか (true の場合)、または単に bigram (false の場合) を出力するかを示す値。 既定値は falseです。

CjkBigramTokenFilterScripts

CjkBigramTokenFilter によって無視できるスクリプト。

説明
han

CJK用語のバイグラムを形成するときは、漢文字を無視します。

hiragana

CJK用語のバイグラムを形成するときは、ひらがな文字を無視します。

katakana

CJK 用語のバイグラムを形成するときは、カタカナ文字を無視します。

hangul

CJK用語のバイグラムを形成するときは、ハングルスクリプトを無視します。

ClassicSimilarityAlgorithm

TF-IDF の Lucene TFIDFSimilarity 実装を使用する従来の類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的ドキュメントの長さの正規化と、検索されたクエリの一部にのみ一致するドキュメントに対する影響を受け取る調整要因が導入されています。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

派生型の識別子。

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

派生型の識別子。

maxTokenLength

integer (int32)

maximum: 300
255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

CommonGramTokenFilter

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

派生型の識別子。

commonWords

string[]

一般的な単語のセット。

ignoreCase

boolean

False

一般的な単語の一致で大文字と小文字が区別されないかどうかを示す値。 既定値は falseです。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

queryMode

boolean

False

トークン フィルターがクエリ モードであるかどうかを示す値。 クエリ モードの場合、トークン フィルターはビッグラムを生成し、共通の単語と 1 つの用語の後に共通の単語を削除します。 既定値は falseです。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

名前 説明
allowedOrigins

string[]

JavaScript コードにインデックスへのアクセスを許可されるオリジンのリスト。 {protocol}://{fully-qualified-domain-name}[:{port#}] 形式のホストのリスト、またはすべてのオリジンを許可する 1 つの '*' を含めることができます (推奨されません)。

maxAgeInSeconds

integer (int64)

ブラウザーが CORS プリフライト応答をキャッシュする期間。 デフォルトは 5 分です。

CustomAnalyzer

テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

派生型の識別子。

charFilters

CharFilterName[]

トークナイザーによって処理される前に入力テキストを準備するために使用される文字フィルターのリスト。 たとえば、特定の文字や記号を置き換えることができます。 フィルターは、一覧表示されている順序で実行されます。

name

string

アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

tokenFilters

TokenFilterName[]

トークナイザーによって生成されたトークンを除外または変更するために使用されるトークン フィルターのリスト。 たとえば、すべての文字を小文字に変換する lowercase フィルターを指定することができます。 フィルターは、一覧表示されている順序で実行されます。

tokenizer

LexicalTokenizerName

文を単語に分割するなど、連続テキストを一連のトークンに分割するために使用するトークナイザーの名前。

CustomNormalizer

フィルター可能、並べ替え可能、ファセット可能なフィールドの正規化を構成できます。既定では、厳密な照合で動作します。 これは、格納されるトークンを変更する、少なくとも 1 つ以上のフィルターで構成されるユーザー定義の構成です。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

派生型の識別子。

charFilters

CharFilterName[]

入力テキストを処理する前に準備するために使用される文字フィルターの一覧。 たとえば、特定の文字や記号を置き換えることができます。 フィルターは、一覧表示されている順序で実行されます。

name

string

文字フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

tokenFilters

TokenFilterName[]

入力トークンをフィルター処理または変更するために使用されるトークン フィルターの一覧。 たとえば、すべての文字を小文字に変換する lowercase フィルターを指定することができます。 フィルターは、一覧表示されている順序で実行されます。

DictionaryDecompounderTokenFilter

多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

派生型の識別子。

maxSubwordSize

integer (int32)

maximum: 300
15

サブワードの最大サイズ。 これより短いサブワードのみが出力されます。 既定値は 15 です。 最大値は 300 です。

minSubwordSize

integer (int32)

maximum: 300
2

最小サブワード サイズ。 これより長いサブワードのみが出力されます。 既定値は 2 です。 最大値は 300 です。

minWordSize

integer (int32)

maximum: 300
5

単語の最小サイズ。 これより長い単語のみが処理されます。 既定値は 5 です。 最大値は 300 です。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

onlyLongestMatch

boolean

False

最も長い一致するサブワードのみを出力に追加するかどうかを示す値。 既定値は falseです。

wordList

string[]

一致する単語の一覧。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

名前 説明
boost

number (double)

生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。

distance

DistanceScoringParameters

距離スコアリング関数のパラメーター値。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

interpolation

ScoringFunctionInterpolation

ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。

type string:

distance

スコア関数の種類。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

名前 説明
boostingDistance

number (double)

ブースト範囲が終了する基準位置からの距離(キロメートル単位)。

referencePointParameter

string

参照場所を指定するために検索クエリで渡されるパラメーターの名前。

EdgeNGramTokenFilter

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

派生型の識別子。

maxGram

integer (int32)

2

n グラムの最大長。 既定値は 2 です。

minGram

integer (int32)

1

n グラムの最小長。 既定値は 1 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

side

EdgeNGramTokenFilterSide

front

n-gram を生成する入力のどちら側から生成するかを指定します。 デフォルトは「front」です。

EdgeNGramTokenFilterSide

入力のどちら側から n-gram を生成するかを指定します。

説明
front

n-gram が入力の前面から生成されるように指定します。

back

n-gram を入力の背面から生成することを指定します。

EdgeNGramTokenFilterV2

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

派生型の識別子。

maxGram

integer (int32)

maximum: 300
2

n グラムの最大長。 既定値は 2 です。 最大値は 300 です。

minGram

integer (int32)

maximum: 300
1

n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

side

EdgeNGramTokenFilterSide

front

n-gram を生成する入力のどちら側から生成するかを指定します。 デフォルトは「front」です。

EdgeNGramTokenizer

エッジからの入力を特定のサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

派生型の識別子。

maxGram

integer (int32)

maximum: 300
2

n グラムの最大長。 既定値は 2 です。 最大値は 300 です。

minGram

integer (int32)

maximum: 300
1

n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

tokenChars

TokenCharacterKind[]

トークンに保持する文字クラス。

ElisionTokenFilter

省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

派生型の識別子。

articles

string[]

削除するアーティクルのセット。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

ErrorAdditionalInfo

リソース管理エラーの追加情報。

名前 説明
info

追加情報。

type

string

追加情報の種類。

ErrorDetail

エラーの詳細。

名前 説明
additionalInfo

ErrorAdditionalInfo[]

エラーの追加情報。

code

string

エラー コード。

details

ErrorDetail[]

エラーの詳細。

message

string

エラー メッセージ。

target

string

エラーターゲット。

ErrorResponse

すべてのAzure Resource Manager APIで失敗した操作に対してエラー詳細を返す共通のエラー応答です。 (これは、OData エラー応答形式にも従います)。

名前 説明
error

ErrorDetail

エラー オブジェクト。

ExhaustiveKnnAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれており、ベクター インデックス全体でブルート フォース検索を実行します。

名前 説明
exhaustiveKnnParameters

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

kind string:

exhaustiveKnn

ベクトルサーチアルゴリズムの設定の種類。

name

string

この特定の構成に関連付ける名前。

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

名前 説明
metric

VectorSearchAlgorithmMetric

ベクトル比較に使用する類似性メトリック。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

名前 説明
boost

number (double)

生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

freshness

FreshnessScoringParameters

鮮度スコアリング関数のパラメーター値。

interpolation

ScoringFunctionInterpolation

ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。

type string:

freshness

スコア関数の種類。

FreshnessScoringParameters

新度スコアリング関数にパラメーター値を提供します。

名前 説明
boostingDuration

string (duration)

特定のドキュメントのブーストが停止するまでの有効期限。

HnswAlgorithmConfiguration

インデックス作成とクエリ中に使用される HNSW 近似最近傍アルゴリズムに固有の構成オプションが含まれています。 HNSW アルゴリズムは、検索速度と精度の間で調整可能なトレードオフを提供します。

名前 説明
hnswParameters

HnswParameters

HNSW アルゴリズムに固有のパラメーターが含まれます。

kind string:

hnsw

ベクトルサーチアルゴリズムの設定の種類。

name

string

この特定の構成に関連付ける名前。

HnswParameters

HNSW アルゴリズムに固有のパラメーターが含まれます。

名前 規定値 説明
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

インデックス時に使用される最近傍を含む動的リストのサイズ。 このパラメーターを増やすと、インデックス作成時間が長くなる代わりに、インデックスの品質が向上する可能性があります。 ある時点で、このパラメータを増やすと収益が減少します。

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

最近傍を含む動的リストのサイズで、検索時に使用されます。 このパラメーターを増やすと、検索結果が改善される可能性がありますが、検索速度が遅くなります。 ある時点で、このパラメータを増やすと収益が減少します。

m

integer (int32)

minimum: 4
maximum: 10
4

コンストラクション中に新しい要素ごとに作成される双方向リンクの数。 このパラメーター値を増やすと、メモリ消費量の増加とインデックス作成時間の延長を犠牲にして、固有の次元の高いデータセットの再現率が向上し、取得時間が短縮される可能性があります。

metric

VectorSearchAlgorithmMetric

ベクトル比較に使用する類似性メトリック。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

派生型の識別子。

keepWords

string[]

保持する単語の一覧。

keepWordsCase

boolean

False

すべての単語を最初に小文字にするかどうかを示す値。 既定値は falseです。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

KeywordMarkerTokenFilter

用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

派生型の識別子。

ignoreCase

boolean

False

大文字と小文字を無視するかどうかを示す値。 true の場合、すべての単語が最初に小文字に変換されます。 既定値は falseです。

keywords

string[]

キーワードとしてマークする単語の一覧。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

KeywordTokenizer

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

派生型の識別子。

bufferSize

integer (int32)

256

読み取りバッファーのサイズ (バイト単位)。 デフォルトは 256 です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

KeywordTokenizerV2

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

派生型の識別子。

maxTokenLength

integer (int32)

maximum: 300
256

トークンの最大長。 デフォルトは 256 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

LengthTokenFilter

長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

派生型の識別子。

max

integer (int32)

maximum: 300
300

最大文字数。 既定値と最大値は 300 です。

min

integer (int32)

maximum: 300
0

文字の最小長。 既定値は 0 です。 最大値は 300 です。 max の値より小さくする必要があります。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

LexicalAnalyzerName

検索エンジンでサポートされているすべてのテキスト アナライザーの名前を定義します。

説明
ar.microsoft

Microsoft analyzer for Arabic。

ar.lucene

アラビア語用のLucene分析装置。

hy.lucene

アルメニア語用のLucene分析装置。

bn.microsoft

Microsoft analyzer for Bangla。

eu.lucene

バスク語のLucene分析装置。

bg.microsoft

Microsoft Analyzer for Bulgarian。

bg.lucene

ブルガリア語用のLucene分析装置。

ca.microsoft

Microsoft analyzer for Catalan.

ca.lucene

カタロニア語用のLucene分析装置。

zh-Hans.microsoft

Microsoft analyzer for China(簡体字)。

zh-Hans.lucene

中国語用Lucene分析装置(簡体字)。

zh-Hant.microsoft

中国語(繁体)用のMicrosoftアナライザー。

zh-Hant.lucene

中国語(繁体字)用のLucene分析装置。

hr.microsoft

Microsoft analyzer for Croatian。

cs.microsoft

Microsoft analyzer for Czech.

cs.lucene

チェコ語のLucene分析装置

da.microsoft

Microsoft analyzer for Danish。

da.lucene

デンマーク語のLucene分析装置。

nl.microsoft

Microsoft analyzer for Dutch.

nl.lucene

オランダ語用のLucene分析装置。

en.microsoft

Microsoft analyzer for English。

en.lucene

英語用のLucene分析装置。

et.microsoft

Microsoft analyzer for Estonian。

fi.microsoft

Microsoft analyzer for Finnish.

fi.lucene

フィンランド語用のLucene分析装置。

fr.microsoft

Microsoft analyzer for French。

fr.lucene

フランス語用Lucene分析装置

gl.lucene

ガリシア語のLucene分析装置

de.microsoft

ドイツ語版Microsoftアナライザー。

de.lucene

ドイツ語のLucene分析装置

el.microsoft

Microsoft analyzer for Greek。

el.lucene

ギリシャ語のLucene分析装置。

gu.microsoft

Microsoft analyzer for Gujarati.

he.microsoft

Microsoft analyzer for Hebrew。

hi.microsoft

Microsoft analyzer for Hindi。

hi.lucene

ヒンディー語用のLucene分析装置。

hu.microsoft

Microsoft analyzer for Hungarian.

hu.lucene

ハンガリー語のLucene分析装置。

is.microsoft

Microsoft Analyzer for Icelandic。

id.microsoft

Microsoft analyzer for Indonesian (Bahasa).

id.lucene

インドネシア語用Lucene分析装置

ga.lucene

アイルランド語用のLucene分析装置。

it.microsoft

Microsoft analyzer for Italian.

it.lucene

イタリア語のLucene分析装置。

ja.microsoft

日本語版Microsoftアナライザー。

ja.lucene

日本語用ルセン分析装置

kn.microsoft

Microsoft analyzer for Kannada.

ko.microsoft

Microsoft Analyzer for Korean。

ko.lucene

韓国語用ルセン分析装置

lv.microsoft

Microsoft analyzer for Latvian.

lv.lucene

ラトビア語のLucene分析装置

lt.microsoft

Microsoft analyzer for Lituanian。

ml.microsoft

Microsoft analyzer for Malayalam.

ms.microsoft

Microsoft analyzer for Malay (Latin)

mr.microsoft

Microsoft analyzer for Marathi。

nb.microsoft

Microsoft analyzer for Norwegian (Bokmål).

no.lucene

ノルウェー語のLucene分析装置。

fa.lucene

ペルシャ語用のLucene分析装置

pl.microsoft

Microsoft analyzer for Polish。

pl.lucene

ポーランド語用Lucene分析装置

pt-BR.microsoft

Microsoft analyzer for Portuguese (Brazil).

pt-BR.lucene

ポルトガル語(ブラジル)用のLucene分析装置。

pt-PT.microsoft

Microsoft analyzer for Portuguese (Portugal).

pt-PT.lucene

ポルトガル語(ポルトガル)のLuceneアナライザー。

pa.microsoft

Microsoft analyzer for Punjabi.

ro.microsoft

Microsoft analyzer for Romanian。

ro.lucene

ルーマニア語用のLucene分析装置。

ru.microsoft

Microsoft analyzer for Russian。

ru.lucene

ロシア語用のLucene分析装置。

sr-cyrillic.microsoft

Microsoft analyzer for Serbian (Cyrillic).

sr-latin.microsoft

Microsoft analyzer for Serbian (Latin).

sk.microsoft

Microsoft analyzer for Slovak.

sl.microsoft

Microsoft analyzer for Slovenian.

es.microsoft

Microsoft analyzer for Spanish。

es.lucene

スペイン語用のLucene分析装置。

sv.microsoft

Microsoft analyzer for Swedish。

sv.lucene

スウェーデン語用Lucene分析装置

ta.microsoft

Microsoft analyzer for Tamil。

te.microsoft

Microsoft analyzer for Telugu.

th.microsoft

Microsoft analyzer for Thai.

th.lucene

タイ語用ルセン分析装置。

tr.microsoft

Microsoft analyzer for Turkish。

tr.lucene

トルコ語用Lucene分析装置。

uk.microsoft

Microsoft analyzer for Ukrainian.

ur.microsoft

Microsoft analyzer for Urdu.

vi.microsoft

Microsoft analyzer for Vietnamese。

standard.lucene

標準的なLucene分析装置。

standardasciifolding.lucene

標準ASCII折りたたみ式Lucene分析装置 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers を参照してください

keyword

フィールドの内容全体を 1 つのトークンとして扱います。 これは、郵便番号、ID、一部の製品名などのデータに役立ちます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html を参照してください

pattern

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html を参照してください

simple

テキストを非文字で分割し、それらを小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html を参照してください

stop

テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html を参照してください

whitespace

空白文字トークナイザーを使用するアナライザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html を参照してください

LexicalNormalizerName

検索エンジンでサポートされているすべてのテキスト ノーマライザーの名前を定義します。

説明
asciifolding

最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください

elision

省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください

lowercase

トークンテキストを小文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください

standard

標準ノーマライザーは、小文字とアスキーフォールディングで構成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください

uppercase

トークンテキストを大文字に正規化します。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください

LexicalTokenizerName

検索エンジンでサポートされているすべてのトークナイザーの名前を定義します。

説明
classic

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html を参照してください

edgeNGram

エッジからの入力を特定のサイズの n グラムにトークン化します。 https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html を参照してください

keyword_v2

入力全体が 1 つのトークンとして生成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html を参照してください

letter

非文字でテキストを分割します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html を参照してください

lowercase

テキストを非文字で分割し、それらを小文字に変換します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html を参照してください

microsoft_language_tokenizer

言語固有のルールを使用してテキストが分割されます。

microsoft_language_stemming_tokenizer

言語固有のルールを使用してテキストを分割し、単語を基本形に変換します。

nGram

指定したサイズの n グラムに入力をトークン化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html を参照してください

path_hierarchy_v2

パス風階層用のトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html を参照してください

pattern

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html を参照してください

standard_v2

標準 Lucene アナライザー;標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html を参照してください

uax_url_email

URL と電子メールが 1 つのトークンとしてトークン化されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html を参照してください

whitespace

テキストは空白文字で分割されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html を参照してください

LimitTokenFilter

インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

派生型の識別子。

consumeAllTokens

boolean

False

maxTokenCount に達した場合でも、入力からのすべてのトークンを使用する必要があるかどうかを示す値。 既定値は falseです。

maxTokenCount

integer (int32)

1

生成するトークンの最大数。 既定値は 1 です。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

派生型の識別子。

maxTokenLength

integer (int32)

maximum: 300
255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

stopwords

string[]

ストップワードの一覧。

LuceneStandardTokenizer

Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

派生型の識別子。

maxTokenLength

integer (int32)

255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

LuceneStandardTokenizerV2

Unicode テキストのセグメント化ルールに従ってテキストを区切ります。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

派生型の識別子。

maxTokenLength

integer (int32)

maximum: 300
255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

名前 説明
boost

number (double)

生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

interpolation

ScoringFunctionInterpolation

ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。

magnitude

MagnitudeScoringParameters

マグニチュード スコアリング関数のパラメーター値。

type string:

magnitude

スコア関数の種類。

MagnitudeScoringParameters

パラメーター値をマグニチュード スコアリング関数に提供します。

名前 説明
boostingRangeEnd

number (double)

ブーストが終了するフィールド値。

boostingRangeStart

number (double)

ブーストが開始されるフィールド値。

constantBoostBeyondRange

boolean

範囲の終了値を超えるフィールド値に一定のブーストを適用するかどうかを示す値。デフォルトは false です。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

派生型の識別子。

mappings

string[]

"a=>b" という形式のマッピングの一覧 (文字 "a" のすべての出現箇所は文字 "b" に置き換えられます)。

name

string

文字フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストを分割し、単語を基本形に変換します。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

派生型の識別子。

isSearchTokenizer

boolean

False

トークナイザーの使用方法を示す値。 検索トークナイザーとして使用する場合は true に設定し、インデックス作成トークナイザーとして使用する場合は false に設定します。 既定値は falseです。

language

MicrosoftStemmingTokenizerLanguage

使用する言語。 既定値は英語です。

maxTokenLength

integer (int32)

maximum: 300
255

トークンの最大長。 最大長より長いトークンは分割されます。 使用できる最大トークン長は、300 文字です。 300 文字を超えるトークンは、最初に長さ 300 のトークンに分割され、その後、各トークンは最大トークン長セットに基づいて分割されます。 既定値は 255 です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

派生型の識別子。

isSearchTokenizer

boolean

False

トークナイザーの使用方法を示す値。 検索トークナイザーとして使用する場合は true に設定し、インデックス作成トークナイザーとして使用する場合は false に設定します。 既定値は falseです。

language

MicrosoftTokenizerLanguage

使用する言語。 既定値は英語です。

maxTokenLength

integer (int32)

maximum: 300
255

トークンの最大長。 最大長より長いトークンは分割されます。 使用できる最大トークン長は、300 文字です。 300 文字を超えるトークンは、最初に長さ 300 のトークンに分割され、その後、各トークンは最大トークン長セットに基づいて分割されます。 既定値は 255 です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

MicrosoftStemmingTokenizerLanguage

Microsoft言語の語幹トークナイザーでサポートされている言語を一覧化しています。

説明
arabic

アラビア語用にMicrosoftのステミングトークナイザーを選択します。

bangla

Microsoftのステミング・トークナイザーをバングラ語で選択します。

bulgarian

ブルガリア語用にMicrosoftのステミングトークナイザーを選択します。

catalan

Catalanの用Microsoftステミングトークナイザーを選択します。

croatian

クロアチア語用にMicrosoftのステミングトークナイザーを選択します。

czech

チェコ語用Microsoftのステミングトークナイザーを選択します。

danish

デンマーク語用にMicrosoftのステミングトークナイザーを選択します。

dutch

オランダ語用にMicrosoftのステミングトークナイザーを選択します。

english

英語用にMicrosoftのステミングトークナイザーを選択します。

estonian

エストニア語のMicrosoft語幹幹トークナイザーを選択します。

finnish

フィンランド語用にMicrosoftのステミングトークナイザーを選択します。

french

フランス語のMicrosoftステミングトークナイザーを選択します。

german

ドイツ語用にMicrosoftのステミングトークナイザーを選択します。

greek

ギリシャ語用にMicrosoftのステミングトークナイザーを選択します。

gujarati

グジャラート語の Microsoft stemming tokenizer を選択します。

hebrew

ヘブライ語用Microsoftのステミングトークナイザーを選択します。

hindi

ヒンディー語用にMicrosoftのステミングトークナイザーを選択します。

hungarian

ハンガリー語用にMicrosoftのステミングトークナイザーを選択します。

icelandic

アイスランド語の Microsoft ステミング・トークナイザーを選択します。

indonesian

インドネシア語用にMicrosoftのステミング・トークナイザーを選択します。

italian

イタリア語用にMicrosoftのstemming tokenizerを選択します。

kannada

カンナダ語用にMicrosoftのステミングトークナイザーを選択します。

latvian

ラトビア語用にMicrosoftのステミング・トークナイザーを選択します。

lithuanian

リトアニア語用Microsoftのステミングトークナイザーを選択します。

malay

マレー語用Microsoftのステミングトークナイザーを選択します。

malayalam

マラヤーラム語の Microsoft ステミング・トークナイザーを選択します。

marathi

マラーティー語用にMicrosoftのステミングトークナイザーを選択します。

norwegianBokmaal

Selects the Microsoft stemming tokenizer for Norwegian (BokmÃll).

polish

ポーランド語用にMicrosoftのステミングトークナイザーを選択します。

portuguese

ポルトガル語用にMicrosoftのstemming tokenizerを選択します。

portugueseBrazilian

Selects the Microsoft stemming tokenizer for Portuguese (Brazil)

punjabi

PunjabiのMicrosoftステミングトークンナイザーを選択します。

romanian

ルーマニア語用にMicrosoftのステミングトークナイザーを選択します。

russian

ロシア語のMicrosoftステミングトークナイザーを選択します。

serbianCyrillic

Selects the Microsoft stemming tokenizer for Serbian (Cyrillic)

serbianLatin

セルビア語(ラテン語)の Microsoft stemming tokenizer を選択します。

slovak

SlovakのMicrosoftステミングトークナイザーを選択します。

slovenian

スロベニア語のMicrosoftステミングトークナイザーを選択します。

spanish

スペイン語用にMicrosoftの語幹トークナイザーを選択します。

swedish

スウェーデン語の Microsoft ステミング トークナイザーを選択します。

tamil

タミル語の Microsoft ステミングトークナイザーを選択します。

telugu

テルグ語用Microsoftのステミングトークナイザーを選択します。

turkish

トルコ語用にMicrosoftのステミングトークナイザーを選択します。

ukrainian

ウクライナ語のMicrosoftステミングトークナイザーを選択します。

urdu

ウルドゥー語のMicrosoft語幹トークナイザーを選択します。

MicrosoftTokenizerLanguage

Microsoft言語トークナイザーでサポートされている言語を一覧にしています。

説明
bangla

バングラ語用にMicrosoftのトークナイザーを選択します。

bulgarian

ブルガリア語用にMicrosoftトークナイザーを選択します。

catalan

CatalanのMicrosoftトークナイザーを選択します。

chineseSimplified

中国語(簡体字)でMicrosoftトークナイザーを選択します。

chineseTraditional

中国語(繁体字)でMicrosoftのトークナイザーを選択します。

croatian

クロアチア語のMicrosoftトークナイザーを選択します。

czech

チェコ語用Microsoftトークナイザーを選択します。

danish

デンマーク語用にMicrosoftトークナイザーを選択します。

dutch

オランダ語用のMicrosoftトークナイザーを選択します。

english

英語用にMicrosoftのトークナイザーを選択します。

french

フランス語用にMicrosoftトークナイザーを選択します。

german

ドイツ語用にMicrosoftトークナイザーを選択します。

greek

ギリシャ語用にMicrosoftのトークナイザーを選択します。

gujarati

グジャラート語のMicrosoftトークナイザーを選択します。

hindi

ヒンディー語用のMicrosoftトークナイザーを選択します。

icelandic

アイスランド語のMicrosoftトークナイザーを選択します。

indonesian

インドネシア語用にMicrosoftトークナイザーを選択します。

italian

イタリア語用にMicrosoftトークナイザーを選択します。

japanese

日本語版のMicrosoftトークナイザーを選択します。

kannada

カンナダ語のMicrosoftトークナイザーを選択します。

korean

韓国語用にMicrosoftトークナイザーを選択します。

malay

マレー語用にMicrosoftトークナイザーを選択します。

malayalam

マラヤーラム語のMicrosoftトークナイザーを選択します。

marathi

マラーティー語用のMicrosoftトークナイザーを選択します。

norwegianBokmaal

Selects the Microsoft tokenizer for Norwegian (BokmÃll).

polish

ポーランド語のMicrosoftトークナイザーを選択します。

portuguese

ポルトガル語用にMicrosoftのトークナイザーを選択します。

portugueseBrazilian

Selects the Microsoft tokenizer for Portuguese (Brazil).

punjabi

PunjabiのSelects the Microsoft tokenizer。

romanian

ルーマニア語用にMicrosoftトークナイザーを選択します。

russian

ロシア語用のMicrosoftトークナイザーを選択します。

serbianCyrillic

セルビア語(キリル文字)のMicrosoftトークナイザーを選択します。

serbianLatin

セルビア語(ラテン語)のMicrosoftトークナイザーを選択します。

slovenian

スロベニア語のMicrosoftトークナイザーを選択します。

spanish

スペイン語用にMicrosoftのトークナイザーを選択します。

swedish

スウェーデン語のMicrosoftトークナイザーを選択します。

tamil

タミル語のMicrosoftトークナイザーを選択します。

telugu

テルグ語のMicrosoftトークナイザーを選択します。

thai

Microsoftのトークナイザーをタイ語で選択します。

ukrainian

ウクライナ語のMicrosoftトークナイザーを選択します。

urdu

ウルドゥー語用Microsoftトークナイザーを選択します。

vietnamese

ベトナム語のMicrosoftトークナイザーを選択します。

NGramTokenFilter

指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

派生型の識別子。

maxGram

integer (int32)

2

n グラムの最大長。 既定値は 2 です。

minGram

integer (int32)

1

n グラムの最小長。 既定値は 1 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

NGramTokenFilterV2

指定されたサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

派生型の識別子。

maxGram

integer (int32)

maximum: 300
2

n グラムの最大長。 既定値は 2 です。 最大値は 300 です。

minGram

integer (int32)

maximum: 300
1

n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

NGramTokenizer

指定したサイズの n グラムに入力をトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

派生型の識別子。

maxGram

integer (int32)

maximum: 300
2

n グラムの最大長。 既定値は 2 です。 最大値は 300 です。

minGram

integer (int32)

maximum: 300
1

n グラムの最小長。 既定値は 1 です。 最大値は 300 です。 maxGram の値より小さくする必要があります。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

tokenChars

TokenCharacterKind[]

トークンに保持する文字クラス。

PathHierarchyTokenizerV2

パス風階層用のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

派生型の識別子。

delimiter

string

maxLength: 1
/

使用する区切り文字。 既定値は "/" です。

maxTokenLength

integer (int32)

maximum: 300
300

トークンの最大長。 既定値と最大値は 300 です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

replacement

string

maxLength: 1
/

設定されている場合、区切り文字を置き換える値。 既定値は "/" です。

reverse

boolean

False

トークンを逆の順序で生成するかどうかを示す値。 既定値は falseです。

skip

integer (int32)

0

スキップする初期トークンの数。 既定値は 0 です。

PatternAnalyzer

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

派生型の識別子。

flags

string

正則表現フラグは、RegexFlagsの値の「|」で分離された文字列として指定されます。

lowercase

boolean

True

用語を小文字にするかどうかを示す値。 既定値は True です。

name

string

アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

pattern

string

\W+

トークン区切り記号を一致させる正規表現パターン。 デフォルトは、1 つ以上の単語以外の文字に一致する式です。

stopwords

string[]

ストップワードの一覧。

PatternCaptureTokenFilter

Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

派生型の識別子。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

patterns

string[]

各トークンと照合するパターンの一覧。

preserveOriginal

boolean

True

いずれかのパターンが一致した場合でも、元のトークンを返すかどうかを示す値。 既定値は True です。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

派生型の識別子。

name

string

文字フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

pattern

string

正規表現パターン。

replacement

string

置換テキスト。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

派生型の識別子。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

pattern

string

正規表現パターン。

replacement

string

置換テキスト。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

派生型の識別子。

flags

string

正則表現フラグは、RegexFlagsの値の「|」で分離された文字列として指定されます。

group

integer (int32)

-1

トークンに抽出する正規表現パターン内の一致グループの 0 から始まる序数。 パターン全体を使用して、一致するグループに関係なく、入力をトークンに分割する場合は、-1 を使用します。 デフォルトは -1 です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

pattern

string

\W+

トークン区切り記号を一致させる正規表現パターン。 デフォルトは、1 つ以上の単語以外の文字に一致する式です。

PhoneticEncoder

PhoneticTokenFilter で使用する発信エンコーダーの種類を識別します。

説明
metaphone

トークンをメタフォン値にエンコードします。

doubleMetaphone

トークンをダブルメタフォン値にエンコードします。

soundex

トークンをSoundex値にエンコードします。

refinedSoundex

トークンを Refined Soundex 値にエンコードします。

caverphone1

トークンを Caverphone 1.0 値にエンコードします。

caverphone2

トークンを Caverphone 2.0 値にエンコードします。

cologne

トークンをケルン音声値にエンコードします。

nysiis

トークンをNYSIIS値にエンコードします。

koelnerPhonetik

Kölner Phonetik アルゴリズムを使用してトークンをエンコードします。

haasePhonetik

Kölner Phonetik アルゴリズムの Haase 改良を使用してトークンをエンコードします。

beiderMorse

トークンを Beider-Morse 値にエンコードします。

PhoneticTokenFilter

音韻一致用のトークンを作成してください。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

派生型の識別子。

encoder

PhoneticEncoder

metaphone

使用するふりがなエンコーダー。 既定値は "metaphone" です。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

replace

boolean

True

エンコードされたトークンが元のトークンを置き換える必要があるかどうかを示す値。 false の場合、エンコードされたトークンはシノニムとして追加されます。 既定値は True です。

RankingOrder

ドキュメントの並べ替え順序に使用するスコアを表します。

説明
BoostedRerankerScore

並べ替え順序を BoostedRerankerScore に設定します。

RerankerScore

並べ替え順序を ReRankerScore に設定します

RescoringOptions

再スコアリングのオプションが含まれています。

名前 規定値 説明
defaultOversampling

number (double)

既定のオーバーサンプリング係数。 オーバーサンプリングは、量子化による分解能の損失を相殺するために、より多くの潜在的なドキュメントのセットを取得します。 これにより、全精度ベクトルで再採点される結果のセットが増加します。 最小値は 1 で、オーバーサンプリング (1x) がないことを意味します。 このパラメータは、'enableRescoring' が true の場合にのみ設定できます。 値を大きくすると、待機時間を犠牲にして再現率が向上します。

enableRescoring

boolean

True

true に設定すると、圧縮ベクトルの初期検索の後、類似性スコアは全精度ベクトルを使用して再計算されます。 これにより、待機時間を犠牲にして再現率が向上します。

rescoreStorageMethod enum:
  • discardOriginals
  • preserveOriginals
preserveOriginals

元のベクトルの保存方法を制御します。 この設定は不変です。

ScalarQuantizationCompression

インデックス作成およびクエリ中に使用されるスカラー量子化圧縮方法に固有の構成オプションが含まれています。

名前 説明
kind string:

scalarQuantization

ベクトル検索圧縮の種類。

name

string

この特定の構成に関連付ける名前。

rescoringOptions

RescoringOptions

再スコアリングのオプションが含まれています。

scalarQuantizationParameters

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターを格納します。

truncationDimension

integer (int32)

ベクターを切り捨てるディメンションの数。 ベクターを切り捨てると、ベクターのサイズと、検索中に転送する必要があるデータの量が減ります。 これにより、ストレージ コストを節約し、リコールを犠牲にして検索のパフォーマンスを向上させることができます。 これは、OpenAI text-embedding-3-large (small) などの Matryoshka Representation Learning (MRL) でトレーニングされた埋め込みにのみ使用する必要があります。 既定値は null です。これは切り捨てがないことを意味します。

ScalarQuantizationParameters

スカラー量子化に固有のパラメーターを格納します。

名前 説明
quantizedDataType

VectorSearchCompressionTarget

圧縮ベクトル値の量子化されたデータ型。

ScoringFunctionAggregation

スコアリングプロファイル内のすべてのスコアリング関数の結果を結合するために使用される集計関数を定義します。

説明
sum

すべてのスコアリング関数の結果の合計でスコアをブーストします。

average

すべてのスコアリング関数の結果の平均でスコアをブーストします。

minimum

すべてのスコアリング関数の結果の最小値でスコアをブーストします。

maximum

すべてのスコアリング関数の結果の最大値でスコアをブーストします。

firstMatching

スコアリングプロファイルで最初に適用可能なスコアリング関数を使用してスコアをブーストします。

product

すべてのスコアリング関数の結果の積によってスコアをブーストします。

ScoringFunctionInterpolation

さまざまなドキュメントにわたってスコアブーストを補間するために使用される関数を定義します。

説明
linear

スコアを直線的に減少する量だけブーストします。 これは、スコアリング関数のデフォルトの補間です。

constant

一定の係数でスコアをブーストします。

quadratic

スコアを2次的に減少する量だけブーストします。 ブーストは、スコアが高いほどゆっくりと減少し、スコアが下がるにつれて急速に減少します。 この補間オプションは、タグスコアリング関数では使用できません。

logarithmic

対数的に減少する量だけスコアをブーストします。 ブーストはスコアが高いほど急速に減少し、スコアが減少するにつれてゆっくりと減少します。 この補間オプションは、タグスコアリング関数では使用できません。

ScoringProfile

検索クエリのスコア付けに影響を与える検索インデックスのパラメーターを定義します。

名前 説明
functionAggregation

ScoringFunctionAggregation

個々のスコアリング関数の結果をどのように組み合わせるかを示す値。 デフォルトは「合計」です。 スコアリング関数がない場合は無視されます。

functions ScoringFunction[]:

ドキュメントのスコアリングに影響を与える関数のコレクション。

name

string

スコアリングプロファイルの名前。

text

TextWeights

特定のインデックスフィールドのテキスト一致に基づいてスコアリングを向上させるパラメーター。

SearchField

インデックス定義内のフィールドを表します。フィールドの名前、データ型、および検索動作を表します。

名前 説明
analyzer

LexicalAnalyzerName

フィールドに使用するアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用でき、searchAnalyzer または indexAnalyzer と一緒に設定することはできません。 アナライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。

dimensions

integer (int32)

minimum: 2
maximum: 4096

ベクター フィールドの次元。

facetable

boolean

ファセット クエリでフィールドを参照できるようにするかどうかを示す値。 通常、カテゴリ別のヒット カウントを含む検索結果のプレゼンテーションで使用されます (たとえば、デジタル カメラを検索し、ブランド別、メガピクセル別、価格別などでヒットを表示する場合)。 このプロパティは、複合フィールドの場合は null にする必要があります。 Edm.GeographyPoint 型または Collection(Edm.GeographyPoint) 型のフィールドをファセット可能にすることはできません。 デフォルトは、他のすべての単純なフィールドに対して true です。

fields

SearchField[]

サブフィールドが Edm.ComplexType 型または Collection(Edm.ComplexType) 型のフィールドである場合のサブフィールドの一覧。 単純なフィールドの場合は null または空にする必要があります。

filterable

boolean

$filterクエリでフィールドを参照できるようにするかどうかを示す値。 filterable は、文字列の処理方法で検索可能とは異なります。 フィルター可能な Edm.String 型または Collection(Edm.String) 型のフィールドは単語区切りを行わないので、比較は完全一致のみを対象とします。 たとえば、このようなフィールド f を "晴れた日" に設定した場合、$filter=f eq 'sunny' は一致しませんが、$filter=f eq 'sunny day' になります。 このプロパティは、複合フィールドの場合は null にする必要があります。 デフォルトは、単純フィールドの場合は true、複合フィールドの場合は null です。

indexAnalyzer

LexicalAnalyzerName

フィールドのインデックス作成時に使用されるアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用できます。 searchAnalyzer と共に設定する必要があり、アナライザー オプションと一緒に設定することはできません。 このプロパティを言語アナライザーの名前に設定することはできません。言語アナライザーが必要な場合は、代わりにアナライザー プロパティを使用してください。 アナライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。

key

boolean

フィールドがインデックス内のドキュメントを一意に識別するかどうかを示す値。 キー フィールドとして各インデックスの最上位フィールドを 1 つだけ選択し、Edm.String 型にする必要があります。 キー フィールドを使用して、ドキュメントを直接検索したり、特定のドキュメントを更新または削除したりできます。 デフォルトは、単純フィールドの場合は false、複合フィールドの場合は null です。

name

string

フィールドの名前。インデックスまたは親フィールドのフィールド コレクション内で一意である必要があります。

normalizer

LexicalNormalizerName

フィールドに使用するノーマライザーの名前。 このオプションは、フィルタリング可能、ソート可能、またはファセット可能が有効になっているフィールドでのみ使用できます。 ノーマライザーを選択すると、フィールドに対して変更することはできません。 複合フィールドの場合は null にする必要があります。

retrievable

boolean

検索結果でフィールドを返すことができるかどうかを示す値。 フィルター、並べ替え、またはスコア付けメカニズムとしてフィールド (余白など) を使用するが、エンド ユーザーにフィールドを表示したくない場合は、このオプションを無効にすることができます。 このプロパティは、キー フィールドの場合は true である必要があり、複雑なフィールドの場合は null である必要があります。 このプロパティは、既存のフィールドで変更できます。 このプロパティを有効にしても、インデックス ストレージの要件は増加しません。 デフォルトは、単純フィールドの場合は true、ベクトル フィールドの場合は false、複合フィールドの場合は null です。

searchAnalyzer

LexicalAnalyzerName

フィールドの検索時に使用されるアナライザーの名前。 このオプションは、検索可能なフィールドでのみ使用できます。 indexAnalyzer と一緒に設定する必要があり、analyzer オプションと一緒に設定することはできません。 このプロパティを言語アナライザーの名前に設定することはできません。言語アナライザーが必要な場合は、代わりにアナライザー プロパティを使用してください。 このアナライザーは、既存のフィールドで更新できます。 複合フィールドの場合は null にする必要があります。

searchable

boolean

フィールドがフルテキスト検索可能かどうかを示す値。 つまり、インデックス作成中に単語区切りなどの分析が行われます。 検索可能なフィールドを "晴れた日" のような値に設定すると、内部的には個々のトークン "sunny" と "day" に分割されます。 これにより、これらの語句をフルテキスト検索できます。 Edm.String 型または Collection(Edm.String) 型のフィールドは、既定で検索できます。 このプロパティは、他の非文字列データ型の単純フィールドの場合は false に、複合フィールドの場合は null にする必要があります。 注: 検索可能フィールドは、フルテキスト検索のフィールド値のトークン化された追加バージョンに対応するために、インデックスに余分なスペースを消費します。 インデックスの領域を節約する必要があり、検索にフィールドを含める必要がない場合は、検索可能を false に設定します。

sortable

boolean

$orderby式でフィールドを参照できるようにするかどうかを示す値。 既定では、検索エンジンは結果をスコアで並べ替えますが、多くのエクスペリエンスでは、ユーザーはドキュメント内のフィールドで並べ替える必要があります。 単純フィールドは、単一値である場合にのみ並べ替えることができます (親ドキュメントのスコープ内に 1 つの値があります)。 単純なコレクション フィールドは複数値であるため、並べ替えできません。 複合コレクションの単純なサブフィールドも複数値であるため、並べ替えできません。 これは、それが直接の親フィールドであるか、先祖フィールドであるかに関係なくあてはまり、複合コレクションです。 複雑なフィールドは並べ替えできず、そのようなフィールドでは sortable プロパティが null である必要があります。 sortable のデフォルトは、単一値の単純フィールドの場合は true、複数値の単純フィールドの場合は false、複合フィールドの場合は null です。

stored

boolean

フィールドが検索結果に返されるディスク上に個別に保持されるかどうかを示す変更できない値。 検索応答でフィールドの内容を返してストレージのオーバーヘッドを節約する予定がない場合は、このオプションを無効にすることができます。 これは、インデックスの作成時にのみ設定でき、ベクター フィールドに対してのみ設定できます。 既存のフィールドに対してこのプロパティを変更したり、新しいフィールドに対して false に設定したりすることはできません。 このプロパティが false に設定されている場合は、プロパティ 'retrievable' も false に設定する必要があります。 このプロパティは、キー フィールド、新しいフィールド、および非ベクター フィールドの場合は true または unset である必要があり、複合フィールドの場合は null にする必要があります。 このプロパティを無効にすると、インデックスストレージの要件が減ります。 ベクトル フィールドの既定値は true です。

synonymMaps

string[]

このフィールドに関連付けるシノニム マップの名前の一覧。 このオプションは、検索可能なフィールドでのみ使用できます。 現在は、フィールドごとに 1 つのみのシノニム マップがサポートされます。 フィールドにシノニム マップを割り当てると、そのフィールドを対象とするクエリ用語が、クエリ時にシノニム マップのルールを使用して展開されます。 この属性は、既存のフィールドのものを変更できます。 複合フィールドの場合は null または空のコレクションである必要があります。

type

SearchFieldDataType

フィールドのデータ型。

vectorEncoding

VectorEncodingFormat

フィールドの内容を解釈するエンコード形式。

vectorSearchProfile

string

ベクター フィールドを検索するときに使用するアルゴリズムとベクターライザーを指定するベクター検索プロファイルの名前。

SearchFieldDataType

検索インデックス内のフィールドのデータ型を定義します。

説明
Edm.String

フィールドに文字列が含まれていることを示します。

Edm.Int32

フィールドに 32 ビット符号付き整数が含まれていることを示します。

Edm.Int64

フィールドに 64 ビット符号付き整数が含まれていることを示します。

Edm.Double

フィールドに IEEE 倍精度浮動小数点数が含まれていることを示します。

Edm.Boolean

フィールドにブール値 (true または false) が含まれていることを示します。

Edm.DateTimeOffset

フィールドに、タイムゾーン情報を含む日付/時刻値が含まれていることを示します。

Edm.GeographyPoint

フィールドに経度と緯度の観点から geo 位置が含まれていることを示します。

Edm.ComplexType

フィールドに、他の型のサブフィールドを持つ 1 つ以上の複雑なオブジェクトが含まれていることを示します。

Edm.Single

フィールドに単精度浮動小数点数が含まれていることを示します。 これは Collection(Edm.Single) で使用した場合にのみ有効です。

Edm.Half

フィールドに半精度浮動小数点数が含まれていることを示します。 これは Collection(Edm.Half) と共に使用した場合にのみ有効です。

Edm.Int16

フィールドに 16 ビット符号付き整数が含まれていることを示します。 これは Collection(Edm.Int16) で使用した場合にのみ有効です。

Edm.SByte

フィールドに 8 ビット符号付き整数が含まれていることを示します。 これは Collection(Edm.SByte) で使用した場合にのみ有効です。

Edm.Byte

フィールドに 8 ビット符号なし整数が含まれていることを示します。 これは Collection(Edm.Byte) で使用した場合にのみ有効です。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

名前 説明
@odata.etag

string

インデックスの ETag。

analyzers LexicalAnalyzer[]:

インデックスのアナライザー。

charFilters CharFilter[]:

インデックスの文字フィルター。

corsOptions

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプション。

defaultScoringProfile

string

クエリで何も指定されていない場合に使用するスコアリング プロファイルの名前。 このプロパティが設定されておらず、クエリでスコアリング プロファイルが指定されていない場合は、既定のスコアリング (tf-idf) が使用されます。

description

string

インデックスの説明。

encryptionKey

SearchResourceEncryptionKey

Azure Key Vault で作成する暗号化キーの説明。 この鍵は、誰も、Microsoftでさえもあなたのデータを復号できないと完全に保証したい場合に、データに対して追加の暗号化レベルを提供するために使われます。 データを暗号化すると、常に暗号化されたままになります。 検索サービスは、このプロパティを null に設定しようとすると無視されます。 暗号化キーをローテーションする場合は、必要に応じてこのプロパティを変更できます。データは影響を受けません。 カスタマー マネージド キーを使用した暗号化は、無料の検索サービスでは使用できません。また、2019 年 1 月 1 日以降に作成された有料サービスでのみ使用できます。

fields

SearchField[]

インデックスのフィールド。

name

string

インデックスの名前。

normalizers LexicalNormalizer[]:

CustomNormalizer[]

インデックスのノーマライザー。

scoringProfiles

ScoringProfile[]

インデックスのスコアリング プロファイル。

semantic

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

similarity SimilarityAlgorithm:

検索クエリに一致するドキュメントのスコア付けとランク付けに使用する類似性アルゴリズムの種類。 類似性アルゴリズムは、インデックス作成時にのみ定義でき、既存のインデックスでは変更できません。 null の場合は、ClassicSimilarity アルゴリズムが使用されます。

suggesters

SearchSuggester[]

インデックスのサジェスター。

tokenFilters TokenFilter[]:

インデックスのトークン フィルター。

tokenizers LexicalTokenizer[]:

インデックスのトークナイザー。

vectorSearch

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

SearchIndexerDataNoneIdentity

データソースの ID プロパティをクリアします。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

ID のタイプを指定する URI フラグメント。

SearchIndexerDataUserAssignedIdentity

使用するデータソースの ID を指定します。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

ID のタイプを指定する URI フラグメント。

userAssignedIdentity

string

通常、ユーザー割り当てマネージド ID の完全修飾 Azure リソース ID は、検索サービスに割り当てられている必要がある "/subscriptions/12345678-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" の形式です。

SearchResourceEncryptionKey

Azure Key Vault のカスタマー マネージド暗号化キー。 作成および管理するキーを使用して、インデックスやシノニム マップなどの保存データの暗号化または暗号化解除を行うことができます。

名前 説明
accessCredentials.applicationId

string

保存データの暗号化時に使用される Azure Key Vault に対する必要なアクセス許可が付与された AAD アプリケーション ID。 アプリケーション ID は、AAD アプリケーションのオブジェクト ID と混同しないでください。

accessCredentials.applicationSecret

string

指定した AAD アプリケーションの認証キー。

identity SearchIndexerDataIdentity:

この暗号化キーに使用する明示的なマネージド ID。 指定されず、アクセス資格情報プロパティが null の場合は、システム割り当てマネージド ID が使用されます。 リソースの更新時に、明示的な ID が指定されていない場合、変更されません。 "none" が指定されている場合、このプロパティの値はクリアされます。

keyVaultKeyName

string

保存データの暗号化に使用する Azure Key Vault キーの名前。

keyVaultKeyVersion

string

保存データの暗号化に使用する Azure Key Vault キーのバージョン。

keyVaultUri

string

保存データの暗号化に使用するキーを含む Azure Key Vault の URI (DNS 名とも呼ばれます)。 URI の例は、https://my-keyvault-name.vault.azure.net可能性があります。

SearchSuggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

名前 説明
name

string

サジェスタの名前。

searchMode enum:

analyzingInfixMatching

サジェスターの機能を示す値。

sourceFields

string[]

サジェスターが適用されるフィールド名のリスト。 各フィールドは検索可能である必要があります。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

名前 説明
name

string

セマンティック構成の名前。

prioritizedFields

SemanticPrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、およびキーワード フィールドについて説明します。 3 つのサブ プロパティ (titleField、prioritizedKeywordsFields、prioritizedContentFields) のうち少なくとも 1 つを設定する必要があります。

rankingOrder

RankingOrder

検索結果の並べ替え順序に使用するスコアの種類を指定します。

SemanticField

セマンティック構成の一部として使用されるフィールド。

名前 説明
fieldName

string

ファイル名

SemanticPrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

名前 説明
prioritizedContentFields

SemanticField[]

セマンティック ランク付け、キャプション、ハイライト、および回答に使用するコンテンツ フィールドを定義します。 最良の結果を得るには、選択したフィールドに自然言語形式のテキストが含まれている必要があります。 配列内のフィールドの順序は、その優先順位を表します。 優先度の低いフィールドは、コンテンツが長い場合、切り捨てられる可能性があります。

prioritizedKeywordsFields

SemanticField[]

セマンティック ランキング、キャプション、ハイライト、および回答に使用するキーワード フィールドを定義します。 最良の結果を得るには、選択したフィールドにキーワードのリストが含まれている必要があります。 配列内のフィールドの順序は、その優先順位を表します。 優先度の低いフィールドは、コンテンツが長い場合、切り捨てられる可能性があります。

titleField

SemanticField

セマンティック ランク付け、キャプション、ハイライト、および回答に使用するタイトル フィールドを定義します。 インデックスにタイトルフィールドがない場合は、空白のままにします。

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

名前 説明
configurations

SemanticConfiguration[]

インデックスのセマンティック構成。

defaultConfiguration

string

インデックス内のデフォルトのセマンティック構成の名前を設定し、毎回クエリパラメータとして渡すことをオプションにすることができます。

ShingleTokenFilter

トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

派生型の識別子。

filterToken

string

_

トークンがない位置ごとに挿入する文字列。 既定値はアンダースコア ("_") です。

maxShingleSize

integer (int32)

minimum: 2
2

最大の真ん中の大きさ。 既定値と最小値は 2 です。

minShingleSize

integer (int32)

minimum: 2
2

最小の真ん中の大きさ。 既定値と最小値は 2 です。 maxShingleSize の値より小さくする必要があります。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

outputUnigrams

boolean

True

出力ストリームに入力トークン (ユニグラム) と輝きが含まれるかどうかを示す値。 既定値は True です。

outputUnigramsIfNoShingles

boolean

False

これらの時刻に対して、使用できる輝きがない場合にユニグラムを出力するかどうかを示す値。 outputUnigrams が false に設定されている場合、このプロパティが優先されます。 既定値は falseです。

tokenSeparator

string

隣接するトークンを結合して輝きを形成するときに使用する文字列。 既定値は 1 つのスペース (" ") です。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

派生型の識別子。

language

SnowballTokenFilterLanguage

使用する言語。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

SnowballTokenFilterLanguage

Snowball トークンフィルターに使用する言語。

説明
armenian

アルメニア語の Lucene Snowball ステミング トークナイザーを選択します。

basque

バスク語の Lucene Snowball ステミングトークナイザーを選択します。

catalan

カタロニア語の Lucene Snowball ステミング トークナイザーを選択します。

danish

デンマーク語の Lucene Snowball ステミング トークナイザーを選択します。

dutch

オランダ語の Lucene Snowball ステミング トークナイザーを選択します。

english

英語の Lucene Snowball ステミング トークナイザーを選択します。

finnish

フィンランド語の Lucene Snowball 語幹記号取得トークナイザーを選択します。

french

フランス語の Lucene Snowball ステミング トークナイザーを選択します。

german

ドイツ語の Lucene Snowball ステミング トークナイザーを選択します。

german2

ドイツ語のバリアントアルゴリズムを使用する Lucene Snowball ステミングトークナイザーを選択します。

hungarian

ハンガリー語の Lucene Snowball ステミングトークナイザーを選択します。

italian

イタリア語の Lucene Snowball ステミング トークナイザーを選択します。

kp

Kraaij-Pohlmann ステミングアルゴリズムを使用するオランダ語の Lucene Snowball ステミングトークナイザーを選択します。

lovins

Lovins ステミングアルゴリズムを使用する英語の Lucene Snowball ステミングトークナイザーを選択します。

norwegian

ノルウェー語の Lucene Snowball ステミングトークナイザーを選択します。

porter

Porter ステミングアルゴリズムを使用する英語の Lucene Snowball ステミングトークナイザーを選択します。

portuguese

ポルトガル語の Lucene Snowball 語幹記号取得トークナイザーを選択します。

romanian

ルーマニア語の Lucene Snowball ステミングトークナイザーを選択します。

russian

ロシア語の Lucene Snowball ステミング トークナイザーを選択します。

spanish

スペイン語の Lucene Snowball ステミング トークナイザーを選択します。

swedish

スウェーデン語の Lucene Snowball ステミングトークナイザーを選択します。

turkish

トルコ語の Lucene Snowball ステミング トークナイザーを選択します。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下にあるステマーで語幹を付けないようにします。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html を参照してください

名前 説明
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

派生型の識別子。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

rules

string[]

"word => stem" という形式のステミング 規則の一覧 (例: "ran => run")。

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください

名前 説明
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

派生型の識別子。

language

StemmerTokenFilterLanguage

使用する言語。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

StemmerTokenFilterLanguage

ステマートークンフィルターに使用する言語。

説明
arabic

アラビア語の Lucene ステミング トークナイザーを選択します。

armenian

アルメニア語の Lucene ステミング トークナイザーを選択します。

basque

バスク語の Lucene ステミング トークナイザーを選択します。

brazilian

ポルトガル語 (ブラジル) の Lucene ステミング トークナイザーを選択します。

bulgarian

ブルガリア語の Lucene ステミング トークナイザーを選択します。

catalan

カタロニア語の Lucene ステミング トークナイザーを選択します。

czech

チェコ語の Lucene ステミングトークナイザーを選択します。

danish

デンマーク語の Lucene ステミング トークナイザーを選択します。

dutch

オランダ語の Lucene ステミング トークナイザーを選択します。

dutchKp

Kraaij-Pohlmann ステミングアルゴリズムを使用するオランダ語のLuceneステミングトークナイザーを選択します。

english

英語の Lucene ステミング トークナイザーを選択します。

lightEnglish

ライトステミングを行う英語の Lucene ステミング トークナイザーを選択します。

minimalEnglish

最小限のステミングを行う英語の Lucene ステミング トークナイザーを選択します。

possessiveEnglish

単語から末尾の所有格を削除する英語の Lucene ステミング トークナイザーを選択します。

porter2

Porter2 ステミングアルゴリズムを使用する英語の Lucene ステミングトークナイザーを選択します。

lovins

Lovins ステミングアルゴリズムを使用する英語の Lucene ステミングトークナイザーを選択します。

finnish

フィンランド語の Lucene ステミング トークナイザーを選択します。

lightFinnish

ライトステミングを行うフィンランド語の Lucene ステミング トークナイザーを選択します。

french

フランス語の Lucene ステミング トークナイザーを選択します。

lightFrench

ライトステミングを行うフランス語の Lucene ステミング トークナイザーを選択します。

minimalFrench

最小限のステミングを行うフランス語の Lucene ステミング トークナイザーを選択します。

galician

ガリシア語の Lucene ステミング トークナイザーを選択します。

minimalGalician

最小限のステミングを行うガリシア語の Lucene ステミング トークナイザーを選択します。

german

ドイツ語の Lucene ステミング トークナイザーを選択します。

german2

ドイツ語バリアントアルゴリズムを使用するLuceneステミングトークナイザーを選択します。

lightGerman

ライトステミングを行うドイツ語のLuceneステミングトークナイザーを選択します。

minimalGerman

最小限のステミングを行うドイツ語のLuceneステミングトークナイザーを選択します。

greek

ギリシャ語の Lucene ステミング トークナイザーを選択します。

hindi

ヒンディー語の Lucene ステミング トークナイザーを選択します。

hungarian

ハンガリー語の Lucene ステミング トークナイザーを選択します。

lightHungarian

ライトステミングを行うハンガリー語の Lucene ステミング トークナイザーを選択します。

indonesian

インドネシア語の Lucene ステミング トークナイザーを選択します。

irish

アイルランド語の Lucene ステミング トークナイザーを選択します。

italian

イタリア語の Lucene ステミング トークナイザーを選択します。

lightItalian

ライトステミングを行うイタリア語のLuceneステミングトークナイザーを選択します。

sorani

Sorani の Lucene ステミングトークナイザーを選択します。

latvian

ラトビア語の Lucene ステミング トークナイザーを選択します。

norwegian

ノルウェー語(BokmÃll)のLucene語幹トークナイザーを選択します。

lightNorwegian

ノルウェー語(BokmÃll)のルーセン語の語幹トークナイザーを選び、軽い語彙整理を行います。

minimalNorwegian

ノルウェー語(BokmÃll)のルセネ語幹トークナイザーを選択し、語幹の付けを最小限にします。

lightNynorsk

ライトステミングを行うノルウェー語 (Nynorsk) の Lucene ステミング トークナイザーを選択します。

minimalNynorsk

最小限のステミングを行うノルウェー語 (Nynorsk) の Lucene ステミング トークナイザーを選択します。

portuguese

ポルトガル語の Lucene ステミング トークナイザーを選択します。

lightPortuguese

ライトステミングを行うポルトガル語のLuceneステミングトークナイザーを選択します。

minimalPortuguese

最小限のステミングを行うポルトガル語の Lucene ステミング トークナイザーを選択します。

portugueseRslp

RSLP ステミングアルゴリズムを使用するポルトガル語の Lucene ステミングトークナイザーを選択します。

romanian

ルーマニア語の Lucene ステミング トークナイザーを選択します。

russian

ロシア語の Lucene ステミング トークナイザーを選択します。

lightRussian

ライトステミングを行うロシア語のLuceneステミングトークナイザーを選択します。

spanish

スペイン語の Lucene ステミング トークナイザーを選択します。

lightSpanish

ライトステミングを行うスペイン語の Lucene ステミング トークナイザーを選択します。

swedish

スウェーデン語の Lucene 語幹記号トークナイザーを選択します。

lightSwedish

ライトステミングを行うスウェーデン語の Lucene ステミング トークナイザーを選択します。

turkish

トルコ語の Lucene ステミング トークナイザーを選択します。

StopAnalyzer

テキストを文字以外で除算します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

名前 説明
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

派生型の識別子。

name

string

アナライザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

stopwords

string[]

ストップワードの一覧。

StopwordsList

言語固有のストップワードの事前定義リストを識別します。

説明
arabic

アラビア語のストップワードリストを選択します。

armenian

アルメニア語のストップワードリストを選択します。

basque

バスク語のストップワードリストを選択します。

brazilian

ポルトガル語 (ブラジル) のストップワード リストを選択します。

bulgarian

ブルガリア語のストップワードリストを選択します。

catalan

カタロニア語のストップワードリストを選択します。

czech

チェコ語のストップワードリストを選択します。

danish

デンマーク語のストップワードリストを選択します。

dutch

オランダ語のストップワードリストを選択します。

english

英語のストップワードリストを選択します。

finnish

フィンランド語のストップワードリストを選択します。

french

フランス語のストップワードリストを選択します。

galician

ガリシア語のストップワードリストを選択します。

german

ドイツ語のストップワード・リストを選択します。

greek

ギリシャ語のストップワード・リストを選択します。

hindi

ヒンディー語のストップワード・リストを選択します。

hungarian

ハンガリー語のストップワード・リストを選択します。

indonesian

インドネシア語のストップワードリストを選択します。

irish

アイルランド語のストップワードリストを選択します。

italian

イタリア語のストップワードリストを選択します。

latvian

ラトビア語のストップワードリストを選択します。

norwegian

ノルウェー語のストップワード・リストを選択します。

persian

ペルシア語のストップワードリストを選択します。

portuguese

ポルトガル語のストップワードリストを選択します。

romanian

ルーマニア語のストップワードリストを選択します。

russian

ロシア語のストップワードリストを選択します。

sorani

ソラニのストップワードリストを選択します。

spanish

スペイン語のストップワードリストを選択します。

swedish

スウェーデン語のストップワード・リストを選択します。

thai

タイ語のストップワードリストを選択します。

turkish

トルコ語のストップワードリストを選択します。

StopwordsTokenFilter

トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

派生型の識別子。

ignoreCase

boolean

False

大文字と小文字を無視するかどうかを示す値。 true の場合、すべての単語が最初に小文字に変換されます。 既定値は falseです。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

removeTrailing

boolean

True

最後の検索語句がストップ ワードの場合に無視するかどうかを示す値。 既定値は True です。

stopwords

string[]

ストップワードの一覧。 このプロパティとストップワード リスト プロパティの両方を設定することはできません。

stopwordsList

StopwordsList

english

使用するストップワードの定義済みリスト。 このプロパティとストップワード プロパティの両方を設定することはできません。 既定値は英語です。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

派生型の識別子。

expand

boolean

True

シノニムの一覧内のすべての単語 (=> 表記が使用されていない場合) が相互にマップされるかどうかを示す値。 true の場合、シノニムの一覧内のすべての単語 (=> 表記が使用されていない場合) は相互にマップされます。 次のリスト:信じられないほどの、信じられないほどの、素晴らしい、素晴らしいに相当します:信じられないほどの、信じられないほどの、素晴らしい、素晴らしい=> 信じられないほどの、素晴らしい、素晴らしい。 誤った場合、次のリスト: 信じられないほどの、信じられないほどの、素晴らしい、素晴らしいと同等になります:信じられないほどの、信じられないほどの、素晴らしい、素晴らしい=> 信じられないほどの。 既定値は True です。

ignoreCase

boolean

False

一致する入力を大文字と小文字を区別するかどうかを示す値。 既定値は falseです。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

synonyms

string[]

次のいずれかの形式のシノニムの一覧: 1。 信じられないほどの、信じられないほどの、素晴らしい=> 素晴らしい - => 記号の左側のすべての用語は、右側のすべての用語に置き換えられます。2. 信じられないほどの、信じられないほどの、素晴らしい、素晴らしい - 同等の単語のコンマ区切りのリスト。 このリストの解釈方法を変更するには、expand オプションを設定します。

TagScoringFunction

特定のタグのリストに一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

名前 説明
boost

number (double)

生のスコアの乗数。 1.0 に等しくない正の数値を指定する必要があります。

fieldName

string

スコアリング関数への入力として使用されるフィールドの名前。

interpolation

ScoringFunctionInterpolation

ドキュメント スコア間でブーストがどのように補間されるかを示す値。既定値は "Linear" です。

tag

TagScoringParameters

タグ スコアリング関数のパラメーター値。

type string:

tag

スコア関数の種類。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

名前 説明
tagsParameter

string

ターゲットフィールドと比較するタグのリストを指定するために検索クエリで渡されるパラメータの名前。

TextWeights

検索クエリでスコアリングを向上させる必要がある一致するインデックス フィールドの重みを定義します。

名前 説明
weights

object

ドキュメントのスコアリングを高めるためのフィールドごとの重みの辞書。 キーはフィールド名で、値は各フィールドの重みです。

TokenCharacterKind

トークン フィルターが操作できる文字のクラスを表します。

説明
letter

文字をトークンに保持します。

digit

トークンに数字を保持します。

whitespace

トークンに空白を保持します。

punctuation

句読点をトークンに保持します。

symbol

シンボルをトークンに保持します。

TokenFilterName

検索エンジンでサポートされているすべてのトークン フィルターの名前を定義します。

説明
arabic_normalization

アラビア語ノーマライザーを適用して正書法を正規化するトークン フィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html を参照してください

apostrophe

アポストロフィ以降 (アポストロフィ自体を含む) のすべての文字が除去されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html を参照してください

asciifolding

最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください

cjk_bigram

標準トークナイザーから生成される CJK 用語のビグラムを形成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html を参照してください

cjk_width

CJK の幅の違いが正規化されます。 全幅ASCIIのバリエーションを同等の基本ラテン語に、ハーフワイドカタカナのバリエーションを同等の仮名に折りたたみます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html を参照してください

classic

頭字語から英語の所有物とドットを削除します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html を参照してください

common_grams

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html を参照してください

edgeNGram_v2

入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html を参照してください

elision

省略された部分を取り除きます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください

german_normalization

German2 スノーボール アルゴリズムのヒューリスティックに従って、ドイツ語の文字を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html を参照してください

hindi_normalization

ヒンディー語のテキストが正規化され、スペルのバリエーションの違いが削除されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html を参照してください

indic_normalization

インドの言語でのテキストの Unicode 表現が正規化されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html を参照してください

keyword_repeat

各受信トークンを 2 回、キーワードとして 1 回、非キーワードとして 1 回出力します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html を参照してください

kstem

英語のハイ パフォーマンス kstem フィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html を参照してください

length

長すぎる単語または短すぎる単語が削除されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html を参照してください

limit

インデックス付けの間に、トークンの数が制限されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html を参照してください

lowercase

トークンのテキストが小文字に正規化されます。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください

nGram_v2

指定されたサイズの n グラムを生成します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html を参照してください

persian_normalization

ペルシャ語の正規化が適用されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html を参照してください

phonetic

音韻一致用のトークンを作成してください。 https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html を参照してください

porter_stem

Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。 http://tartarus.org/~martin/PorterStemmer を参照してください

reverse

トークンの文字列が反転されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください

scandinavian_normalization

交換可能なスカンジナビア語の文字の使用を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html を参照してください

scandinavian_folding

折りたたまれるスカンジナビア文字 Ã¥Ã...ア†アと>>ア。 また、二重母音 aa、ae、ao、oe、oo の使用を区別し、最初の母音だけを残します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html を参照してください

shingle

トークンの組み合わせが 1 つのトークンとして作成されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html を参照してください

snowball

Snowball で生成されたステマーを使用して単語の語幹を読み上めるフィルター。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html を参照してください

sorani_normalization

Sorani テキストの Unicode 表現を正規化します。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html を参照してください

stemmer

言語固有のステミング フィルター。 https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください

stopwords

トークン ストリームからストップワードが削除されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください

trim

先頭と末尾の空白文字がトークンからトリミングされます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html を参照してください

truncate

用語を特定の長さに切り捨てます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html を参照してください

unique

前のトークンと同じテキストのトークンが除外されます。 http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html を参照してください

uppercase

トークンのテキストが大文字に正規化されます。 https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください

word_delimiter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

派生型の識別子。

length

integer (int32)

maximum: 300
300

用語が切り捨てられる長さ。 既定値と最大値は 300 です。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

UaxUrlEmailTokenizer

URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

派生型の識別子。

maxTokenLength

integer (int32)

maximum: 300
255

トークンの最大長。 既定値は 255 です。 最大長より長いトークンは分割されます。 使用できるトークンの最大長は 300 文字です。

name

string

トークナイザーの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

UniqueTokenFilter

前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

派生型の識別子。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

onlyOnSamePosition

boolean

False

同じ位置でのみ重複を削除するかどうかを示す値。 既定値は falseです。

VectorEncodingFormat

ベクトル フィールドの内容を解釈するためのエンコード形式。

説明
packedBit

より広いデータ型にパックされたビットを表すエンコード形式。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

名前 説明
algorithms VectorSearchAlgorithmConfiguration[]:

インデックス作成またはクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれています。

compressions VectorSearchCompression[]:

インデックス作成またはクエリ中に使用される圧縮方法に固有の構成オプションが含まれています。

profiles

VectorSearchProfile[]

ベクター検索で使用する構成の組み合わせを定義します。

vectorizers VectorSearchVectorizer[]:

テキスト ベクター クエリをベクター化する方法に関する構成オプションが含まれています。

VectorSearchAlgorithmKind

インデックス作成とクエリに使用されるアルゴリズム。

説明
hnsw

HNSW (階層的なナビゲート可能な小さな世界)、概ね最も近い近隣アルゴリズムの一種。

exhaustiveKnn

ブルート フォース検索を実行する完全な KNN アルゴリズム。

VectorSearchAlgorithmMetric

ベクトル比較に使用する類似性メトリック。 埋め込みモデルがトレーニングされたのと同じ類似性メトリックを選択することをお勧めします。

説明
cosine

ベクトル間の角度を測定して類似性を定量化し、大きさを無視します。 角度が小さいと、類似性が近くなります。

euclidean

多次元空間内のベクトル間の直線距離を計算します。 距離が小さいと、類似性が近くなります。

dotProduct

要素ごとの積の合計を計算して、アライメントと大きさの類似性を測定します。 大きく、より肯定的なほど、類似性が近くなります。

hamming

ビット パックされたバイナリ データ型にのみ適用されます。 バイナリ ベクトル内の異なる位置をカウントすることによって、非類似性を判断します。 違いが少ないほど、類似性が近くなります。

VectorSearchCompressionKind

インデックス作成とクエリに使用される圧縮方法。

説明
scalarQuantization

スカラー量子化。圧縮方法の一種です。 スカラー量子化では、元のベクトル値は、量子化された値の小さなセットを使用してベクトルの各コンポーネントを分離して表すことによって、より狭い型に圧縮され、それによって全体的なデータ サイズが小さくなります。

binaryQuantization

バイナリ量子化。圧縮方法の一種です。 二項量子化では、元のベクトル値は、バイナリ値を使用してベクトルの各コンポーネントを分離して表すことによって、より狭いバイナリ型に圧縮され、それによって全体的なデータ サイズが小さくなります。

VectorSearchCompressionTarget

圧縮ベクトル値の量子化されたデータ型。

説明
int8

8 ビット符号付き整数。

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

名前 説明
algorithm

string

アルゴリズムとオプションのパラメーターを指定するベクトル検索アルゴリズム構成の名前。

compression

string

圧縮方法とオプションのパラメーターを指定する圧縮方法構成の名前。

name

string

この特定のベクトル検索プロファイルに関連付ける名前。

vectorizer

string

ベクトル検索で使用するために構成されているベクトル化の名前。

VectorSearchVectorizerKind

クエリ時に使用するベクトル化方法。

説明
azureOpenAI

クエリ時に Azure OpenAI リソースを使用して埋め込みを生成します。

customWebApi

クエリ時にカスタム Web エンドポイントを使用して埋め込みを生成します。

aiServicesVision

Azure AI Services Vision Vectorize API を使用して、クエリ時に画像またはテキスト入力の埋め込みを生成します。

aml

クエリ時に Azure AI Foundry モデル カタログを介してデプロイされた Azure Machine Learning エンドポイントを使用して埋め込みを生成します。

WebApiVectorizer

クエリ文字列のベクター埋め込みを生成するためのユーザー定義ベクターライザーを指定します。 外部ベクターライザーの統合は、スキルセットのカスタム Web API インターフェイスを使用して実現されます。

名前 説明
customWebApiParameters

WebApiVectorizerParameters

ユーザー定義のベクトル化器のプロパティを指定します。

kind string:

customWebApi

VectorSearchVectorizerの種類。

name

string

この特定のベクター化メソッドに関連付ける名前。

WebApiVectorizerParameters

ユーザー定義ベクターライザーに接続するためのプロパティを指定します。

名前 説明
authIdentity SearchIndexerDataIdentity:

送信接続に使用されるユーザー割り当てマネージド ID。 authResourceId が指定されていて、指定されていない場合は、システム割り当てマネージド ID が使用されます。 インデクサーの更新時に、ID が指定されていない場合、値は変更されません。 「none」に設定すると、このプロパティの値はクリアされます。

authResourceId

string

Azure関数や変換を提供する他のアプリケーションで外部コードに接続するカスタムエンドポイントに適用されます。 この値は、関数またはアプリが Azure Active Directory に登録されたときに作成されたアプリケーション ID である必要があります。 指定すると、ベクトル化は、検索サービスのマネージド ID (システムまたはユーザー割り当て) と関数またはアプリのアクセス トークンを使用して関数またはアプリに接続し、この値をアクセス トークンのスコープを作成するためのリソース ID として使用します。

httpHeaders

object

HTTP 要求を行うために必要なヘッダー。

httpMethod

string

HTTP 要求のメソッド。

timeout

string (duration)

要求に必要なタイムアウト。 既定値は 30 秒です。

uri

string (uri)

ベクタライザーを提供する Web API の URI。

WordDelimiterTokenFilter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

名前 規定値 説明
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

派生型の識別子。

catenateAll

boolean

False

すべてのサブワード部分を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure-Search-1" は "AzureSearch1" になります。 既定値は falseです。

catenateNumbers

boolean

False

数値部分の最大実行数を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"1- 2" は "12" になります。 既定値は falseです。

catenateWords

boolean

False

単語部分の最大実行数を分類するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure-Search" は "AzureSearch" になります。 既定値は falseです。

generateNumberParts

boolean

True

数値サブワードを生成するかどうかを示す値。 既定値は True です。

generateWordParts

boolean

True

パート ワードを生成するかどうかを示す値。 設定すると、単語の一部が生成されます。たとえば、"AzureSearch" は "Azure" "Search" になります。 既定値は True です。

name

string

トークン フィルターの名前。 文字、数字、スペース、ダッシュ、アンダースコアのみを含める必要があり、開始と終了は英数字のみで、128 文字に制限されます。

preserveOriginal

boolean

False

元の単語を保持してサブワード リストに追加するかどうかを示す値。 既定値は falseです。

protectedWords

string[]

区切られるのを防ぎ、保護するトークンの一覧。

splitOnCaseChange

boolean

True

caseChange で単語を分割するかどうかを示す値。 たとえば、これが true に設定されている場合、"AzureSearch" は "Azure" "Search" になります。 既定値は True です。

splitOnNumerics

boolean

True

数値で分割するかどうかを示す値。 たとえば、これが true に設定されている場合、"Azure1Search" は "Azure" "1" "Search" になります。 既定値は True です。

stemEnglishPossessive

boolean

True

各サブワードの末尾の "'s" を削除するかどうかを示す値。 既定値は True です。