Indexes - Create Or Update
Hiermee maakt u een nieuwe zoekindex of werkt u een index bij als deze al bestaat.
PUT {endpoint}/indexes('{indexName}')?api-version=2026-04-01
PUT {endpoint}/indexes('{indexName}')?api-version=2026-04-01&allowIndexDowntime={allowIndexDowntime}
URI-parameters
| Name | In | Vereist | Type | Description |
|---|---|---|---|---|
|
endpoint
|
path | True |
string (uri) |
De eindpunt-URL van de zoekservice. |
|
index
|
path | True |
string |
De naam van de index. |
|
api-version
|
query | True |
string minLength: 1 |
De API-versie die voor deze bewerking moet worden gebruikt. |
|
allow
|
query |
boolean |
Hiermee kunnen nieuwe analysefuncties, tokenizers, tokenfilters of tekenfilters aan een index worden toegevoegd door de index minstens een paar seconden offline te halen. Hierdoor mislukken indexerings- en queryaanvragen tijdelijk. De prestaties en schrijfbaarheid van de index kunnen enkele minuten worden beperkt nadat de index is bijgewerkt of langer voor zeer grote indexen. |
Aanvraagkoptekst
| Name | Vereist | Type | Description |
|---|---|---|---|
| Accept |
De Accepteer kop. |
||
| If-Match |
string |
Hiermee definieert u de voorwaarde If-Match. De bewerking wordt alleen uitgevoerd als de ETag op de server overeenkomt met deze waarde. |
|
| If-None-Match |
string |
Definieert de voorwaarde 'Als-None-Match. De bewerking wordt alleen uitgevoerd als de ETag op de server niet overeenkomt met deze waarde. |
|
| Prefer | True |
Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd. |
|
| x-ms-client-request-id |
string (uuid) |
Een ondoorzichtige, wereldwijd unieke, door de client gegenereerde tekenreeks-id voor de aanvraag. |
Aanvraagbody
| Name | Vereist | Type | Description |
|---|---|---|---|
| fields | True |
De velden van de index. |
|
| name | True |
string |
De naam van de index. |
| @odata.etag |
string |
De ETag van de index. |
|
| analyzers | LexicalAnalyzer[]: |
De analyses voor de index. |
|
| charFilters | CharFilter[]: |
Het teken filtert voor de index. |
|
| corsOptions |
Opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor de index. |
||
| defaultScoringProfile |
string |
De naam van het scoreprofiel dat moet worden gebruikt als er geen is opgegeven in de query. Als deze eigenschap niet is ingesteld en er geen scoreprofiel is opgegeven in de query, wordt standaardscore (tf-idf) gebruikt. |
|
| description |
string |
De beschrijving van de index. |
|
| encryptionKey |
Een beschrijving van een versleutelingssleutel die u in Azure Key Vault maakt. Deze sleutel wordt gebruikt om een extra niveau van versleuteling in rust te bieden voor je data wanneer je volledige zekerheid wilt dat niemand, zelfs Microsoft niet, je data kan ontsleutelen. Zodra u uw gegevens hebt versleuteld, blijven deze altijd versleuteld. De zoekservice negeert pogingen om deze eigenschap op null in te stellen. U kunt deze eigenschap indien nodig wijzigen als u uw versleutelingssleutel wilt draaien; Uw gegevens worden niet beïnvloed. Versleuteling met door de klant beheerde sleutels is niet beschikbaar voor gratis zoekservices en is alleen beschikbaar voor betaalde services die zijn gemaakt op of na 1 januari 2019. |
||
| normalizers | LexicalNormalizer[]: |
De normalizers voor de index. |
|
| scoringProfiles |
De scoreprofielen voor de index. |
||
| semantic |
Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden. |
||
| similarity | SimilarityAlgorithm: |
Het type gelijkenis-algoritme dat moet worden gebruikt bij het scoren en rangschiken van de documenten die overeenkomen met een zoekquery. Het gelijkenis-algoritme kan alleen worden gedefinieerd tijdens het maken van de index en kan niet worden gewijzigd in bestaande indexen. Als null is, wordt het algoritme ClassicSimilarity gebruikt. |
|
| suggesters |
De suggesties voor de index. |
||
| tokenFilters |
TokenFilter[]:
|
Het tokenfiltert voor de index. |
|
| tokenizers | LexicalTokenizer[]: |
De tokenizers voor de index. |
|
| vectorSearch |
Bevat configuratieopties met betrekking tot vectorzoekopdrachten. |
Antwoorden
| Name | Type | Description |
|---|---|---|
| 200 OK |
De aanvraag is voltooid. |
|
| 201 Created |
De aanvraag is geslaagd en er is een nieuwe resource gemaakt. |
|
| Other Status Codes |
Een onverwachte foutreactie. |
Beveiliging
api-key
Type:
apiKey
In:
header
OAuth2Auth
Type:
oauth2
Stroom:
implicit
Autorisatie-URL:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereiken
| Name | Description |
|---|---|
| https://search.azure.com/.default |
Voorbeelden
SearchServiceCreateOrUpdateIndex
Voorbeeldaanvraag
PUT https://exampleservice.search.windows.net/indexes('temp-example-index')?api-version=2026-04-01&allowIndexDowntime=
{
"name": "temp-example-index",
"description": "description",
"fields": [
{
"name": "id",
"type": "Edm.String",
"key": true,
"sortable": true
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 20,
"vectorSearchProfile": "config1"
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 10,
"vectorSearchProfile": "config2"
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 5,
"vectorSearchProfile": "config3"
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 5,
"vectorSearchProfile": "config3"
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 10,
"vectorSearchProfile": "config2"
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 32,
"vectorSearchProfile": "config4"
},
{
"name": "name",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "description",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "standard.lucene"
},
{
"name": "category",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "ownerId",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "price",
"type": "Edm.Double",
"retrievable": true,
"filterable": true,
"sortable": true,
"facetable": true
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"tag": {
"tagsParameter": "categoryTag"
},
"type": "tag",
"fieldName": "category",
"boost": 2
}
]
}
],
"defaultScoringProfile": "stringFieldBoost",
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
],
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer"
}
],
"tokenizers": [
{
"maxTokenLength": 100,
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer"
}
],
"tokenFilters": [
{
"preserveOriginal": false,
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter"
}
],
"charFilters": [
{
"mappings": [
".=>,",
"_=>-"
],
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping"
}
],
"normalizers": [
{
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
],
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer"
}
],
"similarity": {
"k1": 10,
"b": 0.1,
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
},
"rankingOrder": "BoostedRerankerScore"
}
]
},
"vectorSearch": {
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"algorithms": [
{
"hnswParameters": {
"metric": "cosine"
},
"name": "cosine",
"kind": "hnsw"
},
{
"hnswParameters": {
"metric": "euclidean"
},
"name": "euclidean",
"kind": "hnsw"
},
{
"hnswParameters": {
"metric": "dotProduct"
},
"name": "dotProduct",
"kind": "hnsw"
}
],
"vectorizers": [
{
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com/",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
},
"name": "openai",
"kind": "azureOpenAI"
},
{
"customWebApiParameters": {
"uri": "https://my-custom-endpoint.org/",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"httpMethod": "POST",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
},
"name": "custom-web-api",
"kind": "customWebApi"
},
{
"amlParameters": {
"uri": "https://my-custom-endpoint.org/",
"resourceId": "aml resource id",
"timeout": "PT1M",
"region": "aml region",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
},
"name": "aml",
"kind": "aml"
},
{
"amlParameters": {
"uri": "https://my-custom-endpoint.org/",
"resourceId": "aml resource id",
"timeout": "PT1M",
"region": "aml region",
"modelName": "Cohere-embed-v4"
},
"name": "aml-cohere",
"kind": "aml"
}
],
"compressions": [
{
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"name": "mySQ8",
"kind": "scalarQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
},
"truncationDimension": 2
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
},
"truncationDimension": 2
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
},
"truncationDimension": 2
}
]
},
"@odata.etag": "0x1234568AE7E58A1"
}
Voorbeeldrespons
{
"name": "temp-example-index",
"description": "description",
"defaultScoringProfile": "stringFieldBoost",
"fields": [
{
"name": "id",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": true,
"synonymMaps": []
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 20,
"vectorSearchProfile": "config1",
"synonymMaps": []
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 32,
"vectorSearchProfile": "config4",
"synonymMaps": []
},
{
"name": "name",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "standard.lucene",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "ownerId",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "price",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"functionAggregation": "sum",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"fieldName": "category",
"interpolation": "linear",
"type": "tag",
"boost": 2,
"tag": {
"tagsParameter": "categoryTag"
}
}
]
}
],
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer",
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
]
}
],
"normalizers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer",
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
]
}
],
"tokenizers": [
{
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer",
"maxTokenLength": 100
}
],
"tokenFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter",
"preserveOriginal": false
}
],
"charFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping",
"mappings": [
".=>,",
"_=>-"
]
}
],
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"k1": 10,
"b": 0.1
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"rankingOrder": "BoostedRerankerScore",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "cosine",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "euclidean",
"kind": "hnsw",
"hnswParameters": {
"metric": "euclidean",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "dotProduct",
"kind": "hnsw",
"hnswParameters": {
"metric": "dotProduct",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
}
],
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"vectorizers": [
{
"name": "openai",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
}
},
{
"name": "custom-web-api",
"kind": "customWebApi",
"customWebApiParameters": {
"httpMethod": "POST",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
}
},
{
"name": "aml",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
}
},
{
"name": "aml-cohere",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "Cohere-embed-v4"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"truncationDimension": 2,
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
}
}
]
}
}
{
"name": "temp-example-index",
"description": "description",
"defaultScoringProfile": "stringFieldBoost",
"fields": [
{
"name": "id",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": true,
"synonymMaps": []
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 20,
"vectorSearchProfile": "config1",
"synonymMaps": []
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 32,
"vectorSearchProfile": "config4",
"synonymMaps": []
},
{
"name": "name",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "standard.lucene",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "ownerId",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "price",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"functionAggregation": "sum",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"fieldName": "category",
"interpolation": "linear",
"type": "tag",
"boost": 2,
"tag": {
"tagsParameter": "categoryTag"
}
}
]
}
],
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer",
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
]
}
],
"normalizers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer",
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
]
}
],
"tokenizers": [
{
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer",
"maxTokenLength": 100
}
],
"tokenFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter",
"preserveOriginal": false
}
],
"charFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping",
"mappings": [
".=>,",
"_=>-"
]
}
],
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"k1": 10,
"b": 0.1
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"rankingOrder": "BoostedRerankerScore",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "cosine",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "euclidean",
"kind": "hnsw",
"hnswParameters": {
"metric": "euclidean",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "dotProduct",
"kind": "hnsw",
"hnswParameters": {
"metric": "dotProduct",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
}
],
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"vectorizers": [
{
"name": "openai",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
}
},
{
"name": "custom-web-api",
"kind": "customWebApi",
"customWebApiParameters": {
"httpMethod": "POST",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
}
},
{
"name": "aml",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
}
},
{
"name": "aml-cohere",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "Cohere-embed-v4"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"truncationDimension": 2,
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
}
}
]
}
}
Definities
| Name | Description |
|---|---|
| Accept |
De Accepteer kop. |
|
AIFoundry |
De naam van het embeddingmodel uit de Azure AI Foundry Catalog dat zal worden genoemd. |
| AMLParameters |
Hiermee geeft u de eigenschappen voor het verbinden met een AML vectorizer. |
| AMLVectorizer |
Specificeert een Azure Machine Learning-endpoint dat via de Azure AI Foundry Model Catalog wordt ingezet voor het genereren van de vector-embedding van een querystring. |
|
Ascii |
Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Azure |
De Azure Open AI-modelnaam die wordt aangeroepen. |
|
Azure |
Hiermee geeft u de Azure OpenAI-resource op die wordt gebruikt om een querytekenreeks te vectoriseren. |
|
Azure |
Hiermee geeft u de parameters voor het maken van verbinding met de Azure OpenAI-resource. |
|
Binary |
Bevat configuratieopties die specifiek zijn voor de binaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's. |
|
BM25Similarity |
Classificatiefunctie op basis van het okapi BM25-gelijkenis-algoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie omvat (beheerd door de parameter b) en termfrequentieverzadiging (beheerd door de parameter k1). |
|
Char |
Definieert de namen van alle tekenfilters die door de zoekmachine worden ondersteund. |
|
Cjk |
Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Cjk |
Scripts die kunnen worden genegeerd door CjkBigramTokenFilter. |
|
Classic |
Verouderd gelijkenis-algoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variatie van TF-IDF introduceert normalisatie van statische documentlengten en coördinatiefactoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de doorzochte query's. |
|
Classic |
Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europese documenten. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Common |
Bouw bigrams voor veelgebruikte termen tijdens het indexeren. Ook enkele termen worden nog steeds geïndexeerd, waarbij bigrams over elkaar heen worden weergegeven. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Cors |
Hiermee definieert u opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor een index. |
|
Custom |
Hiermee kunt u de controle overnemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit één vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het breken van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden verzonden. |
|
Custom |
Hiermee kunt u normalisatie configureren voor filterbare, sorteerbare en facetable velden, die standaard werken met strikte overeenkomsten. Dit is een door de gebruiker gedefinieerde configuratie die bestaat uit ten minste één of meer filters, waarmee het token wordt gewijzigd dat is opgeslagen. |
|
Dictionary |
Ontleedt samengestelde woorden in veel Germaanse talen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Distance |
Definieert een functie die scores verhoogt op basis van afstand van een geografische locatie. |
|
Distance |
Biedt parameterwaarden voor een scorefunctie voor afstand. |
|
Edge |
Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Edge |
Geeft aan welke kant van de invoer een n-gram moet worden gegenereerd. |
|
Edge |
Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Edge |
Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(en). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Elision |
Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Error |
Aanvullende informatie over de resourcebeheerfout. |
|
Error |
De foutdetails. |
|
Error |
Veelvoorkomende foutrespons voor alle Azure Resource Manager API's om foutdetails terug te geven bij mislukte bewerkingen. (Dit volgt ook de OData-foutreactieindeling.) |
|
Exhaustive |
Bevat configuratieopties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force zoekopdrachten worden uitgevoerd in de gehele vectorindex. |
|
Exhaustive |
Bevat de parameters die specifiek zijn voor een volledig KNN-algoritme. |
|
Freshness |
Definieert een functie die scores verhoogt op basis van de waarde van een datum/tijd-veld. |
|
Freshness |
Biedt parameterwaarden voor een scorefunctie voor nieuwheid. |
|
Hnsw |
Bevat configuratie-opties die specifiek zijn voor het HNSW-algoritme voor de dichtstbijzijnde buren dat wordt gebruikt tijdens het indexeren en opvragen. Het HNSW-algoritme biedt een afstembare afweging tussen zoeksnelheid en nauwkeurigheid. |
|
Hnsw |
Bevat de parameters die specifiek zijn voor het HNSW-algoritme. |
|
Keep |
Een tokenfilter dat alleen tokens met tekst in een opgegeven lijst met woorden bewaart. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Keyword |
Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Keyword |
Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Keyword |
Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Length |
Hiermee verwijdert u woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Lexical |
Definieert de namen van alle tekstanalysatoren die door de zoekmachine worden ondersteund. |
|
Lexical |
Definieert de namen van alle tekstnormalizers die door de zoekmachine worden ondersteund. |
|
Lexical |
Definieert de namen van alle tokenizers die door de zoekmachine worden ondersteund. |
|
Limit |
Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Lucene |
Standard Apache Lucene Analyzer; Samengesteld uit de standaardtokenizer, het filter in kleine letters en het stopfilter. |
|
Lucene |
Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Lucene |
Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Magnitude |
Definieert een functie die scores verhoogt op basis van de grootte van een numeriek veld. |
|
Magnitude |
Biedt parameterwaarden voor een scorefunctie voor de grootte. |
|
Mapping |
Een tekenfilter waarmee toewijzingen worden toegepast die zijn gedefinieerd met de optie Toewijzingen. De overeenkomsten zijn greedy (de langste patroonherkenning op een gegeven moment wint). Vervanging mag de lege string zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Microsoft |
Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisformulieren. |
|
Microsoft |
Verdeelt tekst met taalspecifieke regels. |
|
Microsoft |
Geeft een lijst van de talen die worden ondersteund door de Microsoft language stemming tokenizer. |
|
Microsoft |
Geeft een lijst van de talen die door de Microsoft-taaltokenizer worden ondersteund. |
|
NGram |
Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
NGram |
Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
NGram |
Hiermee wordt de invoer in n-grammen van de opgegeven grootte(n) tokenizes. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Path |
Tokenizer voor pad-achtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Pattern |
Scheidt tekst flexibel in termen via een normaal expressiepatroon. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene. |
|
Pattern |
Gebruikt Java-regexes om meerdere tokens te verzenden: één voor elke capturegroep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Pattern |
Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Pattern |
Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Pattern |
Tokenizer die gebruikmaakt van regex-patroon dat overeenkomt met het samenstellen van afzonderlijke tokens. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Phonetic |
Identificeert het type fonetische encoder dat moet worden gebruikt met een PhoneticTokenFilter. |
|
Phonetic |
Tokens maken voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
| Prefer |
Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd. |
|
Ranking |
Vertegenwoordigt de score die moet worden gebruikt voor de sorteervolgorde van documenten. |
|
Rescoring |
Bevat de opties voor het wijzigen van het formaat. |
|
Scalar |
Bevat configuratieopties die specifiek zijn voor de scalaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's. |
|
Scalar |
Bevat de parameters die specifiek zijn voor Scalaire kwantisatie. |
|
Scoring |
Definieert de aggregatiefunctie die wordt gebruikt om de resultaten van alle scorefuncties in een scoreprofiel te combineren. |
|
Scoring |
Definieert de functie die wordt gebruikt om scoreverhoging te interpoleren in een reeks documenten. |
|
Scoring |
Definieert parameters voor een zoekindex die van invloed zijn op scoren in zoekquery's. |
|
Search |
Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven. |
|
Search |
Definieert het gegevenstype van een veld in een zoekindex. |
|
Search |
Vertegenwoordigt een definitie van een zoekindex, waarin de velden en het zoekgedrag van een index worden beschreven. |
|
Search |
Hiermee wist u de identiteitseigenschap van een gegevensbron. |
|
Search |
Hiermee geeft u de identiteit op voor een gegevensbron die moet worden gebruikt. |
|
Search |
Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt om inactieve gegevens, zoals indexen en synoniementoewijzingen, te versleutelen of te ontsleutelen. |
|
Search |
Hiermee definieert u hoe de Suggestie-API moet worden toegepast op een groep velden in de index. |
|
Semantic |
Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden. |
|
Semantic |
Een veld dat wordt gebruikt als onderdeel van de semantische configuratie. |
|
Semantic |
Beschrijft de velden titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, hoogtepunten en antwoorden. |
|
Semantic |
Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden. |
|
Shingle |
Hiermee maakt u combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Snowball |
Een filter dat woorden stamt met behulp van een door Snowball gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Snowball |
De taal die moet worden gebruikt voor een Snowball-tokenfilter. |
|
Stemmer |
Biedt de mogelijkheid om andere stemmingsfilters te overschrijven met aangepaste stemming op basis van woordenlijst. Alle woordenlijstgestemde termen worden gemarkeerd als trefwoorden, zodat ze niet worden afgestemd met stemmers in de keten. Moet vóór stemmingsfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
|
Stemmer |
Taalspecifiek stemmingsfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
|
Stemmer |
De taal die moet worden gebruikt voor een stemmer token filter. |
|
Stop |
Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopworden toe. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene. |
|
Stopwords |
Identificeert een vooraf gedefinieerde lijst met taalspecifieke stopwoorden. |
|
Stopwords |
Hiermee verwijdert u stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
|
Synonym |
Komt overeen met synoniemen met één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Tag |
Definieert een functie waarmee scores van documenten worden verhoogd met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags. |
|
Tag |
Biedt parameterwaarden voor een scorefunctie voor tags. |
|
Text |
Definieert gewichten voor indexvelden waarvoor overeenkomsten het scoren in zoekquery's moeten verhogen. |
|
Token |
Vertegenwoordigt klassen van tekens waarop een tokenfilter kan werken. |
|
Token |
Definieert de namen van alle tokenfilters die door de zoekmachine worden ondersteund. |
|
Truncate |
Kapt de voorwaarden af tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Uax |
Hiermee worden URL's en e-mailadressen als één token getokeniseerd. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
|
Unique |
Filtert tokens met dezelfde tekst als het vorige token eruit. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
|
Vector |
Het coderingsformaat voor het interpreteren van de inhoud van vectorvelden. |
|
Vector |
Bevat configuratieopties met betrekking tot vectorzoekopdrachten. |
|
Vector |
Het algoritme dat wordt gebruikt voor indexeren en opvragen. |
|
Vector |
De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. Het wordt aanbevolen om dezelfde gelijkenismetriek te kiezen waarop het inbeddingsmodel is getraind. |
|
Vector |
De compressiemethode die wordt gebruikt voor indexeren en query's. |
|
Vector |
Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden. |
|
Vector |
Definieert een combinatie van configuraties die moeten worden gebruikt met vectorzoekopdrachten. |
|
Vector |
De vectorisatiemethode die moet worden gebruikt tijdens de zoekopdracht. |
|
Web |
Hiermee geeft u een door de gebruiker gedefinieerde vectorizer op voor het genereren van de vectorinsluiting van een queryreeks. Integratie van een externe vectorizer wordt bereikt met behulp van de aangepaste web-API-interface van een vaardighedenset. |
|
Web |
Hiermee geeft u de eigenschappen voor het maken van verbinding met een door de gebruiker gedefinieerde vectorizer. |
|
Word |
Splitst woorden in subwoorden en voert optionele transformaties uit voor subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
Accept
De Accepteer kop.
| Waarde | Description |
|---|---|
| application/json;odata.metadata=minimal |
AIFoundryModelCatalogName
De naam van het embeddingmodel uit de Azure AI Foundry Catalog dat zal worden genoemd.
| Waarde | Description |
|---|---|
| OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
| Facebook-DinoV2-Image-Embeddings-ViT-Base |
Facebook-DinoV2-Image-Embeddings-ViT-Base |
| Facebook-DinoV2-Image-Embeddings-ViT-Giant |
Facebook-DinoV2-Image-Embeddings-ViT-Giant |
| Cohere-embed-v3-english |
Cohere-embed-v3-english |
| Cohere-embed-v3-multilingual |
Cohere-embed-v3-meertalig |
| Cohere-embed-v4 |
Cohere embed v4-model voor het genereren van inbeddingen van zowel tekst als afbeeldingen. |
AMLParameters
Hiermee geeft u de eigenschappen voor het verbinden met een AML vectorizer.
| Name | Type | Description |
|---|---|---|
| key |
string |
(Vereist voor sleutelverificatie) De sleutel voor de AML-service. |
| modelName |
De naam van het embeddingmodel uit de Azure AI Foundry Catalog die op het geleverde eindpunt wordt uitgerold. |
|
| region |
string |
(Optioneel voor tokenverificatie). De regio waarin de AML-service wordt geïmplementeerd. |
| resourceId |
string |
(Vereist voor tokenverificatie). De Azure Resource Manager resource ID van de AML-service. Het zou in het formaat subscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoft moeten zijn. MachineLearningServices/workspaces/{workspace-name}/services/{service_name}. |
| timeout |
string (duration) |
(Optioneel) Wanneer dit is opgegeven, geeft u de time-out aan voor de HTTP-client die de API-aanroep maakt. |
| uri |
string (uri) |
(Vereist voor geen verificatie of sleutelverificatie) De score-URI van de AML-service waarnaar de JSON-nettolading wordt verzonden. Alleen het https-URI-schema is toegestaan. |
AMLVectorizer
Specificeert een Azure Machine Learning-endpoint dat via de Azure AI Foundry Model Catalog wordt ingezet voor het genereren van de vector-embedding van een querystring.
| Name | Type | Description |
|---|---|---|
| amlParameters |
Hiermee geeft u de eigenschappen van de AML vectorizer. |
|
| kind |
string:
aml |
Type of VectorSearchVectorizer. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke vectorisatiemethode. |
AsciiFoldingTokenFilter
Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| preserveOriginal |
boolean |
False |
Een waarde die aangeeft of het oorspronkelijke token wordt bewaard. De standaardwaarde is vals. |
AzureOpenAIModelName
De Azure Open AI-modelnaam die wordt aangeroepen.
| Waarde | Description |
|---|---|
| text-embedding-ada-002 |
TextEmbeddingAda002 model. |
| text-embedding-3-large |
TextEmbedding3Groot model. |
| text-embedding-3-small |
TextEmbedding3Small-model. |
| gpt-5-mini |
Gpt5Mini model. |
| gpt-5-nano |
Gpt5Nano-model. |
| gpt-5.4-mini |
Gpt54Mini model. |
| gpt-5.4-nano |
Gpt54Nano model. |
AzureOpenAIVectorizer
Hiermee geeft u de Azure OpenAI-resource op die wordt gebruikt om een querytekenreeks te vectoriseren.
| Name | Type | Description |
|---|---|---|
| azureOpenAIParameters |
Bevat de parameters die specifiek zijn voor Azure OpenAI-inbeddingsvectorisatie. |
|
| kind |
string:
azure |
Type of VectorSearchVectorizer. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke vectorisatiemethode. |
AzureOpenAIVectorizerParameters
Hiermee geeft u de parameters voor het maken van verbinding met de Azure OpenAI-resource.
| Name | Type | Description |
|---|---|---|
| apiKey |
string |
API-sleutel van de aangewezen Azure OpenAI-resource. |
| authIdentity | SearchIndexerDataIdentity: |
De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen. |
| deploymentId |
string |
ID van de implementatie van het Azure OpenAI-model op de aangewezen resource. |
| modelName |
De naam van het insluitmodel dat is geïmplementeerd op het opgegeven deploymentId-pad. |
|
| resourceUri |
string (uri) |
De resource-URI van de Azure OpenAI-resource. |
BinaryQuantizationCompression
Bevat configuratieopties die specifiek zijn voor de binaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's.
| Name | Type | Description |
|---|---|---|
| kind |
string:
binary |
Type VectorSearchCompressie. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke configuratie. |
| rescoringOptions |
Bevat de opties voor het wijzigen van het formaat. |
|
| truncationDimension |
integer (int32) |
Het aantal dimensies waaraan de vectoren moeten worden afgekapt. Het afkappen van de vectoren vermindert de grootte van de vectoren en de hoeveelheid gegevens die tijdens de zoekopdracht moet worden overgedragen. Dit kan opslagkosten besparen en de zoekprestaties verbeteren ten koste van terugroepen. Deze mag alleen worden gebruikt voor insluitingen die zijn getraind met Matryoshka Representation Learning (MRL), zoals OpenAI text-embedding-3-large (klein). De standaardwaarde is null, wat betekent dat er geen afkapping is. |
BM25SimilarityAlgorithm
Classificatiefunctie op basis van het okapi BM25-gelijkenis-algoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie omvat (beheerd door de parameter b) en termfrequentieverzadiging (beheerd door de parameter k1).
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| b |
number (double) |
Met deze eigenschap bepaalt u hoe de lengte van een document van invloed is op de relevantiescore. Standaard wordt een waarde van 0,75 gebruikt. Een waarde van 0,0 betekent dat er geen lengtenormalisatie wordt toegepast, terwijl een waarde van 1,0 betekent dat de score volledig wordt genormaliseerd met de lengte van het document. |
| k1 |
number (double) |
Deze eigenschap bepaalt de schaalfunctie tussen de termfrequentie van elke overeenkomende termen en de uiteindelijke relevantiescore van een documentquerypaar. Standaard wordt een waarde van 1,2 gebruikt. Een waarde van 0,0 betekent dat de score niet wordt geschaald met een toename van de termijnfrequentie. |
CharFilterName
Definieert de namen van alle tekenfilters die door de zoekmachine worden ondersteund.
| Waarde | Description |
|---|---|
| html_strip |
Een tekenfilter waarmee HTML-constructies worden verwijderd. Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilter
Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| ignoreScripts |
De scripts die moeten worden genegeerd. |
||
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| outputUnigrams |
boolean |
False |
Een waarde die aangeeft of zowel unigrammen als bigrams (indien waar) moeten worden uitgevoerd of alleen bigrams (indien onwaar). De standaardwaarde is vals. |
CjkBigramTokenFilterScripts
Scripts die kunnen worden genegeerd door CjkBigramTokenFilter.
| Waarde | Description |
|---|---|
| han |
Negeer het Han-schrift bij het vormen van bigrammen van CJK-termen. |
| hiragana |
Negeer het Hiragana-script bij het vormen van bigrammen van CJK-termen. |
| katakana |
Negeer het Katakana-schrift bij het vormen van bigrammen van CJK-termen. |
| hangul |
Negeer het Hangul-script bij het vormen van bigrammen van CJK-termen. |
ClassicSimilarityAlgorithm
Verouderd gelijkenis-algoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variatie van TF-IDF introduceert normalisatie van statische documentlengten en coördinatiefactoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de doorzochte query's.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
ClassicTokenizer
Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europese documenten. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
CommonGramTokenFilter
Bouw bigrams voor veelgebruikte termen tijdens het indexeren. Ook enkele termen worden nog steeds geïndexeerd, waarbij bigrams over elkaar heen worden weergegeven. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| commonWords |
string[] |
De set veelgebruikte woorden. |
|
| ignoreCase |
boolean |
False |
Een waarde die aangeeft of overeenkomende woorden hoofdlettergevoelig zijn. De standaardwaarde is vals. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| queryMode |
boolean |
False |
Een waarde die aangeeft of het tokenfilter zich in de querymodus bevindt. In de querymodus genereert het tokenfilter bigrams en worden vervolgens algemene woorden en enkele termen verwijderd, gevolgd door een gemeenschappelijk woord. De standaardwaarde is vals. |
CorsOptions
Hiermee definieert u opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor een index.
| Name | Type | Description |
|---|---|---|
| allowedOrigins |
string[] |
De lijst met herkomsten van waaruit JavaScript-code toegang krijgt tot uw index. Kan een lijst met hosts van de vorm {protocol}://{fully-qualified-domain-name}[:{port#}] bevatten, of een enkele '*' om alle origines toe te staan (niet aanbevolen). |
| maxAgeInSeconds |
integer (int64) |
De duur waarvoor browsers CORS preflight-antwoorden in de cache moeten opslaan. Standaard ingesteld op 5 minuten. |
CustomAnalyzer
Hiermee kunt u de controle overnemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit één vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het breken van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden verzonden.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| charFilters |
Een lijst met tekenfilters die worden gebruikt om invoertekst voor te bereiden voordat deze door de tokenizer wordt verwerkt. Ze kunnen bijvoorbeeld bepaalde tekens of symbolen vervangen. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven. |
|
| name |
string |
De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
| tokenFilters |
Een lijst met tokenfilters die worden gebruikt om de tokens die door een tokenizer zijn gegenereerd, uit te filteren of te wijzigen. U kunt bijvoorbeeld een filter in kleine letters opgeven waarmee alle tekens worden geconverteerd naar kleine letters. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven. |
|
| tokenizer |
De naam van de tokenizer die moet worden gebruikt om doorlopende tekst te verdelen in een reeks tokens, zoals het opsplitsen van een zin in woorden. |
CustomNormalizer
Hiermee kunt u normalisatie configureren voor filterbare, sorteerbare en facetable velden, die standaard werken met strikte overeenkomsten. Dit is een door de gebruiker gedefinieerde configuratie die bestaat uit ten minste één of meer filters, waarmee het token wordt gewijzigd dat is opgeslagen.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| charFilters |
Een lijst met tekenfilters die worden gebruikt om invoertekst voor te bereiden voordat deze wordt verwerkt. Ze kunnen bijvoorbeeld bepaalde tekens of symbolen vervangen. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven. |
|
| name |
string |
De naam van het tekenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
| tokenFilters |
Een lijst met tokenfilters die worden gebruikt om het invoertoken uit te filteren of te wijzigen. U kunt bijvoorbeeld een filter in kleine letters opgeven waarmee alle tekens worden geconverteerd naar kleine letters. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven. |
DictionaryDecompounderTokenFilter
Ontleedt samengestelde woorden in veel Germaanse talen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxSubwordSize |
integer (int32) maximum: 300 |
15 |
De maximale grootte van het subwoord. Alleen subwoorden korter dan deze worden uitgevoerd. De standaardwaarde is 15. Het maximum is 300. |
| minSubwordSize |
integer (int32) maximum: 300 |
2 |
De minimale grootte van het subwoord. Alleen subwoorden die langer zijn dan deze worden uitgevoerd. De standaardwaarde is 2. Het maximum is 300. |
| minWordSize |
integer (int32) maximum: 300 |
5 |
De minimale woordgrootte. Alleen woorden die langer zijn dan deze worden verwerkt. De standaardwaarde is 5. Het maximum is 300. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| onlyLongestMatch |
boolean |
False |
Een waarde die aangeeft of alleen het langste overeenkomende subwoord moet worden toegevoegd aan de uitvoer. De standaardwaarde is vals. |
| wordList |
string[] |
De lijst met woorden die moeten worden vergeleken. |
DistanceScoringFunction
Definieert een functie die scores verhoogt op basis van afstand van een geografische locatie.
| Name | Type | Description |
|---|---|---|
| boost |
number (double) |
Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0. |
| distance |
Parameterwaarden voor de scorefunctie voor afstand. |
|
| fieldName |
string |
De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie. |
| interpolation |
Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair. |
|
| type |
string:
distance |
Type of ScoringFunction. |
DistanceScoringParameters
Biedt parameterwaarden voor een scorefunctie voor afstand.
| Name | Type | Description |
|---|---|---|
| boostingDistance |
number (double) |
De afstand in kilometers vanaf de referentielocatie waar het boostbereik eindigt. |
| referencePointParameter |
string |
De naam van de parameter die wordt doorgegeven in zoekopdrachten om de referentielocatie op te geven. |
EdgeNGramTokenFilter
Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxGram |
integer (int32) |
2 |
De maximale lengte n-gram. De standaardwaarde is 2. |
| minGram |
integer (int32) |
1 |
De minimale lengte n-gram. De standaardwaarde is 1. Moet kleiner zijn dan de waarde van maxGram. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| side | front |
Geeft aan welke kant van de invoer de n-gram moet worden gegenereerd. De standaardinstelling is "voorkant". |
EdgeNGramTokenFilterSide
Geeft aan welke kant van de invoer een n-gram moet worden gegenereerd.
| Waarde | Description |
|---|---|
| front |
Geeft aan dat de n-gram moet worden gegenereerd vanaf de voorkant van de invoer. |
| back |
Geeft aan dat de n-gram moet worden gegenereerd vanaf de achterkant van de invoer. |
EdgeNGramTokenFilterV2
Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| side | front |
Geeft aan welke kant van de invoer de n-gram moet worden gegenereerd. De standaardinstelling is "voorkant". |
EdgeNGramTokenizer
Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(en). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| tokenChars |
Tekenklassen om in de tokens te blijven. |
ElisionTokenFilter
Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| articles |
string[] |
De set artikelen die u wilt verwijderen. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
ErrorAdditionalInfo
Aanvullende informatie over de resourcebeheerfout.
| Name | Type | Description |
|---|---|---|
| info |
De aanvullende informatie. |
|
| type |
string |
Het extra informatietype. |
ErrorDetail
De foutdetails.
| Name | Type | Description |
|---|---|---|
| additionalInfo |
De fout bevat aanvullende informatie. |
|
| code |
string |
De foutcode. |
| details |
De foutdetails. |
|
| message |
string |
Het foutbericht. |
| target |
string |
Het foutdoelwit. |
ErrorResponse
Veelvoorkomende foutrespons voor alle Azure Resource Manager API's om foutdetails terug te geven bij mislukte bewerkingen. (Dit volgt ook de OData-foutreactieindeling.)
| Name | Type | Description |
|---|---|---|
| error |
Het foutobject. |
ExhaustiveKnnAlgorithmConfiguration
Bevat configuratieopties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force zoekopdrachten worden uitgevoerd in de gehele vectorindex.
| Name | Type | Description |
|---|---|---|
| exhaustiveKnnParameters |
Bevat de parameters die specifiek zijn voor een volledig KNN-algoritme. |
|
| kind |
string:
exhaustive |
Type of VectorSearchAlgorithmConfiguration. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke configuratie. |
ExhaustiveKnnParameters
Bevat de parameters die specifiek zijn voor een volledig KNN-algoritme.
| Name | Type | Description |
|---|---|---|
| metric |
De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. |
FreshnessScoringFunction
Definieert een functie die scores verhoogt op basis van de waarde van een datum/tijd-veld.
| Name | Type | Description |
|---|---|---|
| boost |
number (double) |
Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0. |
| fieldName |
string |
De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie. |
| freshness |
Parameterwaarden voor de scorefunctie voor nieuwheid. |
|
| interpolation |
Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair. |
|
| type |
string:
freshness |
Type of ScoringFunction. |
FreshnessScoringParameters
Biedt parameterwaarden voor een scorefunctie voor nieuwheid.
| Name | Type | Description |
|---|---|---|
| boostingDuration |
string (duration) |
De vervalperiode waarna het boosten voor een bepaald document wordt stopgezet. |
HnswAlgorithmConfiguration
Bevat configuratie-opties die specifiek zijn voor het HNSW-algoritme voor de dichtstbijzijnde buren dat wordt gebruikt tijdens het indexeren en opvragen. Het HNSW-algoritme biedt een afstembare afweging tussen zoeksnelheid en nauwkeurigheid.
| Name | Type | Description |
|---|---|---|
| hnswParameters |
Bevat de parameters die specifiek zijn voor het HNSW-algoritme. |
|
| kind |
string:
hnsw |
Type of VectorSearchAlgorithmConfiguration. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke configuratie. |
HnswParameters
Bevat de parameters die specifiek zijn voor het HNSW-algoritme.
| Name | Type | Default value | Description |
|---|---|---|---|
| efConstruction |
integer (int32) minimum: 100maximum: 1000 |
400 |
De grootte van de dynamische lijst met de dichtstbijzijnde buren, die wordt gebruikt tijdens de indextijd. Het verhogen van deze parameter kan de indexkwaliteit verbeteren, wat ten koste gaat van een langere indexeringstijd. Op een gegeven moment leidt het verhogen van deze parameter tot afnemende meeropbrengsten. |
| efSearch |
integer (int32) minimum: 100maximum: 1000 |
500 |
De grootte van de dynamische lijst met de dichtstbijzijnde buren, die wordt gebruikt tijdens de zoektijd. Het verhogen van deze parameter kan de zoekresultaten verbeteren, ten koste van langzamer zoeken. Op een gegeven moment leidt het verhogen van deze parameter tot afnemende meeropbrengsten. |
| m |
integer (int32) minimum: 4maximum: 10 |
4 |
Het aantal bidirectionele verbindingen dat tijdens de bouw voor elk nieuw element wordt gemaakt. Het verhogen van deze parameterwaarde kan het terugroepen verbeteren en de ophaaltijden verkorten voor gegevenssets met een hoge intrinsieke dimensionaliteit, ten koste van een hoger geheugengebruik en een langere indexeringstijd. |
| metric |
De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. |
KeepTokenFilter
Een tokenfilter dat alleen tokens met tekst in een opgegeven lijst met woorden bewaart. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| keepWords |
string[] |
De lijst met woorden die moeten worden bewaard. |
|
| keepWordsCase |
boolean |
False |
Een waarde die aangeeft of alle woorden eerst in kleine letters moeten worden opgeslagen. De standaardwaarde is vals. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
KeywordMarkerTokenFilter
Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| ignoreCase |
boolean |
False |
Een waarde die aangeeft of hoofdlettergebruik moet worden genegeerd. Indien waar, worden alle woorden eerst geconverteerd naar kleine letters. De standaardwaarde is vals. |
| keywords |
string[] |
Een lijst met woorden die moeten worden gemarkeerd als trefwoorden. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
KeywordTokenizer
Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| bufferSize |
integer (int32) |
256 |
De grootte van de leesbuffer in bytes. De standaardwaarde is 256. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
KeywordTokenizerV2
Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
256 |
De maximale tokenlengte. De standaardwaarde is 256. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
LengthTokenFilter
Hiermee verwijdert u woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| max |
integer (int32) maximum: 300 |
300 |
De maximale lengte in tekens. Standaard en maximum is 300. |
| min |
integer (int32) maximum: 300 |
0 |
De minimale lengte in tekens. De standaardwaarde is 0. Het maximum is 300. Moet kleiner zijn dan de waarde van max. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
LexicalAnalyzerName
Definieert de namen van alle tekstanalysatoren die door de zoekmachine worden ondersteund.
| Waarde | Description |
|---|---|
| ar.microsoft |
Microsoft-analyzer voor Arabisch. |
| ar.lucene |
Lucene analyzer voor Arabisch. |
| hy.lucene |
Lucene analyzer voor Armeens. |
| bn.microsoft |
Microsoft-analyzer voor Bengaals. |
| eu.lucene |
Lucene-analysator voor Baskisch. |
| bg.microsoft |
Microsoft-analyzer voor Bulgaars. |
| bg.lucene |
Lucene analyzer voor Bulgaars. |
| ca.microsoft |
Microsoft-analyzer voor Catalaans. |
| ca.lucene |
Lucene analyzer voor Catalaans. |
| zh-Hans.microsoft |
Microsoft-analyzer voor Chinees (vereenvoudigd). |
| zh-Hans.lucene |
Lucene analyzer voor Chinees (Vereenvoudigd). |
| zh-Hant.microsoft |
Microsoft analyzer voor Chinees (traditioneel). |
| zh-Hant.lucene |
Lucene analyzer voor Chinees (traditioneel). |
| hr.microsoft |
Microsoft analyzer voor Kroatisch. |
| cs.microsoft |
Microsoft-analyzer voor Tsjechisch. |
| cs.lucene |
Lucene analyzer voor Tsjechisch. |
| da.microsoft |
Microsoft-analyzer voor Deens. |
| da.lucene |
Lucene analyzer voor Deens. |
| nl.microsoft |
Microsoft analyzer voor Nederlands. |
| nl.lucene |
Lucene analyzer voor Nederlands. |
| en.microsoft |
Microsoft analyzer voor Engels. |
| en.lucene |
Lucene analyzer voor Engels. |
| et.microsoft |
Microsoft analyzer voor Ests. |
| fi.microsoft |
Microsoft-analyzer voor Fins. |
| fi.lucene |
Lucene analyzer voor Fins. |
| fr.microsoft |
Microsoft-analyzer voor Frans. |
| fr.lucene |
Lucene analyzer voor Frans. |
| gl.lucene |
Lucene analyzer voor Galicisch. |
| de.microsoft |
Microsoft-analyzer voor Duits. |
| de.lucene |
Lucene analyzer voor Duits. |
| el.microsoft |
Microsoft-analyzer voor Grieks. |
| el.lucene |
Lucene analyzer voor Grieks. |
| gu.microsoft |
Microsoft analyzer voor Gujarati. |
| he.microsoft |
Microsoft-analyzer voor Hebreeuws. |
| hi.microsoft |
Microsoft-analyzer voor Hindi. |
| hi.lucene |
Lucene analyzer voor Hindi. |
| hu.microsoft |
Microsoft-analyzer voor Hongaars. |
| hu.lucene |
Lucene analyzer voor Hongaars. |
| is.microsoft |
Microsoft-analyzer voor IJslands. |
| id.microsoft |
Microsoft analyzer voor Indonesisch (Bahasa). |
| id.lucene |
Lucene analyzer voor Indonesisch. |
| ga.lucene |
Lucene analyzer voor Iers. |
| it.microsoft |
Microsoft analyzer voor Italiaans. |
| it.lucene |
Lucene analyzer voor Italiaans. |
| ja.microsoft |
Microsoft analyzer voor Japans. |
| ja.lucene |
Lucene analyzer voor Japans. |
| kn.microsoft |
Microsoft analyzer voor Kannada. |
| ko.microsoft |
Microsoft-analyzer voor Koreaans. |
| ko.lucene |
Lucene analyzer voor Koreaans. |
| lv.microsoft |
Microsoft analyzer voor Lets. |
| lv.lucene |
Lucene analyzer voor Lets. |
| lt.microsoft |
Microsoft analyzer voor Litouws. |
| ml.microsoft |
Microsoft-analyzer voor Malayalam. |
| ms.microsoft |
Microsoft-analyzer voor Maleis (Latijn). |
| mr.microsoft |
Microsoft analyzer voor Marathi. |
| nb.microsoft |
Microsoft analyzer for Norwegian (Bokmül). |
| no.lucene |
Lucene analyzer voor Noors. |
| fa.lucene |
Lucene analyzer voor Perzisch. |
| pl.microsoft |
Microsoft analyzer voor Pools. |
| pl.lucene |
Lucene analyzer voor Pools. |
| pt-BR.microsoft |
Microsoft analyzer voor Portugees (Brazilië). |
| pt-BR.lucene |
Lucene analyzer voor Portugees (Brazilië). |
| pt-PT.microsoft |
Microsoft analyzer for Portuguese (Portugal). |
| pt-PT.lucene |
Lucene analyzer voor Portugees (Portugal). |
| pa.microsoft |
Microsoft analyzer voor Punjabi. |
| ro.microsoft |
Microsoft analyzer voor Roemeens. |
| ro.lucene |
Lucene analyzer voor Roemeens. |
| ru.microsoft |
Microsoft-analyzer voor Russisch. |
| ru.lucene |
Lucene analyzer voor Russisch. |
| sr-cyrillic.microsoft |
Microsoft analyzer voor Servisch (Cyrillisch). |
| sr-latin.microsoft |
Microsoft analyzer voor Servisch (Latijn). |
| sk.microsoft |
Microsoft-analyzer voor Slowaaks. |
| sl.microsoft |
Microsoft analyzer voor Sloveens. |
| es.microsoft |
Microsoft analyzer voor Spaans. |
| es.lucene |
Lucene analyzer voor Spaans. |
| sv.microsoft |
Microsoft-analyzer voor Zweeds. |
| sv.lucene |
Lucene analyzer voor Zweeds. |
| ta.microsoft |
Microsoft-analyzer voor Tamil. |
| te.microsoft |
Microsoft analyzer voor Telugu. |
| th.microsoft |
Microsoft-analyzer voor Thais. |
| th.lucene |
Lucene analyzer voor Thais. |
| tr.microsoft |
Microsoft-analyzer voor Turks. |
| tr.lucene |
Lucene analyzer voor Turks. |
| uk.microsoft |
Microsoft-analyzer voor Oekraïens. |
| ur.microsoft |
Microsoft analyzer voor Urdu. |
| vi.microsoft |
Microsoft-analyzer voor Vietnamees. |
| standard.lucene |
Standaard Lucene-analysator. |
| standardasciifolding.lucene |
Standaard ASCII opvouwbare lucene-analysator. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
| keyword |
Behandelt de volledige inhoud van een veld als één token. Dit is handig voor gegevens zoals postcodes, id's en sommige productnamen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
| pattern |
Scheidt tekst flexibel in termen via een normaal expressiepatroon. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
| simple |
Verdeelt tekst bij niet-alfabetische tekens en zet deze om naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
| stop |
Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopworden toe. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
| whitespace |
Een analyse die gebruikmaakt van de whitespace-tokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
LexicalNormalizerName
Definieert de namen van alle tekstnormalizers die door de zoekmachine worden ondersteund.
| Waarde | Description |
|---|---|
| asciifolding |
Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| elision |
Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
| lowercase |
Normaliseert tokentekst naar kleine letters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html |
| standard |
Standaard normalisator, die bestaat uit kleine letters en asciifolding. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html |
| uppercase |
Normaliseert tokentekst naar hoofdletters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html |
LexicalTokenizerName
Definieert de namen van alle tokenizers die door de zoekmachine worden ondersteund.
LimitTokenFilter
Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| consumeAllTokens |
boolean |
False |
Een waarde die aangeeft of alle tokens uit de invoer moeten worden verbruikt, zelfs als maxTokenCount is bereikt. De standaardwaarde is vals. |
| maxTokenCount |
integer (int32) |
1 |
Het maximum aantal tokens dat moet worden geproduceerd. De standaardwaarde is 1. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
LuceneStandardAnalyzer
Standard Apache Lucene Analyzer; Samengesteld uit de standaardtokenizer, het filter in kleine letters en het stopfilter.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. |
| name |
string |
De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| stopwords |
string[] |
Een lijst met stopwoorden. |
LuceneStandardTokenizer
Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxTokenLength |
integer (int32) |
255 |
De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
LuceneStandardTokenizerV2
Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
MagnitudeScoringFunction
Definieert een functie die scores verhoogt op basis van de grootte van een numeriek veld.
| Name | Type | Description |
|---|---|---|
| boost |
number (double) |
Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0. |
| fieldName |
string |
De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie. |
| interpolation |
Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair. |
|
| magnitude |
Parameterwaarden voor de scorefunctie van de grootte. |
|
| type |
string:
magnitude |
Type of ScoringFunction. |
MagnitudeScoringParameters
Biedt parameterwaarden voor een scorefunctie voor de grootte.
| Name | Type | Description |
|---|---|---|
| boostingRangeEnd |
number (double) |
De veldwaarde waarbij het boosten eindigt. |
| boostingRangeStart |
number (double) |
De veldwaarde waarbij het boosten begint. |
| constantBoostBeyondRange |
boolean |
Een waarde die aangeeft of een constante verhoging moet worden toegepast voor veldwaarden die hoger zijn dan de eindwaarde van het bereik; Standaard is onwaar. |
MappingCharFilter
Een tekenfilter waarmee toewijzingen worden toegepast die zijn gedefinieerd met de optie Toewijzingen. De overeenkomsten zijn greedy (de langste patroonherkenning op een gegeven moment wint). Vervanging mag de lege string zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| mappings |
string[] |
Een lijst met toewijzingen van de volgende notatie: "a=>b" (alle exemplaren van het teken "a" worden vervangen door teken "b"). |
| name |
string |
De naam van het tekenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
MicrosoftLanguageStemmingTokenizer
Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisformulieren.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| isSearchTokenizer |
boolean |
False |
Een waarde die aangeeft hoe de tokenizer wordt gebruikt. Ingesteld op true als deze wordt gebruikt als de zoektokenizer, ingesteld op onwaar als deze wordt gebruikt als de indexeringstokenizer. De standaardwaarde is vals. |
| language |
De taal die moet worden gebruikt. De standaardwaarde is Engels. |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
De maximale tokenlengte. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Tokens die langer zijn dan 300 tekens worden eerst gesplitst in tokens van lengte 300 en vervolgens wordt elk van deze tokens gesplitst op basis van de maximale lengte van het token. De standaardwaarde is 255. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
MicrosoftLanguageTokenizer
Verdeelt tekst met taalspecifieke regels.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| isSearchTokenizer |
boolean |
False |
Een waarde die aangeeft hoe de tokenizer wordt gebruikt. Ingesteld op true als deze wordt gebruikt als de zoektokenizer, ingesteld op onwaar als deze wordt gebruikt als de indexeringstokenizer. De standaardwaarde is vals. |
| language |
De taal die moet worden gebruikt. De standaardwaarde is Engels. |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
De maximale tokenlengte. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Tokens die langer zijn dan 300 tekens worden eerst gesplitst in tokens van lengte 300 en vervolgens wordt elk van deze tokens gesplitst op basis van de maximale lengte van het token. De standaardwaarde is 255. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
MicrosoftStemmingTokenizerLanguage
Geeft een lijst van de talen die worden ondersteund door de Microsoft language stemming tokenizer.
| Waarde | Description |
|---|---|
| arabic |
Selecteert de Microsoft stemming tokenizer voor Arabisch. |
| bangla |
Selecteert de Microsoft stemtokenizer voor het Bengaals. |
| bulgarian |
Selecteert de Microsoft stemming tokenizer voor Bulgaars. |
| catalan |
Selecteert de Microsoft stemming tokenizer voor Catalaans. |
| croatian |
Selecteert de Microsoft stemming tokenizer voor Kroatisch. |
| czech |
Selecteert de Microsoft stemming tokenizer voor Tsjechisch. |
| danish |
Selecteert de Microsoft stemtokenizer voor Deens. |
| dutch |
Kiest de Microsoft stemming tokenizer voor Nederlands. |
| english |
Selecteert de Microsoft stemming tokenizer voor Engels. |
| estonian |
Selecteert de Microsoft stemming tokenizer voor Ests. |
| finnish |
Selecteert de Microsoft stemming tokenizer voor Fins. |
| french |
Selecteert de Microsoft stemming tokenizer voor Frans. |
| german |
Kiest de Microsoft stemtokenizer voor Duits. |
| greek |
Selecteert de Microsoft stemtokenizer voor Grieks. |
| gujarati |
Kiest de Microsoft stemming tokenizer voor Gujarati. |
| hebrew |
Selecteert de Microsoft stemming tokenizer voor Hebreeuws. |
| hindi |
Selecteert de Microsoft stemtokenizer voor Hindi. |
| hungarian |
Selecteert de Microsoft stemtokenizer voor Hongaars. |
| icelandic |
Selecteert de Microsoft stemming tokenizer voor IJslands. |
| indonesian |
Selecteert de Microsoft stemming tokenizer voor Indonesië. |
| italian |
Selecteert de Microsoft stemming tokenizer voor Italiaans. |
| kannada |
Selecteert de Microsoft stemming tokenizer voor Kannada. |
| latvian |
Selecteert de Microsoft stemming tokenizer voor Lets. |
| lithuanian |
Selecteert de Microsoft stemming tokenizer voor Litouws. |
| malay |
Selecteert de Microsoft stemming tokenizer voor Maleis. |
| malayalam |
Selecteert de Microsoft stemming tokenizer voor Malayalam. |
| marathi |
Selecteert de Microsoft stemming tokenizer voor Marathi. |
| norwegianBokmaal |
Selecteert de Microsoft stemming tokenizer voor Noors (Bokmül). |
| polish |
Selecteert de Microsoft stemtokenizer voor Pools. |
| portuguese |
Kiest de Microsoft stemtokenizer voor Portugees. |
| portugueseBrazilian |
Selecteert de Microsoft stemming tokenizer voor Portugees (Brazilië). |
| punjabi |
Selecteert de Microsoft stemming tokenizer voor Punjabi. |
| romanian |
Selecteert de Microsoft stemming tokenizer voor Roemeens. |
| russian |
Selecteert de Microsoft stem-tokenizer voor Russisch. |
| serbianCyrillic |
Selecteert de Microsoft stemming tokenizer voor Servisch (Cyrillisch). |
| serbianLatin |
Selecteert de Microsoft stemming tokenizer voor Servisch (Latijn). |
| slovak |
Selecteert de Microsoft stemtokenizer voor Slowaaks. |
| slovenian |
Selecteert de Microsoft stemming tokenizer voor Sloveens. |
| spanish |
Selecteert de Microsoft stemming tokenizer voor Spaans. |
| swedish |
Selecteert de Microsoft stemtokenizer voor Zweeds. |
| tamil |
Kiest de Microsoft stemming tokenizer voor Tamil. |
| telugu |
Selecteert de Microsoft stemming tokenizer voor Telugu. |
| turkish |
Kiest de Microsoft stemming tokenizer voor Turks. |
| ukrainian |
Kiest de Microsoft stemming tokenizer voor Oekraïens. |
| urdu |
Selecteert de Microsoft stemtokenizer voor Urdu. |
MicrosoftTokenizerLanguage
Geeft een lijst van de talen die door de Microsoft-taaltokenizer worden ondersteund.
| Waarde | Description |
|---|---|
| bangla |
Selecteert de Microsoft-tokenizer voor Bengaals. |
| bulgarian |
Selecteert de Microsoft tokenizer voor Bulgaars. |
| catalan |
Selecteert de Microsoft-tokenizer voor Catalaans. |
| chineseSimplified |
Selecteert de Microsoft tokenizer voor Chinees (vereenvoudigd). |
| chineseTraditional |
Selecteert de Microsoft-tokenizer voor Chinees (traditioneel). |
| croatian |
Selecteert de Microsoft-tokenizer voor het Kroatisch. |
| czech |
Selecteert de Microsoft-tokenizer voor Tsjechisch. |
| danish |
Selecteert de Microsoft tokenizer voor Deens. |
| dutch |
Selecteert de Microsoft tokenizer voor Nederlands. |
| english |
Selecteert de Microsoft tokenizer voor Engels. |
| french |
Selecteert de Microsoft-tokenizer voor Frans. |
| german |
Selecteert de Microsoft-tokenizer voor Duits. |
| greek |
Kiest de Microsoft-tokenizer voor Grieks. |
| gujarati |
Selecteert de Microsoft-tokenizer voor Gujarati. |
| hindi |
Selecteert de Microsoft-tokenizer voor Hindi. |
| icelandic |
Selecteert de Microsoft tokenizer voor IJslands. |
| indonesian |
Selecteert de Microsoft tokenizer voor Indonesisch. |
| italian |
Selecteert de Microsoft-tokenizer voor Italiaans. |
| japanese |
Selecteert de Microsoft tokenizer voor Japans. |
| kannada |
Selecteert de Microsoft-tokenizer voor Kannada. |
| korean |
Selecteert de Microsoft-tokenizer voor Koreaans. |
| malay |
Selecteert de Microsoft-tokenizer voor Maleis. |
| malayalam |
Selecteert de Microsoft-tokenizer voor Malayalam. |
| marathi |
Selecteert de Microsoft-tokenizer voor Marathi. |
| norwegianBokmaal |
Selecteert de Microsoft tokenizer voor Noors (Bokmül). |
| polish |
Selecteert de Microsoft-tokenizer voor Pools. |
| portuguese |
Selecteert de Microsoft tokenizer voor Portugees. |
| portugueseBrazilian |
Selecteert de Microsoft-tokenizer voor Portugees (Brazilië). |
| punjabi |
Selecteert de Microsoft tokenizer voor Punjabi. |
| romanian |
Selecteert de Microsoft tokenizer voor Roemeens. |
| russian |
Selecteert de Microsoft-tokenizer voor Russisch. |
| serbianCyrillic |
Selecteert de Microsoft tokenizer voor Servisch (Cyrillisch). |
| serbianLatin |
Selecteert de Microsoft-tokenizer voor Servisch (Latijn). |
| slovenian |
Selecteert de Microsoft tokenizer voor Sloveens. |
| spanish |
Selecteert de Microsoft-tokenizer voor Spaans. |
| swedish |
Selecteert de Microsoft-tokenizer voor het Zweeds. |
| tamil |
Selecteert de Microsoft-tokenizer voor Tamil. |
| telugu |
Selecteert de Microsoft-tokenizer voor Telugu. |
| thai |
Selecteert de Microsoft tokenizer voor Thais. |
| ukrainian |
Selecteert de Microsoft-tokenizer voor Oekraïens. |
| urdu |
Selecteert de Microsoft-tokenizer voor Urdu. |
| vietnamese |
Kiest de Microsoft-tokenizer voor Vietnamees. |
NGramTokenFilter
Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxGram |
integer (int32) |
2 |
De maximale lengte n-gram. De standaardwaarde is 2. |
| minGram |
integer (int32) |
1 |
De minimale lengte n-gram. De standaardwaarde is 1. Moet kleiner zijn dan de waarde van maxGram. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
NGramTokenFilterV2
Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
NGramTokenizer
Hiermee wordt de invoer in n-grammen van de opgegeven grootte(n) tokenizes. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| tokenChars |
Tekenklassen om in de tokens te blijven. |
PathHierarchyTokenizerV2
Tokenizer voor pad-achtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| delimiter |
string maxLength: 1 |
/ |
Het scheidingsteken dat moet worden gebruikt. De standaardwaarde is '/'. |
| maxTokenLength |
integer (int32) maximum: 300 |
300 |
De maximale tokenlengte. Standaard en maximum is 300. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| replacement |
string maxLength: 1 |
/ |
Een waarde die, indien ingesteld, het scheidingsteken vervangt. De standaardwaarde is '/'. |
| reverse |
boolean |
False |
Een waarde die aangeeft of tokens in omgekeerde volgorde moeten worden gegenereerd. De standaardwaarde is vals. |
| skip |
integer (int32) |
0 |
Het aantal initiële tokens dat moet worden overgeslagen. De standaardwaarde is 0. |
PatternAnalyzer
Scheidt tekst flexibel in termen via een normaal expressiepatroon. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| flags |
string |
Reguliere expressie-vlaggen, gespecificeerd als een '|' gescheiden string van RegexFlags-waarden. |
|
| lowercase |
boolean |
True |
Een waarde die aangeeft of termen in kleine letters moeten worden gebruikt. De standaardwaarde is waar. |
| name |
string |
De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| pattern |
string |
\W+ |
Een patroon voor reguliere expressies om tokenscheidingstekens te koppelen. Standaard is een expressie die overeenkomt met een of meer niet-woordtekens. |
| stopwords |
string[] |
Een lijst met stopwoorden. |
PatternCaptureTokenFilter
Gebruikt Java-regexes om meerdere tokens te verzenden: één voor elke capturegroep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| patterns |
string[] |
Een lijst met patronen die overeenkomen met elk token. |
|
| preserveOriginal |
boolean |
True |
Een waarde die aangeeft of het oorspronkelijke token moet worden geretourneerd, zelfs als een van de patronen overeenkomt. De standaardwaarde is waar. |
PatternReplaceCharFilter
Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| name |
string |
De naam van het tekenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
| pattern |
string |
Een normaal expressiepatroon. |
| replacement |
string |
De vervangende tekst. |
PatternReplaceTokenFilter
Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
| pattern |
string |
Een normaal expressiepatroon. |
| replacement |
string |
De vervangende tekst. |
PatternTokenizer
Tokenizer die gebruikmaakt van regex-patroon dat overeenkomt met het samenstellen van afzonderlijke tokens. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| flags |
string |
Reguliere expressie-vlaggen, gespecificeerd als een '|' gescheiden string van RegexFlags-waarden. |
|
| group |
integer (int32) |
-1 |
De op nul gebaseerde ordinaal van de overeenkomende groep in het patroon van de reguliere expressie om in tokens te extraheren. Gebruik -1 als u het hele patroon wilt gebruiken om de invoer op te splitsen in tokens, ongeacht de overeenkomende groepen. De standaardwaarde is -1. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| pattern |
string |
\W+ |
Een patroon voor reguliere expressies om tokenscheidingstekens te koppelen. Standaard is een expressie die overeenkomt met een of meer niet-woordtekens. |
PhoneticEncoder
Identificeert het type fonetische encoder dat moet worden gebruikt met een PhoneticTokenFilter.
| Waarde | Description |
|---|---|
| metaphone |
Codeert een token in een metafoonwaarde. |
| doubleMetaphone |
Codeert een token in een dubbele metafoonwaarde. |
| soundex |
Codeert een token in een Soundex-waarde. |
| refinedSoundex |
Codeert een token in een Refined Soundex-waarde. |
| caverphone1 |
Codeert een token in een Caverphone 1.0-waarde. |
| caverphone2 |
Codeert een token in een Caverphone 2.0-waarde. |
| cologne |
Codeert een token in een Fonetische waarde van Keulen. |
| nysiis |
Codeert een token in een NYSIIS-waarde. |
| koelnerPhonetik |
Codeert een token met behulp van het Kölner Phonetik-algoritme. |
| haasePhonetik |
Codeert een token met behulp van de Haase-verfijning van het Kölner Phonetik-algoritme. |
| beiderMorse |
Codeert een token in een Beider-Morse waarde. |
PhoneticTokenFilter
Tokens maken voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| encoder | metaphone |
De fonetische encoder die moet worden gebruikt. De standaardwaarde is 'metaphone'. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| replace |
boolean |
True |
Een waarde die aangeeft of gecodeerde tokens oorspronkelijke tokens moeten vervangen. Als dit onwaar is, worden gecodeerde tokens toegevoegd als synoniemen. De standaardwaarde is waar. |
Prefer
Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd.
| Waarde | Description |
|---|---|
| return=representation |
RankingOrder
Vertegenwoordigt de score die moet worden gebruikt voor de sorteervolgorde van documenten.
| Waarde | Description |
|---|---|
| BoostedRerankerScore |
Stelt de sorteervolgorde in als BoostedRerankerScore |
| RerankerScore |
Stelt de sorteervolgorde in als ReRankerScore |
RescoringOptions
Bevat de opties voor het wijzigen van het formaat.
| Name | Type | Default value | Description |
|---|---|---|---|
| defaultOversampling |
number (double) |
Standaardoversampling-factor. Oversampling haalt een grotere set potentiële documenten op om het resolutieverlies als gevolg van kwantisatie te compenseren. Dit verhoogt de set resultaten die opnieuw worden gescoord op vectoren met volledige precisie. De minimumwaarde is 1, wat betekent dat er geen oversampling (1x) is. Deze parameter kan alleen worden ingesteld als 'enableRescoring' waar is. Hogere waarden verbeteren terughalen ten koste van latentie. |
|
| enableRescoring |
boolean |
True |
Als deze optie is ingesteld op true, worden de similariteitsscores na de eerste zoekopdracht op de gecomprimeerde vectoren opnieuw berekend met behulp van de vectoren met volledige precisie. Hierdoor wordt het intrekken verbeterd ten koste van latentie. |
| rescoreStorageMethod |
enum:
|
preserveOriginals |
Hiermee bepaalt u de opslagmethode voor originele vectoren. Deze instelling is onveranderlijk. |
ScalarQuantizationCompression
Bevat configuratieopties die specifiek zijn voor de scalaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's.
| Name | Type | Description |
|---|---|---|
| kind |
string:
scalar |
Type VectorSearchCompressie. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke configuratie. |
| rescoringOptions |
Bevat de opties voor het wijzigen van het formaat. |
|
| scalarQuantizationParameters |
Bevat de parameters die specifiek zijn voor Scalaire kwantisatie. |
|
| truncationDimension |
integer (int32) |
Het aantal dimensies waaraan de vectoren moeten worden afgekapt. Het afkappen van de vectoren vermindert de grootte van de vectoren en de hoeveelheid gegevens die tijdens de zoekopdracht moet worden overgedragen. Dit kan opslagkosten besparen en de zoekprestaties verbeteren ten koste van terugroepen. Deze mag alleen worden gebruikt voor insluitingen die zijn getraind met Matryoshka Representation Learning (MRL), zoals OpenAI text-embedding-3-large (klein). De standaardwaarde is null, wat betekent dat er geen afkapping is. |
ScalarQuantizationParameters
Bevat de parameters die specifiek zijn voor Scalaire kwantisatie.
| Name | Type | Description |
|---|---|---|
| quantizedDataType |
Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden. |
ScoringFunctionAggregation
Definieert de aggregatiefunctie die wordt gebruikt om de resultaten van alle scorefuncties in een scoreprofiel te combineren.
| Waarde | Description |
|---|---|
| sum |
Verhoog de scores met de som van alle resultaten van de scorefunctie. |
| average |
Verhoog de scores met het gemiddelde van alle resultaten van de scorefunctie. |
| minimum |
Verhoog de scores met het minimum van alle resultaten van de scorefunctie. |
| maximum |
Verhoog de scores met het maximum van alle resultaten van de scorefunctie. |
| firstMatching |
Verhoog de scores met behulp van de eerste toepasselijke scorefunctie in het scoreprofiel. |
| product |
Verhoog de scores door het product van alle resultaten van de scorefunctie. |
ScoringFunctionInterpolation
Definieert de functie die wordt gebruikt om scoreverhoging te interpoleren in een reeks documenten.
| Waarde | Description |
|---|---|
| linear |
Verhoogt de scores met een lineair afnemende hoeveelheid. Dit is de standaardinterpolatie voor scorefuncties. |
| constant |
Verhoogt de scores met een constante factor. |
| quadratic |
Verhoogt scores met een hoeveelheid die kwadratisch afneemt. Boosts nemen langzaam af voor hogere scores en sneller naarmate de scores afnemen. Deze interpolatieoptie is niet toegestaan in functies voor het scoren van tags. |
| logarithmic |
Verhoogt de scores met een hoeveelheid die logaritmisch afneemt. Boosts nemen snel af voor hogere scores en langzamer naarmate de scores afnemen. Deze interpolatieoptie is niet toegestaan in functies voor het scoren van tags. |
ScoringProfile
Definieert parameters voor een zoekindex die van invloed zijn op scoren in zoekquery's.
| Name | Type | Description |
|---|---|---|
| functionAggregation |
Een waarde die aangeeft hoe de resultaten van individuele scorefuncties moeten worden gecombineerd. Staat standaard op "Som". Genegeerd als er geen scorefuncties zijn. |
|
| functions | ScoringFunction[]: |
Het verzamelen van functies die van invloed zijn op het scoren van documenten. |
| name |
string |
De naam van het scoreprofiel. |
| text |
Parameters die de score verhogen op basis van tekstovereenkomsten in bepaalde indexvelden. |
SearchField
Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.
| Name | Type | Description |
|---|---|---|
| analyzer |
De naam van de analyse die moet worden gebruikt voor het veld. Deze optie kan alleen worden gebruikt met doorzoekbare velden en kan niet samen met searchAnalyzer of indexAnalyzer worden ingesteld. Zodra de analyse is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden. |
|
| dimensions |
integer (int32) minimum: 2maximum: 4096 |
De dimensionaliteit van het vectorveld. |
| facetable |
boolean |
Een waarde die aangeeft of het veld moet worden verwezen in facetquery's. Meestal gebruikt in een presentatie van zoekresultaten met hit count per categorie (bijvoorbeeld zoeken naar digitale camera's en treffers per merk, per megapixel, prijs, enzovoort). Deze eigenschap moet null zijn voor complexe velden. Velden van het type Edm.GeographyPoint of Collection(Edm.GeographyPoint) kunnen niet worden gezien. De standaardinstelling geldt voor alle andere eenvoudige velden. |
| fields |
Een lijst met subvelden als dit een veld is van het type Edm.ComplexType of Collection(Edm.ComplexType). Moet null of leeg zijn voor eenvoudige velden. |
|
| filterable |
boolean |
Een waarde die aangeeft of het veld moet worden verwezen in $filter query's. filterbaar verschilt van doorzoekbaar in de manier waarop tekenreeksen worden verwerkt. Velden van het type Edm.String of Collection(Edm.String) die filterbaar zijn, ondergaan geen woordbreking, dus vergelijkingen zijn alleen voor exacte overeenkomsten. Als u een dergelijk veld bijvoorbeeld instelt op 'zonnige dag', vindt $filter=f eq 'sunny' geen overeenkomsten, maar $filter=f eq 'sunny day'. Deze eigenschap moet null zijn voor complexe velden. De standaardinstelling is waar voor eenvoudige velden en null voor complexe velden. |
| indexAnalyzer |
De naam van de analyse die wordt gebruikt bij het indexeren van het veld. Deze optie kan alleen worden gebruikt met doorzoekbare velden. Deze moet samen met searchAnalyzer worden ingesteld en kan niet samen met de analyseoptie worden ingesteld. Deze eigenschap kan niet worden ingesteld op de naam van een taalanalyse; gebruik in plaats daarvan de eigenschap Analyzer als u een taalanalyse nodig hebt. Zodra de analyse is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden. |
|
| key |
boolean |
Een waarde die aangeeft of het veld documenten in de index uniek identificeert. Precies één veld op het hoogste niveau in elke index moet worden gekozen als het sleutelveld en moet van het type Edm.String zijn. Sleutelvelden kunnen worden gebruikt om documenten rechtstreeks op te zoeken en specifieke documenten bij te werken of te verwijderen. De standaardinstelling is onwaar voor eenvoudige velden en null voor complexe velden. |
| name |
string |
De naam van het veld, die uniek moet zijn binnen de veldenverzameling van het index- of bovenliggende veld. |
| normalizer |
De naam van de normalizer die voor het veld moet worden gebruikt. Deze optie kan alleen worden gebruikt met velden waarvoor filterbaar, sorteerbaar of faceteerbaar is ingeschakeld. Als de normalizer eenmaal is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden. |
|
| retrievable |
boolean |
Een waarde die aangeeft of het veld kan worden geretourneerd in een zoekresultaat. U kunt deze optie uitschakelen als u een veld (bijvoorbeeld marge) wilt gebruiken als filter-, sorteer- of scoremechanisme, maar niet wilt dat het veld zichtbaar is voor de eindgebruiker. Deze eigenschap moet waar zijn voor sleutelvelden en moet nul zijn voor complexe velden. Deze eigenschap kan worden gewijzigd voor bestaande velden. Als u deze eigenschap inschakelt, neemt de opslagvereisten voor de index niet toe. De standaardinstelling is true voor eenvoudige velden, false voor vectorvelden en null voor complexe velden. |
| searchAnalyzer |
De naam van de analyse die tijdens het zoeken naar het veld wordt gebruikt. Deze optie kan alleen worden gebruikt met doorzoekbare velden. Het moet samen met indexAnalyzer worden ingesteld en het kan niet samen met de analyseoptie worden ingesteld. Deze eigenschap kan niet worden ingesteld op de naam van een taalanalyse; gebruik in plaats daarvan de eigenschap Analyzer als u een taalanalyse nodig hebt. Deze analyse kan worden bijgewerkt op een bestaand veld. Moet null zijn voor complexe velden. |
|
| searchable |
boolean |
Een waarde die aangeeft of het veld doorzoekbaar is in volledige tekst. Dit betekent dat het een analyse ondergaat, zoals woordbreking tijdens het indexeren. Als u een doorzoekbaar veld instelt op een waarde zoals 'zonnige dag', wordt het intern gesplitst in de afzonderlijke tokens 'zonnig' en 'dag'. Hiermee kunt u zoeken in volledige tekst naar deze termen. Velden van het type Edm.String of Collection(Edm.String) kunnen standaard worden doorzocht. Deze eigenschap moet false zijn voor eenvoudige velden van andere gegevenstypen die geen tekenreeks bevatten en moet null zijn voor complexe velden. Opmerking: doorzoekbare velden verbruiken extra ruimte in uw index om te voorzien in extra tokenized versies van de veldwaarde voor zoekopdrachten in volledige tekst. Als u ruimte wilt besparen in uw index en u geen veld nodig hebt om te worden opgenomen in zoekopdrachten, stelt u doorzoekbaar in op onwaar. |
| sortable |
boolean |
Een waarde die aangeeft of het veld moet worden verwezen in $orderby expressies. Standaard sorteert de zoekmachine resultaten op score, maar in veel ervaringen willen gebruikers sorteren op velden in de documenten. Een eenvoudig veld kan alleen worden gesorteerd als het één waarde heeft (het heeft één waarde in het bereik van het bovenliggende document). Eenvoudige verzamelingsvelden kunnen niet worden gesorteerd, omdat ze meerdere waarden hebben. Eenvoudige subvelden van complexe verzamelingen zijn ook meerdere waarden en kunnen daarom niet worden gesorteerd. Dit is waar, of het nu een direct bovenliggend veld of een voorouderveld is dat de complexe verzameling is. Complexe velden kunnen niet worden gesorteerd en de sorteerbare eigenschap moet null zijn voor dergelijke velden. De standaardinstelling voor sorteerbaar is waar voor enkelvoudige enkelvoudige velden, false voor enkelvoudige velden en null voor complexe velden. |
| stored |
boolean |
Een onveranderbare waarde die aangeeft of het veld afzonderlijk op de schijf wordt bewaard om in een zoekresultaat te worden geretourneerd. U kunt deze optie uitschakelen als u niet van plan bent om de inhoud van het veld in een zoekantwoord te retourneren om opslagoverhead op te slaan. Dit kan alleen worden ingesteld tijdens het maken van de index en alleen voor vectorvelden. Deze eigenschap kan niet worden gewijzigd voor bestaande velden of ingesteld als onwaar voor nieuwe velden. Als deze eigenschap is ingesteld als onwaar, moet de eigenschap 'opvraagbaar' ook op onwaar worden gezet. Deze eigenschap moet true of unset zijn voor sleutelvelden, voor nieuwe velden en voor niet-vectorvelden en moet null zijn voor complexe velden. Als u deze eigenschap uitschakelt, worden de opslagvereisten voor indexen verminderd. De standaardwaarde is waar voor vectorvelden. |
| synonymMaps |
string[] |
Een lijst met de namen van synoniemenkaarten die aan dit veld gekoppeld moeten worden. Deze optie kan alleen worden gebruikt met doorzoekbare velden. Op dit moment wordt slechts één synoniemenkaart per veld ondersteund. Als u een synoniemtoewijzing toewijst aan een veld, zorgt u ervoor dat querytermen die gericht zijn op dat veld tijdens query's worden uitgebreid met behulp van de regels in de synoniementoewijzing. Dit kenmerk kan worden gewijzigd voor bestaande velden. Moet null of een lege verzameling zijn voor complexe velden. |
| type |
Het gegevenstype van het veld. |
|
| vectorEncoding |
De coderingsindeling om de inhoud van het veld te interpreteren. |
|
| vectorSearchProfile |
string |
De naam van het vectorzoekprofiel dat het algoritme en vectorizer specificeert dat moet worden gebruikt bij het doorzoeken van het vectorveld. |
SearchFieldDataType
Definieert het gegevenstype van een veld in een zoekindex.
| Waarde | Description |
|---|---|
| Edm.String |
Geeft aan dat een veld een tekenreeks bevat. |
| Edm.Int32 |
Geeft aan dat een veld een 32-bits geheel getal bevat dat is ondertekend. |
| Edm.Int64 |
Geeft aan dat een veld een 64-bits geheel getal bevat dat is ondertekend. |
| Edm.Double |
Geeft aan dat een veld een IEEE-getal met dubbele precisie bevat. |
| Edm.Boolean |
Geeft aan dat een veld een Booleaanse waarde (waar of onwaar) bevat. |
| Edm.DateTimeOffset |
Geeft aan dat een veld een datum/tijd-waarde bevat, inclusief tijdzonegegevens. |
| Edm.GeographyPoint |
Geeft aan dat een veld een geografische locatie bevat in termen van lengtegraad en breedtegraad. |
| Edm.ComplexType |
Geeft aan dat een veld een of meer complexe objecten bevat die op zijn beurt subvelden van andere typen hebben. |
| Edm.Single |
Geeft aan dat een veld een drijvendekommagetal met één precisie bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Single). |
| Edm.Half |
Geeft aan dat een veld een drijvendekommagetal met halve precisie bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Half). |
| Edm.Int16 |
Geeft aan dat een veld een 16-bits geheel getal bevat dat is ondertekend. Dit is alleen geldig wanneer deze wordt gebruikt met Collection(Edm.Int16). |
| Edm.SByte |
Hiermee wordt aangegeven dat een veld een 8-bits geheel getal bevat. Dit is alleen geldig wanneer deze wordt gebruikt met Collection(Edm.SByte). |
| Edm.Byte |
Geeft aan dat een veld een 8-bits geheel getal zonder teken bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Byte). |
SearchIndex
Vertegenwoordigt een definitie van een zoekindex, waarin de velden en het zoekgedrag van een index worden beschreven.
| Name | Type | Description |
|---|---|---|
| @odata.etag |
string |
De ETag van de index. |
| analyzers | LexicalAnalyzer[]: |
De analyses voor de index. |
| charFilters | CharFilter[]: |
Het teken filtert voor de index. |
| corsOptions |
Opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor de index. |
|
| defaultScoringProfile |
string |
De naam van het scoreprofiel dat moet worden gebruikt als er geen is opgegeven in de query. Als deze eigenschap niet is ingesteld en er geen scoreprofiel is opgegeven in de query, wordt standaardscore (tf-idf) gebruikt. |
| description |
string |
De beschrijving van de index. |
| encryptionKey |
Een beschrijving van een versleutelingssleutel die u in Azure Key Vault maakt. Deze sleutel wordt gebruikt om een extra niveau van versleuteling in rust te bieden voor je data wanneer je volledige zekerheid wilt dat niemand, zelfs Microsoft niet, je data kan ontsleutelen. Zodra u uw gegevens hebt versleuteld, blijven deze altijd versleuteld. De zoekservice negeert pogingen om deze eigenschap op null in te stellen. U kunt deze eigenschap indien nodig wijzigen als u uw versleutelingssleutel wilt draaien; Uw gegevens worden niet beïnvloed. Versleuteling met door de klant beheerde sleutels is niet beschikbaar voor gratis zoekservices en is alleen beschikbaar voor betaalde services die zijn gemaakt op of na 1 januari 2019. |
|
| fields |
De velden van de index. |
|
| name |
string |
De naam van de index. |
| normalizers | LexicalNormalizer[]: |
De normalizers voor de index. |
| scoringProfiles |
De scoreprofielen voor de index. |
|
| semantic |
Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden. |
|
| similarity | SimilarityAlgorithm: |
Het type gelijkenis-algoritme dat moet worden gebruikt bij het scoren en rangschiken van de documenten die overeenkomen met een zoekquery. Het gelijkenis-algoritme kan alleen worden gedefinieerd tijdens het maken van de index en kan niet worden gewijzigd in bestaande indexen. Als null is, wordt het algoritme ClassicSimilarity gebruikt. |
| suggesters |
De suggesties voor de index. |
|
| tokenFilters |
TokenFilter[]:
|
Het tokenfiltert voor de index. |
| tokenizers | LexicalTokenizer[]: |
De tokenizers voor de index. |
| vectorSearch |
Bevat configuratieopties met betrekking tot vectorzoekopdrachten. |
SearchIndexerDataNoneIdentity
Hiermee wist u de identiteitseigenschap van een gegevensbron.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Een URI-fragment dat het type identiteit specificeert. |
SearchIndexerDataUserAssignedIdentity
Hiermee geeft u de identiteit op voor een gegevensbron die moet worden gebruikt.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Een URI-fragment dat het type identiteit specificeert. |
| userAssignedIdentity |
string |
De volledig gekwalificeerde Azure-resource-id van een door de gebruiker toegewezen beheerde identiteit, meestal in de vorm '/subscriptions/12345678-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId' die aan de zoekservice moet zijn toegewezen. |
SearchResourceEncryptionKey
Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt om inactieve gegevens, zoals indexen en synoniementoewijzingen, te versleutelen of te ontsleutelen.
| Name | Type | Description |
|---|---|---|
| accessCredentials.applicationId |
string |
Een AAD-toepassings-id waaraan de vereiste toegangsmachtigingen zijn verleend voor de Azure Key Vault die moet worden gebruikt bij het versleutelen van uw data-at-rest. De toepassings-id mag niet worden verward met de object-id voor uw AAD-toepassing. |
| accessCredentials.applicationSecret |
string |
De verificatiesleutel van de opgegeven AAD-toepassing. |
| identity | SearchIndexerDataIdentity: |
Een expliciete beheerde identiteit die moet worden gebruikt voor deze versleutelingssleutel. Als dit niet is opgegeven en de eigenschap toegangsreferenties null is, wordt de door het systeem toegewezen beheerde identiteit gebruikt. Bij het bijwerken van de resource, als de expliciete identiteit niet is opgegeven, blijft deze ongewijzigd. Als 'geen' is opgegeven, wordt de waarde van deze eigenschap gewist. |
| keyVaultKeyName |
string |
De naam van uw Azure Key Vault-sleutel die moet worden gebruikt om uw data-at-rest te versleutelen. |
| keyVaultKeyVersion |
string |
De versie van uw Azure Key Vault-sleutel die moet worden gebruikt om uw data-at-rest te versleutelen. |
| keyVaultUri |
string |
De URI van uw Azure Key Vault, ook wel DNS-naam genoemd, die de sleutel bevat die moet worden gebruikt voor het versleutelen van uw data-at-rest. Een voorbeeld van een URI kan |
SearchSuggester
Hiermee definieert u hoe de Suggestie-API moet worden toegepast op een groep velden in de index.
| Name | Type | Description |
|---|---|---|
| name |
string |
De naam van de suggestie. |
| searchMode |
enum:
analyzing |
Een waarde die de capaciteiten van de suggestie aangeeft. |
| sourceFields |
string[] |
De lijst met veldnamen waarop de suggestie van toepassing is. Elk veld moet doorzoekbaar zijn. |
SemanticConfiguration
Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden.
| Name | Type | Description |
|---|---|---|
| name |
string |
De naam van de semantische configuratie. |
| prioritizedFields |
Beschrijft de titel-, inhouds- en trefwoordvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Ten minste één van de drie subeigenschappen (titleField, prioriteerdeKeywordsFields en prioriteerdeContentFields) moet worden ingesteld. |
|
| rankingOrder |
Hiermee geeft u het scoretype op dat moet worden gebruikt voor de sorteervolgorde van de zoekresultaten. |
SemanticField
Een veld dat wordt gebruikt als onderdeel van de semantische configuratie.
| Name | Type | Description |
|---|---|---|
| fieldName |
string |
Bestandsnaam |
SemanticPrioritizedFields
Beschrijft de velden titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, hoogtepunten en antwoorden.
| Name | Type | Description |
|---|---|---|
| prioritizedContentFields |
Definieert de inhoudsvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Voor het beste resultaat moeten de geselecteerde velden tekst in natuurlijke taal bevatten. De volgorde van de velden in de matrix geeft hun prioriteit aan. Velden met een lagere prioriteit kunnen worden afgekapt als de inhoud lang is. |
|
| prioritizedKeywordsFields |
Definieert de trefwoordvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Voor het beste resultaat moeten de geselecteerde velden een lijst met trefwoorden bevatten. De volgorde van de velden in de matrix geeft hun prioriteit aan. Velden met een lagere prioriteit kunnen worden afgekapt als de inhoud lang is. |
|
| titleField |
Definieert het titelveld dat moet worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Als u geen titelveld in uw index heeft, laat u dit veld leeg. |
SemanticSearch
Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden.
| Name | Type | Description |
|---|---|---|
| configurations |
De semantische configuraties voor de index. |
|
| defaultConfiguration |
string |
Hiermee kunt u de naam van een standaard semantische configuratie in uw index instellen, waardoor het optioneel is om deze elke keer als queryparameter door te geven. |
ShingleTokenFilter
Hiermee maakt u combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| filterToken |
string |
_ |
De tekenreeks die moet worden ingevoegd voor elke positie waarop er geen token is. De standaardwaarde is een onderstrepingsteken ("_"). |
| maxShingleSize |
integer (int32) minimum: 2 |
2 |
De maximale shingle grootte. De standaard- en minimumwaarde is 2. |
| minShingleSize |
integer (int32) minimum: 2 |
2 |
De minimale shingle grootte. De standaard- en minimumwaarde is 2. Moet kleiner zijn dan de waarde van maxShingleSize. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| outputUnigrams |
boolean |
True |
Een waarde die aangeeft of de uitvoerstroom de invoertokens (unigrammen) en shingles bevat. De standaardwaarde is waar. |
| outputUnigramsIfNoShingles |
boolean |
False |
Een waarde die aangeeft of unigrammen moeten worden uitgevoerd voor die tijden waarop er geen shingles beschikbaar zijn. Deze eigenschap heeft voorrang wanneer outputUnigrams is ingesteld op false. De standaardwaarde is vals. |
| tokenSeparator |
string |
De tekenreeks die moet worden gebruikt bij het samenvoegen van aangrenzende tokens om een shingle te vormen. De standaardwaarde is één spatie (" "). |
SnowballTokenFilter
Een filter dat woorden stamt met behulp van een door Snowball gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| language |
De taal die moet worden gebruikt. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
SnowballTokenFilterLanguage
De taal die moet worden gebruikt voor een Snowball-tokenfilter.
| Waarde | Description |
|---|---|
| armenian |
Selecteert de Lucene Snowball stemming tokenizer voor Armeens. |
| basque |
Selecteert de Lucene Snowball stemming tokenizer voor Baskisch. |
| catalan |
Selecteert de Lucene Snowball stemming tokenizer voor het Catalaans. |
| danish |
Selecteert de Lucene Snowball stemming tokenizer voor Deens. |
| dutch |
Selecteert de Lucene Snowball stemming tokenizer voor Nederlands. |
| english |
Selecteert de Lucene Snowball stemming tokenizer voor Engels. |
| finnish |
Selecteert de Lucene Snowball stemming tokenizer voor Fins. |
| french |
Selecteert de Lucene Snowball stemming tokenizer voor Frans. |
| german |
Selecteert de Lucene Snowball stemming tokenizer voor Duits. |
| german2 |
Selecteert de Lucene Snowball stemming tokenizer die gebruikmaakt van het algoritme van de Duitse variant. |
| hungarian |
Selecteert de Lucene Snowball stemming tokenizer voor Hongaars. |
| italian |
Selecteert de Lucene Snowball stemming tokenizer voor Italiaans. |
| kp |
Selecteert de Lucene Snowball stemming tokenizer voor Nederlands die gebruikmaakt van het algoritme voor Kraaij-Pohlmann staming. |
| lovins |
Selecteert de Lucene Snowball stemming tokenizer voor Engels die gebruikmaakt van het Lovins staming-algoritme. |
| norwegian |
Selecteert de Lucene Snowball stemming tokenizer voor Noors. |
| porter |
Selecteert de Lucene Snowball stemming tokenizer voor Engels die gebruikmaakt van het Porter stamalgoritme. |
| portuguese |
Selecteert de Lucene Snowball stemming tokenizer voor Portugees. |
| romanian |
Selecteert de Lucene Snowball stemming tokenizer voor Roemeens. |
| russian |
Selecteert de Lucene Snowball stemming tokenizer voor Russisch. |
| spanish |
Selecteert de Lucene Snowball stemming tokenizer voor Spaans. |
| swedish |
Selecteert de Lucene Snowball stemming tokenizer voor Zweeds. |
| turkish |
Selecteert de Lucene Snowball stemming tokenizer voor Turks. |
StemmerOverrideTokenFilter
Biedt de mogelijkheid om andere stemmingsfilters te overschrijven met aangepaste stemming op basis van woordenlijst. Alle woordenlijstgestemde termen worden gemarkeerd als trefwoorden, zodat ze niet worden afgestemd met stemmers in de keten. Moet vóór stemmingsfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
| rules |
string[] |
Een lijst met stemregels in de volgende notatie: "word => stam", bijvoorbeeld: "ran => run". |
StemmerTokenFilter
Taalspecifiek stemmingsfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| language |
De taal die moet worden gebruikt. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
StemmerTokenFilterLanguage
De taal die moet worden gebruikt voor een stemmer token filter.
| Waarde | Description |
|---|---|
| arabic |
Selecteert de Lucene stemming tokenizer voor Arabisch. |
| armenian |
Selecteert de Lucene stemming tokenizer voor Armeens. |
| basque |
Selecteert de Lucene stemming tokenizer voor Baskisch. |
| brazilian |
Selecteert de Lucene stemming tokenizer voor Portugees (Brazilië). |
| bulgarian |
Selecteert de Lucene stemming tokenizer voor Bulgaars. |
| catalan |
Selecteert de Lucene stemming tokenizer voor het Catalaans. |
| czech |
Selecteert de Lucene stemming tokenizer voor Tsjechisch. |
| danish |
Selecteert de Lucene stemming tokenizer voor Deens. |
| dutch |
Selecteert de Lucene stemming tokenizer voor Nederlands. |
| dutchKp |
Selecteert de Lucene stemming tokenizer voor Nederlands die gebruikmaakt van het algoritme voor Kraaij-Pohlmann stemming. |
| english |
Selecteert de Lucene stemming tokenizer voor Engels. |
| lightEnglish |
Selecteert de Lucene stemming tokenizer voor Engels die lichte stemming doet. |
| minimalEnglish |
Selecteert de Lucene stemming tokenizer voor Engels die minimale stemming doet. |
| possessiveEnglish |
Selecteert de Lucene stamtokenizer voor Engels die achterblijvende bezittelijke voornaamwoorden uit woorden verwijdert. |
| porter2 |
Selecteert de Lucene stemming tokenizer voor Engels die gebruikmaakt van het Porter2 stamalgoritme. |
| lovins |
Selecteert de Lucene stemming tokenizer voor Engels die gebruikmaakt van het Lovins staming-algoritme. |
| finnish |
Selecteert de Lucene stemming tokenizer voor Fins. |
| lightFinnish |
Selecteert de Lucene stemming tokenizer voor Fins die lichte stemming doet. |
| french |
Selecteert de Lucene stemming tokenizer voor Frans. |
| lightFrench |
Selecteert de Lucene stemming tokenizer voor Frans die lichte stemming doet. |
| minimalFrench |
Selecteert de Lucene stemming tokenizer voor Frans die minimale stemming doet. |
| galician |
Selecteert de Lucene stemming tokenizer voor Galicisch. |
| minimalGalician |
Selecteert de Lucene stemming tokenizer voor Galicisch die minimale stamming doet. |
| german |
Selecteert de Lucene stemming tokenizer voor Duits. |
| german2 |
Selecteert de Lucene stem tokenizer die gebruikmaakt van het algoritme van de Duitse variant. |
| lightGerman |
Selecteert de Lucene stemming tokenizer voor Duits die lichte stamming doet. |
| minimalGerman |
Selecteert de Lucene stemming tokenizer voor Duits die minimale stemming doet. |
| greek |
Selecteert de Lucene stemming tokenizer voor Grieks. |
| hindi |
Selecteert de Lucene stemming tokenizer voor Hindi. |
| hungarian |
Selecteert de Lucene stemming tokenizer voor Hongaars. |
| lightHungarian |
Selecteert de Lucene stemming tokenizer voor Hongaars die lichte stemming doet. |
| indonesian |
Selecteert de Lucene stemming tokenizer voor Indonesisch. |
| irish |
Selecteert de Lucene stemming tokenizer voor Iers. |
| italian |
Selecteert de Lucene stemming tokenizer voor Italiaans. |
| lightItalian |
Selecteert de Lucene stemming tokenizer voor Italiaans die lichte stemming doet. |
| sorani |
Selecteert de Lucene stemming tokenizer voor Sorani. |
| latvian |
Selecteert de Lucene stemming tokenizer voor Lets. |
| norwegian |
Kiest de Lucene stemming tokenizer voor Noors (Bokmül). |
| lightNorwegian |
Kiest de Lucene stemming tokenizer voor Norwegian (Bokmül) die licht stemming doet. |
| minimalNorwegian |
Selecteert de Lucene stemming tokenizer voor Norwegian (Bokmül) die minimale stemming doet. |
| lightNynorsk |
Selecteert de Lucene stemming tokenizer voor Noors (Nynorsk) die lichte stemming doet. |
| minimalNynorsk |
Selecteert de Lucene stemming tokenizer voor Noors (Nynorsk) die minimale stemming uitvoert. |
| portuguese |
Selecteert de Lucene stemming tokenizer voor Portugees. |
| lightPortuguese |
Selecteert de Lucene stemming tokenizer voor Portugees die lichte stamming doet. |
| minimalPortuguese |
Selecteert de Lucene stemming tokenizer voor Portugees die minimale stamming doet. |
| portugueseRslp |
Selecteert de Lucene stemming tokenizer voor Portugees die gebruikmaakt van het RSLP stamling-algoritme. |
| romanian |
Selecteert de Lucene stemming tokenizer voor Roemeens. |
| russian |
Selecteert de Lucene stemming tokenizer voor Russisch. |
| lightRussian |
Selecteert de Lucene stemming tokenizer voor Russisch die lichte stemming doet. |
| spanish |
Selecteert de Lucene stemming tokenizer voor Spaans. |
| lightSpanish |
Selecteert de Lucene stemming tokenizer voor Spaans die lichte stemming doet. |
| swedish |
Selecteert de Lucene stemming tokenizer voor Zweeds. |
| lightSwedish |
Selecteert de Lucene stemming tokenizer voor Zweeds die lichte stemming doet. |
| turkish |
Selecteert de Lucene stemming tokenizer voor Turks. |
StopAnalyzer
Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopworden toe. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
| name |
string |
De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
| stopwords |
string[] |
Een lijst met stopwoorden. |
StopwordsList
Identificeert een vooraf gedefinieerde lijst met taalspecifieke stopwoorden.
| Waarde | Description |
|---|---|
| arabic |
Selecteert de lijst met stopwoordjes voor Arabisch. |
| armenian |
Selecteert de lijst met stopwoorden voor Armeens. |
| basque |
Selecteert de lijst met stopwoordjes voor Baskisch. |
| brazilian |
Selecteert de lijst met stopwoordraadsels voor Portugees (Brazilië). |
| bulgarian |
Selecteert de lijst met stopwoordjes voor Bulgaars. |
| catalan |
Selecteert de lijst met stopwoordjes voor Catalaans. |
| czech |
Selecteert de lijst met stopwoordpen voor Tsjechisch. |
| danish |
Selecteert de lijst met stopwoordjes voor Deens. |
| dutch |
Selecteert de lijst met stopwoordraadsels voor Nederlands. |
| english |
Selecteert de lijst met stopwoordpen voor Engels. |
| finnish |
Hiermee selecteert u de lijst met stopwoordpen voor Fins. |
| french |
Selecteert de lijst met stopwoordjes voor Frans. |
| galician |
Selecteert de lijst met stopwoorden voor Galicisch. |
| german |
Selecteert de lijst met stopwoorden voor Duits. |
| greek |
Selecteert de lijst met stopwoordraadsels voor Grieks. |
| hindi |
Selecteert de lijst met stopwoorden voor Hindi. |
| hungarian |
Selecteert de lijst met stopwoordjes voor Hongaars. |
| indonesian |
Selecteert de lijst met stopwoordpen voor Indonesisch. |
| irish |
Selecteert de lijst met stopwoorden voor Iers. |
| italian |
Selecteert de lijst met stopwoorden voor Italiaans. |
| latvian |
Selecteert de lijst met stopwoordraadsels voor Lets. |
| norwegian |
Selecteert de lijst met stopwoordjes voor Noors. |
| persian |
Selecteert de lijst met stopwoorden voor Perzisch. |
| portuguese |
Selecteert de lijst met stopwoorden voor Portugees. |
| romanian |
Selecteert de lijst met stopwoordjes voor Roemeens. |
| russian |
Selecteert de lijst met stopwoorden voor Russisch. |
| sorani |
Selecteert de lijst met stopwoordpen voor Sorani. |
| spanish |
Selecteert de lijst met stopwoorden voor Spaans. |
| swedish |
Selecteert de lijst met stopwoordjes voor Zweeds. |
| thai |
Selecteert de lijst met stopwoordjes voor Thais. |
| turkish |
Selecteert de lijst met stopwoordjes voor Turks. |
StopwordsTokenFilter
Hiermee verwijdert u stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| ignoreCase |
boolean |
False |
Een waarde die aangeeft of hoofdlettergebruik moet worden genegeerd. Indien waar, worden alle woorden eerst geconverteerd naar kleine letters. De standaardwaarde is vals. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| removeTrailing |
boolean |
True |
Een waarde die aangeeft of de laatste zoekterm moet worden genegeerd als het een stopwoord is. De standaardwaarde is waar. |
| stopwords |
string[] |
De lijst met stopwoorden. Deze eigenschap en de eigenschap stopwords-lijst kunnen niet beide worden ingesteld. |
|
| stopwordsList | english |
Een vooraf gedefinieerde lijst met stopwoorden die moeten worden gebruikt. Deze eigenschap en de stopwords-eigenschap kunnen niet beide worden ingesteld. De standaardwaarde is Engels. |
SynonymTokenFilter
Komt overeen met synoniemen met één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| expand |
boolean |
True |
Een waarde die aangeeft of alle woorden in de lijst met synoniemen (als => notatie niet wordt gebruikt) aan elkaar worden toegewezen. Indien waar, worden alle woorden in de lijst met synoniemen (als => notatie niet gebruikt) aan elkaar toegewezen. De volgende lijst: ongelooflijk, ongelooflijk, fantastisch, geweldig is gelijk aan: ongelooflijk, ongelooflijk, fantastisch, geweldig => ongelooflijk, ongelooflijk, fantastisch, geweldig. Als onwaar, de volgende lijst: ongelooflijk, ongelooflijk, fantastisch, geweldig zal gelijk zijn aan: ongelooflijk, ongelooflijk, fantastisch, geweldig => ongelooflijk. De standaardwaarde is waar. |
| ignoreCase |
boolean |
False |
Een waarde die aangeeft of invoer in hoofdletters moet worden gevouwen voor overeenkomende waarden. De standaardwaarde is vals. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| synonyms |
string[] |
Een lijst met synoniemen in de volgende twee indelingen: 1. ongelooflijk, ongelooflijk, fantastisch => geweldig - alle termen aan de linkerkant van => symbool zullen worden vervangen door alle termen aan de rechterkant; 2. ongelooflijk, ongelooflijk, fantastisch, geweldig - door komma's gescheiden lijst met equivalente woorden. Stel de optie Uitvouwen in om te wijzigen hoe de lijst wordt weergegeven. |
TagScoringFunction
Definieert een functie waarmee scores van documenten worden verhoogd met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags.
| Name | Type | Description |
|---|---|---|
| boost |
number (double) |
Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0. |
| fieldName |
string |
De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie. |
| interpolation |
Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair. |
|
| tag |
Parameterwaarden voor de tagscorefunctie. |
|
| type |
string:
tag |
Type of ScoringFunction. |
TagScoringParameters
Biedt parameterwaarden voor een scorefunctie voor tags.
| Name | Type | Description |
|---|---|---|
| tagsParameter |
string |
De naam van de parameter die wordt doorgegeven in zoekopdrachten om de lijst met tags te specificeren die moeten worden vergeleken met het doelveld. |
TextWeights
Definieert gewichten voor indexvelden waarvoor overeenkomsten het scoren in zoekquery's moeten verhogen.
| Name | Type | Description |
|---|---|---|
| weights |
object |
Het woordenboek met gewichten per veld om de score van documenten te verbeteren. De sleutels zijn veldnamen en de waarden zijn de gewichten voor elk veld. |
TokenCharacterKind
Vertegenwoordigt klassen van tekens waarop een tokenfilter kan werken.
| Waarde | Description |
|---|---|
| letter |
Bewaart brieven in penningen. |
| digit |
Houdt cijfers in tokens. |
| whitespace |
Behoudt witruimte in tokens. |
| punctuation |
Houdt interpunctie in tokens. |
| symbol |
Bewaart symbolen in tokens. |
TokenFilterName
Definieert de namen van alle tokenfilters die door de zoekmachine worden ondersteund.
TruncateTokenFilter
Kapt de voorwaarden af tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| length |
integer (int32) maximum: 300 |
300 |
De lengte waarmee termen worden afgekapt. Standaard en maximum is 300. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
UaxUrlEmailTokenizer
Hiermee worden URL's en e-mailadressen als één token getokeniseerd. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. |
| name |
string |
De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
UniqueTokenFilter
Filtert tokens met dezelfde tekst als het vorige token eruit. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| onlyOnSamePosition |
boolean |
False |
Een waarde die aangeeft of duplicaten alleen op dezelfde positie moeten worden verwijderd. De standaardwaarde is vals. |
VectorEncodingFormat
Het coderingsformaat voor het interpreteren van de inhoud van vectorvelden.
| Waarde | Description |
|---|---|
| packedBit |
Coderingsindeling die bits vertegenwoordigt die zijn verpakt in een breder gegevenstype. |
VectorSearch
Bevat configuratieopties met betrekking tot vectorzoekopdrachten.
| Name | Type | Description |
|---|---|---|
| algorithms | VectorSearchAlgorithmConfiguration[]: |
Bevat configuratie-opties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren of opvragen. |
| compressions | VectorSearchCompression[]: |
Bevat configuratieopties die specifiek zijn voor de compressiemethode die wordt gebruikt tijdens het indexeren of uitvoeren van query's. |
| profiles |
Definieert combinaties van configuraties die moeten worden gebruikt met vectorzoekopdrachten. |
|
| vectorizers | VectorSearchVectorizer[]: |
Bevat configuratieopties voor het vectoriseren van tekstvectorquery's. |
VectorSearchAlgorithmKind
Het algoritme dat wordt gebruikt voor indexeren en opvragen.
| Waarde | Description |
|---|---|
| hnsw |
HNSW (Hierarchical Navigable Small World), een type bij benadering dichtstbijzijnde buren algoritme. |
| exhaustiveKnn |
Uitgebreid KNN-algoritme dat brute-force zoekopdrachten uitvoert. |
VectorSearchAlgorithmMetric
De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. Het wordt aanbevolen om dezelfde gelijkenismetriek te kiezen waarop het inbeddingsmodel is getraind.
| Waarde | Description |
|---|---|
| cosine |
Meet de hoek tussen vectoren om hun gelijkenis te kwantificeren, waarbij de grootte wordt genegeerd. Hoe kleiner de hoek, hoe dichter de gelijkenis. |
| euclidean |
Berekent de rechte lijnafstand tussen vectoren in een multidimensionale ruimte. Hoe kleiner de afstand, hoe dichter de gelijkenis. |
| dotProduct |
Berekent de som van elementengewijze producten om de uitlijning en grootte-gelijkenis te meten. Hoe groter en positiever, hoe dichter de gelijkenis. |
| hamming |
Alleen van toepassing op binaire gegevenstypen met bitpakketten. Bepaalt ongelijksoortigheid door verschillende posities in binaire vectoren te tellen. Hoe minder verschillen, hoe dichter de gelijkenis. |
VectorSearchCompressionKind
De compressiemethode die wordt gebruikt voor indexeren en query's.
| Waarde | Description |
|---|---|
| scalarQuantization |
Scalaire kwantisatie, een type compressiemethode. Bij scalaire kwantisatie worden de oorspronkelijke vectorwaarden gecomprimeerd tot een smaller type door elk onderdeel van een vector te discretiseren en vertegenwoordigen met behulp van een gereduceerde set gekwantiseerde waarden, waardoor de totale gegevensgrootte wordt verkleind. |
| binaryQuantization |
Binaire kwantisatie, een type compressiemethode. Bij binaire kwantisatie worden de oorspronkelijke vectorwaarden gecomprimeerd tot het smallere binaire type door elk onderdeel van een vector te discretiseren en weer te geven met behulp van binaire waarden, waardoor de totale gegevensgrootte wordt verkleind. |
VectorSearchCompressionTarget
Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.
| Waarde | Description |
|---|---|
| int8 |
8-bits teken geheel getal. |
VectorSearchProfile
Definieert een combinatie van configuraties die moeten worden gebruikt met vectorzoekopdrachten.
| Name | Type | Description |
|---|---|---|
| algorithm |
string |
De naam van de configuratie van het vectorzoekalgoritme die het algoritme en de optionele parameters specificeert. |
| compression |
string |
De naam van de configuratie van de compressiemethode waarmee de compressiemethode en optionele parameters worden opgegeven. |
| name |
string |
De naam die u wilt associëren met dit specifieke vectorzoekprofiel. |
| vectorizer |
string |
De naam van de vectorisatie die wordt geconfigureerd voor gebruik met vectorzoeken. |
VectorSearchVectorizerKind
De vectorisatiemethode die moet worden gebruikt tijdens de zoekopdracht.
| Waarde | Description |
|---|---|
| azureOpenAI |
Genereer insluitingen met behulp van een Azure OpenAI-resource tijdens het uitvoeren van query's. |
| customWebApi |
Genereer insluitingen met behulp van een aangepast webeindpunt tijdens de query. |
| aiServicesVision |
Genereer insluitingen voor een afbeelding of tekstinvoer tijdens de query met behulp van de Azure AI Services Vision Vectorize-API. |
| aml |
Genereer inbeddingen met behulp van een Azure Machine Learning-eindpunt dat is geïmplementeerd via de Azure AI Foundry Model Catalog op het moment van de query. |
WebApiVectorizer
Hiermee geeft u een door de gebruiker gedefinieerde vectorizer op voor het genereren van de vectorinsluiting van een queryreeks. Integratie van een externe vectorizer wordt bereikt met behulp van de aangepaste web-API-interface van een vaardighedenset.
| Name | Type | Description |
|---|---|---|
| customWebApiParameters |
Hiermee geeft u de eigenschappen op van de door de gebruiker gedefinieerde vectorizer. |
|
| kind |
string:
custom |
Type of VectorSearchVectorizer. |
| name |
string |
De naam die moet worden gekoppeld aan deze specifieke vectorisatiemethode. |
WebApiVectorizerParameters
Hiermee geeft u de eigenschappen voor het maken van verbinding met een door de gebruiker gedefinieerde vectorizer.
| Name | Type | Description |
|---|---|---|
| authIdentity | SearchIndexerDataIdentity: |
De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen. Als er een authResourceId is opgegeven en deze niet is opgegeven, wordt de door het systeem toegewezen beheerde identiteit gebruikt. Bij updates van de indexeerfunctie blijft de waarde ongewijzigd als de identiteit niet is opgegeven. Als deze optie is ingesteld op 'geen', wordt de waarde van deze eigenschap gewist. |
| authResourceId |
string |
Van toepassing op aangepaste endpoints die verbinding maken met externe code in een Azure-functie of een andere applicatie die de transformaties levert. Deze waarde moet de toepassings-id zijn die is gemaakt voor de functie of app wanneer deze is geregistreerd bij Azure Active Directory. Indien opgegeven, maakt de vectorisatie verbinding met de functie of app met behulp van een beheerde id (door het systeem of door de gebruiker toegewezen) van de zoekservice en het toegangstoken van de functie of app, waarbij deze waarde wordt gebruikt als resource-id voor het maken van het bereik van het toegangstoken. |
| httpHeaders |
object |
De headers die nodig zijn om het HTTP-verzoek te doen. |
| httpMethod |
string |
De methode voor het HTTP-verzoek. |
| timeout |
string (duration) |
De gewenste time-out voor de aanvraag. De standaardwaarde is 30 seconden. |
| uri |
string (uri) |
De URI van de web-API die de vectorizer levert. |
WordDelimiterTokenFilter
Splitst woorden in subwoorden en voert optionele transformaties uit voor subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.
| Name | Type | Default value | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
De discriminator voor afgeleide typen. |
|
| catenateAll |
boolean |
False |
Een waarde die aangeeft of alle subwoordonderdelen worden gekatoteerd. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure-Search-1' 'AzureSearch1'. De standaardwaarde is vals. |
| catenateNumbers |
boolean |
False |
Een waarde die aangeeft of maximale uitvoeringen van aantal delen worden gekataleerd. Als dit bijvoorbeeld is ingesteld op true, wordt '1-2' '12'. De standaardwaarde is vals. |
| catenateWords |
boolean |
False |
Een waarde die aangeeft of maximale uitvoeringen van woordonderdelen worden getaseerd. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure-Search' 'AzureSearch'. De standaardwaarde is vals. |
| generateNumberParts |
boolean |
True |
Een waarde die aangeeft of subwoorden voor getallen moeten worden gegenereerd. De standaardwaarde is waar. |
| generateWordParts |
boolean |
True |
Een waarde die aangeeft of deelwoorden moeten worden gegenereerd. Indien ingesteld, worden delen van woorden gegenereerd; bijvoorbeeld 'AzureSearch' wordt 'Azure' 'Search'. De standaardwaarde is waar. |
| name |
string |
De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten. |
|
| preserveOriginal |
boolean |
False |
Een waarde die aangeeft of oorspronkelijke woorden behouden blijven en worden toegevoegd aan de subwoordlijst. De standaardwaarde is vals. |
| protectedWords |
string[] |
Een lijst met tokens die moeten worden beschermd tegen scheidingstekens. |
|
| splitOnCaseChange |
boolean |
True |
Een waarde die aangeeft of woorden moeten worden gesplitst in caseChange. Als dit bijvoorbeeld is ingesteld op true, wordt 'AzureSearch' 'Azure' 'Search'. De standaardwaarde is waar. |
| splitOnNumerics |
boolean |
True |
Een waarde die aangeeft of u wilt splitsen op getallen. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure1Search' 'Azure' '1' 'Search'. De standaardwaarde is waar. |
| stemEnglishPossessive |
boolean |
True |
Een waarde die aangeeft of u achtervolgende ''s' voor elk subwoord wilt verwijderen. De standaardwaarde is waar. |