Indexes - Create
Crée un nouvel index de recherche.
POST {endpoint}/indexes?api-version=2026-04-01
Paramètres URI
| Nom | Dans | Obligatoire | Type | Description |
|---|---|---|---|---|
|
endpoint
|
path | True |
string (uri) |
URL du point de terminaison du service de recherche. |
|
api-version
|
query | True |
string minLength: 1 |
Version de l’API à utiliser pour cette opération. |
En-tête de la demande
| Nom | Obligatoire | Type | Description |
|---|---|---|---|
| Accept |
L’en-tête Accept. |
||
| x-ms-client-request-id |
string (uuid) |
Identificateur de chaîne opaque, globalement unique et généré par le client pour la requête. |
Corps de la demande
| Nom | Obligatoire | Type | Description |
|---|---|---|---|
| fields | True |
Champs de l’index. |
|
| name | True |
string |
Nom de l’index. |
| @odata.etag |
string |
ETag de l’index. |
|
| analyzers | LexicalAnalyzer[]: |
Analyseurs de l’index. |
|
| charFilters | CharFilter[]: |
Filtres de caractères pour l’index. |
|
| corsOptions |
Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index. |
||
| defaultScoringProfile |
string |
Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé. |
|
| description |
string |
Description de l’indice. |
|
| encryptionKey |
Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé sert à fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez être pleinement assuré que personne, pas même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement à l’aide de clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés à partir du 1er janvier 2019. |
||
| normalizers | LexicalNormalizer[]: |
Normaliseurs de l’index. |
|
| scoringProfiles |
Profils de scoring pour l’index. |
||
| semantic |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
||
| similarity | SimilarityAlgorithm: |
Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé. |
|
| suggesters |
Suggesteurs pour l’index. |
||
| tokenFilters |
TokenFilter[]:
|
Le jeton filtre l’index. |
|
| tokenizers | LexicalTokenizer[]: |
Les tokenizers de l’index. |
|
| vectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
Réponses
| Nom | Type | Description |
|---|---|---|
| 201 Created |
La requête a réussi et une nouvelle ressource a été créée en conséquence. |
|
| Other Status Codes |
Réponse d’erreur inattendue. |
Sécurité
api-key
Type:
apiKey
Dans:
header
OAuth2Auth
Type:
oauth2
Flux:
implicit
URL d’autorisation:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Étendues
| Nom | Description |
|---|---|
| https://search.azure.com/.default |
Exemples
SearchServiceCreateIndex
Exemple de requête
POST https://exampleservice.search.windows.net/indexes?api-version=2026-04-01
{
"name": "temp-example-index",
"description": "description",
"fields": [
{
"name": "id",
"type": "Edm.String",
"key": true,
"sortable": true
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 20,
"vectorSearchProfile": "config1"
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 10,
"vectorSearchProfile": "config2"
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 5,
"vectorSearchProfile": "config3"
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 5,
"vectorSearchProfile": "config3"
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 10,
"vectorSearchProfile": "config2"
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"retrievable": true,
"searchable": true,
"dimensions": 32,
"vectorSearchProfile": "config4"
},
{
"name": "name",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "description",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "standard.lucene"
},
{
"name": "category",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "ownerId",
"type": "Edm.String",
"retrievable": true,
"searchable": true,
"filterable": true,
"sortable": true,
"facetable": true,
"analyzer": "en.lucene"
},
{
"name": "price",
"type": "Edm.Double",
"retrievable": true,
"filterable": true,
"sortable": true,
"facetable": true
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"tag": {
"tagsParameter": "categoryTag"
},
"type": "tag",
"fieldName": "category",
"boost": 2
}
]
}
],
"defaultScoringProfile": "stringFieldBoost",
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
],
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer"
}
],
"tokenizers": [
{
"maxTokenLength": 100,
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer"
}
],
"tokenFilters": [
{
"preserveOriginal": false,
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter"
}
],
"charFilters": [
{
"mappings": [
".=>,",
"_=>-"
],
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping"
}
],
"normalizers": [
{
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
],
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer"
}
],
"similarity": {
"k1": 10,
"b": 0.1,
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
},
"rankingOrder": "BoostedRerankerScore"
}
]
},
"vectorSearch": {
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"algorithms": [
{
"hnswParameters": {
"metric": "cosine"
},
"name": "cosine",
"kind": "hnsw"
},
{
"hnswParameters": {
"metric": "euclidean"
},
"name": "euclidean",
"kind": "hnsw"
},
{
"hnswParameters": {
"metric": "dotProduct"
},
"name": "dotProduct",
"kind": "hnsw"
}
],
"vectorizers": [
{
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com/",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
},
"name": "openai",
"kind": "azureOpenAI"
},
{
"customWebApiParameters": {
"uri": "https://my-custom-endpoint.org/",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"httpMethod": "POST",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
},
"name": "custom-web-api",
"kind": "customWebApi"
},
{
"amlParameters": {
"uri": "https://my-custom-endpoint.org/",
"resourceId": "aml resource id",
"timeout": "PT1M",
"region": "aml region",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
},
"name": "aml",
"kind": "aml"
},
{
"amlParameters": {
"uri": "https://my-custom-endpoint.org/",
"resourceId": "aml resource id",
"timeout": "PT1M",
"region": "aml region",
"modelName": "Cohere-embed-v4"
},
"name": "aml-cohere",
"kind": "aml"
}
],
"compressions": [
{
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"name": "mySQ8",
"kind": "scalarQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
},
"truncationDimension": 2
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
},
"truncationDimension": 2
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
},
"truncationDimension": 2
}
]
},
"@odata.etag": "0x1234568AE7E58A1"
}
Exemple de réponse
{
"@odata.etag": "0x1234568AE7E58A1",
"name": "temp-example-index",
"description": "description",
"defaultScoringProfile": "stringFieldBoost",
"fields": [
{
"name": "id",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": true,
"synonymMaps": []
},
{
"name": "vector1",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 20,
"vectorSearchProfile": "config1",
"synonymMaps": []
},
{
"name": "vector1b",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector2",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector3",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 5,
"vectorSearchProfile": "config3",
"synonymMaps": []
},
{
"name": "vector22",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 10,
"vectorSearchProfile": "config2",
"synonymMaps": []
},
{
"name": "vector4",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false,
"key": false,
"dimensions": 32,
"vectorSearchProfile": "config4",
"synonymMaps": []
},
{
"name": "name",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "standard.lucene",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "ownerId",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"analyzer": "en.lucene",
"synonymMaps": []
},
{
"name": "price",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": true,
"facetable": true,
"key": false,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "stringFieldBoost",
"functionAggregation": "sum",
"text": {
"weights": {
"name": 3,
"description": 1,
"category": 2,
"ownerId": 1
}
},
"functions": [
{
"fieldName": "category",
"interpolation": "linear",
"type": "tag",
"boost": 2,
"tag": {
"tagsParameter": "categoryTag"
}
}
]
}
],
"corsOptions": {
"allowedOrigins": [
"https://www.example.com/foo"
],
"maxAgeInSeconds": 10
},
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"category",
"ownerId"
]
}
],
"analyzers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"name": "tagsAnalyzer",
"tokenizer": "standard_v2",
"tokenFilters": [
"common_grams"
],
"charFilters": [
"html_strip"
]
}
],
"normalizers": [
{
"@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
"name": "my_normalizer",
"tokenFilters": [
"my_tokenFilter"
],
"charFilters": [
"my_mapping"
]
}
],
"tokenizers": [
{
"@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
"name": "my_tokenizer",
"maxTokenLength": 100
}
],
"tokenFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
"name": "my_tokenFilter",
"preserveOriginal": false
}
],
"charFilters": [
{
"@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
"name": "my_mapping",
"mappings": [
".=>,",
"_=>-"
]
}
],
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"k1": 10,
"b": 0.1
},
"semantic": {
"defaultConfiguration": "testconfig",
"configurations": [
{
"name": "testconfig",
"rankingOrder": "BoostedRerankerScore",
"prioritizedFields": {
"titleField": {
"fieldName": "category"
},
"prioritizedContentFields": [
{
"fieldName": "description"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "ownerId"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "cosine",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "euclidean",
"kind": "hnsw",
"hnswParameters": {
"metric": "euclidean",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "dotProduct",
"kind": "hnsw",
"hnswParameters": {
"metric": "dotProduct",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
}
],
"profiles": [
{
"name": "config1",
"algorithm": "cosine",
"vectorizer": "openai",
"compression": "mySQ8"
},
{
"name": "config2",
"algorithm": "euclidean",
"vectorizer": "custom-web-api",
"compression": "mySQ8"
},
{
"name": "config3",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQC"
},
{
"name": "config4",
"algorithm": "dotProduct",
"vectorizer": "custom-web-api",
"compression": "myBQWithoutOriginals"
}
],
"vectorizers": [
{
"name": "openai",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://test-sample.openai.azure.com",
"deploymentId": "model",
"apiKey": "api-key",
"modelName": "text-embedding-3-large"
}
},
{
"name": "custom-web-api",
"kind": "customWebApi",
"customWebApiParameters": {
"httpMethod": "POST",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
"httpHeaders": {
"header1": "value1",
"header2": "value2"
},
"authIdentity": {
"@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
}
}
},
{
"name": "aml",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
}
},
{
"name": "aml-cohere",
"kind": "aml",
"amlParameters": {
"resourceId": "aml resource id",
"region": "aml region",
"uri": "https://my-custom-endpoint.org/",
"timeout": "PT1M",
"modelName": "Cohere-embed-v4"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"truncationDimension": 2,
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQC",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "preserveOriginals"
}
},
{
"name": "myBQWithoutOriginals",
"kind": "binaryQuantization",
"truncationDimension": 2,
"rescoringOptions": {
"enableRescoring": true,
"defaultOversampling": 10,
"rescoreStorageMethod": "discardOriginals"
}
}
]
}
}
Définitions
| Nom | Description |
|---|---|
| Accept |
L’en-tête Accept. |
|
AIFoundry |
Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé. |
| AMLParameters |
Spécifie les propriétés de connexion à un vectoriseur AML. |
| AMLVectorizer |
Spécifie un point de terminaison Azure Machine Learning déployé via le catalogue Azure AI Foundry Model pour générer l’inclusion vectorielle d’une chaîne de requête. |
|
Ascii |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Azure |
Nom du modèle Azure Open AI qui sera appelé. |
|
Azure |
Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête. |
|
Azure |
Spécifie les paramètres de connexion à la ressource Azure OpenAI. |
|
Binary |
Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation. |
|
BM25Similarity |
Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »). |
|
Char |
Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche. |
|
Cjk |
Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Cjk |
Scripts qui peuvent être ignorés par CjkBigramTokenFilter. |
|
Classic |
Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées. |
|
Classic |
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Common |
Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Cors |
Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index. |
|
Custom |
Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer. |
|
Custom |
Vous permet de configurer la normalisation pour les champs filtrables, triables et facetables, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké. |
|
Dictionary |
Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Distance |
Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique. |
|
Distance |
Fournit des valeurs de paramètre à une fonction de scoring de distance. |
|
Edge |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Edge |
Spécifie de quel côté de l’entrée un n-gramme doit être généré. |
|
Edge |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Edge |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Elision |
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Error |
Informations supplémentaires sur l’erreur de gestion des ressources. |
|
Error |
Détail de l’erreur. |
|
Error |
Réponse à l’erreur courante pour toutes les API Azure Resource Manager afin de renvoyer les détails d’erreur pour les opérations ratées. (Cela suit également le format de réponse d’erreur OData.). |
|
Exhaustive |
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier. |
|
Exhaustive |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
|
Freshness |
Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure. |
|
Freshness |
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation. |
|
Hnsw |
Contient des options de configuration spécifiques à l’algorithme HNSW approximatif des voisins les plus proches utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis réglable entre vitesse de recherche et précision. |
|
Hnsw |
Contient les paramètres spécifiques à l’algorithme HNSW. |
|
Keep |
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Keyword |
Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Keyword |
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Keyword |
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Length |
Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Lexical |
Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche. |
|
Lexical |
Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche. |
|
Lexical |
Définit les noms de tous les tokenizers pris en charge par le moteur de recherche. |
|
Limit |
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Lucene |
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. |
|
Lucene |
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Lucene |
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Magnitude |
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique. |
|
Magnitude |
Fournit des valeurs de paramètre à une fonction de scoring de magnitude. |
|
Mapping |
Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
|
Microsoft |
Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base. |
|
Microsoft |
Divise le texte en utilisant des règles spécifiques à la langue. |
|
Microsoft |
Liste les langages pris en charge par le tokenizer stemming du langage Microsoft. |
|
Microsoft |
Liste les langages pris en charge par le tokenizer de langage Microsoft. |
|
NGram |
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
NGram |
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
NGram |
Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Path |
Générateur de jetons pour les hiérarchies de type chemin. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Pattern |
Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
|
Pattern |
Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Pattern |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
|
Pattern |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Pattern |
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Phonetic |
Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter. |
|
Phonetic |
Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Ranking |
Représente le score à utiliser pour l’ordre de tri des documents. |
|
Rescoring |
Contient les options de rescoring. |
|
Scalar |
Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation. |
|
Scalar |
Contient les paramètres spécifiques à la quantisation scalaire. |
|
Scoring |
Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score. |
|
Scoring |
Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents. |
|
Scoring |
Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche. |
|
Search |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
|
Search |
Définit le type de données d’un champ dans un index de recherche. |
|
Search |
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index. |
|
Search |
Efface la propriété d’identité d’une source de données. |
|
Search |
Spécifie l’identité d’une source de données à utiliser. |
|
Search |
Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des cartes de synonymes. |
|
Search |
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index. |
|
Semantic |
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques. |
|
Semantic |
Champ utilisé dans le cadre de la configuration sémantique. |
|
Semantic |
Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. |
|
Semantic |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
|
Shingle |
Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Snowball |
Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Snowball |
Langue à utiliser pour un filtre de jeton Snowball. |
|
Stemmer |
Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de lemmatisation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
|
Stemmer |
Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
|
Stemmer |
Langue à utiliser pour un filtre de jeton de type dérivé. |
|
Stop |
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
|
Stopwords |
Identifie une liste prédéfinie de mots vides spécifiques à la langue. |
|
Stopwords |
Supprime les mots vides d’un flux de tokens. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
|
Synonym |
Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Tag |
Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises. |
|
Tag |
Fournit des valeurs de paramètre à une fonction de scoring d’étiquette. |
|
Text |
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche. |
|
Token |
Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner. |
|
Token |
Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche. |
|
Truncate |
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Uax |
Identifie les URL et les e-mails comme un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
|
Unique |
Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
|
Vector |
Format d’encodage pour l’interprétation du contenu des champs vectoriels. |
|
Vector |
Contient des options de configuration liées à la recherche vectorielle. |
|
Vector |
Algorithme utilisé pour l’indexation et l’interrogation. |
|
Vector |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé. |
|
Vector |
Méthode de compression utilisée pour l’indexation et l’interrogation. |
|
Vector |
Type de données quantifiées des valeurs vectorielles compressées. |
|
Vector |
Définit une combinaison de configurations à utiliser avec la recherche vectorielle. |
|
Vector |
Méthode de vectorisation à utiliser au moment de la requête. |
|
Web |
Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences. |
|
Web |
Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur. |
|
Word |
Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Accept
L’en-tête Accept.
| Valeur | Description |
|---|---|
| application/json;odata.metadata=minimal |
AIFoundryModelCatalogName
Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé.
| Valeur | Description |
|---|---|
| OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
| Facebook-DinoV2-Image-Embeddings-ViT-Base |
Facebook-DinoV2-Image-Embeddings-ViT-Base |
| Facebook-DinoV2-Image-Embeddings-ViT-Giant |
Facebook-DinoV2-Image-Embeddings-ViT-Giant |
| Cohere-embed-v3-english |
Cohere-embed-v3-english |
| Cohere-embed-v3-multilingual |
Cohere-embed-v3-multilingual |
| Cohere-embed-v4 |
Modèle Cohere embed v4 pour générer des plongements à partir de texte et d’images. |
AMLParameters
Spécifie les propriétés de connexion à un vectoriseur AML.
| Nom | Type | Description |
|---|---|---|
| key |
string |
(Obligatoire pour l’authentification par clé) Clé du service AML. |
| modelName |
Le nom du modèle d’embarquement issu du catalogue Azure AI Foundry qui est déployé à l’extrémité fournie. |
|
| region |
string |
(Facultatif pour l’authentification par jeton). La région dans laquelle le service AML est déployé. |
| resourceId |
string |
(Obligatoire pour l’authentification par jeton). L’ID de ressource Azure Resource Manager du service AML. Il doit être dans le format subscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoft. MachineLearningServices/workspaces/{workspace-name}/services/{service_name}. |
| timeout |
string (duration) |
(Facultatif) Si spécifié, indique le délai d’expiration pour le client http qui effectue l’appel d’API. |
| uri |
string (uri) |
(Obligatoire pour aucune authentification ou authentification par clé) URI de scoring du service AML auquel la charge utile JSON sera envoyée. Seul le schéma d’URI https est autorisé. |
AMLVectorizer
Spécifie un point de terminaison Azure Machine Learning déployé via le catalogue Azure AI Foundry Model pour générer l’inclusion vectorielle d’une chaîne de requête.
| Nom | Type | Description |
|---|---|---|
| amlParameters |
Spécifie les propriétés du vectoriseur AML. |
|
| kind |
string:
aml |
Type de vectoriseur de recherche. |
| name |
string |
Nom à associer à cette méthode de vectorisation particulière. |
AsciiFoldingTokenFilter
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| preserveOriginal |
boolean |
False |
Valeur indiquant si le jeton d’origine sera conservé. La valeur par défaut est false. |
AzureOpenAIModelName
Nom du modèle Azure Open AI qui sera appelé.
| Valeur | Description |
|---|---|
| text-embedding-ada-002 |
TextEmbeddingAda002 modèle. |
| text-embedding-3-large |
TextEmbedding3Large modèle. |
| text-embedding-3-small |
TextEmbedding3Small modèle. |
| gpt-5-mini |
Modèle Gpt5Mini. |
| gpt-5-nano |
Modèle Gpt5Nano. |
| gpt-5.4-mini |
Modèle Gpt54Mini. |
| gpt-5.4-nano |
Modèle Gpt54Nano. |
AzureOpenAIVectorizer
Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.
| Nom | Type | Description |
|---|---|---|
| azureOpenAIParameters |
Contient les paramètres spécifiques à la vectorisation d’incorporation Azure OpenAI. |
|
| kind |
string:
azure |
Type de vectoriseur de recherche. |
| name |
string |
Nom à associer à cette méthode de vectorisation particulière. |
AzureOpenAIVectorizerParameters
Spécifie les paramètres de connexion à la ressource Azure OpenAI.
| Nom | Type | Description |
|---|---|---|
| apiKey |
string |
Clé API de la ressource Azure OpenAI désignée. |
| authIdentity | SearchIndexerDataIdentity: |
Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. |
| deploymentId |
string |
ID du déploiement du modèle Azure OpenAI sur la ressource désignée. |
| modelName |
Nom du modèle d’incorporation déployé sur le chemin d’accès deploymentId fourni. |
|
| resourceUri |
string (uri) |
URI de ressource de la ressource Azure OpenAI. |
BinaryQuantizationCompression
Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.
| Nom | Type | Description |
|---|---|---|
| kind |
string:
binary |
Type de Recherche VectorielleCompression. |
| name |
string |
Nom à associer à cette configuration particulière. |
| rescoringOptions |
Contient les options de rescoring. |
|
| truncationDimension |
integer (int32) |
Nombre de dimensions à laquelle tronquer les vecteurs. La troncation des vecteurs réduit la taille des vecteurs et la quantité de données qui doivent être transférées pendant la recherche. Cela peut réduire les coûts de stockage et améliorer les performances de recherche au détriment du rappel. Il doit être utilisé uniquement pour les incorporations formées avec Matryoshka Representation Learning (MRL) comme OpenAI text-embedding-3-large (small). La valeur par défaut est Null, ce qui signifie qu’aucune troncation n’est définie. |
BM25SimilarityAlgorithm
Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| b |
number (double) |
Cette propriété contrôle la façon dont la longueur d’un document affecte le score de pertinence. Par défaut, une valeur de 0,75 est utilisée. La valeur 0,0 signifie qu’aucune normalisation de longueur n’est appliquée, tandis qu’une valeur de 1,0 signifie que le score est entièrement normalisé par la longueur du document. |
| k1 |
number (double) |
Cette propriété contrôle la fonction de mise à l’échelle entre la fréquence de terme de chaque terme correspondant et le score de pertinence final d’une paire document-requête. Par défaut, une valeur de 1.2 est utilisée. La valeur 0,0 signifie que le score n’est pas mis à l’échelle avec une augmentation de la fréquence de terme. |
CharFilterName
Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.
| Valeur | Description |
|---|---|
| html_strip |
Filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilter
Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| ignoreScripts |
Scripts à ignorer. |
||
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| outputUnigrams |
boolean |
False |
Valeur indiquant s’il faut générer à la fois des unigrammes et des bigrams (si true) ou simplement des bigrams (si false). La valeur par défaut est false. |
CjkBigramTokenFilterScripts
Scripts qui peuvent être ignorés par CjkBigramTokenFilter.
| Valeur | Description |
|---|---|
| han |
Ignorez l’écriture Han lors de la formation de bigrammes de termes CJC. |
| hiragana |
Ignorez l’écriture hiragana lorsque vous formez des bigrammes de termes CJC. |
| katakana |
Ignorez l’écriture katakana lors de la formation de bigrammes de termes CJC. |
| hangul |
Ignorez l’écriture Hangul lors de la formation de bigrammes de termes CJC. |
ClassicSimilarityAlgorithm
Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
ClassicTokenizer
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
CommonGramTokenFilter
Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| commonWords |
string[] |
Ensemble de mots communs. |
|
| ignoreCase |
boolean |
False |
Valeur indiquant si les mots communs correspondants ne respectent pas la casse. La valeur par défaut est false. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| queryMode |
boolean |
False |
Valeur qui indique si le filtre de jeton est en mode requête. En mode requête, le filtre de jeton génère des bigrams, puis supprime les mots courants et les termes uniques suivis d’un mot commun. La valeur par défaut est false. |
CorsOptions
Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.
| Nom | Type | Description |
|---|---|---|
| allowedOrigins |
string[] |
La liste des origines à partir desquelles le code JavaScript sera autorisé à accéder à votre index. Peut contenir une liste d’hôtes de la forme {protocol} ://{fully-qualified-domain-name}[ :{port#}], ou un seul '*' pour autoriser toutes les origines (non recommandé). |
| maxAgeInSeconds |
integer (int64) |
Durée pendant laquelle les navigateurs doivent mettre en cache les réponses de contrôle en amont CORS. La valeur par défaut est de 5 minutes. |
CustomAnalyzer
Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| charFilters |
Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant qu’il ne soit traité par le générateur de jetons. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés. |
|
| name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
| tokenFilters |
Liste des filtres de jetons utilisés pour filtrer ou modifier les jetons générés par un générateur de jetons. Par exemple, vous pouvez spécifier un filtre lowercase qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés. |
|
| tokenizer |
Nom du générateur de jetons à utiliser pour diviser le texte continu en une séquence de jetons, par exemple pour décomposer une phrase en mots. |
CustomNormalizer
Vous permet de configurer la normalisation pour les champs filtrables, triables et facetables, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| charFilters |
Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant son traitement. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés. |
|
| name |
string |
Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
| tokenFilters |
Liste des filtres de jetons utilisés pour filtrer ou modifier le jeton d’entrée. Par exemple, vous pouvez spécifier un filtre lowercase qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés. |
DictionaryDecompounderTokenFilter
Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxSubwordSize |
integer (int32) maximum: 300 |
15 |
Taille maximale des sous-mots. Seuls les sous-mots plus courts que celui-ci sont générés. La valeur par défaut est 15. La valeur maximale est de 300. |
| minSubwordSize |
integer (int32) maximum: 300 |
2 |
Taille minimale du sous-mot. Seuls les sous-mots plus longs que ceux-ci sont générés. La valeur par défaut est 2. La valeur maximale est de 300. |
| minWordSize |
integer (int32) maximum: 300 |
5 |
Taille minimale du mot. Seuls les mots plus longs que celui-ci sont traités. La valeur par défaut est 5. La valeur maximale est de 300. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| onlyLongestMatch |
boolean |
False |
Valeur indiquant s’il faut ajouter uniquement le sous-mot correspondant le plus long à la sortie. La valeur par défaut est false. |
| wordList |
string[] |
Liste des mots à mettre en correspondance. |
DistanceScoringFunction
Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.
| Nom | Type | Description |
|---|---|---|
| boost |
number (double) |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
| distance |
Valeurs de paramètre pour la fonction de scoring de distance. |
|
| fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
| interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
| type |
string:
distance |
Type de ScoreFunction. |
DistanceScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring de distance.
| Nom | Type | Description |
|---|---|---|
| boostingDistance |
number (double) |
La distance en kilomètres à partir de l’emplacement de référence où se termine la portée de boosting. |
| referencePointParameter |
string |
Nom du paramètre passé dans les requêtes de recherche pour spécifier l’emplacement de référence. |
EdgeNGramTokenFilter
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxGram |
integer (int32) |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. |
| minGram |
integer (int32) |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| side | front |
Spécifie de quel côté de l’entrée le n-gramme doit être généré. La valeur par défaut est « front ». |
EdgeNGramTokenFilterSide
Spécifie de quel côté de l’entrée un n-gramme doit être généré.
| Valeur | Description |
|---|---|
| front |
Spécifie que le n-gramme doit être généré à partir de l’avant de l’entrée. |
| back |
Spécifie que le n-gramme doit être généré à partir de l’arrière de l’entrée. |
EdgeNGramTokenFilterV2
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| side | front |
Spécifie de quel côté de l’entrée le n-gramme doit être généré. La valeur par défaut est « front ». |
EdgeNGramTokenizer
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| tokenChars |
Classes de caractères à conserver dans les jetons. |
ElisionTokenFilter
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| articles |
string[] |
Ensemble d’articles à supprimer. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
ErrorAdditionalInfo
Informations supplémentaires sur l’erreur de gestion des ressources.
| Nom | Type | Description |
|---|---|---|
| info |
Informations supplémentaires. |
|
| type |
string |
Type d’informations supplémentaire. |
ErrorDetail
Détail de l’erreur.
| Nom | Type | Description |
|---|---|---|
| additionalInfo |
Informations supplémentaires sur l’erreur. |
|
| code |
string |
Code d’erreur. |
| details |
Détails de l’erreur. |
|
| message |
string |
Message d’erreur. |
| target |
string |
Cible d’erreur. |
ErrorResponse
Réponse à l’erreur courante pour toutes les API Azure Resource Manager afin de renvoyer les détails d’erreur pour les opérations ratées. (Cela suit également le format de réponse d’erreur OData.).
| Nom | Type | Description |
|---|---|---|
| error |
Objet d’erreur. |
ExhaustiveKnnAlgorithmConfiguration
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.
| Nom | Type | Description |
|---|---|---|
| exhaustiveKnnParameters |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
|
| kind |
string:
exhaustive |
Type de Recherche VectorielleAlgorithmeConfiguration. |
| name |
string |
Nom à associer à cette configuration particulière. |
ExhaustiveKnnParameters
Contient les paramètres spécifiques à l’algorithme KNN exhaustif.
| Nom | Type | Description |
|---|---|---|
| metric |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. |
FreshnessScoringFunction
Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.
| Nom | Type | Description |
|---|---|---|
| boost |
number (double) |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
| fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
| freshness |
Valeurs de paramètre pour la fonction de scoring de l’actualisation. |
|
| interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
| type |
string:
freshness |
Type de ScoreFunction. |
FreshnessScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.
| Nom | Type | Description |
|---|---|---|
| boostingDuration |
string (duration) |
Période d’expiration après laquelle l’amplification s’arrêtera pour un document particulier. |
HnswAlgorithmConfiguration
Contient des options de configuration spécifiques à l’algorithme HNSW approximatif des voisins les plus proches utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis réglable entre vitesse de recherche et précision.
| Nom | Type | Description |
|---|---|---|
| hnswParameters |
Contient les paramètres spécifiques à l’algorithme HNSW. |
|
| kind |
string:
hnsw |
Type de Recherche VectorielleAlgorithmeConfiguration. |
| name |
string |
Nom à associer à cette configuration particulière. |
HnswParameters
Contient les paramètres spécifiques à l’algorithme HNSW.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| efConstruction |
integer (int32) minimum: 100maximum: 1000 |
400 |
Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant la période d’indexation. L’augmentation de ce paramètre peut améliorer la qualité de l’indice, au détriment de l’augmentation du temps d’indexation. À un certain point, l’augmentation de ce paramètre entraîne des rendements décroissants. |
| efSearch |
integer (int32) minimum: 100maximum: 1000 |
500 |
Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant la recherche. L’augmentation de ce paramètre peut améliorer les résultats de recherche, au détriment d’une recherche plus lente. À un certain point, l’augmentation de ce paramètre entraîne des rendements décroissants. |
| m |
integer (int32) minimum: 4maximum: 10 |
4 |
Le nombre de liens bidirectionnels créés pour chaque nouvel élément pendant la construction. L’augmentation de la valeur de ce paramètre peut améliorer le rappel et réduire les temps d’extraction des ensembles de données à forte dimensionnalité intrinsèque, au détriment d’une consommation de mémoire accrue et d’un temps d’indexation plus long. |
| metric |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. |
KeepTokenFilter
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| keepWords |
string[] |
Liste des mots à conserver. |
|
| keepWordsCase |
boolean |
False |
Valeur indiquant s’il faut d’abord mettre en minuscules tous les mots. La valeur par défaut est false. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
KeywordMarkerTokenFilter
Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| ignoreCase |
boolean |
False |
Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false. |
| keywords |
string[] |
Liste de mots à marquer comme mots clés. |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
KeywordTokenizer
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| bufferSize |
integer (int32) |
256 |
Taille de la mémoire tampon de lecture en octets. La valeur par défaut est 256. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
KeywordTokenizerV2
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
256 |
Longueur maximale du jeton. La valeur par défaut est 256. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LengthTokenFilter
Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| max |
integer (int32) maximum: 300 |
300 |
Longueur maximale en caractères. La valeur par défaut et la valeur maximale est 300. |
| min |
integer (int32) maximum: 300 |
0 |
Longueur minimale en caractères. La valeur par défaut est 0. La valeur maximale est de 300. Doit être inférieur à la valeur maximale. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LexicalAnalyzerName
Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.
| Valeur | Description |
|---|---|
| ar.microsoft |
Analyseur Microsoft pour l’arabe. |
| ar.lucene |
Analyseur Lucene pour l’arabe. |
| hy.lucene |
Analyseur Lucene pour l’arménien. |
| bn.microsoft |
Analyseur Microsoft pour le bangla. |
| eu.lucene |
Analyseur Lucene pour le basque. |
| bg.microsoft |
Analyseur Microsoft pour le bulgare. |
| bg.lucene |
Analyseur Lucene pour le bulgare. |
| ca.microsoft |
Analyseur Microsoft pour le catalan. |
| ca.lucene |
Analyseur Lucene pour le catalan. |
| zh-Hans.microsoft |
Analyseur Microsoft pour le chinois (simplifié). |
| zh-Hans.lucene |
Analyseur Lucene pour le chinois (simplifié). |
| zh-Hant.microsoft |
Analyseur Microsoft pour le chinois (traditionnel). |
| zh-Hant.lucene |
Analyseur Lucene pour le chinois (traditionnel). |
| hr.microsoft |
Analyseur Microsoft pour le croate. |
| cs.microsoft |
Analyseur Microsoft pour le tchèque. |
| cs.lucene |
Analyseur Lucene pour le tchèque. |
| da.microsoft |
Analyseur Microsoft pour le danois. |
| da.lucene |
Analyseur Lucene pour le danois. |
| nl.microsoft |
Analyseur Microsoft pour le néerlandais. |
| nl.lucene |
Analyseur Lucene pour le néerlandais. |
| en.microsoft |
Analyseur Microsoft pour l’anglais. |
| en.lucene |
Analyseur Lucene pour l’anglais. |
| et.microsoft |
Analyseur Microsoft pour l’estonien. |
| fi.microsoft |
Analyseur Microsoft pour le finnois. |
| fi.lucene |
Analyseur Lucene pour le finnois. |
| fr.microsoft |
Analyseur Microsoft pour le français. |
| fr.lucene |
Analyseur Lucene pour le français. |
| gl.lucene |
Analyseur Lucene pour le galicien. |
| de.microsoft |
Analyseur Microsoft pour l’allemand. |
| de.lucene |
Analyseur Lucene pour l’allemand. |
| el.microsoft |
Analyseur Microsoft pour le grec. |
| el.lucene |
Analyseur Lucene pour le grec. |
| gu.microsoft |
Analyseur Microsoft pour le gujarati. |
| he.microsoft |
Analyseur Microsoft pour l’hébreu. |
| hi.microsoft |
Analyseur Microsoft pour l’hindi. |
| hi.lucene |
Analyseur Lucene pour l’hindi. |
| hu.microsoft |
Analyseur Microsoft pour le hongrois. |
| hu.lucene |
Analyseur Lucene pour le hongrois. |
| is.microsoft |
Analyseur Microsoft pour l’islandais. |
| id.microsoft |
Analyseur Microsoft pour l’indonésien (Bahasa). |
| id.lucene |
Analyseur Lucene pour l’indonésien. |
| ga.lucene |
Analyseur Lucene pour l’irlandais. |
| it.microsoft |
Analyseur Microsoft pour l’italien. |
| it.lucene |
Analyseur Lucene pour l’italien. |
| ja.microsoft |
Analyseur Microsoft pour le japonais. |
| ja.lucene |
Analyseur Lucene pour le japonais. |
| kn.microsoft |
Analyseur Microsoft pour le kannada. |
| ko.microsoft |
Analyseur Microsoft pour le coréen. |
| ko.lucene |
Analyseur Lucene pour le coréen. |
| lv.microsoft |
Analyseur Microsoft pour le letton. |
| lv.lucene |
Analyseur Lucene pour le letton. |
| lt.microsoft |
Analyseur Microsoft pour le lituanien. |
| ml.microsoft |
Analyseur Microsoft pour le malayalam. |
| ms.microsoft |
Analyseur Microsoft pour le malais (latin). |
| mr.microsoft |
Analyseur Microsoft pour le marathi. |
| nb.microsoft |
Microsoft analyzer pour le norvégien (Bokmål). |
| no.lucene |
Analyseur Lucene pour Norwegian. |
| fa.lucene |
Analyseur Lucene pour le persan. |
| pl.microsoft |
Analyseur Microsoft pour le polonais. |
| pl.lucene |
Analyseur Lucene pour le polonais. |
| pt-BR.microsoft |
Analyseur Microsoft pour le portugais (Brésil). |
| pt-BR.lucene |
Analyseur Lucene pour le portugais (Brésil). |
| pt-PT.microsoft |
Analyseur Microsoft pour le portugais (Portugal). |
| pt-PT.lucene |
Analyseur Lucene pour le portugais (Portugal). |
| pa.microsoft |
Analyseur Microsoft pour le pendjabi. |
| ro.microsoft |
Analyseur Microsoft pour roumain. |
| ro.lucene |
Analyseur Lucene pour roumain. |
| ru.microsoft |
Analyseur Microsoft pour le russe. |
| ru.lucene |
Analyseur Lucene pour le russe. |
| sr-cyrillic.microsoft |
Analyseur Microsoft pour le serbe (cyrillique). |
| sr-latin.microsoft |
Analyseur Microsoft pour serbe (latin). |
| sk.microsoft |
Analyseur Microsoft pour le slovaque. |
| sl.microsoft |
Analyseur Microsoft pour le slovène. |
| es.microsoft |
Analyseur Microsoft pour l’espagnol. |
| es.lucene |
Analyseur Lucene pour l’espagnol. |
| sv.microsoft |
Analyseur Microsoft pour le suédois. |
| sv.lucene |
Analyseur Lucene pour le suédois. |
| ta.microsoft |
Analyseur Microsoft pour le tamoul. |
| te.microsoft |
Analyseur Microsoft pour le télougou. |
| th.microsoft |
Analyseur Microsoft pour le thaï. |
| th.lucene |
Analyseur Lucene pour le thaïlandais. |
| tr.microsoft |
Analyseur Microsoft pour le turc. |
| tr.lucene |
Analyseur Lucene pour le turc. |
| uk.microsoft |
Analyseur Microsoft pour l’ukrainien. |
| ur.microsoft |
Analyseur Microsoft pour l’ourdou. |
| vi.microsoft |
Analyseur Microsoft pour le vietnamien. |
| standard.lucene |
Analyseur Lucene standard. |
| standardasciifolding.lucene |
Analyseur standard ASCII Folding Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
| keyword |
Traite l’intégralité du contenu d’un champ comme un seul jeton. Cela est utile pour les données telles que les codes postal, les ID et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
| pattern |
Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
| simple |
Divise le texte à l’endroit des caractères qui ne sont pas des lettres et le convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
| stop |
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
| whitespace |
Un analyseur qui utilise le générateur de jetons whitespace. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
LexicalNormalizerName
Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.
| Valeur | Description |
|---|---|
| asciifolding |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| elision |
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
| lowercase |
Normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html |
| standard |
Normaliseur standard, qui se compose de minuscules et d’un repliement ascii. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html |
| uppercase |
Normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html |
LexicalTokenizerName
Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.
| Valeur | Description |
|---|---|
| classic |
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| edgeNGram |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
| keyword_v2 |
Génère la totalité de l’entrée sous la forme d’un unique jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
| letter |
Divise le texte aux caractères autres que des lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html |
| lowercase |
Divise le texte à l’endroit des caractères qui ne sont pas des lettres et le convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html |
| microsoft_language_tokenizer |
Divise le texte en utilisant des règles spécifiques à la langue. |
| microsoft_language_stemming_tokenizer |
Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base. |
| nGram |
Tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
| path_hierarchy_v2 |
Générateur de jetons pour les hiérarchies de type chemin. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
| pattern |
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
| standard_v2 |
Analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
| uax_url_email |
Identifie les URL et les e-mails comme un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
| whitespace |
Divise le texte aux espaces blancs. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html |
LimitTokenFilter
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| consumeAllTokens |
boolean |
False |
Valeur indiquant si tous les jetons de l’entrée doivent être consommés même si maxTokenCount est atteint. La valeur par défaut est false. |
| maxTokenCount |
integer (int32) |
1 |
Nombre maximal de jetons à produire. La valeur par défaut est 1. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LuceneStandardAnalyzer
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
| name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| stopwords |
string[] |
Liste des mots vides. |
LuceneStandardTokenizer
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxTokenLength |
integer (int32) |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LuceneStandardTokenizerV2
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MagnitudeScoringFunction
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.
| Nom | Type | Description |
|---|---|---|
| boost |
number (double) |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
| fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
| interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
| magnitude |
Valeurs de paramètre pour la fonction de scoring de magnitude. |
|
| type |
string:
magnitude |
Type de ScoreFunction. |
MagnitudeScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring de magnitude.
| Nom | Type | Description |
|---|---|---|
| boostingRangeEnd |
number (double) |
Valeur de champ à partir de laquelle le boosting se termine. |
| boostingRangeStart |
number (double) |
Valeur de champ à partir de laquelle le boosting commence. |
| constantBoostBeyondRange |
boolean |
Valeur indiquant s’il faut appliquer une amplification constante pour les valeurs de champ au-delà de la valeur de fin de plage ; La valeur par défaut est false. |
MappingCharFilter
Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| mappings |
string[] |
Liste des mappages du format suivant : « a =>b » (toutes les occurrences du caractère « a » seront remplacées par le caractère « b »). |
| name |
string |
Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MicrosoftLanguageStemmingTokenizer
Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| isSearchTokenizer |
boolean |
False |
Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false. |
| language |
Langue à utiliser. La valeur par défaut est l’anglais. |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
Longueur maximale du jeton. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale des jetons qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MicrosoftLanguageTokenizer
Divise le texte en utilisant des règles spécifiques à la langue.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| isSearchTokenizer |
boolean |
False |
Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false. |
| language |
Langue à utiliser. La valeur par défaut est l’anglais. |
||
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
Longueur maximale du jeton. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale des jetons qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MicrosoftStemmingTokenizerLanguage
Liste les langages pris en charge par le tokenizer stemming du langage Microsoft.
| Valeur | Description |
|---|---|
| arabic |
Sélectionne le tokenizer stemming Microsoft pour l’arabe. |
| bangla |
Sélectionne le tokenizer stemming Microsoft pour le bangla. |
| bulgarian |
Sélectionne le tokenizer stemming Microsoft pour le bulgare. |
| catalan |
Sélectionne le tokenizer stemming Microsoft pour le catalan. |
| croatian |
Sélectionne le tokenizer de stemming Microsoft pour le croate. |
| czech |
Sélectionne le tokenizer stemming Microsoft pour le tchèque. |
| danish |
Sélectionne le tokeniseur stemming Microsoft pour le danois. |
| dutch |
Sélectionne le tokenizer stemming Microsoft pour le néerlandais. |
| english |
Sélectionne le tokenizer stemming Microsoft pour l’anglais. |
| estonian |
Sélectionne le tokenizer stemming Microsoft pour l’estonien. |
| finnish |
Sélectionne le tokeniseur stemming Microsoft pour le finnois. |
| french |
Sélectionne le tokenizer stemming Microsoft pour le français. |
| german |
Sélectionne le tokeniseur de stemming Microsoft pour l’allemand. |
| greek |
Sélectionne le tokeniseur stemming Microsoft pour le grec. |
| gujarati |
Sélectionne le tokenizer stemming Microsoft pour le gujarati. |
| hebrew |
Sélectionne le tokenizer stemming Microsoft pour l’hébreu. |
| hindi |
Sélectionne le tokeniseur stemming Microsoft pour l’hindi. |
| hungarian |
Sélectionne le tokenizer stemming Microsoft pour le hongrois. |
| icelandic |
Sélectionne le tokenizer stemming Microsoft pour l’islandais. |
| indonesian |
Sélectionne le tokeniseur stemming Microsoft pour l’indonésien. |
| italian |
Sélectionne le tokeniseur de stemming Microsoft pour l’italien. |
| kannada |
Sélectionne le tokenizer stemming Microsoft pour le kannada. |
| latvian |
Sélectionne le tokenizer stemming Microsoft pour le letton. |
| lithuanian |
Sélectionne le tokenizer stemming Microsoft pour le lituanien. |
| malay |
Sélectionne le tokeniseur stemming Microsoft pour le malais. |
| malayalam |
Sélectionne le tokenizer stemming Microsoft pour le malayalam. |
| marathi |
Sélectionne le tokeniseur stemming Microsoft pour le marathi. |
| norwegianBokmaal |
Sélectionne le tokenizer stemming Microsoft pour le norvégien (Bokmål). |
| polish |
Sélectionne le tokeniseur de stemming Microsoft pour le polonais. |
| portuguese |
Sélectionne le tokenizer stemming Microsoft pour le portugais. |
| portugueseBrazilian |
Sélectionne le tokeniseur de stemming Microsoft pour le portugais (Brésil). |
| punjabi |
Sélectionne le tokenizer stemming Microsoft pour le pendjabi. |
| romanian |
Sélectionne le tokenizer de stemming Microsoft pour le roumain. |
| russian |
Sélectionne le tokeniseur de stemming Microsoft pour le russe. |
| serbianCyrillic |
Sélectionne le tokeniseur de stemming Microsoft pour le serbe (cyrillique). |
| serbianLatin |
Sélectionne le tokeniseur stemming Microsoft pour le serbe (latin). |
| slovak |
Sélectionne le tokeniseur stemming Microsoft pour le slovaque. |
| slovenian |
Sélectionne le tokeniseur stemming Microsoft pour le slovène. |
| spanish |
Sélectionne le tokeniseur stemming Microsoft pour l’espagnol. |
| swedish |
Sélectionne le tokenizer stemming Microsoft pour le suédois. |
| tamil |
Sélectionne le tokenizer stemming Microsoft pour le tamoul. |
| telugu |
Sélectionne le tokenizer stemming Microsoft pour le télougou. |
| turkish |
Sélectionne le tokeniseur de stemming Microsoft pour le turc. |
| ukrainian |
Sélectionne le tokenizer stemming Microsoft pour l’ukrainien. |
| urdu |
Sélectionne le tokenizer stemming Microsoft pour l’ourdou. |
MicrosoftTokenizerLanguage
Liste les langages pris en charge par le tokenizer de langage Microsoft.
| Valeur | Description |
|---|---|
| bangla |
Sélectionne le tokenizer Microsoft pour le bangla. |
| bulgarian |
Sélectionne le tokeniseur Microsoft pour le bulgare. |
| catalan |
Sélectionne le tokeniseur Microsoft pour le catalan. |
| chineseSimplified |
Sélectionne le tokeniseur Microsoft pour le chinois (simplifié). |
| chineseTraditional |
Sélectionne le tokeniseur Microsoft pour le chinois (traditionnel). |
| croatian |
Sélectionne le tokenizer Microsoft pour le croate. |
| czech |
Sélectionne le tokeniseur Microsoft pour le tchèque. |
| danish |
Sélectionne le tokeniseur Microsoft pour le danois. |
| dutch |
Sélectionne le tokenizer Microsoft pour le néerlandais. |
| english |
Sélectionne le tokenizer Microsoft pour l’anglais. |
| french |
Sélectionne le tokeniseur Microsoft pour le français. |
| german |
Sélectionne le tokeniseur Microsoft pour l’allemand. |
| greek |
Sélectionne le tokenizer Microsoft pour le grec. |
| gujarati |
Sélectionne le tokenizer Microsoft pour le gujarati. |
| hindi |
Sélectionne le tokeniseur Microsoft pour l’hindi. |
| icelandic |
Sélectionne le tokeniseur Microsoft pour l’islandais. |
| indonesian |
Sélectionne le tokeniseur Microsoft pour l’indonésien. |
| italian |
Sélectionne le tokeniseur Microsoft pour l’italien. |
| japanese |
Sélectionne le tokenizer Microsoft pour le japonais. |
| kannada |
Sélectionne le tokenizer Microsoft pour le kannada. |
| korean |
Sélectionne le tokenizer Microsoft pour le coréen. |
| malay |
Sélectionne le tokeniseur Microsoft pour le malais. |
| malayalam |
Sélectionne le tokenizer Microsoft pour le malayalam. |
| marathi |
Sélectionne le tokeniseur Microsoft pour le marathi. |
| norwegianBokmaal |
Sélectionne le tokenizer Microsoft pour le norvégien (Bokmål). |
| polish |
Sélectionne le tokeniseur Microsoft pour le polonais. |
| portuguese |
Sélectionne le tokenizer Microsoft pour le portugais. |
| portugueseBrazilian |
Sélectionne le tokeniseur Microsoft pour le portugais (Brésil). |
| punjabi |
Sélectionne le tokenizer Microsoft pour le pendjabi. |
| romanian |
Sélectionne le tokeniseur Microsoft pour le roumain. |
| russian |
Sélectionne le tokenizer Microsoft pour le russe. |
| serbianCyrillic |
Sélectionne le tokeniseur Microsoft pour le serbe (cyrillique). |
| serbianLatin |
Sélectionne le tokeniseur Microsoft pour le serbe (latin). |
| slovenian |
Sélectionne le tokeniseur Microsoft pour le slovène. |
| spanish |
Sélectionne le tokeniseur Microsoft pour l’espagnol. |
| swedish |
Sélectionne le tokeniseur Microsoft pour le suédois. |
| tamil |
Sélectionne le tokeniseur Microsoft pour le tamoul. |
| telugu |
Sélectionne le tokeniseur Microsoft pour le télougou. |
| thai |
Sélectionne le tokenizer Microsoft pour le thaï. |
| ukrainian |
Sélectionne le tokeniseur Microsoft pour l’ukrainien. |
| urdu |
Sélectionne le tokenizer Microsoft pour l’ourdou. |
| vietnamese |
Sélectionne le tokeniseur Microsoft pour le vietnamien. |
NGramTokenFilter
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxGram |
integer (int32) |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. |
| minGram |
integer (int32) |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
NGramTokenFilterV2
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
NGramTokenizer
Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxGram |
integer (int32) maximum: 300 |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
| minGram |
integer (int32) maximum: 300 |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| tokenChars |
Classes de caractères à conserver dans les jetons. |
PathHierarchyTokenizerV2
Générateur de jetons pour les hiérarchies de type chemin. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| delimiter |
string maxLength: 1 |
/ |
Caractère délimiteur à utiliser. La valeur par défaut est « / ». |
| maxTokenLength |
integer (int32) maximum: 300 |
300 |
Longueur maximale du jeton. La valeur par défaut et la valeur maximale est 300. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| replacement |
string maxLength: 1 |
/ |
Valeur qui, si elle est définie, remplace le caractère délimiteur. La valeur par défaut est « / ». |
| reverse |
boolean |
False |
Valeur indiquant s’il faut générer des jetons dans l’ordre inverse. La valeur par défaut est false. |
| skip |
integer (int32) |
0 |
Nombre de jetons initiaux à ignorer. La valeur par défaut est 0. |
PatternAnalyzer
Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| flags |
string |
Des drapeaux d’expression régulière, spécifiés comme une chaîne séparée de valeurs RegexFlags par '|'. |
|
| lowercase |
boolean |
True |
Valeur indiquant si les termes doivent être en minuscules. La valeur par défaut est true. |
| name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| pattern |
string |
\W+ |
Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non verbaux. |
| stopwords |
string[] |
Liste des mots vides. |
PatternCaptureTokenFilter
Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| patterns |
string[] |
Liste de modèles à mettre en correspondance avec chaque jeton. |
|
| preserveOriginal |
boolean |
True |
Valeur indiquant s’il faut retourner le jeton d’origine même si l’un des modèles correspond. La valeur par défaut est true. |
PatternReplaceCharFilter
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| name |
string |
Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
| pattern |
string |
Modèle d’expression régulière. |
| replacement |
string |
Texte de remplacement. |
PatternReplaceTokenFilter
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
| pattern |
string |
Modèle d’expression régulière. |
| replacement |
string |
Texte de remplacement. |
PatternTokenizer
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| flags |
string |
Des drapeaux d’expression régulière, spécifiés comme une chaîne séparée de valeurs RegexFlags par '|'. |
|
| group |
integer (int32) |
-1 |
Ordinal de base zéro du groupe correspondant dans le modèle d’expression régulière à extraire en jetons. Utilisez -1 si vous souhaitez utiliser l’intégralité du modèle pour diviser l’entrée en jetons, indépendamment des groupes correspondants. La valeur par défaut est -1. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| pattern |
string |
\W+ |
Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non verbaux. |
PhoneticEncoder
Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.
| Valeur | Description |
|---|---|
| metaphone |
Code un jeton en valeur Metaphone. |
| doubleMetaphone |
Code un jeton en une valeur de métaphone double. |
| soundex |
Encode un jeton en une valeur Soundex. |
| refinedSoundex |
Encode un jeton en une valeur Soundex raffinée. |
| caverphone1 |
Encode un jeton dans une valeur Caverphone 1.0. |
| caverphone2 |
Encode un jeton dans une valeur Caverphone 2.0. |
| cologne |
Code un jeton en une valeur phonétique de Cologne. |
| nysiis |
Code un jeton en une valeur NYSIIS. |
| koelnerPhonetik |
Encode un jeton à l’aide de l’algorithme Kölner Phonetik. |
| haasePhonetik |
Encode un jeton à l’aide du raffinement Haase de l’algorithme Kölner Phonetik. |
| beiderMorse |
Code un jeton en une valeur Beider-Morse. |
PhoneticTokenFilter
Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| encoder | metaphone |
Encodeur phonétique à utiliser. La valeur par défaut est « metaphone ». |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| replace |
boolean |
True |
Valeur indiquant si les jetons encodés doivent remplacer les jetons d’origine. Si la valeur est false, les jetons encodés sont ajoutés en tant que synonymes. La valeur par défaut est true. |
RankingOrder
Représente le score à utiliser pour l’ordre de tri des documents.
| Valeur | Description |
|---|---|
| BoostedRerankerScore |
Définit l’ordre de tri comme BoostedRerankerScore |
| RerankerScore |
Définit l’ordre de tri en tant que ReRankerScore |
RescoringOptions
Contient les options de rescoring.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| defaultOversampling |
number (double) |
Facteur de surachantillonnage par défaut. Le suréchantillonnage récupère un plus grand nombre de documents potentiels pour compenser la perte de résolution due à la quantification. Cela augmente l’ensemble des résultats qui seront réévalués sur les vecteurs de pleine précision. La valeur minimale est 1, ce qui signifie qu’aucun suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque 'enableRescoring' est vrai. Les valeurs plus élevées améliorent le rappel au détriment de la latence. |
|
| enableRescoring |
boolean |
True |
Si la valeur est true, après la recherche initiale sur les vecteurs compressés, les scores de similarité sont recalculés à l’aide des vecteurs de pleine précision. Cela permettra d’améliorer le rappel au détriment de la latence. |
| rescoreStorageMethod |
enum:
|
preserveOriginals |
Contrôle la méthode de stockage des vecteurs d’origine. Ce paramètre est immuable. |
ScalarQuantizationCompression
Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.
| Nom | Type | Description |
|---|---|---|
| kind |
string:
scalar |
Type de Recherche VectorielleCompression. |
| name |
string |
Nom à associer à cette configuration particulière. |
| rescoringOptions |
Contient les options de rescoring. |
|
| scalarQuantizationParameters |
Contient les paramètres spécifiques à la quantisation scalaire. |
|
| truncationDimension |
integer (int32) |
Nombre de dimensions à laquelle tronquer les vecteurs. La troncation des vecteurs réduit la taille des vecteurs et la quantité de données qui doivent être transférées pendant la recherche. Cela peut réduire les coûts de stockage et améliorer les performances de recherche au détriment du rappel. Il doit être utilisé uniquement pour les incorporations formées avec Matryoshka Representation Learning (MRL) comme OpenAI text-embedding-3-large (small). La valeur par défaut est Null, ce qui signifie qu’aucune troncation n’est définie. |
ScalarQuantizationParameters
Contient les paramètres spécifiques à la quantisation scalaire.
| Nom | Type | Description |
|---|---|---|
| quantizedDataType |
Type de données quantifiées des valeurs vectorielles compressées. |
ScoringFunctionAggregation
Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score.
| Valeur | Description |
|---|---|
| sum |
Augmentez les scores par la somme de tous les résultats de la fonction de notation. |
| average |
Augmentez les scores de la moyenne de tous les résultats de la fonction de notation. |
| minimum |
Augmentez les scores du minimum de tous les résultats de la fonction de notation. |
| maximum |
Augmentez les scores du maximum de tous les résultats de la fonction de notation. |
| firstMatching |
Augmentez les scores à l’aide de la première fonction de score applicable dans le profil de score. |
| product |
Augmentez les scores par le produit de tous les résultats de la fonction de notation. |
ScoringFunctionInterpolation
Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents.
| Valeur | Description |
|---|---|
| linear |
Augmente les scores d’une quantité linéairement décroissante. Il s’agit de l’interpolation par défaut pour les fonctions de notation. |
| constant |
Augmente les scores d’un facteur constant. |
| quadratic |
Augmente les scores d’une quantité qui diminue quadratiquement. Les boosts diminuent lentement pour les scores les plus élevés, et plus rapidement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring des balises. |
| logarithmic |
Augmente les scores d’un montant qui diminue de manière logarithmique. Les boosts diminuent rapidement pour les scores les plus élevés, et plus lentement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring des balises. |
ScoringProfile
Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.
| Nom | Type | Description |
|---|---|---|
| functionAggregation |
Valeur indiquant comment les résultats des fonctions de scoring individuelles doivent être combinés. La valeur par défaut est « Sum ». Ignoré s’il n’y a pas de fonctions de notation. |
|
| functions | ScoringFunction[]: |
L’ensemble des fonctions qui influencent la notation des documents. |
| name |
string |
Nom du profil de notation. |
| text |
Paramètres qui améliorent le scoring en fonction des correspondances de texte dans certains champs d’index. |
SearchField
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.
| Nom | Type | Description |
|---|---|---|
| analyzer |
Nom de l’analyseur à utiliser pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche et ne peut pas être définie avec searchAnalyzer ou indexAnalyzer. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes. |
|
| dimensions |
integer (int32) minimum: 2maximum: 4096 |
Dimensionnalité du champ vectoriel. |
| facetable |
boolean |
Valeur indiquant s’il faut permettre au champ d’être référencé dans les requêtes de facettes. Généralement utilisé dans une présentation des résultats de recherche qui inclut le nombre d’accès par catégorie (par exemple, recherchez des caméras numériques et voyez les hits par marque, par millisecondes, par prix, etc.). Cette propriété doit être null pour les champs complexes. Les champs de type Edm.GeographyPoint ou Collection (Edm.GeographyPoint) ne peuvent pas être facetables. La valeur par défaut est true pour tous les autres champs simples. |
| fields |
Une liste de sous-champs s’il s’agit d’un champ de type Edm.ComplexType ou Collection(Edm.ComplexType). Doit être null ou vide pour les champs simples. |
|
| filterable |
boolean |
Valeur indiquant si le champ doit être référencé dans $filter requêtes. filtrable diffère de l’élément pouvant faire l’objet d’une recherche dans la façon dont les chaînes sont gérées. Les champs de type Edm.String ou Collection(Edm.String) qui sont filtrables ne subissent pas de rupture de mot, de sorte que les comparaisons ne concernent que les correspondances exactes. Par exemple, si vous définissez un tel champ f sur « jour ensoleillé », $filter=f eq 'sunny' ne trouvera aucune correspondance, mais $filter=f eq 'sunny day' sera. Cette propriété doit être null pour les champs complexes. La valeur par défaut est true pour les champs simples et null pour les champs complexes. |
| indexAnalyzer |
Nom de l’analyseur utilisé au moment de l’indexation pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Elle doit être définie avec searchAnalyzer et elle ne peut pas être définie avec l’option analyseur. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes. |
|
| key |
boolean |
Valeur indiquant si le champ identifie de manière unique les documents dans l’index. Un champ de niveau supérieur exactement dans chaque index doit être choisi comme champ de clé et doit être de type Edm.String. Les champs clés peuvent être utilisés pour rechercher des documents directement et mettre à jour ou supprimer des documents spécifiques. La valeur par défaut est false pour les champs simples et null pour les champs complexes. |
| name |
string |
Nom du champ, qui doit être unique dans la collection de champs du champ index ou parent. |
| normalizer |
Nom du normaliseur à utiliser pour le champ. Cette option ne peut être utilisée qu’avec des champs pour lesquels les champs filtrables, triables ou à facettes sont activés. Une fois le normaliseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes. |
|
| retrievable |
boolean |
Valeur indiquant si le champ peut être retourné dans un résultat de recherche. Vous pouvez désactiver cette option si vous souhaitez utiliser un champ (par exemple, marge) comme mécanisme de filtrage, de tri ou de scoring, mais ne souhaitez pas que le champ soit visible pour l’utilisateur final. Cette propriété doit être true pour les champs clés et null pour les champs complexes. Cette propriété peut être modifiée sur les champs existants. L’activation de cette propriété n’entraîne aucune augmentation des exigences de stockage d’index. La valeur par défaut est true pour les champs simples, false pour les champs vectoriels et null pour les champs complexes. |
| searchAnalyzer |
Nom de l’analyseur utilisé au moment de la recherche du champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Il doit être défini avec indexAnalyzer et il ne peut pas être défini avec l’option analyzer. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Cet analyseur peut être mis à jour sur un champ existant. Doit être null pour les champs complexes. |
|
| searchable |
boolean |
Valeur indiquant si le champ peut faire l’objet d’une recherche en texte intégral. Cela signifie qu’il subira une analyse telle que la rupture de mots lors de l’indexation. Si vous définissez un champ pouvant faire l’objet d’une recherche sur une valeur telle que « jour ensoleillé », il sera divisé en interne en jetons individuels « ensoleillé » et « jour ». Cela permet de rechercher en texte intégral ces termes. Les champs de type Edm.String ou Collection(Edm.String) peuvent faire l’objet d’une recherche par défaut. Cette propriété doit être false pour les champs simples d’autres types de données autres que des chaînes, et elle doit être null pour les champs complexes. Remarque : les champs pouvant faire l’objet d’une recherche consomment de l’espace supplémentaire dans votre index pour prendre en charge des versions tokenisées supplémentaires de la valeur de champ pour les recherches en texte intégral. Si vous souhaitez économiser de l’espace dans votre index et que vous n’avez pas besoin d’un champ à inclure dans les recherches, définissez la valeur false dans la recherche. |
| sortable |
boolean |
Valeur indiquant si le champ doit être référencé dans $orderby expressions. Par défaut, le moteur de recherche trie les résultats par score, mais dans de nombreuses expériences, les utilisateurs souhaitent trier par champs dans les documents. Un champ simple peut être triable uniquement s’il est à valeur unique (il a une valeur unique dans l’étendue du document parent). Les champs de collection simples ne peuvent pas être triables, car ils sont à valeurs multiples. Les sous-champs simples des collections complexes sont également à valeurs multiples et ne peuvent donc pas être triables. C’est vrai, qu’il s’agisse d’un champ parent immédiat ou d’un champ ancêtre, c’est la collection complexe. Les champs complexes ne peuvent pas être triés et la propriété sortable doit être null pour ces champs. La valeur par défaut de sortable est true pour les champs simples à valeur unique, false pour les champs simples à plusieurs valeurs et null pour les champs complexes. |
| stored |
boolean |
Valeur immuable indiquant si le champ sera conservé séparément sur le disque à retourner dans un résultat de recherche. Vous pouvez désactiver cette option si vous ne prévoyez pas de renvoyer le contenu du champ dans une réponse de recherche pour économiser sur la surcharge de stockage. Cela ne peut être défini que lors de la création d’index et uniquement pour les champs vectoriels. Cette propriété ne peut pas être modifiée pour les champs existants ou définie comme false pour les nouveaux champs. Si cette propriété est définie sur false, la propriété 'retrievable' doit également être définie sur false. Cette propriété doit être true ou non définie pour les champs clés, pour les nouveaux champs et pour les champs non vectoriels, et elle doit être null pour les champs complexes. La désactivation de cette propriété réduit les exigences de stockage d’index. La valeur par défaut est true pour les champs vectoriels. |
| synonymMaps |
string[] |
Liste des noms des mappages de synonymes à associer à ce champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Actuellement, une seule carte de synonymes par champ est prise en charge. L’affectation d’un mappage de synonymes à un champ garantit que les termes de requête ciblant ce champ sont développés au moment de la requête à l’aide des règles de la carte de synonymes. Cet attribut peut être modifié sur les champs existants. Doit être null ou une collection vide pour les champs complexes. |
| type |
Type de données du champ. |
|
| vectorEncoding |
Format d’encodage pour interpréter le contenu du champ. |
|
| vectorSearchProfile |
string |
Nom du profil de recherche vectorielle qui spécifie l’algorithme et le vectoriseur à utiliser lors de la recherche dans le champ vectoriel. |
SearchFieldDataType
Définit le type de données d’un champ dans un index de recherche.
| Valeur | Description |
|---|---|
| Edm.String |
Indique qu’un champ contient une chaîne. |
| Edm.Int32 |
Indique qu’un champ contient un entier signé 32 bits. |
| Edm.Int64 |
Indique qu’un champ contient un entier signé 64 bits. |
| Edm.Double |
Indique qu’un champ contient un nombre à virgule flottante double précision IEEE. |
| Edm.Boolean |
Indique qu’un champ contient une valeur booléenne (true ou false). |
| Edm.DateTimeOffset |
Indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire. |
| Edm.GeographyPoint |
Indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude. |
| Edm.ComplexType |
Indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types. |
| Edm.Single |
Indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Single). |
| Edm.Half |
Indique qu’un champ contient un nombre à virgule flottante demi-précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Half). |
| Edm.Int16 |
Indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Int16). |
| Edm.SByte |
Indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.SByte). |
| Edm.Byte |
Indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Byte). |
SearchIndex
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.
| Nom | Type | Description |
|---|---|---|
| @odata.etag |
string |
ETag de l’index. |
| analyzers | LexicalAnalyzer[]: |
Analyseurs de l’index. |
| charFilters | CharFilter[]: |
Filtres de caractères pour l’index. |
| corsOptions |
Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index. |
|
| defaultScoringProfile |
string |
Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé. |
| description |
string |
Description de l’indice. |
| encryptionKey |
Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé sert à fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez être pleinement assuré que personne, pas même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement à l’aide de clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés à partir du 1er janvier 2019. |
|
| fields |
Champs de l’index. |
|
| name |
string |
Nom de l’index. |
| normalizers | LexicalNormalizer[]: |
Normaliseurs de l’index. |
| scoringProfiles |
Profils de scoring pour l’index. |
|
| semantic |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
|
| similarity | SimilarityAlgorithm: |
Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé. |
| suggesters |
Suggesteurs pour l’index. |
|
| tokenFilters |
TokenFilter[]:
|
Le jeton filtre l’index. |
| tokenizers | LexicalTokenizer[]: |
Les tokenizers de l’index. |
| vectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
SearchIndexerDataNoneIdentity
Efface la propriété d’identité d’une source de données.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’identité. |
SearchIndexerDataUserAssignedIdentity
Spécifie l’identité d’une source de données à utiliser.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’identité. |
| userAssignedIdentity |
string |
Id de ressource Azure complet d’une identité managée affectée par l’utilisateur sous la forme « /subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId » qui doit avoir été affecté au service de recherche. |
SearchResourceEncryptionKey
Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des cartes de synonymes.
| Nom | Type | Description |
|---|---|---|
| accessCredentials.applicationId |
string |
ID d’application AAD qui a reçu les autorisations d’accès requises au coffre de clés Azure à utiliser lors du chiffrement de vos données au repos. L’ID d’application ne doit pas être confondu avec l’ID d’objet de votre application AAD. |
| accessCredentials.applicationSecret |
string |
Clé d’authentification de l’application AAD spécifiée. |
| identity | SearchIndexerDataIdentity: |
Identité managée explicite à utiliser pour cette clé de chiffrement. Si elle n’est pas spécifiée et que la propriété d’informations d’identification d’accès est null, l’identité managée affectée par le système est utilisée. Lors de la mise à jour vers la ressource, si l’identité explicite n’est pas spécifiée, elle reste inchangée. Si « none » est spécifié, la valeur de cette propriété est effacée. |
| keyVaultKeyName |
string |
Nom de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos. |
| keyVaultKeyVersion |
string |
Version de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos. |
| keyVaultUri |
string |
URI de votre coffre de clés Azure, également appelé nom DNS, qui contient la clé à utiliser pour chiffrer vos données au repos. Un exemple d’URI peut être |
SearchSuggester
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.
| Nom | Type | Description |
|---|---|---|
| name |
string |
Nom de l’auteur de la suggestion. |
| searchMode |
enum:
analyzing |
Valeur indiquant les capacités du suggesteur. |
| sourceFields |
string[] |
Liste des noms de champs auxquels le suggesteur s’applique. Chaque champ doit pouvoir faire l’objet d’une recherche. |
SemanticConfiguration
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.
| Nom | Type | Description |
|---|---|---|
| name |
string |
Nom de la configuration sémantique. |
| prioritizedFields |
Décrit les champs de titre, de contenu et de mot clé à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Au moins l’une des trois sous-propriétés (titleField, hiérarchiséKeywordsFields et hiérarchiséContentFields) doit être définie. |
|
| rankingOrder |
Spécifie le type de score à utiliser pour l’ordre de tri des résultats de la recherche. |
SemanticField
Champ utilisé dans le cadre de la configuration sémantique.
| Nom | Type | Description |
|---|---|---|
| fieldName |
string |
Nom de fichier |
SemanticPrioritizedFields
Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.
| Nom | Type | Description |
|---|---|---|
| prioritizedContentFields |
Définit les champs de contenu à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Pour un résultat optimal, les champs sélectionnés doivent contenir du texte sous forme de langage naturel. L’ordre des champs dans le tableau représente leur priorité. Les champs avec une priorité inférieure peuvent être tronqués si le contenu est long. |
|
| prioritizedKeywordsFields |
Définit les champs de mots-clés à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Pour un résultat optimal, les champs sélectionnés doivent contenir une liste de mots-clés. L’ordre des champs dans le tableau représente leur priorité. Les champs avec une priorité inférieure peuvent être tronqués si le contenu est long. |
|
| titleField |
Définit le champ de titre à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Si vous n’avez pas de champ de titre dans votre index, laissez ce champ vide. |
SemanticSearch
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.
| Nom | Type | Description |
|---|---|---|
| configurations |
Configurations sémantiques de l’index. |
|
| defaultConfiguration |
string |
Vous permet de définir le nom d’une configuration sémantique par défaut dans votre index, ce qui rend facultatif le fait de la transmettre en tant que paramètre de requête à chaque fois. |
ShingleTokenFilter
Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| filterToken |
string |
_ |
Chaîne à insérer pour chaque position à laquelle il n’existe aucun jeton. La valeur par défaut est un trait de soulignement (« _ »). |
| maxShingleSize |
integer (int32) minimum: 2 |
2 |
Taille maximale du bardeau. La valeur par défaut et la valeur minimale est 2. |
| minShingleSize |
integer (int32) minimum: 2 |
2 |
Taille minimale du bardeau. La valeur par défaut et la valeur minimale est 2. Doit être inférieur à la valeur de maxShingleSize. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| outputUnigrams |
boolean |
True |
Valeur indiquant si le flux de sortie contiendra les jetons d’entrée (unigrammes) ainsi que les bardeaux. La valeur par défaut est true. |
| outputUnigramsIfNoShingles |
boolean |
False |
Valeur indiquant s’il faut générer des unigrammes pour ces moments où aucun bardeau n’est disponible. Cette propriété est prioritaire lorsque outputUnigrams a la valeur false. La valeur par défaut est false. |
| tokenSeparator |
string |
Chaîne à utiliser lors de la jointure de jetons adjacents pour former un bardeau. La valeur par défaut est un espace unique ( » « ). |
SnowballTokenFilter
Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| language |
Langue à utiliser. |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
SnowballTokenFilterLanguage
Langue à utiliser pour un filtre de jeton Snowball.
| Valeur | Description |
|---|---|
| armenian |
Sélectionne le générateur de jetons Lucene Snowball pour l’arménien. |
| basque |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le basque. |
| catalan |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le catalan. |
| danish |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le danois. |
| dutch |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le néerlandais. |
| english |
Sélectionne le générateur de jetons de racine Lucene Snowball pour l’anglais. |
| finnish |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le finnois. |
| french |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le français. |
| german |
Sélectionne le générateur de jetons de tige Lucene Snowball pour l’allemand. |
| german2 |
Sélectionne le générateur de jetons Lucene Snowball qui utilise l’algorithme de variante allemande. |
| hungarian |
Sélectionne le générateur de jetons Lucene Snowball pour le hongrois. |
| italian |
Sélectionne le générateur de jetons de tige Lucene Snowball pour l’italien. |
| kp |
Sélectionne le générateur de jetons de radical Lucene Snowball pour le néerlandais qui utilise l’algorithme de radical Kraaij-Pohlmann. |
| lovins |
Sélectionne le générateur de jets de radical Lucene Snowball pour l’anglais qui utilise l’algorithme de radical Lovins. |
| norwegian |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le norvégien. |
| porter |
Sélectionne le générateur de jetons de radical Lucene Snowball pour l’anglais qui utilise l’algorithme de notation Porter. |
| portuguese |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le portugais. |
| romanian |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le roumain. |
| russian |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le russe. |
| spanish |
Sélectionne le générateur de jetons de tige Lucene Snowball pour l’espagnol. |
| swedish |
Sélectionne le générateur de jetons de tige Lucene Snowball pour le suédois. |
| turkish |
Sélectionne le générateur de jetons Lucene Snowball pour le turc. |
StemmerOverrideTokenFilter
Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de lemmatisation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
| rules |
string[] |
Liste des règles de recherche de base au format suivant : « word => stem », par exemple : « ran => run ». |
StemmerTokenFilter
Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| language |
Langue à utiliser. |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
StemmerTokenFilterLanguage
Langue à utiliser pour un filtre de jeton de type dérivé.
| Valeur | Description |
|---|---|
| arabic |
Sélectionne le générateur de jetons de radicalisation Lucene pour l’arabe. |
| armenian |
Sélectionne le générateur de jetons Lucene pour l’arménien. |
| basque |
Sélectionne le générateur de jetons de radical Lucene pour le basque. |
| brazilian |
Sélectionne le générateur de jetons Lucene pour le portugais (Brésil). |
| bulgarian |
Sélectionne le générateur de jetons de radical Lucene pour le bulgare. |
| catalan |
Sélectionne le générateur de jetons de radical Lucene pour le catalan. |
| czech |
Sélectionne le générateur de jetons de recherche de racines Lucene pour le tchèque. |
| danish |
Sélectionne le générateur de jetons de stemming Lucene pour le danois. |
| dutch |
Sélectionne le générateur de jetons de radical Lucene pour le néerlandais. |
| dutchKp |
Sélectionne le générateur de jetons de stemming Lucene pour le néerlandais qui utilise l’algorithme de stemming Kraaij-Pohlmann. |
| english |
Sélectionne le générateur de jetons de radical Lucene pour l’anglais. |
| lightEnglish |
Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui effectue un stemming léger. |
| minimalEnglish |
Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui effectue un stemming minimal. |
| possessiveEnglish |
Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui supprime les possessifs de fin des mots. |
| porter2 |
Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui utilise l’algorithme de stemming Porter2. |
| lovins |
Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui utilise l’algorithme de stemming Lovins. |
| finnish |
Sélectionne le générateur de jetons Lucene pour le finnois. |
| lightFinnish |
Sélectionne le générateur de jetons de radical Lucene pour le finnois qui effectue un stemming léger. |
| french |
Sélectionne le générateur de jetons Lucene pour le français. |
| lightFrench |
Sélectionne le générateur de jetons de radical Lucene pour le français qui effectue un stemming léger. |
| minimalFrench |
Sélectionne le générateur de jetons de radical Lucene pour le français qui effectue un minimum de stemming. |
| galician |
Sélectionne le générateur de jetons de stemming Lucene pour le galicien. |
| minimalGalician |
Sélectionne le générateur de jetons de stemming Lucene pour le galicien qui effectue un stemming minimal. |
| german |
Sélectionne le générateur de jetons de radical Lucene pour l’allemand. |
| german2 |
Sélectionne le générateur de jetons Lucene qui utilise l’algorithme de variante allemande. |
| lightGerman |
Sélectionne le générateur de jetons de radical Lucene pour l’allemand qui effectue un stemming léger. |
| minimalGerman |
Sélectionne le générateur de jetons de radicalisation Lucene pour l’allemand qui effectue une recherche minimale de racines. |
| greek |
Sélectionne le générateur de jetons de radical Lucene pour le grec. |
| hindi |
Sélectionne le générateur de jetons de radical Lucene pour l’hindi. |
| hungarian |
Sélectionne le générateur de jetons de radical Lucene pour le hongrois. |
| lightHungarian |
Sélectionne le générateur de jetons de radicalisation Lucene pour le hongrois qui effectue la création de racines légères. |
| indonesian |
Sélectionne le générateur de jetons de recherche de radical Lucene pour l’indonésien. |
| irish |
Sélectionne le générateur de jetons de radical Lucene pour l’irlandais. |
| italian |
Sélectionne le générateur de jetons de radical Lucene pour l’italien. |
| lightItalian |
Sélectionne le générateur de jetons de radical Lucene pour l’italien qui effectue un stemming léger. |
| sorani |
Sélectionne le générateur de jetons de recherche de racines Lucene pour Sorani. |
| latvian |
Sélectionne le générateur de jetons Lucene pour le letton. |
| norwegian |
Sélectionne le tokeniseur de dérivation Lucène pour le norvégien (Bokmål). |
| lightNorwegian |
Sélectionne le tokeniseur de stemming Lucene pour le norvégien (Bokmål) qui fait un stem léger. |
| minimalNorwegian |
Sélectionne le tokeniseur de stemming Lucene pour le norvégien (Bokmål) qui fait un stemming minimal. |
| lightNynorsk |
Sélectionne le générateur de jetons de radicalisation Lucene pour le norvégien (Nynorsk) qui effectue une migration de radical légère. |
| minimalNynorsk |
Sélectionne le générateur de jetons de radicalisation Lucene pour le norvégien (Nynorsk) qui effectue une recherche minimale de racines. |
| portuguese |
Sélectionne le générateur de jetons de radical Lucene pour le portugais. |
| lightPortuguese |
Sélectionne le générateur de jetons de radical Lucene pour le portugais qui effectue un stemming léger. |
| minimalPortuguese |
Sélectionne le générateur de jetons de radical Lucene pour le portugais qui effectue un minimum de stemming. |
| portugueseRslp |
Sélectionne le générateur de jetons de stemming Lucene pour le portugais qui utilise l’algorithme de stemming RSLP. |
| romanian |
Sélectionne le générateur de jetons de radical Lucene pour le roumain. |
| russian |
Sélectionne le générateur de jetons Lucene pour le russe. |
| lightRussian |
Sélectionne le générateur de jetons de radical Lucene pour le russe qui effectue un stemming léger. |
| spanish |
Sélectionne le générateur de jetons Lucene pour l’espagnol. |
| lightSpanish |
Sélectionne le générateur de jetons de radical Lucene pour l’espagnol qui effectue un stemming léger. |
| swedish |
Sélectionne le générateur de jetons de recherche de radical Lucene pour le suédois. |
| lightSwedish |
Sélectionne le générateur de jetons de radical Lucene pour le suédois qui effectue un stemming léger. |
| turkish |
Sélectionne le générateur de jetons de radical Lucene pour le turc. |
StopAnalyzer
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Description |
|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
| name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
| stopwords |
string[] |
Liste des mots vides. |
StopwordsList
Identifie une liste prédéfinie de mots vides spécifiques à la langue.
| Valeur | Description |
|---|---|
| arabic |
Sélectionne la liste de mots vides pour l’arabe. |
| armenian |
Sélectionne la liste de mots vides pour l’arménien. |
| basque |
Sélectionne la liste de mots vides pour le basque. |
| brazilian |
Sélectionne la liste de mots vides pour le portugais (Brésil). |
| bulgarian |
Sélectionne la liste de mots vides pour le bulgare. |
| catalan |
Sélectionne la liste de mots vides pour le catalan. |
| czech |
Sélectionne la liste de mots vides pour le tchèque. |
| danish |
Sélectionne la liste de mots vides pour le danois. |
| dutch |
Sélectionne la liste de mots vides pour le néerlandais. |
| english |
Sélectionne la liste de mots vides pour l’anglais. |
| finnish |
Sélectionne la liste de mots vides pour le finnois. |
| french |
Sélectionne la liste de mots vides pour le français. |
| galician |
Sélectionne la liste de mots vides pour le galicien. |
| german |
Sélectionne la liste de mots vides pour l’allemand. |
| greek |
Sélectionne la liste de mots vides pour le grec. |
| hindi |
Sélectionne la liste de mots vides pour l’hindi. |
| hungarian |
Sélectionne la liste de mots vides pour le hongrois. |
| indonesian |
Sélectionne la liste de mots vides pour l’indonésien. |
| irish |
Sélectionne la liste de mots vides pour l’irlandais. |
| italian |
Sélectionne la liste de mots vides pour l’italien. |
| latvian |
Sélectionne la liste de mots vides pour le letton. |
| norwegian |
Sélectionne la liste de mots vides pour le norvégien. |
| persian |
Sélectionne la liste de mots vides pour le persan. |
| portuguese |
Sélectionne la liste de mots vides pour le portugais. |
| romanian |
Sélectionne la liste de mots vides pour le roumain. |
| russian |
Sélectionne la liste de mots vides pour le russe. |
| sorani |
Sélectionne la liste de mots vides pour Sorani. |
| spanish |
Sélectionne la liste de mots vides pour l’espagnol. |
| swedish |
Sélectionne la liste de mots vides pour le suédois. |
| thai |
Sélectionne la liste de mots vides pour le thaï. |
| turkish |
Sélectionne la liste de mots vides pour le turc. |
StopwordsTokenFilter
Supprime les mots vides d’un flux de tokens. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| ignoreCase |
boolean |
False |
Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| removeTrailing |
boolean |
True |
Valeur indiquant s’il faut ignorer le dernier terme de recherche s’il s’agit d’un mot vide. La valeur par défaut est true. |
| stopwords |
string[] |
Liste des mots vides. Cette propriété et la propriété de liste des mots vides ne peuvent pas être définies. |
|
| stopwordsList | english |
Liste prédéfinie des mots vides à utiliser. Cette propriété et la propriété stopwords ne peuvent pas être définies. La valeur par défaut est l’anglais. |
SynonymTokenFilter
Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| expand |
boolean |
True |
Valeur indiquant si tous les mots de la liste des synonymes (si => notation n’est pas utilisée) sont mappés les uns aux autres. Si la valeur est true, tous les mots de la liste des synonymes (if => notation ne sont pas utilisés) sont mappés les uns aux autres. La liste suivante : incroyable, incroyable, fabuleux, incroyable est équivalent à : incroyable, incroyable, fabuleux, incroyable => incroyable, incroyable, fabuleux, incroyable, incroyable. Si faux, la liste suivante : incroyable, incroyable, fabuleux, incroyable sera équivalent à : incroyable, incroyable, fabuleux, fabuleux => incroyable. La valeur par défaut est true. |
| ignoreCase |
boolean |
False |
Valeur indiquant s’il faut entrer un pliage de casse pour la correspondance. La valeur par défaut est false. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| synonyms |
string[] |
Liste de synonymes dans l’un des deux formats suivants : 1. incroyable, incroyable, fabuleux => incroyable - tous les termes sur le côté gauche de => symbole sera remplacé par tous les termes de son côté droit ; 2. incroyable, incroyable, fabuleux, incroyable - liste séparée par des virgules de mots équivalents. Définissez l’option expand pour changer la façon dont cette liste est interprétée. |
TagScoringFunction
Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.
| Nom | Type | Description |
|---|---|---|
| boost |
number (double) |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
| fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
| interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
| tag |
Valeurs de paramètre pour la fonction de scoring d’étiquette. |
|
| type |
string:
tag |
Type de ScoreFunction. |
TagScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.
| Nom | Type | Description |
|---|---|---|
| tagsParameter |
string |
Nom du paramètre passé dans les requêtes de recherche pour spécifier la liste des balises à comparer avec le champ cible. |
TextWeights
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.
| Nom | Type | Description |
|---|---|---|
| weights |
object |
Le dictionnaire des pondérations par champ pour améliorer la notation des documents. Les clés sont des noms de champs et les valeurs sont les pondérations de chaque champ. |
TokenCharacterKind
Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner.
| Valeur | Description |
|---|---|
| letter |
Conserve les lettres dans les jetons. |
| digit |
Conserve les chiffres dans les jetons. |
| whitespace |
Conserve les espaces dans les jetons. |
| punctuation |
Conserve la ponctuation en jetons. |
| symbol |
Conserve les symboles dans des jetons. |
TokenFilterName
Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.
TruncateTokenFilter
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| length |
integer (int32) maximum: 300 |
300 |
Longueur à laquelle les termes seront tronqués. La valeur par défaut et la valeur maximale est 300. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
UaxUrlEmailTokenizer
Identifie les URL et les e-mails comme un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| maxTokenLength |
integer (int32) maximum: 300 |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
| name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
UniqueTokenFilter
Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| onlyOnSamePosition |
boolean |
False |
Valeur indiquant s’il faut supprimer les doublons uniquement à la même position. La valeur par défaut est false. |
VectorEncodingFormat
Format d’encodage pour l’interprétation du contenu des champs vectoriels.
| Valeur | Description |
|---|---|
| packedBit |
Format d’encodage représentant les bits empaquetés dans un type de données plus large. |
VectorSearch
Contient des options de configuration liées à la recherche vectorielle.
| Nom | Type | Description |
|---|---|---|
| algorithms | VectorSearchAlgorithmConfiguration[]: |
Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation ou de l’interrogation. |
| compressions | VectorSearchCompression[]: |
Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation. |
| profiles |
Définit des combinaisons de configurations à utiliser avec la recherche vectorielle. |
|
| vectorizers | VectorSearchVectorizer[]: |
Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte. |
VectorSearchAlgorithmKind
Algorithme utilisé pour l’indexation et l’interrogation.
| Valeur | Description |
|---|---|
| hnsw |
HNSW (Hiérarchique Navigable Small World), un type d’algorithme voisin le plus proche approximatif. |
| exhaustiveKnn |
Algorithme KNN exhaustif qui effectuera une recherche par force brute. |
VectorSearchAlgorithmMetric
Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé.
| Valeur | Description |
|---|---|
| cosine |
Mesure l’angle entre les vecteurs pour quantifier leur similarité, sans tenir compte de l’ampleur. Plus l’angle est petit, plus la similarité est proche. |
| euclidean |
Calcule la distance droite entre les vecteurs dans un espace multidimensionnel. Plus la distance est réduite, plus la similarité est proche. |
| dotProduct |
Calcule la somme des produits à l’échelle des éléments pour évaluer l’alignement et la similarité de magnitude. Plus le plus grand et plus positif, plus la similarité est proche. |
| hamming |
Applicable uniquement aux types de données binaires compressés par bits. Détermine la dissimilité en comptant les positions différentes dans les vecteurs binaires. Plus les différences sont moindres, plus la similarité est proche. |
VectorSearchCompressionKind
Méthode de compression utilisée pour l’indexation et l’interrogation.
| Valeur | Description |
|---|---|
| scalarQuantization |
Quantization scalaire, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données. |
| binaryQuantization |
Quantization binaire, type de méthode de compression. Dans la quantisation binaire, les valeurs de vecteurs d’origine sont compressées dans le type binaire plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données. |
VectorSearchCompressionTarget
Type de données quantifiées des valeurs vectorielles compressées.
| Valeur | Description |
|---|---|
| int8 |
Entier signé 8 bits. |
VectorSearchProfile
Définit une combinaison de configurations à utiliser avec la recherche vectorielle.
| Nom | Type | Description |
|---|---|---|
| algorithm |
string |
Nom de la configuration de l’algorithme de recherche vectorielle qui spécifie l’algorithme et les paramètres facultatifs. |
| compression |
string |
Nom de la configuration de la méthode de compression qui spécifie la méthode de compression et les paramètres facultatifs. |
| name |
string |
Nom à associer à ce profil de recherche vectorielle particulier. |
| vectorizer |
string |
Nom de la vectorisation configurée pour être utilisée avec la recherche vectorielle. |
VectorSearchVectorizerKind
Méthode de vectorisation à utiliser au moment de la requête.
| Valeur | Description |
|---|---|
| azureOpenAI |
Générez des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête. |
| customWebApi |
Générez des incorporations à l’aide d’un point de terminaison web personnalisé au moment de la requête. |
| aiServicesVision |
Générez des incorporations pour une entrée image ou texte au moment de la requête à l’aide de l’API Vision Vectorize d’Azure AI Services. |
| aml |
Générez des intégrations à l’aide d’un point de terminaison Azure Machine Learning déployé via le catalogue de modèles Azure AI Foundry au moment de la requête. |
WebApiVectorizer
Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.
| Nom | Type | Description |
|---|---|---|
| customWebApiParameters |
Spécifie les propriétés du vectoriseur défini par l’utilisateur. |
|
| kind |
string:
custom |
Type de vectoriseur de recherche. |
| name |
string |
Nom à associer à cette méthode de vectorisation particulière. |
WebApiVectorizerParameters
Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.
| Nom | Type | Description |
|---|---|---|
| authIdentity | SearchIndexerDataIdentity: |
Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. Si une authResourceId est fournie et qu’elle n’est pas spécifiée, l’identité managée affectée par le système est utilisée. Lors des mises à jour de l’indexeur, si l’identité n’est pas spécifiée, la valeur reste inchangée. Si la valeur est « none », la valeur de cette propriété est effacée. |
| authResourceId |
string |
S’applique aux points de terminaison personnalisés qui se connectent à du code externe dans une fonction Azure ou une autre application fournissant les transformations. Cette valeur doit être l’ID d’application créé pour la fonction ou l’application lorsqu’elle a été inscrite auprès d’Azure Active Directory. Lorsqu’elle est spécifiée, la vectorisation se connecte à la fonction ou à l’application à l’aide d’un ID managé (attribué par le système ou par l’utilisateur) du service de recherche et du jeton d’accès de la fonction ou de l’application, en utilisant cette valeur comme ID de ressource pour la création de l’étendue du jeton d’accès. |
| httpHeaders |
object |
Les en-têtes nécessaires pour effectuer la requête HTTP. |
| httpMethod |
string |
Méthode de la requête HTTP. |
| timeout |
string (duration) |
Délai d’expiration souhaité pour la requête. La valeur par défaut est de 30 secondes. |
| uri |
string (uri) |
URI de l’API Web fournissant le vectoriseur. |
WordDelimiterTokenFilter
Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
| Nom | Type | Valeur par défaut | Description |
|---|---|---|---|
| @odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
|
| catenateAll |
boolean |
False |
Valeur indiquant si toutes les parties de sous-mots seront catenées. Par exemple, si cette valeur est définie sur true, « Azure-Search-1 » devient « AzureSearch1 ». La valeur par défaut est false. |
| catenateNumbers |
boolean |
False |
Valeur indiquant si le nombre maximal d’exécutions de parties sera catenté. Par exemple, si cette valeur est définie sur true, « 1-2 » devient « 12 ». La valeur par défaut est false. |
| catenateWords |
boolean |
False |
Valeur indiquant si le nombre maximal d’exécutions de parties word sera catenté. Par exemple, si cette valeur est définie sur true, « Azure-Search » devient « AzureSearch ». La valeur par défaut est false. |
| generateNumberParts |
boolean |
True |
Valeur indiquant s’il faut générer des sous-mots numériques. La valeur par défaut est true. |
| generateWordParts |
boolean |
True |
Valeur indiquant s’il faut générer des mots de partie. Si cette valeur est définie, les parties des mots doivent être générées ; par exemple , « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true. |
| name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
| preserveOriginal |
boolean |
False |
Valeur indiquant si les mots d’origine seront conservés et ajoutés à la liste des sous-mots. La valeur par défaut est false. |
| protectedWords |
string[] |
Liste des jetons à protéger contre la délimitation. |
|
| splitOnCaseChange |
boolean |
True |
Valeur indiquant s’il faut fractionner des mots sur caseChange. Par exemple, si cette valeur est définie sur true, « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true. |
| splitOnNumerics |
boolean |
True |
Valeur indiquant s’il faut fractionner les nombres. Par exemple, si cette valeur est définie sur true, « Azure1Search » devient « Azure » « 1 » « Search ». La valeur par défaut est true. |
| stemEnglishPossessive |
boolean |
True |
Valeur indiquant s’il faut supprimer les « s » de fin pour chaque sous-mot. La valeur par défaut est true. |