Indexes - Create Or Update

Crée un nouvel index de recherche ou met à jour un index s’il existe déjà.

PUT {endpoint}/indexes('{indexName}')?api-version=2026-04-01
PUT {endpoint}/indexes('{indexName}')?api-version=2026-04-01&allowIndexDowntime={allowIndexDowntime}

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint
path True

string (uri)

URL du point de terminaison du service de recherche.

indexName
path True

string

Nom de l’index.

api-version
query True

string

minLength: 1

Version de l’API à utiliser pour cette opération.

allowIndexDowntime
query

boolean

Permet aux nouveaux analyseurs, tokenizers, filtres de jetons ou filtres char d’être ajoutés à un index en mettant l’index hors connexion pendant au moins quelques secondes. Cela entraîne temporairement l’échec de l’indexation et des requêtes. La disponibilité des performances et de l’écriture de l’index peut être altérée pendant plusieurs minutes après la mise à jour de l’index, ou plus longtemps pour les index très volumineux.

En-tête de la demande

Nom Obligatoire Type Description
Accept

Accept

L’en-tête Accept.

If-Match

string

Définit la condition If-Match. L’opération ne sera effectuée que si l’ETag sur le serveur correspond à cette valeur.

If-None-Match

string

Définit la condition If-None-Match. L’opération ne sera effectuée que si l’ETag sur le serveur ne correspond pas à cette valeur.

Prefer True

Prefer

Pour les requêtes HTTP PUT, indique au service de renvoyer la ressource créée/mise à jour en cas de réussite.

x-ms-client-request-id

string (uuid)

Identificateur de chaîne opaque, globalement unique et généré par le client pour la requête.

Corps de la demande

Nom Obligatoire Type Description
fields True

SearchField[]

Champs de l’index.

name True

string

Nom de l’index.

@odata.etag

string

ETag de l’index.

analyzers LexicalAnalyzer[]:

Analyseurs de l’index.

charFilters CharFilter[]:

Filtres de caractères pour l’index.

corsOptions

CorsOptions

Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index.

defaultScoringProfile

string

Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé.

description

string

Description de l’indice.

encryptionKey

SearchResourceEncryptionKey

Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé sert à fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez être pleinement assuré que personne, pas même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement à l’aide de clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés à partir du 1er janvier 2019.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

Normaliseurs de l’index.

scoringProfiles

ScoringProfile[]

Profils de scoring pour l’index.

semantic

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

similarity SimilarityAlgorithm:

Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé.

suggesters

SearchSuggester[]

Suggesteurs pour l’index.

tokenFilters TokenFilter[]:

Le jeton filtre l’index.

tokenizers LexicalTokenizer[]:

Les tokenizers de l’index.

vectorSearch

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

Réponses

Nom Type Description
200 OK

SearchIndex

La demande a réussi.

201 Created

SearchIndex

La requête a réussi et une nouvelle ressource a été créée en conséquence.

Other Status Codes

ErrorResponse

Réponse d’erreur inattendue.

Sécurité

api-key

Type: apiKey
Dans: header

OAuth2Auth

Type: oauth2
Flux: implicit
URL d’autorisation: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Étendues

Nom Description
https://search.azure.com/.default

Exemples

SearchServiceCreateOrUpdateIndex

Exemple de requête

PUT https://exampleservice.search.windows.net/indexes('temp-example-index')?api-version=2026-04-01&allowIndexDowntime=





{
  "name": "temp-example-index",
  "description": "description",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "key": true,
      "sortable": true
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 20,
      "vectorSearchProfile": "config1"
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 32,
      "vectorSearchProfile": "config4"
    },
    {
      "name": "name",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "standard.lucene"
    },
    {
      "name": "category",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "retrievable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "tag": {
            "tagsParameter": "categoryTag"
          },
          "type": "tag",
          "fieldName": "category",
          "boost": 2
        }
      ]
    }
  ],
  "defaultScoringProfile": "stringFieldBoost",
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer"
    }
  ],
  "tokenizers": [
    {
      "maxTokenLength": 100,
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer"
    }
  ],
  "tokenFilters": [
    {
      "preserveOriginal": false,
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter"
    }
  ],
  "charFilters": [
    {
      "mappings": [
        ".=>,",
        "_=>-"
      ],
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping"
    }
  ],
  "normalizers": [
    {
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer"
    }
  ],
  "similarity": {
    "k1": 10,
    "b": 0.1,
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        },
        "rankingOrder": "BoostedRerankerScore"
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "algorithms": [
      {
        "hnswParameters": {
          "metric": "cosine"
        },
        "name": "cosine",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "euclidean"
        },
        "name": "euclidean",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "dotProduct"
        },
        "name": "dotProduct",
        "kind": "hnsw"
      }
    ],
    "vectorizers": [
      {
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com/",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        },
        "name": "openai",
        "kind": "azureOpenAI"
      },
      {
        "customWebApiParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "httpMethod": "POST",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        },
        "name": "custom-web-api",
        "kind": "customWebApi"
      },
      {
        "amlParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "resourceId": "aml resource id",
          "timeout": "PT1M",
          "region": "aml region",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        },
        "name": "aml",
        "kind": "aml"
      },
      {
        "amlParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "resourceId": "aml resource id",
          "timeout": "PT1M",
          "region": "aml region",
          "modelName": "Cohere-embed-v4"
        },
        "name": "aml-cohere",
        "kind": "aml"
      }
    ],
    "compressions": [
      {
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        },
        "truncationDimension": 2
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        },
        "truncationDimension": 2
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        },
        "truncationDimension": 2
      }
    ]
  },
  "@odata.etag": "0x1234568AE7E58A1"
}

Exemple de réponse

{
  "name": "temp-example-index",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 32,
      "vectorSearchProfile": "config4",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer",
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      },
      {
        "name": "aml",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        }
      },
      {
        "name": "aml-cohere",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "Cohere-embed-v4"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        }
      }
    ]
  }
}
{
  "name": "temp-example-index",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 32,
      "vectorSearchProfile": "config4",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer",
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      },
      {
        "name": "aml",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        }
      },
      {
        "name": "aml-cohere",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "Cohere-embed-v4"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        }
      }
    ]
  }
}

Définitions

Nom Description
Accept

L’en-tête Accept.

AIFoundryModelCatalogName

Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé.

AMLParameters

Spécifie les propriétés de connexion à un vectoriseur AML.

AMLVectorizer

Spécifie un point de terminaison Azure Machine Learning déployé via le catalogue Azure AI Foundry Model pour générer l’inclusion vectorielle d’une chaîne de requête.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

AzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

AzureOpenAIVectorizerParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

BinaryQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.

BM25SimilarityAlgorithm

Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

ClassicSimilarityAlgorithm

Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.

ClassicTokenizer

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

CommonGramTokenFilter

Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CorsOptions

Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.

CustomAnalyzer

Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.

CustomNormalizer

Vous permet de configurer la normalisation pour les champs filtrables, triables et facetables, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

DistanceScoringFunction

Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenFilterSide

Spécifie de quel côté de l’entrée un n-gramme doit être généré.

EdgeNGramTokenFilterV2

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

ErrorDetail

Détail de l’erreur.

ErrorResponse

Réponse à l’erreur courante pour toutes les API Azure Resource Manager afin de renvoyer les détails d’erreur pour les opérations ratées. (Cela suit également le format de réponse d’erreur OData.).

ExhaustiveKnnAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

FreshnessScoringFunction

Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

HnswAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme HNSW approximatif des voisins les plus proches utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis réglable entre vitesse de recherche et précision.

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordMarkerTokenFilter

Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordTokenizer

Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

KeywordTokenizerV2

Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

LengthTokenFilter

Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

LexicalNormalizerName

Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.

LuceneStandardTokenizer

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

LuceneStandardTokenizerV2

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.

MicrosoftLanguageTokenizer

Divise le texte en utilisant des règles spécifiques à la langue.

MicrosoftStemmingTokenizerLanguage

Liste les langages pris en charge par le tokenizer stemming du langage Microsoft.

MicrosoftTokenizerLanguage

Liste les langages pris en charge par le tokenizer de langage Microsoft.

NGramTokenFilter

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenFilterV2

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PathHierarchyTokenizerV2

Générateur de jetons pour les hiérarchies de type chemin. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PatternAnalyzer

Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternTokenizer

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

PhoneticTokenFilter

Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Prefer

Pour les requêtes HTTP PUT, indique au service de renvoyer la ressource créée/mise à jour en cas de réussite.

RankingOrder

Représente le score à utiliser pour l’ordre de tri des documents.

RescoringOptions

Contient les options de rescoring.

ScalarQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents.

ScoringProfile

Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

SearchIndexerDataNoneIdentity

Efface la propriété d’identité d’une source de données.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des cartes de synonymes.

SearchSuggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

SemanticPrioritizedFields

Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

ShingleTokenFilter

Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SnowballTokenFilter

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

StemmerOverrideTokenFilter

Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de lemmatisation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StemmerTokenFilterLanguage

Langue à utiliser pour un filtre de jeton de type dérivé.

StopAnalyzer

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

StopwordsTokenFilter

Supprime les mots vides d’un flux de tokens. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SynonymTokenFilter

Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

TagScoringFunction

Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

TokenCharacterKind

Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

UaxUrlEmailTokenizer

Identifie les URL et les e-mails comme un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

UniqueTokenFilter

Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

VectorEncodingFormat

Format d’encodage pour l’interprétation du contenu des champs vectoriels.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

VectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

VectorSearchCompressionTarget

Type de données quantifiées des valeurs vectorielles compressées.

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser au moment de la requête.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.

WebApiVectorizerParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

WordDelimiterTokenFilter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Accept

L’en-tête Accept.

Valeur Description
application/json;odata.metadata=minimal

AIFoundryModelCatalogName

Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé.

Valeur Description
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Cohere-embed-v3-english

Cohere-embed-v3-english

Cohere-embed-v3-multilingual

Cohere-embed-v3-multilingual

Cohere-embed-v4

Modèle Cohere embed v4 pour générer des plongements à partir de texte et d’images.

AMLParameters

Spécifie les propriétés de connexion à un vectoriseur AML.

Nom Type Description
key

string

(Obligatoire pour l’authentification par clé) Clé du service AML.

modelName

AIFoundryModelCatalogName

Le nom du modèle d’embarquement issu du catalogue Azure AI Foundry qui est déployé à l’extrémité fournie.

region

string

(Facultatif pour l’authentification par jeton). La région dans laquelle le service AML est déployé.

resourceId

string

(Obligatoire pour l’authentification par jeton). L’ID de ressource Azure Resource Manager du service AML. Il doit être dans le format subscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoft. MachineLearningServices/workspaces/{workspace-name}/services/{service_name}.

timeout

string (duration)

(Facultatif) Si spécifié, indique le délai d’expiration pour le client http qui effectue l’appel d’API.

uri

string (uri)

(Obligatoire pour aucune authentification ou authentification par clé) URI de scoring du service AML auquel la charge utile JSON sera envoyée. Seul le schéma d’URI https est autorisé.

AMLVectorizer

Spécifie un point de terminaison Azure Machine Learning déployé via le catalogue Azure AI Foundry Model pour générer l’inclusion vectorielle d’une chaîne de requête.

Nom Type Description
amlParameters

AMLParameters

Spécifie les propriétés du vectoriseur AML.

kind string:

aml

Type de vectoriseur de recherche.

name

string

Nom à associer à cette méthode de vectorisation particulière.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Discriminateur pour les types dérivés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

preserveOriginal

boolean

False

Valeur indiquant si le jeton d’origine sera conservé. La valeur par défaut est false.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

Valeur Description
text-embedding-ada-002

TextEmbeddingAda002 modèle.

text-embedding-3-large

TextEmbedding3Large modèle.

text-embedding-3-small

TextEmbedding3Small modèle.

gpt-5-mini

Modèle Gpt5Mini.

gpt-5-nano

Modèle Gpt5Nano.

gpt-5.4-mini

Modèle Gpt54Mini.

gpt-5.4-nano

Modèle Gpt54Nano.

AzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

Nom Type Description
azureOpenAIParameters

AzureOpenAIVectorizerParameters

Contient les paramètres spécifiques à la vectorisation d’incorporation Azure OpenAI.

kind string:

azureOpenAI

Type de vectoriseur de recherche.

name

string

Nom à associer à cette méthode de vectorisation particulière.

AzureOpenAIVectorizerParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

Nom Type Description
apiKey

string

Clé API de la ressource Azure OpenAI désignée.

authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes.

deploymentId

string

ID du déploiement du modèle Azure OpenAI sur la ressource désignée.

modelName

AzureOpenAIModelName

Nom du modèle d’incorporation déployé sur le chemin d’accès deploymentId fourni.

resourceUri

string (uri)

URI de ressource de la ressource Azure OpenAI.

BinaryQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.

Nom Type Description
kind string:

binaryQuantization

Type de Recherche VectorielleCompression.

name

string

Nom à associer à cette configuration particulière.

rescoringOptions

RescoringOptions

Contient les options de rescoring.

truncationDimension

integer (int32)

Nombre de dimensions à laquelle tronquer les vecteurs. La troncation des vecteurs réduit la taille des vecteurs et la quantité de données qui doivent être transférées pendant la recherche. Cela peut réduire les coûts de stockage et améliorer les performances de recherche au détriment du rappel. Il doit être utilisé uniquement pour les incorporations formées avec Matryoshka Representation Learning (MRL) comme OpenAI text-embedding-3-large (small). La valeur par défaut est Null, ce qui signifie qu’aucune troncation n’est définie.

BM25SimilarityAlgorithm

Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

Discriminateur pour les types dérivés.

b

number (double)

Cette propriété contrôle la façon dont la longueur d’un document affecte le score de pertinence. Par défaut, une valeur de 0,75 est utilisée. La valeur 0,0 signifie qu’aucune normalisation de longueur n’est appliquée, tandis qu’une valeur de 1,0 signifie que le score est entièrement normalisé par la longueur du document.

k1

number (double)

Cette propriété contrôle la fonction de mise à l’échelle entre la fréquence de terme de chaque terme correspondant et le score de pertinence final d’une paire document-requête. Par défaut, une valeur de 1.2 est utilisée. La valeur 0,0 signifie que le score n’est pas mis à l’échelle avec une augmentation de la fréquence de terme.

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.

Valeur Description
html_strip

Filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Discriminateur pour les types dérivés.

ignoreScripts

CjkBigramTokenFilterScripts[]

Scripts à ignorer.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

outputUnigrams

boolean

False

Valeur indiquant s’il faut générer à la fois des unigrammes et des bigrams (si true) ou simplement des bigrams (si false). La valeur par défaut est false.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

Valeur Description
han

Ignorez l’écriture Han lors de la formation de bigrammes de termes CJC.

hiragana

Ignorez l’écriture hiragana lorsque vous formez des bigrammes de termes CJC.

katakana

Ignorez l’écriture katakana lors de la formation de bigrammes de termes CJC.

hangul

Ignorez l’écriture Hangul lors de la formation de bigrammes de termes CJC.

ClassicSimilarityAlgorithm

Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

Discriminateur pour les types dérivés.

ClassicTokenizer

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Discriminateur pour les types dérivés.

maxTokenLength

integer (int32)

maximum: 300
255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

CommonGramTokenFilter

Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Discriminateur pour les types dérivés.

commonWords

string[]

Ensemble de mots communs.

ignoreCase

boolean

False

Valeur indiquant si les mots communs correspondants ne respectent pas la casse. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

queryMode

boolean

False

Valeur qui indique si le filtre de jeton est en mode requête. En mode requête, le filtre de jeton génère des bigrams, puis supprime les mots courants et les termes uniques suivis d’un mot commun. La valeur par défaut est false.

CorsOptions

Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.

Nom Type Description
allowedOrigins

string[]

La liste des origines à partir desquelles le code JavaScript sera autorisé à accéder à votre index. Peut contenir une liste d’hôtes de la forme {protocol} ://{fully-qualified-domain-name}[ :{port#}], ou un seul '*' pour autoriser toutes les origines (non recommandé).

maxAgeInSeconds

integer (int64)

Durée pendant laquelle les navigateurs doivent mettre en cache les réponses de contrôle en amont CORS. La valeur par défaut est de 5 minutes.

CustomAnalyzer

Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Discriminateur pour les types dérivés.

charFilters

CharFilterName[]

Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant qu’il ne soit traité par le générateur de jetons. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenFilters

TokenFilterName[]

Liste des filtres de jetons utilisés pour filtrer ou modifier les jetons générés par un générateur de jetons. Par exemple, vous pouvez spécifier un filtre lowercase qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

tokenizer

LexicalTokenizerName

Nom du générateur de jetons à utiliser pour diviser le texte continu en une séquence de jetons, par exemple pour décomposer une phrase en mots.

CustomNormalizer

Vous permet de configurer la normalisation pour les champs filtrables, triables et facetables, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

Discriminateur pour les types dérivés.

charFilters

CharFilterName[]

Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant son traitement. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenFilters

TokenFilterName[]

Liste des filtres de jetons utilisés pour filtrer ou modifier le jeton d’entrée. Par exemple, vous pouvez spécifier un filtre lowercase qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Discriminateur pour les types dérivés.

maxSubwordSize

integer (int32)

maximum: 300
15

Taille maximale des sous-mots. Seuls les sous-mots plus courts que celui-ci sont générés. La valeur par défaut est 15. La valeur maximale est de 300.

minSubwordSize

integer (int32)

maximum: 300
2

Taille minimale du sous-mot. Seuls les sous-mots plus longs que ceux-ci sont générés. La valeur par défaut est 2. La valeur maximale est de 300.

minWordSize

integer (int32)

maximum: 300
5

Taille minimale du mot. Seuls les mots plus longs que celui-ci sont traités. La valeur par défaut est 5. La valeur maximale est de 300.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

onlyLongestMatch

boolean

False

Valeur indiquant s’il faut ajouter uniquement le sous-mot correspondant le plus long à la sortie. La valeur par défaut est false.

wordList

string[]

Liste des mots à mettre en correspondance.

DistanceScoringFunction

Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.

Nom Type Description
boost

number (double)

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

distance

DistanceScoringParameters

Valeurs de paramètre pour la fonction de scoring de distance.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

type string:

distance

Type de ScoreFunction.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

Nom Type Description
boostingDistance

number (double)

La distance en kilomètres à partir de l’emplacement de référence où se termine la portée de boosting.

referencePointParameter

string

Nom du paramètre passé dans les requêtes de recherche pour spécifier l’emplacement de référence.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Discriminateur pour les types dérivés.

maxGram

integer (int32)

2

Longueur maximale de n-gramme. La valeur par défaut est 2.

minGram

integer (int32)

1

Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

side

EdgeNGramTokenFilterSide

front

Spécifie de quel côté de l’entrée le n-gramme doit être généré. La valeur par défaut est « front ».

EdgeNGramTokenFilterSide

Spécifie de quel côté de l’entrée un n-gramme doit être généré.

Valeur Description
front

Spécifie que le n-gramme doit être généré à partir de l’avant de l’entrée.

back

Spécifie que le n-gramme doit être généré à partir de l’arrière de l’entrée.

EdgeNGramTokenFilterV2

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Discriminateur pour les types dérivés.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer (int32)

maximum: 300
1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

side

EdgeNGramTokenFilterSide

front

Spécifie de quel côté de l’entrée le n-gramme doit être généré. La valeur par défaut est « front ».

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Discriminateur pour les types dérivés.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer (int32)

maximum: 300
1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenChars

TokenCharacterKind[]

Classes de caractères à conserver dans les jetons.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Discriminateur pour les types dérivés.

articles

string[]

Ensemble d’articles à supprimer.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

Nom Type Description
info

Informations supplémentaires.

type

string

Type d’informations supplémentaire.

ErrorDetail

Détail de l’erreur.

Nom Type Description
additionalInfo

ErrorAdditionalInfo[]

Informations supplémentaires sur l’erreur.

code

string

Code d’erreur.

details

ErrorDetail[]

Détails de l’erreur.

message

string

Message d’erreur.

target

string

Cible d’erreur.

ErrorResponse

Réponse à l’erreur courante pour toutes les API Azure Resource Manager afin de renvoyer les détails d’erreur pour les opérations ratées. (Cela suit également le format de réponse d’erreur OData.).

Nom Type Description
error

ErrorDetail

Objet d’erreur.

ExhaustiveKnnAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.

Nom Type Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

kind string:

exhaustiveKnn

Type de Recherche VectorielleAlgorithmeConfiguration.

name

string

Nom à associer à cette configuration particulière.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

Nom Type Description
metric

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

FreshnessScoringFunction

Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.

Nom Type Description
boost

number (double)

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

freshness

FreshnessScoringParameters

Valeurs de paramètre pour la fonction de scoring de l’actualisation.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

type string:

freshness

Type de ScoreFunction.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

Nom Type Description
boostingDuration

string (duration)

Période d’expiration après laquelle l’amplification s’arrêtera pour un document particulier.

HnswAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme HNSW approximatif des voisins les plus proches utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis réglable entre vitesse de recherche et précision.

Nom Type Description
hnswParameters

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

kind string:

hnsw

Type de Recherche VectorielleAlgorithmeConfiguration.

name

string

Nom à associer à cette configuration particulière.

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

Nom Type Valeur par défaut Description
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant la période d’indexation. L’augmentation de ce paramètre peut améliorer la qualité de l’indice, au détriment de l’augmentation du temps d’indexation. À un certain point, l’augmentation de ce paramètre entraîne des rendements décroissants.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant la recherche. L’augmentation de ce paramètre peut améliorer les résultats de recherche, au détriment d’une recherche plus lente. À un certain point, l’augmentation de ce paramètre entraîne des rendements décroissants.

m

integer (int32)

minimum: 4
maximum: 10
4

Le nombre de liens bidirectionnels créés pour chaque nouvel élément pendant la construction. L’augmentation de la valeur de ce paramètre peut améliorer le rappel et réduire les temps d’extraction des ensembles de données à forte dimensionnalité intrinsèque, au détriment d’une consommation de mémoire accrue et d’un temps d’indexation plus long.

metric

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Discriminateur pour les types dérivés.

keepWords

string[]

Liste des mots à conserver.

keepWordsCase

boolean

False

Valeur indiquant s’il faut d’abord mettre en minuscules tous les mots. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

KeywordMarkerTokenFilter

Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Discriminateur pour les types dérivés.

ignoreCase

boolean

False

Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false.

keywords

string[]

Liste de mots à marquer comme mots clés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

KeywordTokenizer

Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Discriminateur pour les types dérivés.

bufferSize

integer (int32)

256

Taille de la mémoire tampon de lecture en octets. La valeur par défaut est 256.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

KeywordTokenizerV2

Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Discriminateur pour les types dérivés.

maxTokenLength

integer (int32)

maximum: 300
256

Longueur maximale du jeton. La valeur par défaut est 256. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LengthTokenFilter

Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Discriminateur pour les types dérivés.

max

integer (int32)

maximum: 300
300

Longueur maximale en caractères. La valeur par défaut et la valeur maximale est 300.

min

integer (int32)

maximum: 300
0

Longueur minimale en caractères. La valeur par défaut est 0. La valeur maximale est de 300. Doit être inférieur à la valeur maximale.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

Valeur Description
ar.microsoft

Analyseur Microsoft pour l’arabe.

ar.lucene

Analyseur Lucene pour l’arabe.

hy.lucene

Analyseur Lucene pour l’arménien.

bn.microsoft

Analyseur Microsoft pour le bangla.

eu.lucene

Analyseur Lucene pour le basque.

bg.microsoft

Analyseur Microsoft pour le bulgare.

bg.lucene

Analyseur Lucene pour le bulgare.

ca.microsoft

Analyseur Microsoft pour le catalan.

ca.lucene

Analyseur Lucene pour le catalan.

zh-Hans.microsoft

Analyseur Microsoft pour le chinois (simplifié).

zh-Hans.lucene

Analyseur Lucene pour le chinois (simplifié).

zh-Hant.microsoft

Analyseur Microsoft pour le chinois (traditionnel).

zh-Hant.lucene

Analyseur Lucene pour le chinois (traditionnel).

hr.microsoft

Analyseur Microsoft pour le croate.

cs.microsoft

Analyseur Microsoft pour le tchèque.

cs.lucene

Analyseur Lucene pour le tchèque.

da.microsoft

Analyseur Microsoft pour le danois.

da.lucene

Analyseur Lucene pour le danois.

nl.microsoft

Analyseur Microsoft pour le néerlandais.

nl.lucene

Analyseur Lucene pour le néerlandais.

en.microsoft

Analyseur Microsoft pour l’anglais.

en.lucene

Analyseur Lucene pour l’anglais.

et.microsoft

Analyseur Microsoft pour l’estonien.

fi.microsoft

Analyseur Microsoft pour le finnois.

fi.lucene

Analyseur Lucene pour le finnois.

fr.microsoft

Analyseur Microsoft pour le français.

fr.lucene

Analyseur Lucene pour le français.

gl.lucene

Analyseur Lucene pour le galicien.

de.microsoft

Analyseur Microsoft pour l’allemand.

de.lucene

Analyseur Lucene pour l’allemand.

el.microsoft

Analyseur Microsoft pour le grec.

el.lucene

Analyseur Lucene pour le grec.

gu.microsoft

Analyseur Microsoft pour le gujarati.

he.microsoft

Analyseur Microsoft pour l’hébreu.

hi.microsoft

Analyseur Microsoft pour l’hindi.

hi.lucene

Analyseur Lucene pour l’hindi.

hu.microsoft

Analyseur Microsoft pour le hongrois.

hu.lucene

Analyseur Lucene pour le hongrois.

is.microsoft

Analyseur Microsoft pour l’islandais.

id.microsoft

Analyseur Microsoft pour l’indonésien (Bahasa).

id.lucene

Analyseur Lucene pour l’indonésien.

ga.lucene

Analyseur Lucene pour l’irlandais.

it.microsoft

Analyseur Microsoft pour l’italien.

it.lucene

Analyseur Lucene pour l’italien.

ja.microsoft

Analyseur Microsoft pour le japonais.

ja.lucene

Analyseur Lucene pour le japonais.

kn.microsoft

Analyseur Microsoft pour le kannada.

ko.microsoft

Analyseur Microsoft pour le coréen.

ko.lucene

Analyseur Lucene pour le coréen.

lv.microsoft

Analyseur Microsoft pour le letton.

lv.lucene

Analyseur Lucene pour le letton.

lt.microsoft

Analyseur Microsoft pour le lituanien.

ml.microsoft

Analyseur Microsoft pour le malayalam.

ms.microsoft

Analyseur Microsoft pour le malais (latin).

mr.microsoft

Analyseur Microsoft pour le marathi.

nb.microsoft

Microsoft analyzer pour le norvégien (Bokmål).

no.lucene

Analyseur Lucene pour Norwegian.

fa.lucene

Analyseur Lucene pour le persan.

pl.microsoft

Analyseur Microsoft pour le polonais.

pl.lucene

Analyseur Lucene pour le polonais.

pt-BR.microsoft

Analyseur Microsoft pour le portugais (Brésil).

pt-BR.lucene

Analyseur Lucene pour le portugais (Brésil).

pt-PT.microsoft

Analyseur Microsoft pour le portugais (Portugal).

pt-PT.lucene

Analyseur Lucene pour le portugais (Portugal).

pa.microsoft

Analyseur Microsoft pour le pendjabi.

ro.microsoft

Analyseur Microsoft pour roumain.

ro.lucene

Analyseur Lucene pour roumain.

ru.microsoft

Analyseur Microsoft pour le russe.

ru.lucene

Analyseur Lucene pour le russe.

sr-cyrillic.microsoft

Analyseur Microsoft pour le serbe (cyrillique).

sr-latin.microsoft

Analyseur Microsoft pour serbe (latin).

sk.microsoft

Analyseur Microsoft pour le slovaque.

sl.microsoft

Analyseur Microsoft pour le slovène.

es.microsoft

Analyseur Microsoft pour l’espagnol.

es.lucene

Analyseur Lucene pour l’espagnol.

sv.microsoft

Analyseur Microsoft pour le suédois.

sv.lucene

Analyseur Lucene pour le suédois.

ta.microsoft

Analyseur Microsoft pour le tamoul.

te.microsoft

Analyseur Microsoft pour le télougou.

th.microsoft

Analyseur Microsoft pour le thaï.

th.lucene

Analyseur Lucene pour le thaïlandais.

tr.microsoft

Analyseur Microsoft pour le turc.

tr.lucene

Analyseur Lucene pour le turc.

uk.microsoft

Analyseur Microsoft pour l’ukrainien.

ur.microsoft

Analyseur Microsoft pour l’ourdou.

vi.microsoft

Analyseur Microsoft pour le vietnamien.

standard.lucene

Analyseur Lucene standard.

standardasciifolding.lucene

Analyseur standard ASCII Folding Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Traite l’intégralité du contenu d’un champ comme un seul jeton. Cela est utile pour les données telles que les codes postal, les ID et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Divise le texte à l’endroit des caractères qui ne sont pas des lettres et le convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Un analyseur qui utilise le générateur de jetons whitespace. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizerName

Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.

Valeur Description
asciifolding

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

elision

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

lowercase

Normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

standard

Normaliseur standard, qui se compose de minuscules et d’un repliement ascii. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

uppercase

Normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.

Valeur Description
classic

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Génère la totalité de l’entrée sous la forme d’un unique jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Divise le texte aux caractères autres que des lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Divise le texte à l’endroit des caractères qui ne sont pas des lettres et le convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Divise le texte en utilisant des règles spécifiques à la langue.

microsoft_language_stemming_tokenizer

Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.

nGram

Tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Générateur de jetons pour les hiérarchies de type chemin. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Identifie les URL et les e-mails comme un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Divise le texte aux espaces blancs. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Discriminateur pour les types dérivés.

consumeAllTokens

boolean

False

Valeur indiquant si tous les jetons de l’entrée doivent être consommés même si maxTokenCount est atteint. La valeur par défaut est false.

maxTokenCount

integer (int32)

1

Nombre maximal de jetons à produire. La valeur par défaut est 1.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Discriminateur pour les types dérivés.

maxTokenLength

integer (int32)

maximum: 300
255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

stopwords

string[]

Liste des mots vides.

LuceneStandardTokenizer

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Discriminateur pour les types dérivés.

maxTokenLength

integer (int32)

255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LuceneStandardTokenizerV2

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Discriminateur pour les types dérivés.

maxTokenLength

integer (int32)

maximum: 300
255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

Nom Type Description
boost

number (double)

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

magnitude

MagnitudeScoringParameters

Valeurs de paramètre pour la fonction de scoring de magnitude.

type string:

magnitude

Type de ScoreFunction.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

Nom Type Description
boostingRangeEnd

number (double)

Valeur de champ à partir de laquelle le boosting se termine.

boostingRangeStart

number (double)

Valeur de champ à partir de laquelle le boosting commence.

constantBoostBeyondRange

boolean

Valeur indiquant s’il faut appliquer une amplification constante pour les valeurs de champ au-delà de la valeur de fin de plage ; La valeur par défaut est false.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Discriminateur pour les types dérivés.

mappings

string[]

Liste des mappages du format suivant : « a =>b » (toutes les occurrences du caractère « a » seront remplacées par le caractère « b »).

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MicrosoftLanguageStemmingTokenizer

Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Discriminateur pour les types dérivés.

isSearchTokenizer

boolean

False

Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false.

language

MicrosoftStemmingTokenizerLanguage

Langue à utiliser. La valeur par défaut est l’anglais.

maxTokenLength

integer (int32)

maximum: 300
255

Longueur maximale du jeton. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale des jetons qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MicrosoftLanguageTokenizer

Divise le texte en utilisant des règles spécifiques à la langue.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Discriminateur pour les types dérivés.

isSearchTokenizer

boolean

False

Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false.

language

MicrosoftTokenizerLanguage

Langue à utiliser. La valeur par défaut est l’anglais.

maxTokenLength

integer (int32)

maximum: 300
255

Longueur maximale du jeton. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale des jetons qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MicrosoftStemmingTokenizerLanguage

Liste les langages pris en charge par le tokenizer stemming du langage Microsoft.

Valeur Description
arabic

Sélectionne le tokenizer stemming Microsoft pour l’arabe.

bangla

Sélectionne le tokenizer stemming Microsoft pour le bangla.

bulgarian

Sélectionne le tokenizer stemming Microsoft pour le bulgare.

catalan

Sélectionne le tokenizer stemming Microsoft pour le catalan.

croatian

Sélectionne le tokenizer de stemming Microsoft pour le croate.

czech

Sélectionne le tokenizer stemming Microsoft pour le tchèque.

danish

Sélectionne le tokeniseur stemming Microsoft pour le danois.

dutch

Sélectionne le tokenizer stemming Microsoft pour le néerlandais.

english

Sélectionne le tokenizer stemming Microsoft pour l’anglais.

estonian

Sélectionne le tokenizer stemming Microsoft pour l’estonien.

finnish

Sélectionne le tokeniseur stemming Microsoft pour le finnois.

french

Sélectionne le tokenizer stemming Microsoft pour le français.

german

Sélectionne le tokeniseur de stemming Microsoft pour l’allemand.

greek

Sélectionne le tokeniseur stemming Microsoft pour le grec.

gujarati

Sélectionne le tokenizer stemming Microsoft pour le gujarati.

hebrew

Sélectionne le tokenizer stemming Microsoft pour l’hébreu.

hindi

Sélectionne le tokeniseur stemming Microsoft pour l’hindi.

hungarian

Sélectionne le tokenizer stemming Microsoft pour le hongrois.

icelandic

Sélectionne le tokenizer stemming Microsoft pour l’islandais.

indonesian

Sélectionne le tokeniseur stemming Microsoft pour l’indonésien.

italian

Sélectionne le tokeniseur de stemming Microsoft pour l’italien.

kannada

Sélectionne le tokenizer stemming Microsoft pour le kannada.

latvian

Sélectionne le tokenizer stemming Microsoft pour le letton.

lithuanian

Sélectionne le tokenizer stemming Microsoft pour le lituanien.

malay

Sélectionne le tokeniseur stemming Microsoft pour le malais.

malayalam

Sélectionne le tokenizer stemming Microsoft pour le malayalam.

marathi

Sélectionne le tokeniseur stemming Microsoft pour le marathi.

norwegianBokmaal

Sélectionne le tokenizer stemming Microsoft pour le norvégien (Bokmål).

polish

Sélectionne le tokeniseur de stemming Microsoft pour le polonais.

portuguese

Sélectionne le tokenizer stemming Microsoft pour le portugais.

portugueseBrazilian

Sélectionne le tokeniseur de stemming Microsoft pour le portugais (Brésil).

punjabi

Sélectionne le tokenizer stemming Microsoft pour le pendjabi.

romanian

Sélectionne le tokenizer de stemming Microsoft pour le roumain.

russian

Sélectionne le tokeniseur de stemming Microsoft pour le russe.

serbianCyrillic

Sélectionne le tokeniseur de stemming Microsoft pour le serbe (cyrillique).

serbianLatin

Sélectionne le tokeniseur stemming Microsoft pour le serbe (latin).

slovak

Sélectionne le tokeniseur stemming Microsoft pour le slovaque.

slovenian

Sélectionne le tokeniseur stemming Microsoft pour le slovène.

spanish

Sélectionne le tokeniseur stemming Microsoft pour l’espagnol.

swedish

Sélectionne le tokenizer stemming Microsoft pour le suédois.

tamil

Sélectionne le tokenizer stemming Microsoft pour le tamoul.

telugu

Sélectionne le tokenizer stemming Microsoft pour le télougou.

turkish

Sélectionne le tokeniseur de stemming Microsoft pour le turc.

ukrainian

Sélectionne le tokenizer stemming Microsoft pour l’ukrainien.

urdu

Sélectionne le tokenizer stemming Microsoft pour l’ourdou.

MicrosoftTokenizerLanguage

Liste les langages pris en charge par le tokenizer de langage Microsoft.

Valeur Description
bangla

Sélectionne le tokenizer Microsoft pour le bangla.

bulgarian

Sélectionne le tokeniseur Microsoft pour le bulgare.

catalan

Sélectionne le tokeniseur Microsoft pour le catalan.

chineseSimplified

Sélectionne le tokeniseur Microsoft pour le chinois (simplifié).

chineseTraditional

Sélectionne le tokeniseur Microsoft pour le chinois (traditionnel).

croatian

Sélectionne le tokenizer Microsoft pour le croate.

czech

Sélectionne le tokeniseur Microsoft pour le tchèque.

danish

Sélectionne le tokeniseur Microsoft pour le danois.

dutch

Sélectionne le tokenizer Microsoft pour le néerlandais.

english

Sélectionne le tokenizer Microsoft pour l’anglais.

french

Sélectionne le tokeniseur Microsoft pour le français.

german

Sélectionne le tokeniseur Microsoft pour l’allemand.

greek

Sélectionne le tokenizer Microsoft pour le grec.

gujarati

Sélectionne le tokenizer Microsoft pour le gujarati.

hindi

Sélectionne le tokeniseur Microsoft pour l’hindi.

icelandic

Sélectionne le tokeniseur Microsoft pour l’islandais.

indonesian

Sélectionne le tokeniseur Microsoft pour l’indonésien.

italian

Sélectionne le tokeniseur Microsoft pour l’italien.

japanese

Sélectionne le tokenizer Microsoft pour le japonais.

kannada

Sélectionne le tokenizer Microsoft pour le kannada.

korean

Sélectionne le tokenizer Microsoft pour le coréen.

malay

Sélectionne le tokeniseur Microsoft pour le malais.

malayalam

Sélectionne le tokenizer Microsoft pour le malayalam.

marathi

Sélectionne le tokeniseur Microsoft pour le marathi.

norwegianBokmaal

Sélectionne le tokenizer Microsoft pour le norvégien (Bokmål).

polish

Sélectionne le tokeniseur Microsoft pour le polonais.

portuguese

Sélectionne le tokenizer Microsoft pour le portugais.

portugueseBrazilian

Sélectionne le tokeniseur Microsoft pour le portugais (Brésil).

punjabi

Sélectionne le tokenizer Microsoft pour le pendjabi.

romanian

Sélectionne le tokeniseur Microsoft pour le roumain.

russian

Sélectionne le tokenizer Microsoft pour le russe.

serbianCyrillic

Sélectionne le tokeniseur Microsoft pour le serbe (cyrillique).

serbianLatin

Sélectionne le tokeniseur Microsoft pour le serbe (latin).

slovenian

Sélectionne le tokeniseur Microsoft pour le slovène.

spanish

Sélectionne le tokeniseur Microsoft pour l’espagnol.

swedish

Sélectionne le tokeniseur Microsoft pour le suédois.

tamil

Sélectionne le tokeniseur Microsoft pour le tamoul.

telugu

Sélectionne le tokeniseur Microsoft pour le télougou.

thai

Sélectionne le tokenizer Microsoft pour le thaï.

ukrainian

Sélectionne le tokeniseur Microsoft pour l’ukrainien.

urdu

Sélectionne le tokenizer Microsoft pour l’ourdou.

vietnamese

Sélectionne le tokeniseur Microsoft pour le vietnamien.

NGramTokenFilter

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Discriminateur pour les types dérivés.

maxGram

integer (int32)

2

Longueur maximale de n-gramme. La valeur par défaut est 2.

minGram

integer (int32)

1

Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

NGramTokenFilterV2

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Discriminateur pour les types dérivés.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer (int32)

maximum: 300
1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Discriminateur pour les types dérivés.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer (int32)

maximum: 300
1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenChars

TokenCharacterKind[]

Classes de caractères à conserver dans les jetons.

PathHierarchyTokenizerV2

Générateur de jetons pour les hiérarchies de type chemin. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Discriminateur pour les types dérivés.

delimiter

string

maxLength: 1
/

Caractère délimiteur à utiliser. La valeur par défaut est « / ».

maxTokenLength

integer (int32)

maximum: 300
300

Longueur maximale du jeton. La valeur par défaut et la valeur maximale est 300.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

replacement

string

maxLength: 1
/

Valeur qui, si elle est définie, remplace le caractère délimiteur. La valeur par défaut est « / ».

reverse

boolean

False

Valeur indiquant s’il faut générer des jetons dans l’ordre inverse. La valeur par défaut est false.

skip

integer (int32)

0

Nombre de jetons initiaux à ignorer. La valeur par défaut est 0.

PatternAnalyzer

Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Discriminateur pour les types dérivés.

flags

string

Des drapeaux d’expression régulière, spécifiés comme une chaîne séparée de valeurs RegexFlags par '|'.

lowercase

boolean

True

Valeur indiquant si les termes doivent être en minuscules. La valeur par défaut est true.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

\W+

Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non verbaux.

stopwords

string[]

Liste des mots vides.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Discriminateur pour les types dérivés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

patterns

string[]

Liste de modèles à mettre en correspondance avec chaque jeton.

preserveOriginal

boolean

True

Valeur indiquant s’il faut retourner le jeton d’origine même si l’un des modèles correspond. La valeur par défaut est true.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Discriminateur pour les types dérivés.

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

Modèle d’expression régulière.

replacement

string

Texte de remplacement.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Discriminateur pour les types dérivés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

Modèle d’expression régulière.

replacement

string

Texte de remplacement.

PatternTokenizer

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Discriminateur pour les types dérivés.

flags

string

Des drapeaux d’expression régulière, spécifiés comme une chaîne séparée de valeurs RegexFlags par '|'.

group

integer (int32)

-1

Ordinal de base zéro du groupe correspondant dans le modèle d’expression régulière à extraire en jetons. Utilisez -1 si vous souhaitez utiliser l’intégralité du modèle pour diviser l’entrée en jetons, indépendamment des groupes correspondants. La valeur par défaut est -1.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

\W+

Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non verbaux.

PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

Valeur Description
metaphone

Code un jeton en valeur Metaphone.

doubleMetaphone

Code un jeton en une valeur de métaphone double.

soundex

Encode un jeton en une valeur Soundex.

refinedSoundex

Encode un jeton en une valeur Soundex raffinée.

caverphone1

Encode un jeton dans une valeur Caverphone 1.0.

caverphone2

Encode un jeton dans une valeur Caverphone 2.0.

cologne

Code un jeton en une valeur phonétique de Cologne.

nysiis

Code un jeton en une valeur NYSIIS.

koelnerPhonetik

Encode un jeton à l’aide de l’algorithme Kölner Phonetik.

haasePhonetik

Encode un jeton à l’aide du raffinement Haase de l’algorithme Kölner Phonetik.

beiderMorse

Code un jeton en une valeur Beider-Morse.

PhoneticTokenFilter

Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Discriminateur pour les types dérivés.

encoder

PhoneticEncoder

metaphone

Encodeur phonétique à utiliser. La valeur par défaut est « metaphone ».

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

replace

boolean

True

Valeur indiquant si les jetons encodés doivent remplacer les jetons d’origine. Si la valeur est false, les jetons encodés sont ajoutés en tant que synonymes. La valeur par défaut est true.

Prefer

Pour les requêtes HTTP PUT, indique au service de renvoyer la ressource créée/mise à jour en cas de réussite.

Valeur Description
return=representation

RankingOrder

Représente le score à utiliser pour l’ordre de tri des documents.

Valeur Description
BoostedRerankerScore

Définit l’ordre de tri comme BoostedRerankerScore

RerankerScore

Définit l’ordre de tri en tant que ReRankerScore

RescoringOptions

Contient les options de rescoring.

Nom Type Valeur par défaut Description
defaultOversampling

number (double)

Facteur de surachantillonnage par défaut. Le suréchantillonnage récupère un plus grand nombre de documents potentiels pour compenser la perte de résolution due à la quantification. Cela augmente l’ensemble des résultats qui seront réévalués sur les vecteurs de pleine précision. La valeur minimale est 1, ce qui signifie qu’aucun suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque 'enableRescoring' est vrai. Les valeurs plus élevées améliorent le rappel au détriment de la latence.

enableRescoring

boolean

True

Si la valeur est true, après la recherche initiale sur les vecteurs compressés, les scores de similarité sont recalculés à l’aide des vecteurs de pleine précision. Cela permettra d’améliorer le rappel au détriment de la latence.

rescoreStorageMethod enum:
  • discardOriginals
  • preserveOriginals
preserveOriginals

Contrôle la méthode de stockage des vecteurs d’origine. Ce paramètre est immuable.

ScalarQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.

Nom Type Description
kind string:

scalarQuantization

Type de Recherche VectorielleCompression.

name

string

Nom à associer à cette configuration particulière.

rescoringOptions

RescoringOptions

Contient les options de rescoring.

scalarQuantizationParameters

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

truncationDimension

integer (int32)

Nombre de dimensions à laquelle tronquer les vecteurs. La troncation des vecteurs réduit la taille des vecteurs et la quantité de données qui doivent être transférées pendant la recherche. Cela peut réduire les coûts de stockage et améliorer les performances de recherche au détriment du rappel. Il doit être utilisé uniquement pour les incorporations formées avec Matryoshka Representation Learning (MRL) comme OpenAI text-embedding-3-large (small). La valeur par défaut est Null, ce qui signifie qu’aucune troncation n’est définie.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

Nom Type Description
quantizedDataType

VectorSearchCompressionTarget

Type de données quantifiées des valeurs vectorielles compressées.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score.

Valeur Description
sum

Augmentez les scores par la somme de tous les résultats de la fonction de notation.

average

Augmentez les scores de la moyenne de tous les résultats de la fonction de notation.

minimum

Augmentez les scores du minimum de tous les résultats de la fonction de notation.

maximum

Augmentez les scores du maximum de tous les résultats de la fonction de notation.

firstMatching

Augmentez les scores à l’aide de la première fonction de score applicable dans le profil de score.

product

Augmentez les scores par le produit de tous les résultats de la fonction de notation.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents.

Valeur Description
linear

Augmente les scores d’une quantité linéairement décroissante. Il s’agit de l’interpolation par défaut pour les fonctions de notation.

constant

Augmente les scores d’un facteur constant.

quadratic

Augmente les scores d’une quantité qui diminue quadratiquement. Les boosts diminuent lentement pour les scores les plus élevés, et plus rapidement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring des balises.

logarithmic

Augmente les scores d’un montant qui diminue de manière logarithmique. Les boosts diminuent rapidement pour les scores les plus élevés, et plus lentement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring des balises.

ScoringProfile

Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.

Nom Type Description
functionAggregation

ScoringFunctionAggregation

Valeur indiquant comment les résultats des fonctions de scoring individuelles doivent être combinés. La valeur par défaut est « Sum ». Ignoré s’il n’y a pas de fonctions de notation.

functions ScoringFunction[]:

L’ensemble des fonctions qui influencent la notation des documents.

name

string

Nom du profil de notation.

text

TextWeights

Paramètres qui améliorent le scoring en fonction des correspondances de texte dans certains champs d’index.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

Nom Type Description
analyzer

LexicalAnalyzerName

Nom de l’analyseur à utiliser pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche et ne peut pas être définie avec searchAnalyzer ou indexAnalyzer. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes.

dimensions

integer (int32)

minimum: 2
maximum: 4096

Dimensionnalité du champ vectoriel.

facetable

boolean

Valeur indiquant s’il faut permettre au champ d’être référencé dans les requêtes de facettes. Généralement utilisé dans une présentation des résultats de recherche qui inclut le nombre d’accès par catégorie (par exemple, recherchez des caméras numériques et voyez les hits par marque, par millisecondes, par prix, etc.). Cette propriété doit être null pour les champs complexes. Les champs de type Edm.GeographyPoint ou Collection (Edm.GeographyPoint) ne peuvent pas être facetables. La valeur par défaut est true pour tous les autres champs simples.

fields

SearchField[]

Une liste de sous-champs s’il s’agit d’un champ de type Edm.ComplexType ou Collection(Edm.ComplexType). Doit être null ou vide pour les champs simples.

filterable

boolean

Valeur indiquant si le champ doit être référencé dans $filter requêtes. filtrable diffère de l’élément pouvant faire l’objet d’une recherche dans la façon dont les chaînes sont gérées. Les champs de type Edm.String ou Collection(Edm.String) qui sont filtrables ne subissent pas de rupture de mot, de sorte que les comparaisons ne concernent que les correspondances exactes. Par exemple, si vous définissez un tel champ f sur « jour ensoleillé », $filter=f eq 'sunny' ne trouvera aucune correspondance, mais $filter=f eq 'sunny day' sera. Cette propriété doit être null pour les champs complexes. La valeur par défaut est true pour les champs simples et null pour les champs complexes.

indexAnalyzer

LexicalAnalyzerName

Nom de l’analyseur utilisé au moment de l’indexation pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Elle doit être définie avec searchAnalyzer et elle ne peut pas être définie avec l’option analyseur. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes.

key

boolean

Valeur indiquant si le champ identifie de manière unique les documents dans l’index. Un champ de niveau supérieur exactement dans chaque index doit être choisi comme champ de clé et doit être de type Edm.String. Les champs clés peuvent être utilisés pour rechercher des documents directement et mettre à jour ou supprimer des documents spécifiques. La valeur par défaut est false pour les champs simples et null pour les champs complexes.

name

string

Nom du champ, qui doit être unique dans la collection de champs du champ index ou parent.

normalizer

LexicalNormalizerName

Nom du normaliseur à utiliser pour le champ. Cette option ne peut être utilisée qu’avec des champs pour lesquels les champs filtrables, triables ou à facettes sont activés. Une fois le normaliseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes.

retrievable

boolean

Valeur indiquant si le champ peut être retourné dans un résultat de recherche. Vous pouvez désactiver cette option si vous souhaitez utiliser un champ (par exemple, marge) comme mécanisme de filtrage, de tri ou de scoring, mais ne souhaitez pas que le champ soit visible pour l’utilisateur final. Cette propriété doit être true pour les champs clés et null pour les champs complexes. Cette propriété peut être modifiée sur les champs existants. L’activation de cette propriété n’entraîne aucune augmentation des exigences de stockage d’index. La valeur par défaut est true pour les champs simples, false pour les champs vectoriels et null pour les champs complexes.

searchAnalyzer

LexicalAnalyzerName

Nom de l’analyseur utilisé au moment de la recherche du champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Il doit être défini avec indexAnalyzer et il ne peut pas être défini avec l’option analyzer. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Cet analyseur peut être mis à jour sur un champ existant. Doit être null pour les champs complexes.

searchable

boolean

Valeur indiquant si le champ peut faire l’objet d’une recherche en texte intégral. Cela signifie qu’il subira une analyse telle que la rupture de mots lors de l’indexation. Si vous définissez un champ pouvant faire l’objet d’une recherche sur une valeur telle que « jour ensoleillé », il sera divisé en interne en jetons individuels « ensoleillé » et « jour ». Cela permet de rechercher en texte intégral ces termes. Les champs de type Edm.String ou Collection(Edm.String) peuvent faire l’objet d’une recherche par défaut. Cette propriété doit être false pour les champs simples d’autres types de données autres que des chaînes, et elle doit être null pour les champs complexes. Remarque : les champs pouvant faire l’objet d’une recherche consomment de l’espace supplémentaire dans votre index pour prendre en charge des versions tokenisées supplémentaires de la valeur de champ pour les recherches en texte intégral. Si vous souhaitez économiser de l’espace dans votre index et que vous n’avez pas besoin d’un champ à inclure dans les recherches, définissez la valeur false dans la recherche.

sortable

boolean

Valeur indiquant si le champ doit être référencé dans $orderby expressions. Par défaut, le moteur de recherche trie les résultats par score, mais dans de nombreuses expériences, les utilisateurs souhaitent trier par champs dans les documents. Un champ simple peut être triable uniquement s’il est à valeur unique (il a une valeur unique dans l’étendue du document parent). Les champs de collection simples ne peuvent pas être triables, car ils sont à valeurs multiples. Les sous-champs simples des collections complexes sont également à valeurs multiples et ne peuvent donc pas être triables. C’est vrai, qu’il s’agisse d’un champ parent immédiat ou d’un champ ancêtre, c’est la collection complexe. Les champs complexes ne peuvent pas être triés et la propriété sortable doit être null pour ces champs. La valeur par défaut de sortable est true pour les champs simples à valeur unique, false pour les champs simples à plusieurs valeurs et null pour les champs complexes.

stored

boolean

Valeur immuable indiquant si le champ sera conservé séparément sur le disque à retourner dans un résultat de recherche. Vous pouvez désactiver cette option si vous ne prévoyez pas de renvoyer le contenu du champ dans une réponse de recherche pour économiser sur la surcharge de stockage. Cela ne peut être défini que lors de la création d’index et uniquement pour les champs vectoriels. Cette propriété ne peut pas être modifiée pour les champs existants ou définie comme false pour les nouveaux champs. Si cette propriété est définie sur false, la propriété 'retrievable' doit également être définie sur false. Cette propriété doit être true ou non définie pour les champs clés, pour les nouveaux champs et pour les champs non vectoriels, et elle doit être null pour les champs complexes. La désactivation de cette propriété réduit les exigences de stockage d’index. La valeur par défaut est true pour les champs vectoriels.

synonymMaps

string[]

Liste des noms des mappages de synonymes à associer à ce champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Actuellement, une seule carte de synonymes par champ est prise en charge. L’affectation d’un mappage de synonymes à un champ garantit que les termes de requête ciblant ce champ sont développés au moment de la requête à l’aide des règles de la carte de synonymes. Cet attribut peut être modifié sur les champs existants. Doit être null ou une collection vide pour les champs complexes.

type

SearchFieldDataType

Type de données du champ.

vectorEncoding

VectorEncodingFormat

Format d’encodage pour interpréter le contenu du champ.

vectorSearchProfile

string

Nom du profil de recherche vectorielle qui spécifie l’algorithme et le vectoriseur à utiliser lors de la recherche dans le champ vectoriel.

SearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

Valeur Description
Edm.String

Indique qu’un champ contient une chaîne.

Edm.Int32

Indique qu’un champ contient un entier signé 32 bits.

Edm.Int64

Indique qu’un champ contient un entier signé 64 bits.

Edm.Double

Indique qu’un champ contient un nombre à virgule flottante double précision IEEE.

Edm.Boolean

Indique qu’un champ contient une valeur booléenne (true ou false).

Edm.DateTimeOffset

Indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire.

Edm.GeographyPoint

Indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude.

Edm.ComplexType

Indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types.

Edm.Single

Indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Single).

Edm.Half

Indique qu’un champ contient un nombre à virgule flottante demi-précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Half).

Edm.Int16

Indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Int16).

Edm.SByte

Indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.SByte).

Edm.Byte

Indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Byte).

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

Nom Type Description
@odata.etag

string

ETag de l’index.

analyzers LexicalAnalyzer[]:

Analyseurs de l’index.

charFilters CharFilter[]:

Filtres de caractères pour l’index.

corsOptions

CorsOptions

Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index.

defaultScoringProfile

string

Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé.

description

string

Description de l’indice.

encryptionKey

SearchResourceEncryptionKey

Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé sert à fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez être pleinement assuré que personne, pas même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement à l’aide de clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés à partir du 1er janvier 2019.

fields

SearchField[]

Champs de l’index.

name

string

Nom de l’index.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

Normaliseurs de l’index.

scoringProfiles

ScoringProfile[]

Profils de scoring pour l’index.

semantic

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

similarity SimilarityAlgorithm:

Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé.

suggesters

SearchSuggester[]

Suggesteurs pour l’index.

tokenFilters TokenFilter[]:

Le jeton filtre l’index.

tokenizers LexicalTokenizer[]:

Les tokenizers de l’index.

vectorSearch

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

SearchIndexerDataNoneIdentity

Efface la propriété d’identité d’une source de données.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Fragment d’URI spécifiant le type d’identité.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Fragment d’URI spécifiant le type d’identité.

userAssignedIdentity

string

Id de ressource Azure complet d’une identité managée affectée par l’utilisateur sous la forme « /subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId » qui doit avoir été affecté au service de recherche.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des cartes de synonymes.

Nom Type Description
accessCredentials.applicationId

string

ID d’application AAD qui a reçu les autorisations d’accès requises au coffre de clés Azure à utiliser lors du chiffrement de vos données au repos. L’ID d’application ne doit pas être confondu avec l’ID d’objet de votre application AAD.

accessCredentials.applicationSecret

string

Clé d’authentification de l’application AAD spécifiée.

identity SearchIndexerDataIdentity:

Identité managée explicite à utiliser pour cette clé de chiffrement. Si elle n’est pas spécifiée et que la propriété d’informations d’identification d’accès est null, l’identité managée affectée par le système est utilisée. Lors de la mise à jour vers la ressource, si l’identité explicite n’est pas spécifiée, elle reste inchangée. Si « none » est spécifié, la valeur de cette propriété est effacée.

keyVaultKeyName

string

Nom de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos.

keyVaultKeyVersion

string

Version de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos.

keyVaultUri

string

URI de votre coffre de clés Azure, également appelé nom DNS, qui contient la clé à utiliser pour chiffrer vos données au repos. Un exemple d’URI peut être https://my-keyvault-name.vault.azure.net.

SearchSuggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

Nom Type Description
name

string

Nom de l’auteur de la suggestion.

searchMode enum:

analyzingInfixMatching

Valeur indiquant les capacités du suggesteur.

sourceFields

string[]

Liste des noms de champs auxquels le suggesteur s’applique. Chaque champ doit pouvoir faire l’objet d’une recherche.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

Nom Type Description
name

string

Nom de la configuration sémantique.

prioritizedFields

SemanticPrioritizedFields

Décrit les champs de titre, de contenu et de mot clé à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Au moins l’une des trois sous-propriétés (titleField, hiérarchiséKeywordsFields et hiérarchiséContentFields) doit être définie.

rankingOrder

RankingOrder

Spécifie le type de score à utiliser pour l’ordre de tri des résultats de la recherche.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

Nom Type Description
fieldName

string

Nom de fichier

SemanticPrioritizedFields

Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

Nom Type Description
prioritizedContentFields

SemanticField[]

Définit les champs de contenu à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Pour un résultat optimal, les champs sélectionnés doivent contenir du texte sous forme de langage naturel. L’ordre des champs dans le tableau représente leur priorité. Les champs avec une priorité inférieure peuvent être tronqués si le contenu est long.

prioritizedKeywordsFields

SemanticField[]

Définit les champs de mots-clés à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Pour un résultat optimal, les champs sélectionnés doivent contenir une liste de mots-clés. L’ordre des champs dans le tableau représente leur priorité. Les champs avec une priorité inférieure peuvent être tronqués si le contenu est long.

titleField

SemanticField

Définit le champ de titre à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Si vous n’avez pas de champ de titre dans votre index, laissez ce champ vide.

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

Nom Type Description
configurations

SemanticConfiguration[]

Configurations sémantiques de l’index.

defaultConfiguration

string

Vous permet de définir le nom d’une configuration sémantique par défaut dans votre index, ce qui rend facultatif le fait de la transmettre en tant que paramètre de requête à chaque fois.

ShingleTokenFilter

Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Discriminateur pour les types dérivés.

filterToken

string

_

Chaîne à insérer pour chaque position à laquelle il n’existe aucun jeton. La valeur par défaut est un trait de soulignement (« _ »).

maxShingleSize

integer (int32)

minimum: 2
2

Taille maximale du bardeau. La valeur par défaut et la valeur minimale est 2.

minShingleSize

integer (int32)

minimum: 2
2

Taille minimale du bardeau. La valeur par défaut et la valeur minimale est 2. Doit être inférieur à la valeur de maxShingleSize.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

outputUnigrams

boolean

True

Valeur indiquant si le flux de sortie contiendra les jetons d’entrée (unigrammes) ainsi que les bardeaux. La valeur par défaut est true.

outputUnigramsIfNoShingles

boolean

False

Valeur indiquant s’il faut générer des unigrammes pour ces moments où aucun bardeau n’est disponible. Cette propriété est prioritaire lorsque outputUnigrams a la valeur false. La valeur par défaut est false.

tokenSeparator

string

Chaîne à utiliser lors de la jointure de jetons adjacents pour former un bardeau. La valeur par défaut est un espace unique ( » « ).

SnowballTokenFilter

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Discriminateur pour les types dérivés.

language

SnowballTokenFilterLanguage

Langue à utiliser.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

Valeur Description
armenian

Sélectionne le générateur de jetons Lucene Snowball pour l’arménien.

basque

Sélectionne le générateur de jetons de tige Lucene Snowball pour le basque.

catalan

Sélectionne le générateur de jetons de tige Lucene Snowball pour le catalan.

danish

Sélectionne le générateur de jetons de tige Lucene Snowball pour le danois.

dutch

Sélectionne le générateur de jetons de tige Lucene Snowball pour le néerlandais.

english

Sélectionne le générateur de jetons de racine Lucene Snowball pour l’anglais.

finnish

Sélectionne le générateur de jetons de tige Lucene Snowball pour le finnois.

french

Sélectionne le générateur de jetons de tige Lucene Snowball pour le français.

german

Sélectionne le générateur de jetons de tige Lucene Snowball pour l’allemand.

german2

Sélectionne le générateur de jetons Lucene Snowball qui utilise l’algorithme de variante allemande.

hungarian

Sélectionne le générateur de jetons Lucene Snowball pour le hongrois.

italian

Sélectionne le générateur de jetons de tige Lucene Snowball pour l’italien.

kp

Sélectionne le générateur de jetons de radical Lucene Snowball pour le néerlandais qui utilise l’algorithme de radical Kraaij-Pohlmann.

lovins

Sélectionne le générateur de jets de radical Lucene Snowball pour l’anglais qui utilise l’algorithme de radical Lovins.

norwegian

Sélectionne le générateur de jetons de tige Lucene Snowball pour le norvégien.

porter

Sélectionne le générateur de jetons de radical Lucene Snowball pour l’anglais qui utilise l’algorithme de notation Porter.

portuguese

Sélectionne le générateur de jetons de tige Lucene Snowball pour le portugais.

romanian

Sélectionne le générateur de jetons de tige Lucene Snowball pour le roumain.

russian

Sélectionne le générateur de jetons de tige Lucene Snowball pour le russe.

spanish

Sélectionne le générateur de jetons de tige Lucene Snowball pour l’espagnol.

swedish

Sélectionne le générateur de jetons de tige Lucene Snowball pour le suédois.

turkish

Sélectionne le générateur de jetons Lucene Snowball pour le turc.

StemmerOverrideTokenFilter

Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de lemmatisation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Discriminateur pour les types dérivés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

rules

string[]

Liste des règles de recherche de base au format suivant : « word => stem », par exemple : « ran => run ».

StemmerTokenFilter

Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Discriminateur pour les types dérivés.

language

StemmerTokenFilterLanguage

Langue à utiliser.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

StemmerTokenFilterLanguage

Langue à utiliser pour un filtre de jeton de type dérivé.

Valeur Description
arabic

Sélectionne le générateur de jetons de radicalisation Lucene pour l’arabe.

armenian

Sélectionne le générateur de jetons Lucene pour l’arménien.

basque

Sélectionne le générateur de jetons de radical Lucene pour le basque.

brazilian

Sélectionne le générateur de jetons Lucene pour le portugais (Brésil).

bulgarian

Sélectionne le générateur de jetons de radical Lucene pour le bulgare.

catalan

Sélectionne le générateur de jetons de radical Lucene pour le catalan.

czech

Sélectionne le générateur de jetons de recherche de racines Lucene pour le tchèque.

danish

Sélectionne le générateur de jetons de stemming Lucene pour le danois.

dutch

Sélectionne le générateur de jetons de radical Lucene pour le néerlandais.

dutchKp

Sélectionne le générateur de jetons de stemming Lucene pour le néerlandais qui utilise l’algorithme de stemming Kraaij-Pohlmann.

english

Sélectionne le générateur de jetons de radical Lucene pour l’anglais.

lightEnglish

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui effectue un stemming léger.

minimalEnglish

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui effectue un stemming minimal.

possessiveEnglish

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui supprime les possessifs de fin des mots.

porter2

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui utilise l’algorithme de stemming Porter2.

lovins

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui utilise l’algorithme de stemming Lovins.

finnish

Sélectionne le générateur de jetons Lucene pour le finnois.

lightFinnish

Sélectionne le générateur de jetons de radical Lucene pour le finnois qui effectue un stemming léger.

french

Sélectionne le générateur de jetons Lucene pour le français.

lightFrench

Sélectionne le générateur de jetons de radical Lucene pour le français qui effectue un stemming léger.

minimalFrench

Sélectionne le générateur de jetons de radical Lucene pour le français qui effectue un minimum de stemming.

galician

Sélectionne le générateur de jetons de stemming Lucene pour le galicien.

minimalGalician

Sélectionne le générateur de jetons de stemming Lucene pour le galicien qui effectue un stemming minimal.

german

Sélectionne le générateur de jetons de radical Lucene pour l’allemand.

german2

Sélectionne le générateur de jetons Lucene qui utilise l’algorithme de variante allemande.

lightGerman

Sélectionne le générateur de jetons de radical Lucene pour l’allemand qui effectue un stemming léger.

minimalGerman

Sélectionne le générateur de jetons de radicalisation Lucene pour l’allemand qui effectue une recherche minimale de racines.

greek

Sélectionne le générateur de jetons de radical Lucene pour le grec.

hindi

Sélectionne le générateur de jetons de radical Lucene pour l’hindi.

hungarian

Sélectionne le générateur de jetons de radical Lucene pour le hongrois.

lightHungarian

Sélectionne le générateur de jetons de radicalisation Lucene pour le hongrois qui effectue la création de racines légères.

indonesian

Sélectionne le générateur de jetons de recherche de radical Lucene pour l’indonésien.

irish

Sélectionne le générateur de jetons de radical Lucene pour l’irlandais.

italian

Sélectionne le générateur de jetons de radical Lucene pour l’italien.

lightItalian

Sélectionne le générateur de jetons de radical Lucene pour l’italien qui effectue un stemming léger.

sorani

Sélectionne le générateur de jetons de recherche de racines Lucene pour Sorani.

latvian

Sélectionne le générateur de jetons Lucene pour le letton.

norwegian

Sélectionne le tokeniseur de dérivation Lucène pour le norvégien (Bokmål).

lightNorwegian

Sélectionne le tokeniseur de stemming Lucene pour le norvégien (Bokmål) qui fait un stem léger.

minimalNorwegian

Sélectionne le tokeniseur de stemming Lucene pour le norvégien (Bokmål) qui fait un stemming minimal.

lightNynorsk

Sélectionne le générateur de jetons de radicalisation Lucene pour le norvégien (Nynorsk) qui effectue une migration de radical légère.

minimalNynorsk

Sélectionne le générateur de jetons de radicalisation Lucene pour le norvégien (Nynorsk) qui effectue une recherche minimale de racines.

portuguese

Sélectionne le générateur de jetons de radical Lucene pour le portugais.

lightPortuguese

Sélectionne le générateur de jetons de radical Lucene pour le portugais qui effectue un stemming léger.

minimalPortuguese

Sélectionne le générateur de jetons de radical Lucene pour le portugais qui effectue un minimum de stemming.

portugueseRslp

Sélectionne le générateur de jetons de stemming Lucene pour le portugais qui utilise l’algorithme de stemming RSLP.

romanian

Sélectionne le générateur de jetons de radical Lucene pour le roumain.

russian

Sélectionne le générateur de jetons Lucene pour le russe.

lightRussian

Sélectionne le générateur de jetons de radical Lucene pour le russe qui effectue un stemming léger.

spanish

Sélectionne le générateur de jetons Lucene pour l’espagnol.

lightSpanish

Sélectionne le générateur de jetons de radical Lucene pour l’espagnol qui effectue un stemming léger.

swedish

Sélectionne le générateur de jetons de recherche de radical Lucene pour le suédois.

lightSwedish

Sélectionne le générateur de jetons de radical Lucene pour le suédois qui effectue un stemming léger.

turkish

Sélectionne le générateur de jetons de radical Lucene pour le turc.

StopAnalyzer

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Discriminateur pour les types dérivés.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

stopwords

string[]

Liste des mots vides.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

Valeur Description
arabic

Sélectionne la liste de mots vides pour l’arabe.

armenian

Sélectionne la liste de mots vides pour l’arménien.

basque

Sélectionne la liste de mots vides pour le basque.

brazilian

Sélectionne la liste de mots vides pour le portugais (Brésil).

bulgarian

Sélectionne la liste de mots vides pour le bulgare.

catalan

Sélectionne la liste de mots vides pour le catalan.

czech

Sélectionne la liste de mots vides pour le tchèque.

danish

Sélectionne la liste de mots vides pour le danois.

dutch

Sélectionne la liste de mots vides pour le néerlandais.

english

Sélectionne la liste de mots vides pour l’anglais.

finnish

Sélectionne la liste de mots vides pour le finnois.

french

Sélectionne la liste de mots vides pour le français.

galician

Sélectionne la liste de mots vides pour le galicien.

german

Sélectionne la liste de mots vides pour l’allemand.

greek

Sélectionne la liste de mots vides pour le grec.

hindi

Sélectionne la liste de mots vides pour l’hindi.

hungarian

Sélectionne la liste de mots vides pour le hongrois.

indonesian

Sélectionne la liste de mots vides pour l’indonésien.

irish

Sélectionne la liste de mots vides pour l’irlandais.

italian

Sélectionne la liste de mots vides pour l’italien.

latvian

Sélectionne la liste de mots vides pour le letton.

norwegian

Sélectionne la liste de mots vides pour le norvégien.

persian

Sélectionne la liste de mots vides pour le persan.

portuguese

Sélectionne la liste de mots vides pour le portugais.

romanian

Sélectionne la liste de mots vides pour le roumain.

russian

Sélectionne la liste de mots vides pour le russe.

sorani

Sélectionne la liste de mots vides pour Sorani.

spanish

Sélectionne la liste de mots vides pour l’espagnol.

swedish

Sélectionne la liste de mots vides pour le suédois.

thai

Sélectionne la liste de mots vides pour le thaï.

turkish

Sélectionne la liste de mots vides pour le turc.

StopwordsTokenFilter

Supprime les mots vides d’un flux de tokens. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Discriminateur pour les types dérivés.

ignoreCase

boolean

False

Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

removeTrailing

boolean

True

Valeur indiquant s’il faut ignorer le dernier terme de recherche s’il s’agit d’un mot vide. La valeur par défaut est true.

stopwords

string[]

Liste des mots vides. Cette propriété et la propriété de liste des mots vides ne peuvent pas être définies.

stopwordsList

StopwordsList

english

Liste prédéfinie des mots vides à utiliser. Cette propriété et la propriété stopwords ne peuvent pas être définies. La valeur par défaut est l’anglais.

SynonymTokenFilter

Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Discriminateur pour les types dérivés.

expand

boolean

True

Valeur indiquant si tous les mots de la liste des synonymes (si => notation n’est pas utilisée) sont mappés les uns aux autres. Si la valeur est true, tous les mots de la liste des synonymes (if => notation ne sont pas utilisés) sont mappés les uns aux autres. La liste suivante : incroyable, incroyable, fabuleux, incroyable est équivalent à : incroyable, incroyable, fabuleux, incroyable => incroyable, incroyable, fabuleux, incroyable, incroyable. Si faux, la liste suivante : incroyable, incroyable, fabuleux, incroyable sera équivalent à : incroyable, incroyable, fabuleux, fabuleux => incroyable. La valeur par défaut est true.

ignoreCase

boolean

False

Valeur indiquant s’il faut entrer un pliage de casse pour la correspondance. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

synonyms

string[]

Liste de synonymes dans l’un des deux formats suivants : 1. incroyable, incroyable, fabuleux => incroyable - tous les termes sur le côté gauche de => symbole sera remplacé par tous les termes de son côté droit ; 2. incroyable, incroyable, fabuleux, incroyable - liste séparée par des virgules de mots équivalents. Définissez l’option expand pour changer la façon dont cette liste est interprétée.

TagScoringFunction

Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

Nom Type Description
boost

number (double)

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

tag

TagScoringParameters

Valeurs de paramètre pour la fonction de scoring d’étiquette.

type string:

tag

Type de ScoreFunction.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.

Nom Type Description
tagsParameter

string

Nom du paramètre passé dans les requêtes de recherche pour spécifier la liste des balises à comparer avec le champ cible.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

Nom Type Description
weights

object

Le dictionnaire des pondérations par champ pour améliorer la notation des documents. Les clés sont des noms de champs et les valeurs sont les pondérations de chaque champ.

TokenCharacterKind

Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

Valeur Description
letter

Conserve les lettres dans les jetons.

digit

Conserve les chiffres dans les jetons.

whitespace

Conserve les espaces dans les jetons.

punctuation

Conserve la ponctuation en jetons.

symbol

Conserve les symboles dans des jetons.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.

Valeur Description
arabic_normalization

Un filtre de jetons qui applique le normaliseur arabe pour normaliser l’orthographe. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Supprime tous les caractères suivant une apostrophe (y compris l’apostrophe elle-même). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Normalise les différences de largeur des caractères CJK. Replie les variantes ASCII pleine largeur dans le latin de base équivalent, et les variantes Katakana demi-largeur dans le Kana équivalent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Supprime les possessifs anglais et les points des acronymes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Normalise les caractères allemands en fonction des heuristiques de l’algorithme de boule de neige allemand2. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Normalise le texte dans Hindi de façon à supprimer des différences dans les variations orthographiques. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Normalise la représentation Unicode du texte dans les langues indiennes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Émet chaque jeton entrant deux fois, une fois en tant que mot clé et une fois en tant que non-mot clé. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Filtre kstem hautes performances pour l’anglais. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Supprime les mots qui sont trop longs ou trop courts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Limite le nombre de jetons lors de l’indexation. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Normalise le texte des jetons en lettres minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

Génère des n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Applique la normalisation pour le persan. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Crée des jetons pour les correspondances phonétiques. Voir https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Utilise l’algorithme de recherche de type Porter pour transformer le flux de jetons. Voir http://tartarus.org/~martin/PorterStemmer

reverse

Inverse la chaîne des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Normalise l’utilisation des caractères scandinaves interchangeables. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Plie les caractères scandinaves Ã¥ã... äæÃ"Æ-a> et öÖà ̧à ̃-o>. Il discrimine également contre l’utilisation de voyelles doubles aa, ae, ao, oe et oo, laissant juste la première. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Crée des combinaisons de jetons sous la forme d’un unique jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Normalise la représentation Unicode du texte Sorani. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Filtre de recherche de recherche spécifique au langage. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Supprime les mots vides d’un flux de tokens. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Supprime les espaces de début et de fin des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Tronque les termes à une longueur spécifique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Élimine les jetons avec le même texte que le jeton précédent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Normalise le texte des jetons en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Discriminateur pour les types dérivés.

length

integer (int32)

maximum: 300
300

Longueur à laquelle les termes seront tronqués. La valeur par défaut et la valeur maximale est 300.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

UaxUrlEmailTokenizer

Identifie les URL et les e-mails comme un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Discriminateur pour les types dérivés.

maxTokenLength

integer (int32)

maximum: 300
255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons dépassant la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

UniqueTokenFilter

Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Discriminateur pour les types dérivés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

onlyOnSamePosition

boolean

False

Valeur indiquant s’il faut supprimer les doublons uniquement à la même position. La valeur par défaut est false.

VectorEncodingFormat

Format d’encodage pour l’interprétation du contenu des champs vectoriels.

Valeur Description
packedBit

Format d’encodage représentant les bits empaquetés dans un type de données plus large.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

Nom Type Description
algorithms VectorSearchAlgorithmConfiguration[]:

Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation ou de l’interrogation.

compressions VectorSearchCompression[]:

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

profiles

VectorSearchProfile[]

Définit des combinaisons de configurations à utiliser avec la recherche vectorielle.

vectorizers VectorSearchVectorizer[]:

Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte.

VectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

Valeur Description
hnsw

HNSW (Hiérarchique Navigable Small World), un type d’algorithme voisin le plus proche approximatif.

exhaustiveKnn

Algorithme KNN exhaustif qui effectuera une recherche par force brute.

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé.

Valeur Description
cosine

Mesure l’angle entre les vecteurs pour quantifier leur similarité, sans tenir compte de l’ampleur. Plus l’angle est petit, plus la similarité est proche.

euclidean

Calcule la distance droite entre les vecteurs dans un espace multidimensionnel. Plus la distance est réduite, plus la similarité est proche.

dotProduct

Calcule la somme des produits à l’échelle des éléments pour évaluer l’alignement et la similarité de magnitude. Plus le plus grand et plus positif, plus la similarité est proche.

hamming

Applicable uniquement aux types de données binaires compressés par bits. Détermine la dissimilité en comptant les positions différentes dans les vecteurs binaires. Plus les différences sont moindres, plus la similarité est proche.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

Valeur Description
scalarQuantization

Quantization scalaire, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données.

binaryQuantization

Quantization binaire, type de méthode de compression. Dans la quantisation binaire, les valeurs de vecteurs d’origine sont compressées dans le type binaire plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données.

VectorSearchCompressionTarget

Type de données quantifiées des valeurs vectorielles compressées.

Valeur Description
int8

Entier signé 8 bits.

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

Nom Type Description
algorithm

string

Nom de la configuration de l’algorithme de recherche vectorielle qui spécifie l’algorithme et les paramètres facultatifs.

compression

string

Nom de la configuration de la méthode de compression qui spécifie la méthode de compression et les paramètres facultatifs.

name

string

Nom à associer à ce profil de recherche vectorielle particulier.

vectorizer

string

Nom de la vectorisation configurée pour être utilisée avec la recherche vectorielle.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser au moment de la requête.

Valeur Description
azureOpenAI

Générez des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête.

customWebApi

Générez des incorporations à l’aide d’un point de terminaison web personnalisé au moment de la requête.

aiServicesVision

Générez des incorporations pour une entrée image ou texte au moment de la requête à l’aide de l’API Vision Vectorize d’Azure AI Services.

aml

Générez des intégrations à l’aide d’un point de terminaison Azure Machine Learning déployé via le catalogue de modèles Azure AI Foundry au moment de la requête.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.

Nom Type Description
customWebApiParameters

WebApiVectorizerParameters

Spécifie les propriétés du vectoriseur défini par l’utilisateur.

kind string:

customWebApi

Type de vectoriseur de recherche.

name

string

Nom à associer à cette méthode de vectorisation particulière.

WebApiVectorizerParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

Nom Type Description
authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. Si une authResourceId est fournie et qu’elle n’est pas spécifiée, l’identité managée affectée par le système est utilisée. Lors des mises à jour de l’indexeur, si l’identité n’est pas spécifiée, la valeur reste inchangée. Si la valeur est « none », la valeur de cette propriété est effacée.

authResourceId

string

S’applique aux points de terminaison personnalisés qui se connectent à du code externe dans une fonction Azure ou une autre application fournissant les transformations. Cette valeur doit être l’ID d’application créé pour la fonction ou l’application lorsqu’elle a été inscrite auprès d’Azure Active Directory. Lorsqu’elle est spécifiée, la vectorisation se connecte à la fonction ou à l’application à l’aide d’un ID managé (attribué par le système ou par l’utilisateur) du service de recherche et du jeton d’accès de la fonction ou de l’application, en utilisant cette valeur comme ID de ressource pour la création de l’étendue du jeton d’accès.

httpHeaders

object

Les en-têtes nécessaires pour effectuer la requête HTTP.

httpMethod

string

Méthode de la requête HTTP.

timeout

string (duration)

Délai d’expiration souhaité pour la requête. La valeur par défaut est de 30 secondes.

uri

string (uri)

URI de l’API Web fournissant le vectoriseur.

WordDelimiterTokenFilter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Discriminateur pour les types dérivés.

catenateAll

boolean

False

Valeur indiquant si toutes les parties de sous-mots seront catenées. Par exemple, si cette valeur est définie sur true, « Azure-Search-1 » devient « AzureSearch1 ». La valeur par défaut est false.

catenateNumbers

boolean

False

Valeur indiquant si le nombre maximal d’exécutions de parties sera catenté. Par exemple, si cette valeur est définie sur true, « 1-2 » devient « 12 ». La valeur par défaut est false.

catenateWords

boolean

False

Valeur indiquant si le nombre maximal d’exécutions de parties word sera catenté. Par exemple, si cette valeur est définie sur true, « Azure-Search » devient « AzureSearch ». La valeur par défaut est false.

generateNumberParts

boolean

True

Valeur indiquant s’il faut générer des sous-mots numériques. La valeur par défaut est true.

generateWordParts

boolean

True

Valeur indiquant s’il faut générer des mots de partie. Si cette valeur est définie, les parties des mots doivent être générées ; par exemple , « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

preserveOriginal

boolean

False

Valeur indiquant si les mots d’origine seront conservés et ajoutés à la liste des sous-mots. La valeur par défaut est false.

protectedWords

string[]

Liste des jetons à protéger contre la délimitation.

splitOnCaseChange

boolean

True

Valeur indiquant s’il faut fractionner des mots sur caseChange. Par exemple, si cette valeur est définie sur true, « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true.

splitOnNumerics

boolean

True

Valeur indiquant s’il faut fractionner les nombres. Par exemple, si cette valeur est définie sur true, « Azure1Search » devient « Azure » « 1 » « Search ». La valeur par défaut est true.

stemEnglishPossessive

boolean

True

Valeur indiquant s’il faut supprimer les « s » de fin pour chaque sous-mot. La valeur par défaut est true.