Indexes - Create Or Update

Hiermee maakt u een nieuwe zoekindex of werkt u een index bij als deze al bestaat.

PUT {endpoint}/indexes('{indexName}')?api-version=2026-04-01
PUT {endpoint}/indexes('{indexName}')?api-version=2026-04-01&allowIndexDowntime={allowIndexDowntime}

URI-parameters

Name In Vereist Type Description
endpoint
path True

string (uri)

De eindpunt-URL van de zoekservice.

indexName
path True

string

De naam van de index.

api-version
query True

string

minLength: 1

De API-versie die voor deze bewerking moet worden gebruikt.

allowIndexDowntime
query

boolean

Hiermee kunnen nieuwe analysefuncties, tokenizers, tokenfilters of tekenfilters aan een index worden toegevoegd door de index minstens een paar seconden offline te halen. Hierdoor mislukken indexerings- en queryaanvragen tijdelijk. De prestaties en schrijfbaarheid van de index kunnen enkele minuten worden beperkt nadat de index is bijgewerkt of langer voor zeer grote indexen.

Aanvraagkoptekst

Name Vereist Type Description
Accept

Accept

De Accepteer kop.

If-Match

string

Hiermee definieert u de voorwaarde If-Match. De bewerking wordt alleen uitgevoerd als de ETag op de server overeenkomt met deze waarde.

If-None-Match

string

Definieert de voorwaarde 'Als-None-Match. De bewerking wordt alleen uitgevoerd als de ETag op de server niet overeenkomt met deze waarde.

Prefer True

Prefer

Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd.

x-ms-client-request-id

string (uuid)

Een ondoorzichtige, wereldwijd unieke, door de client gegenereerde tekenreeks-id voor de aanvraag.

Aanvraagbody

Name Vereist Type Description
fields True

SearchField[]

De velden van de index.

name True

string

De naam van de index.

@odata.etag

string

De ETag van de index.

analyzers LexicalAnalyzer[]:

De analyses voor de index.

charFilters CharFilter[]:

Het teken filtert voor de index.

corsOptions

CorsOptions

Opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor de index.

defaultScoringProfile

string

De naam van het scoreprofiel dat moet worden gebruikt als er geen is opgegeven in de query. Als deze eigenschap niet is ingesteld en er geen scoreprofiel is opgegeven in de query, wordt standaardscore (tf-idf) gebruikt.

description

string

De beschrijving van de index.

encryptionKey

SearchResourceEncryptionKey

Een beschrijving van een versleutelingssleutel die u in Azure Key Vault maakt. Deze sleutel wordt gebruikt om een extra niveau van versleuteling in rust te bieden voor je data wanneer je volledige zekerheid wilt dat niemand, zelfs Microsoft niet, je data kan ontsleutelen. Zodra u uw gegevens hebt versleuteld, blijven deze altijd versleuteld. De zoekservice negeert pogingen om deze eigenschap op null in te stellen. U kunt deze eigenschap indien nodig wijzigen als u uw versleutelingssleutel wilt draaien; Uw gegevens worden niet beïnvloed. Versleuteling met door de klant beheerde sleutels is niet beschikbaar voor gratis zoekservices en is alleen beschikbaar voor betaalde services die zijn gemaakt op of na 1 januari 2019.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

De normalizers voor de index.

scoringProfiles

ScoringProfile[]

De scoreprofielen voor de index.

semantic

SemanticSearch

Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden.

similarity SimilarityAlgorithm:

Het type gelijkenis-algoritme dat moet worden gebruikt bij het scoren en rangschiken van de documenten die overeenkomen met een zoekquery. Het gelijkenis-algoritme kan alleen worden gedefinieerd tijdens het maken van de index en kan niet worden gewijzigd in bestaande indexen. Als null is, wordt het algoritme ClassicSimilarity gebruikt.

suggesters

SearchSuggester[]

De suggesties voor de index.

tokenFilters TokenFilter[]:

Het tokenfiltert voor de index.

tokenizers LexicalTokenizer[]:

De tokenizers voor de index.

vectorSearch

VectorSearch

Bevat configuratieopties met betrekking tot vectorzoekopdrachten.

Antwoorden

Name Type Description
200 OK

SearchIndex

De aanvraag is voltooid.

201 Created

SearchIndex

De aanvraag is geslaagd en er is een nieuwe resource gemaakt.

Other Status Codes

ErrorResponse

Een onverwachte foutreactie.

Beveiliging

api-key

Type: apiKey
In: header

OAuth2Auth

Type: oauth2
Stroom: implicit
Autorisatie-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Bereiken

Name Description
https://search.azure.com/.default

Voorbeelden

SearchServiceCreateOrUpdateIndex

Voorbeeldaanvraag

PUT https://exampleservice.search.windows.net/indexes('temp-example-index')?api-version=2026-04-01&allowIndexDowntime=





{
  "name": "temp-example-index",
  "description": "description",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "key": true,
      "sortable": true
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 20,
      "vectorSearchProfile": "config1"
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 32,
      "vectorSearchProfile": "config4"
    },
    {
      "name": "name",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "standard.lucene"
    },
    {
      "name": "category",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "retrievable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "tag": {
            "tagsParameter": "categoryTag"
          },
          "type": "tag",
          "fieldName": "category",
          "boost": 2
        }
      ]
    }
  ],
  "defaultScoringProfile": "stringFieldBoost",
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer"
    }
  ],
  "tokenizers": [
    {
      "maxTokenLength": 100,
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer"
    }
  ],
  "tokenFilters": [
    {
      "preserveOriginal": false,
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter"
    }
  ],
  "charFilters": [
    {
      "mappings": [
        ".=>,",
        "_=>-"
      ],
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping"
    }
  ],
  "normalizers": [
    {
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer"
    }
  ],
  "similarity": {
    "k1": 10,
    "b": 0.1,
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        },
        "rankingOrder": "BoostedRerankerScore"
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "algorithms": [
      {
        "hnswParameters": {
          "metric": "cosine"
        },
        "name": "cosine",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "euclidean"
        },
        "name": "euclidean",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "dotProduct"
        },
        "name": "dotProduct",
        "kind": "hnsw"
      }
    ],
    "vectorizers": [
      {
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com/",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        },
        "name": "openai",
        "kind": "azureOpenAI"
      },
      {
        "customWebApiParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "httpMethod": "POST",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        },
        "name": "custom-web-api",
        "kind": "customWebApi"
      },
      {
        "amlParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "resourceId": "aml resource id",
          "timeout": "PT1M",
          "region": "aml region",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        },
        "name": "aml",
        "kind": "aml"
      },
      {
        "amlParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "resourceId": "aml resource id",
          "timeout": "PT1M",
          "region": "aml region",
          "modelName": "Cohere-embed-v4"
        },
        "name": "aml-cohere",
        "kind": "aml"
      }
    ],
    "compressions": [
      {
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        },
        "truncationDimension": 2
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        },
        "truncationDimension": 2
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        },
        "truncationDimension": 2
      }
    ]
  },
  "@odata.etag": "0x1234568AE7E58A1"
}

Voorbeeldrespons

{
  "name": "temp-example-index",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 32,
      "vectorSearchProfile": "config4",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer",
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      },
      {
        "name": "aml",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        }
      },
      {
        "name": "aml-cohere",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "Cohere-embed-v4"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        }
      }
    ]
  }
}
{
  "name": "temp-example-index",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector4",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 32,
      "vectorSearchProfile": "config4",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "price",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "my_normalizer",
      "tokenFilters": [
        "my_tokenFilter"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      },
      {
        "name": "config4",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQWithoutOriginals"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      },
      {
        "name": "aml",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32"
        }
      },
      {
        "name": "aml-cohere",
        "kind": "aml",
        "amlParameters": {
          "resourceId": "aml resource id",
          "region": "aml region",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "modelName": "Cohere-embed-v4"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQWithoutOriginals",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 10,
          "rescoreStorageMethod": "discardOriginals"
        }
      }
    ]
  }
}

Definities

Name Description
Accept

De Accepteer kop.

AIFoundryModelCatalogName

De naam van het embeddingmodel uit de Azure AI Foundry Catalog dat zal worden genoemd.

AMLParameters

Hiermee geeft u de eigenschappen voor het verbinden met een AML vectorizer.

AMLVectorizer

Specificeert een Azure Machine Learning-endpoint dat via de Azure AI Foundry Model Catalog wordt ingezet voor het genereren van de vector-embedding van een querystring.

AsciiFoldingTokenFilter

Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

AzureOpenAIModelName

De Azure Open AI-modelnaam die wordt aangeroepen.

AzureOpenAIVectorizer

Hiermee geeft u de Azure OpenAI-resource op die wordt gebruikt om een querytekenreeks te vectoriseren.

AzureOpenAIVectorizerParameters

Hiermee geeft u de parameters voor het maken van verbinding met de Azure OpenAI-resource.

BinaryQuantizationCompression

Bevat configuratieopties die specifiek zijn voor de binaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's.

BM25SimilarityAlgorithm

Classificatiefunctie op basis van het okapi BM25-gelijkenis-algoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie omvat (beheerd door de parameter b) en termfrequentieverzadiging (beheerd door de parameter k1).

CharFilterName

Definieert de namen van alle tekenfilters die door de zoekmachine worden ondersteund.

CjkBigramTokenFilter

Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

CjkBigramTokenFilterScripts

Scripts die kunnen worden genegeerd door CjkBigramTokenFilter.

ClassicSimilarityAlgorithm

Verouderd gelijkenis-algoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variatie van TF-IDF introduceert normalisatie van statische documentlengten en coördinatiefactoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de doorzochte query's.

ClassicTokenizer

Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europese documenten. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

CommonGramTokenFilter

Bouw bigrams voor veelgebruikte termen tijdens het indexeren. Ook enkele termen worden nog steeds geïndexeerd, waarbij bigrams over elkaar heen worden weergegeven. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

CorsOptions

Hiermee definieert u opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor een index.

CustomAnalyzer

Hiermee kunt u de controle overnemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit één vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het breken van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden verzonden.

CustomNormalizer

Hiermee kunt u normalisatie configureren voor filterbare, sorteerbare en facetable velden, die standaard werken met strikte overeenkomsten. Dit is een door de gebruiker gedefinieerde configuratie die bestaat uit ten minste één of meer filters, waarmee het token wordt gewijzigd dat is opgeslagen.

DictionaryDecompounderTokenFilter

Ontleedt samengestelde woorden in veel Germaanse talen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

DistanceScoringFunction

Definieert een functie die scores verhoogt op basis van afstand van een geografische locatie.

DistanceScoringParameters

Biedt parameterwaarden voor een scorefunctie voor afstand.

EdgeNGramTokenFilter

Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

EdgeNGramTokenFilterSide

Geeft aan welke kant van de invoer een n-gram moet worden gegenereerd.

EdgeNGramTokenFilterV2

Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

EdgeNGramTokenizer

Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(en). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

ElisionTokenFilter

Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

ErrorAdditionalInfo

Aanvullende informatie over de resourcebeheerfout.

ErrorDetail

De foutdetails.

ErrorResponse

Veelvoorkomende foutrespons voor alle Azure Resource Manager API's om foutdetails terug te geven bij mislukte bewerkingen. (Dit volgt ook de OData-foutreactieindeling.)

ExhaustiveKnnAlgorithmConfiguration

Bevat configuratieopties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force zoekopdrachten worden uitgevoerd in de gehele vectorindex.

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor een volledig KNN-algoritme.

FreshnessScoringFunction

Definieert een functie die scores verhoogt op basis van de waarde van een datum/tijd-veld.

FreshnessScoringParameters

Biedt parameterwaarden voor een scorefunctie voor nieuwheid.

HnswAlgorithmConfiguration

Bevat configuratie-opties die specifiek zijn voor het HNSW-algoritme voor de dichtstbijzijnde buren dat wordt gebruikt tijdens het indexeren en opvragen. Het HNSW-algoritme biedt een afstembare afweging tussen zoeksnelheid en nauwkeurigheid.

HnswParameters

Bevat de parameters die specifiek zijn voor het HNSW-algoritme.

KeepTokenFilter

Een tokenfilter dat alleen tokens met tekst in een opgegeven lijst met woorden bewaart. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

KeywordMarkerTokenFilter

Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

KeywordTokenizer

Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

KeywordTokenizerV2

Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

LengthTokenFilter

Hiermee verwijdert u woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

LexicalAnalyzerName

Definieert de namen van alle tekstanalysatoren die door de zoekmachine worden ondersteund.

LexicalNormalizerName

Definieert de namen van alle tekstnormalizers die door de zoekmachine worden ondersteund.

LexicalTokenizerName

Definieert de namen van alle tokenizers die door de zoekmachine worden ondersteund.

LimitTokenFilter

Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

LuceneStandardAnalyzer

Standard Apache Lucene Analyzer; Samengesteld uit de standaardtokenizer, het filter in kleine letters en het stopfilter.

LuceneStandardTokenizer

Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

LuceneStandardTokenizerV2

Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

MagnitudeScoringFunction

Definieert een functie die scores verhoogt op basis van de grootte van een numeriek veld.

MagnitudeScoringParameters

Biedt parameterwaarden voor een scorefunctie voor de grootte.

MappingCharFilter

Een tekenfilter waarmee toewijzingen worden toegepast die zijn gedefinieerd met de optie Toewijzingen. De overeenkomsten zijn greedy (de langste patroonherkenning op een gegeven moment wint). Vervanging mag de lege string zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisformulieren.

MicrosoftLanguageTokenizer

Verdeelt tekst met taalspecifieke regels.

MicrosoftStemmingTokenizerLanguage

Geeft een lijst van de talen die worden ondersteund door de Microsoft language stemming tokenizer.

MicrosoftTokenizerLanguage

Geeft een lijst van de talen die door de Microsoft-taaltokenizer worden ondersteund.

NGramTokenFilter

Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

NGramTokenFilterV2

Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

NGramTokenizer

Hiermee wordt de invoer in n-grammen van de opgegeven grootte(n) tokenizes. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PathHierarchyTokenizerV2

Tokenizer voor pad-achtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PatternAnalyzer

Scheidt tekst flexibel in termen via een normaal expressiepatroon. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.

PatternCaptureTokenFilter

Gebruikt Java-regexes om meerdere tokens te verzenden: één voor elke capturegroep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternReplaceCharFilter

Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternReplaceTokenFilter

Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternTokenizer

Tokenizer die gebruikmaakt van regex-patroon dat overeenkomt met het samenstellen van afzonderlijke tokens. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PhoneticEncoder

Identificeert het type fonetische encoder dat moet worden gebruikt met een PhoneticTokenFilter.

PhoneticTokenFilter

Tokens maken voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Prefer

Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd.

RankingOrder

Vertegenwoordigt de score die moet worden gebruikt voor de sorteervolgorde van documenten.

RescoringOptions

Bevat de opties voor het wijzigen van het formaat.

ScalarQuantizationCompression

Bevat configuratieopties die specifiek zijn voor de scalaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's.

ScalarQuantizationParameters

Bevat de parameters die specifiek zijn voor Scalaire kwantisatie.

ScoringFunctionAggregation

Definieert de aggregatiefunctie die wordt gebruikt om de resultaten van alle scorefuncties in een scoreprofiel te combineren.

ScoringFunctionInterpolation

Definieert de functie die wordt gebruikt om scoreverhoging te interpoleren in een reeks documenten.

ScoringProfile

Definieert parameters voor een zoekindex die van invloed zijn op scoren in zoekquery's.

SearchField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

SearchFieldDataType

Definieert het gegevenstype van een veld in een zoekindex.

SearchIndex

Vertegenwoordigt een definitie van een zoekindex, waarin de velden en het zoekgedrag van een index worden beschreven.

SearchIndexerDataNoneIdentity

Hiermee wist u de identiteitseigenschap van een gegevensbron.

SearchIndexerDataUserAssignedIdentity

Hiermee geeft u de identiteit op voor een gegevensbron die moet worden gebruikt.

SearchResourceEncryptionKey

Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt om inactieve gegevens, zoals indexen en synoniementoewijzingen, te versleutelen of te ontsleutelen.

SearchSuggester

Hiermee definieert u hoe de Suggestie-API moet worden toegepast op een groep velden in de index.

SemanticConfiguration

Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden.

SemanticField

Een veld dat wordt gebruikt als onderdeel van de semantische configuratie.

SemanticPrioritizedFields

Beschrijft de velden titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, hoogtepunten en antwoorden.

SemanticSearch

Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden.

ShingleTokenFilter

Hiermee maakt u combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

SnowballTokenFilter

Een filter dat woorden stamt met behulp van een door Snowball gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

SnowballTokenFilterLanguage

De taal die moet worden gebruikt voor een Snowball-tokenfilter.

StemmerOverrideTokenFilter

Biedt de mogelijkheid om andere stemmingsfilters te overschrijven met aangepaste stemming op basis van woordenlijst. Alle woordenlijstgestemde termen worden gemarkeerd als trefwoorden, zodat ze niet worden afgestemd met stemmers in de keten. Moet vóór stemmingsfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Taalspecifiek stemmingsfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StemmerTokenFilterLanguage

De taal die moet worden gebruikt voor een stemmer token filter.

StopAnalyzer

Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopworden toe. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.

StopwordsList

Identificeert een vooraf gedefinieerde lijst met taalspecifieke stopwoorden.

StopwordsTokenFilter

Hiermee verwijdert u stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SynonymTokenFilter

Komt overeen met synoniemen met één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

TagScoringFunction

Definieert een functie waarmee scores van documenten worden verhoogd met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags.

TagScoringParameters

Biedt parameterwaarden voor een scorefunctie voor tags.

TextWeights

Definieert gewichten voor indexvelden waarvoor overeenkomsten het scoren in zoekquery's moeten verhogen.

TokenCharacterKind

Vertegenwoordigt klassen van tekens waarop een tokenfilter kan werken.

TokenFilterName

Definieert de namen van alle tokenfilters die door de zoekmachine worden ondersteund.

TruncateTokenFilter

Kapt de voorwaarden af tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

UaxUrlEmailTokenizer

Hiermee worden URL's en e-mailadressen als één token getokeniseerd. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

UniqueTokenFilter

Filtert tokens met dezelfde tekst als het vorige token eruit. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

VectorEncodingFormat

Het coderingsformaat voor het interpreteren van de inhoud van vectorvelden.

VectorSearch

Bevat configuratieopties met betrekking tot vectorzoekopdrachten.

VectorSearchAlgorithmKind

Het algoritme dat wordt gebruikt voor indexeren en opvragen.

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. Het wordt aanbevolen om dezelfde gelijkenismetriek te kiezen waarop het inbeddingsmodel is getraind.

VectorSearchCompressionKind

De compressiemethode die wordt gebruikt voor indexeren en query's.

VectorSearchCompressionTarget

Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.

VectorSearchProfile

Definieert een combinatie van configuraties die moeten worden gebruikt met vectorzoekopdrachten.

VectorSearchVectorizerKind

De vectorisatiemethode die moet worden gebruikt tijdens de zoekopdracht.

WebApiVectorizer

Hiermee geeft u een door de gebruiker gedefinieerde vectorizer op voor het genereren van de vectorinsluiting van een queryreeks. Integratie van een externe vectorizer wordt bereikt met behulp van de aangepaste web-API-interface van een vaardighedenset.

WebApiVectorizerParameters

Hiermee geeft u de eigenschappen voor het maken van verbinding met een door de gebruiker gedefinieerde vectorizer.

WordDelimiterTokenFilter

Splitst woorden in subwoorden en voert optionele transformaties uit voor subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Accept

De Accepteer kop.

Waarde Description
application/json;odata.metadata=minimal

AIFoundryModelCatalogName

De naam van het embeddingmodel uit de Azure AI Foundry Catalog dat zal worden genoemd.

Waarde Description
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Base

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Facebook-DinoV2-Image-Embeddings-ViT-Giant

Cohere-embed-v3-english

Cohere-embed-v3-english

Cohere-embed-v3-multilingual

Cohere-embed-v3-meertalig

Cohere-embed-v4

Cohere embed v4-model voor het genereren van inbeddingen van zowel tekst als afbeeldingen.

AMLParameters

Hiermee geeft u de eigenschappen voor het verbinden met een AML vectorizer.

Name Type Description
key

string

(Vereist voor sleutelverificatie) De sleutel voor de AML-service.

modelName

AIFoundryModelCatalogName

De naam van het embeddingmodel uit de Azure AI Foundry Catalog die op het geleverde eindpunt wordt uitgerold.

region

string

(Optioneel voor tokenverificatie). De regio waarin de AML-service wordt geïmplementeerd.

resourceId

string

(Vereist voor tokenverificatie). De Azure Resource Manager resource ID van de AML-service. Het zou in het formaat subscriptions/{guid}/resourceGroups/{resource-group-name}/Microsoft moeten zijn. MachineLearningServices/workspaces/{workspace-name}/services/{service_name}.

timeout

string (duration)

(Optioneel) Wanneer dit is opgegeven, geeft u de time-out aan voor de HTTP-client die de API-aanroep maakt.

uri

string (uri)

(Vereist voor geen verificatie of sleutelverificatie) De score-URI van de AML-service waarnaar de JSON-nettolading wordt verzonden. Alleen het https-URI-schema is toegestaan.

AMLVectorizer

Specificeert een Azure Machine Learning-endpoint dat via de Azure AI Foundry Model Catalog wordt ingezet voor het genereren van de vector-embedding van een querystring.

Name Type Description
amlParameters

AMLParameters

Hiermee geeft u de eigenschappen van de AML vectorizer.

kind string:

aml

Type of VectorSearchVectorizer.

name

string

De naam die moet worden gekoppeld aan deze specifieke vectorisatiemethode.

AsciiFoldingTokenFilter

Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

De discriminator voor afgeleide typen.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

preserveOriginal

boolean

False

Een waarde die aangeeft of het oorspronkelijke token wordt bewaard. De standaardwaarde is vals.

AzureOpenAIModelName

De Azure Open AI-modelnaam die wordt aangeroepen.

Waarde Description
text-embedding-ada-002

TextEmbeddingAda002 model.

text-embedding-3-large

TextEmbedding3Groot model.

text-embedding-3-small

TextEmbedding3Small-model.

gpt-5-mini

Gpt5Mini model.

gpt-5-nano

Gpt5Nano-model.

gpt-5.4-mini

Gpt54Mini model.

gpt-5.4-nano

Gpt54Nano model.

AzureOpenAIVectorizer

Hiermee geeft u de Azure OpenAI-resource op die wordt gebruikt om een querytekenreeks te vectoriseren.

Name Type Description
azureOpenAIParameters

AzureOpenAIVectorizerParameters

Bevat de parameters die specifiek zijn voor Azure OpenAI-inbeddingsvectorisatie.

kind string:

azureOpenAI

Type of VectorSearchVectorizer.

name

string

De naam die moet worden gekoppeld aan deze specifieke vectorisatiemethode.

AzureOpenAIVectorizerParameters

Hiermee geeft u de parameters voor het maken van verbinding met de Azure OpenAI-resource.

Name Type Description
apiKey

string

API-sleutel van de aangewezen Azure OpenAI-resource.

authIdentity SearchIndexerDataIdentity:

De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen.

deploymentId

string

ID van de implementatie van het Azure OpenAI-model op de aangewezen resource.

modelName

AzureOpenAIModelName

De naam van het insluitmodel dat is geïmplementeerd op het opgegeven deploymentId-pad.

resourceUri

string (uri)

De resource-URI van de Azure OpenAI-resource.

BinaryQuantizationCompression

Bevat configuratieopties die specifiek zijn voor de binaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's.

Name Type Description
kind string:

binaryQuantization

Type VectorSearchCompressie.

name

string

De naam die moet worden gekoppeld aan deze specifieke configuratie.

rescoringOptions

RescoringOptions

Bevat de opties voor het wijzigen van het formaat.

truncationDimension

integer (int32)

Het aantal dimensies waaraan de vectoren moeten worden afgekapt. Het afkappen van de vectoren vermindert de grootte van de vectoren en de hoeveelheid gegevens die tijdens de zoekopdracht moet worden overgedragen. Dit kan opslagkosten besparen en de zoekprestaties verbeteren ten koste van terugroepen. Deze mag alleen worden gebruikt voor insluitingen die zijn getraind met Matryoshka Representation Learning (MRL), zoals OpenAI text-embedding-3-large (klein). De standaardwaarde is null, wat betekent dat er geen afkapping is.

BM25SimilarityAlgorithm

Classificatiefunctie op basis van het okapi BM25-gelijkenis-algoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie omvat (beheerd door de parameter b) en termfrequentieverzadiging (beheerd door de parameter k1).

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

De discriminator voor afgeleide typen.

b

number (double)

Met deze eigenschap bepaalt u hoe de lengte van een document van invloed is op de relevantiescore. Standaard wordt een waarde van 0,75 gebruikt. Een waarde van 0,0 betekent dat er geen lengtenormalisatie wordt toegepast, terwijl een waarde van 1,0 betekent dat de score volledig wordt genormaliseerd met de lengte van het document.

k1

number (double)

Deze eigenschap bepaalt de schaalfunctie tussen de termfrequentie van elke overeenkomende termen en de uiteindelijke relevantiescore van een documentquerypaar. Standaard wordt een waarde van 1,2 gebruikt. Een waarde van 0,0 betekent dat de score niet wordt geschaald met een toename van de termijnfrequentie.

CharFilterName

Definieert de namen van alle tekenfilters die door de zoekmachine worden ondersteund.

Waarde Description
html_strip

Een tekenfilter waarmee HTML-constructies worden verwijderd. Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

De discriminator voor afgeleide typen.

ignoreScripts

CjkBigramTokenFilterScripts[]

De scripts die moeten worden genegeerd.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

outputUnigrams

boolean

False

Een waarde die aangeeft of zowel unigrammen als bigrams (indien waar) moeten worden uitgevoerd of alleen bigrams (indien onwaar). De standaardwaarde is vals.

CjkBigramTokenFilterScripts

Scripts die kunnen worden genegeerd door CjkBigramTokenFilter.

Waarde Description
han

Negeer het Han-schrift bij het vormen van bigrammen van CJK-termen.

hiragana

Negeer het Hiragana-script bij het vormen van bigrammen van CJK-termen.

katakana

Negeer het Katakana-schrift bij het vormen van bigrammen van CJK-termen.

hangul

Negeer het Hangul-script bij het vormen van bigrammen van CJK-termen.

ClassicSimilarityAlgorithm

Verouderd gelijkenis-algoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variatie van TF-IDF introduceert normalisatie van statische documentlengten en coördinatiefactoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de doorzochte query's.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

De discriminator voor afgeleide typen.

ClassicTokenizer

Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europese documenten. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

De discriminator voor afgeleide typen.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

CommonGramTokenFilter

Bouw bigrams voor veelgebruikte termen tijdens het indexeren. Ook enkele termen worden nog steeds geïndexeerd, waarbij bigrams over elkaar heen worden weergegeven. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

De discriminator voor afgeleide typen.

commonWords

string[]

De set veelgebruikte woorden.

ignoreCase

boolean

False

Een waarde die aangeeft of overeenkomende woorden hoofdlettergevoelig zijn. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

queryMode

boolean

False

Een waarde die aangeeft of het tokenfilter zich in de querymodus bevindt. In de querymodus genereert het tokenfilter bigrams en worden vervolgens algemene woorden en enkele termen verwijderd, gevolgd door een gemeenschappelijk woord. De standaardwaarde is vals.

CorsOptions

Hiermee definieert u opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor een index.

Name Type Description
allowedOrigins

string[]

De lijst met herkomsten van waaruit JavaScript-code toegang krijgt tot uw index. Kan een lijst met hosts van de vorm {protocol}://{fully-qualified-domain-name}[:{port#}] bevatten, of een enkele '*' om alle origines toe te staan (niet aanbevolen).

maxAgeInSeconds

integer (int64)

De duur waarvoor browsers CORS preflight-antwoorden in de cache moeten opslaan. Standaard ingesteld op 5 minuten.

CustomAnalyzer

Hiermee kunt u de controle overnemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit één vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het breken van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden verzonden.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

De discriminator voor afgeleide typen.

charFilters

CharFilterName[]

Een lijst met tekenfilters die worden gebruikt om invoertekst voor te bereiden voordat deze door de tokenizer wordt verwerkt. Ze kunnen bijvoorbeeld bepaalde tekens of symbolen vervangen. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven.

name

string

De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

tokenFilters

TokenFilterName[]

Een lijst met tokenfilters die worden gebruikt om de tokens die door een tokenizer zijn gegenereerd, uit te filteren of te wijzigen. U kunt bijvoorbeeld een filter in kleine letters opgeven waarmee alle tekens worden geconverteerd naar kleine letters. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven.

tokenizer

LexicalTokenizerName

De naam van de tokenizer die moet worden gebruikt om doorlopende tekst te verdelen in een reeks tokens, zoals het opsplitsen van een zin in woorden.

CustomNormalizer

Hiermee kunt u normalisatie configureren voor filterbare, sorteerbare en facetable velden, die standaard werken met strikte overeenkomsten. Dit is een door de gebruiker gedefinieerde configuratie die bestaat uit ten minste één of meer filters, waarmee het token wordt gewijzigd dat is opgeslagen.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

De discriminator voor afgeleide typen.

charFilters

CharFilterName[]

Een lijst met tekenfilters die worden gebruikt om invoertekst voor te bereiden voordat deze wordt verwerkt. Ze kunnen bijvoorbeeld bepaalde tekens of symbolen vervangen. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven.

name

string

De naam van het tekenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

tokenFilters

TokenFilterName[]

Een lijst met tokenfilters die worden gebruikt om het invoertoken uit te filteren of te wijzigen. U kunt bijvoorbeeld een filter in kleine letters opgeven waarmee alle tekens worden geconverteerd naar kleine letters. De filters worden uitgevoerd in de volgorde waarin ze worden weergegeven.

DictionaryDecompounderTokenFilter

Ontleedt samengestelde woorden in veel Germaanse talen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

De discriminator voor afgeleide typen.

maxSubwordSize

integer (int32)

maximum: 300
15

De maximale grootte van het subwoord. Alleen subwoorden korter dan deze worden uitgevoerd. De standaardwaarde is 15. Het maximum is 300.

minSubwordSize

integer (int32)

maximum: 300
2

De minimale grootte van het subwoord. Alleen subwoorden die langer zijn dan deze worden uitgevoerd. De standaardwaarde is 2. Het maximum is 300.

minWordSize

integer (int32)

maximum: 300
5

De minimale woordgrootte. Alleen woorden die langer zijn dan deze worden verwerkt. De standaardwaarde is 5. Het maximum is 300.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

onlyLongestMatch

boolean

False

Een waarde die aangeeft of alleen het langste overeenkomende subwoord moet worden toegevoegd aan de uitvoer. De standaardwaarde is vals.

wordList

string[]

De lijst met woorden die moeten worden vergeleken.

DistanceScoringFunction

Definieert een functie die scores verhoogt op basis van afstand van een geografische locatie.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

distance

DistanceScoringParameters

Parameterwaarden voor de scorefunctie voor afstand.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair.

type string:

distance

Type of ScoringFunction.

DistanceScoringParameters

Biedt parameterwaarden voor een scorefunctie voor afstand.

Name Type Description
boostingDistance

number (double)

De afstand in kilometers vanaf de referentielocatie waar het boostbereik eindigt.

referencePointParameter

string

De naam van de parameter die wordt doorgegeven in zoekopdrachten om de referentielocatie op te geven.

EdgeNGramTokenFilter

Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

De discriminator voor afgeleide typen.

maxGram

integer (int32)

2

De maximale lengte n-gram. De standaardwaarde is 2.

minGram

integer (int32)

1

De minimale lengte n-gram. De standaardwaarde is 1. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

side

EdgeNGramTokenFilterSide

front

Geeft aan welke kant van de invoer de n-gram moet worden gegenereerd. De standaardinstelling is "voorkant".

EdgeNGramTokenFilterSide

Geeft aan welke kant van de invoer een n-gram moet worden gegenereerd.

Waarde Description
front

Geeft aan dat de n-gram moet worden gegenereerd vanaf de voorkant van de invoer.

back

Geeft aan dat de n-gram moet worden gegenereerd vanaf de achterkant van de invoer.

EdgeNGramTokenFilterV2

Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

De discriminator voor afgeleide typen.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

side

EdgeNGramTokenFilterSide

front

Geeft aan welke kant van de invoer de n-gram moet worden gegenereerd. De standaardinstelling is "voorkant".

EdgeNGramTokenizer

Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(en). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

De discriminator voor afgeleide typen.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

tokenChars

TokenCharacterKind[]

Tekenklassen om in de tokens te blijven.

ElisionTokenFilter

Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

De discriminator voor afgeleide typen.

articles

string[]

De set artikelen die u wilt verwijderen.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

ErrorAdditionalInfo

Aanvullende informatie over de resourcebeheerfout.

Name Type Description
info

De aanvullende informatie.

type

string

Het extra informatietype.

ErrorDetail

De foutdetails.

Name Type Description
additionalInfo

ErrorAdditionalInfo[]

De fout bevat aanvullende informatie.

code

string

De foutcode.

details

ErrorDetail[]

De foutdetails.

message

string

Het foutbericht.

target

string

Het foutdoelwit.

ErrorResponse

Veelvoorkomende foutrespons voor alle Azure Resource Manager API's om foutdetails terug te geven bij mislukte bewerkingen. (Dit volgt ook de OData-foutreactieindeling.)

Name Type Description
error

ErrorDetail

Het foutobject.

ExhaustiveKnnAlgorithmConfiguration

Bevat configuratieopties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force zoekopdrachten worden uitgevoerd in de gehele vectorindex.

Name Type Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor een volledig KNN-algoritme.

kind string:

exhaustiveKnn

Type of VectorSearchAlgorithmConfiguration.

name

string

De naam die moet worden gekoppeld aan deze specifieke configuratie.

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor een volledig KNN-algoritme.

Name Type Description
metric

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen.

FreshnessScoringFunction

Definieert een functie die scores verhoogt op basis van de waarde van een datum/tijd-veld.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

freshness

FreshnessScoringParameters

Parameterwaarden voor de scorefunctie voor nieuwheid.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair.

type string:

freshness

Type of ScoringFunction.

FreshnessScoringParameters

Biedt parameterwaarden voor een scorefunctie voor nieuwheid.

Name Type Description
boostingDuration

string (duration)

De vervalperiode waarna het boosten voor een bepaald document wordt stopgezet.

HnswAlgorithmConfiguration

Bevat configuratie-opties die specifiek zijn voor het HNSW-algoritme voor de dichtstbijzijnde buren dat wordt gebruikt tijdens het indexeren en opvragen. Het HNSW-algoritme biedt een afstembare afweging tussen zoeksnelheid en nauwkeurigheid.

Name Type Description
hnswParameters

HnswParameters

Bevat de parameters die specifiek zijn voor het HNSW-algoritme.

kind string:

hnsw

Type of VectorSearchAlgorithmConfiguration.

name

string

De naam die moet worden gekoppeld aan deze specifieke configuratie.

HnswParameters

Bevat de parameters die specifiek zijn voor het HNSW-algoritme.

Name Type Default value Description
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

De grootte van de dynamische lijst met de dichtstbijzijnde buren, die wordt gebruikt tijdens de indextijd. Het verhogen van deze parameter kan de indexkwaliteit verbeteren, wat ten koste gaat van een langere indexeringstijd. Op een gegeven moment leidt het verhogen van deze parameter tot afnemende meeropbrengsten.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

De grootte van de dynamische lijst met de dichtstbijzijnde buren, die wordt gebruikt tijdens de zoektijd. Het verhogen van deze parameter kan de zoekresultaten verbeteren, ten koste van langzamer zoeken. Op een gegeven moment leidt het verhogen van deze parameter tot afnemende meeropbrengsten.

m

integer (int32)

minimum: 4
maximum: 10
4

Het aantal bidirectionele verbindingen dat tijdens de bouw voor elk nieuw element wordt gemaakt. Het verhogen van deze parameterwaarde kan het terugroepen verbeteren en de ophaaltijden verkorten voor gegevenssets met een hoge intrinsieke dimensionaliteit, ten koste van een hoger geheugengebruik en een langere indexeringstijd.

metric

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen.

KeepTokenFilter

Een tokenfilter dat alleen tokens met tekst in een opgegeven lijst met woorden bewaart. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

De discriminator voor afgeleide typen.

keepWords

string[]

De lijst met woorden die moeten worden bewaard.

keepWordsCase

boolean

False

Een waarde die aangeeft of alle woorden eerst in kleine letters moeten worden opgeslagen. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

KeywordMarkerTokenFilter

Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

De discriminator voor afgeleide typen.

ignoreCase

boolean

False

Een waarde die aangeeft of hoofdlettergebruik moet worden genegeerd. Indien waar, worden alle woorden eerst geconverteerd naar kleine letters. De standaardwaarde is vals.

keywords

string[]

Een lijst met woorden die moeten worden gemarkeerd als trefwoorden.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

KeywordTokenizer

Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

De discriminator voor afgeleide typen.

bufferSize

integer (int32)

256

De grootte van de leesbuffer in bytes. De standaardwaarde is 256.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

KeywordTokenizerV2

Hiermee wordt de volledige invoer als één token verzonden. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

De discriminator voor afgeleide typen.

maxTokenLength

integer (int32)

maximum: 300
256

De maximale tokenlengte. De standaardwaarde is 256. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

LengthTokenFilter

Hiermee verwijdert u woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

De discriminator voor afgeleide typen.

max

integer (int32)

maximum: 300
300

De maximale lengte in tekens. Standaard en maximum is 300.

min

integer (int32)

maximum: 300
0

De minimale lengte in tekens. De standaardwaarde is 0. Het maximum is 300. Moet kleiner zijn dan de waarde van max.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

LexicalAnalyzerName

Definieert de namen van alle tekstanalysatoren die door de zoekmachine worden ondersteund.

Waarde Description
ar.microsoft

Microsoft-analyzer voor Arabisch.

ar.lucene

Lucene analyzer voor Arabisch.

hy.lucene

Lucene analyzer voor Armeens.

bn.microsoft

Microsoft-analyzer voor Bengaals.

eu.lucene

Lucene-analysator voor Baskisch.

bg.microsoft

Microsoft-analyzer voor Bulgaars.

bg.lucene

Lucene analyzer voor Bulgaars.

ca.microsoft

Microsoft-analyzer voor Catalaans.

ca.lucene

Lucene analyzer voor Catalaans.

zh-Hans.microsoft

Microsoft-analyzer voor Chinees (vereenvoudigd).

zh-Hans.lucene

Lucene analyzer voor Chinees (Vereenvoudigd).

zh-Hant.microsoft

Microsoft analyzer voor Chinees (traditioneel).

zh-Hant.lucene

Lucene analyzer voor Chinees (traditioneel).

hr.microsoft

Microsoft analyzer voor Kroatisch.

cs.microsoft

Microsoft-analyzer voor Tsjechisch.

cs.lucene

Lucene analyzer voor Tsjechisch.

da.microsoft

Microsoft-analyzer voor Deens.

da.lucene

Lucene analyzer voor Deens.

nl.microsoft

Microsoft analyzer voor Nederlands.

nl.lucene

Lucene analyzer voor Nederlands.

en.microsoft

Microsoft analyzer voor Engels.

en.lucene

Lucene analyzer voor Engels.

et.microsoft

Microsoft analyzer voor Ests.

fi.microsoft

Microsoft-analyzer voor Fins.

fi.lucene

Lucene analyzer voor Fins.

fr.microsoft

Microsoft-analyzer voor Frans.

fr.lucene

Lucene analyzer voor Frans.

gl.lucene

Lucene analyzer voor Galicisch.

de.microsoft

Microsoft-analyzer voor Duits.

de.lucene

Lucene analyzer voor Duits.

el.microsoft

Microsoft-analyzer voor Grieks.

el.lucene

Lucene analyzer voor Grieks.

gu.microsoft

Microsoft analyzer voor Gujarati.

he.microsoft

Microsoft-analyzer voor Hebreeuws.

hi.microsoft

Microsoft-analyzer voor Hindi.

hi.lucene

Lucene analyzer voor Hindi.

hu.microsoft

Microsoft-analyzer voor Hongaars.

hu.lucene

Lucene analyzer voor Hongaars.

is.microsoft

Microsoft-analyzer voor IJslands.

id.microsoft

Microsoft analyzer voor Indonesisch (Bahasa).

id.lucene

Lucene analyzer voor Indonesisch.

ga.lucene

Lucene analyzer voor Iers.

it.microsoft

Microsoft analyzer voor Italiaans.

it.lucene

Lucene analyzer voor Italiaans.

ja.microsoft

Microsoft analyzer voor Japans.

ja.lucene

Lucene analyzer voor Japans.

kn.microsoft

Microsoft analyzer voor Kannada.

ko.microsoft

Microsoft-analyzer voor Koreaans.

ko.lucene

Lucene analyzer voor Koreaans.

lv.microsoft

Microsoft analyzer voor Lets.

lv.lucene

Lucene analyzer voor Lets.

lt.microsoft

Microsoft analyzer voor Litouws.

ml.microsoft

Microsoft-analyzer voor Malayalam.

ms.microsoft

Microsoft-analyzer voor Maleis (Latijn).

mr.microsoft

Microsoft analyzer voor Marathi.

nb.microsoft

Microsoft analyzer for Norwegian (Bokmül).

no.lucene

Lucene analyzer voor Noors.

fa.lucene

Lucene analyzer voor Perzisch.

pl.microsoft

Microsoft analyzer voor Pools.

pl.lucene

Lucene analyzer voor Pools.

pt-BR.microsoft

Microsoft analyzer voor Portugees (Brazilië).

pt-BR.lucene

Lucene analyzer voor Portugees (Brazilië).

pt-PT.microsoft

Microsoft analyzer for Portuguese (Portugal).

pt-PT.lucene

Lucene analyzer voor Portugees (Portugal).

pa.microsoft

Microsoft analyzer voor Punjabi.

ro.microsoft

Microsoft analyzer voor Roemeens.

ro.lucene

Lucene analyzer voor Roemeens.

ru.microsoft

Microsoft-analyzer voor Russisch.

ru.lucene

Lucene analyzer voor Russisch.

sr-cyrillic.microsoft

Microsoft analyzer voor Servisch (Cyrillisch).

sr-latin.microsoft

Microsoft analyzer voor Servisch (Latijn).

sk.microsoft

Microsoft-analyzer voor Slowaaks.

sl.microsoft

Microsoft analyzer voor Sloveens.

es.microsoft

Microsoft analyzer voor Spaans.

es.lucene

Lucene analyzer voor Spaans.

sv.microsoft

Microsoft-analyzer voor Zweeds.

sv.lucene

Lucene analyzer voor Zweeds.

ta.microsoft

Microsoft-analyzer voor Tamil.

te.microsoft

Microsoft analyzer voor Telugu.

th.microsoft

Microsoft-analyzer voor Thais.

th.lucene

Lucene analyzer voor Thais.

tr.microsoft

Microsoft-analyzer voor Turks.

tr.lucene

Lucene analyzer voor Turks.

uk.microsoft

Microsoft-analyzer voor Oekraïens.

ur.microsoft

Microsoft analyzer voor Urdu.

vi.microsoft

Microsoft-analyzer voor Vietnamees.

standard.lucene

Standaard Lucene-analysator.

standardasciifolding.lucene

Standaard ASCII opvouwbare lucene-analysator. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Behandelt de volledige inhoud van een veld als één token. Dit is handig voor gegevens zoals postcodes, id's en sommige productnamen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Scheidt tekst flexibel in termen via een normaal expressiepatroon. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Verdeelt tekst bij niet-alfabetische tekens en zet deze om naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopworden toe. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Een analyse die gebruikmaakt van de whitespace-tokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizerName

Definieert de namen van alle tekstnormalizers die door de zoekmachine worden ondersteund.

Waarde Description
asciifolding

Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

elision

Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

lowercase

Normaliseert tokentekst naar kleine letters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

standard

Standaard normalisator, die bestaat uit kleine letters en asciifolding. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

uppercase

Normaliseert tokentekst naar hoofdletters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizerName

Definieert de namen van alle tokenizers die door de zoekmachine worden ondersteund.

Waarde Description
classic

Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europese documenten. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(en). Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Hiermee wordt de volledige invoer als één token verzonden. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Verdeelt tekst bij niet-lettertekens. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Verdeelt tekst bij niet-alfabetische tekens en zet deze om naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Verdeelt tekst met taalspecifieke regels.

microsoft_language_stemming_tokenizer

Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisformulieren.

nGram

Hiermee wordt de invoer in n-grammen van de opgegeven grootte(n) tokenizes. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Tokenizer voor pad-achtige hiërarchieën. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Tokenizer die gebruikmaakt van regex-patroon dat overeenkomt met het samenstellen van afzonderlijke tokens. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Standaard Lucene Analyzer; Samengesteld uit de standaardtokenizer, het filter in kleine letters en het stopfilter. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Hiermee worden URL's en e-mailadressen als één token getokeniseerd. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Verdeelt tekst op witruimte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

De discriminator voor afgeleide typen.

consumeAllTokens

boolean

False

Een waarde die aangeeft of alle tokens uit de invoer moeten worden verbruikt, zelfs als maxTokenCount is bereikt. De standaardwaarde is vals.

maxTokenCount

integer (int32)

1

Het maximum aantal tokens dat moet worden geproduceerd. De standaardwaarde is 1.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

LuceneStandardAnalyzer

Standard Apache Lucene Analyzer; Samengesteld uit de standaardtokenizer, het filter in kleine letters en het stopfilter.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

De discriminator voor afgeleide typen.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens.

name

string

De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

stopwords

string[]

Een lijst met stopwoorden.

LuceneStandardTokenizer

Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

De discriminator voor afgeleide typen.

maxTokenLength

integer (int32)

255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

LuceneStandardTokenizerV2

Hiermee wordt de tekst onderbreekt volgens de unicode-regels voor tekstsegmentatie. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

De discriminator voor afgeleide typen.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

MagnitudeScoringFunction

Definieert een functie die scores verhoogt op basis van de grootte van een numeriek veld.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair.

magnitude

MagnitudeScoringParameters

Parameterwaarden voor de scorefunctie van de grootte.

type string:

magnitude

Type of ScoringFunction.

MagnitudeScoringParameters

Biedt parameterwaarden voor een scorefunctie voor de grootte.

Name Type Description
boostingRangeEnd

number (double)

De veldwaarde waarbij het boosten eindigt.

boostingRangeStart

number (double)

De veldwaarde waarbij het boosten begint.

constantBoostBeyondRange

boolean

Een waarde die aangeeft of een constante verhoging moet worden toegepast voor veldwaarden die hoger zijn dan de eindwaarde van het bereik; Standaard is onwaar.

MappingCharFilter

Een tekenfilter waarmee toewijzingen worden toegepast die zijn gedefinieerd met de optie Toewijzingen. De overeenkomsten zijn greedy (de langste patroonherkenning op een gegeven moment wint). Vervanging mag de lege string zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

De discriminator voor afgeleide typen.

mappings

string[]

Een lijst met toewijzingen van de volgende notatie: "a=>b" (alle exemplaren van het teken "a" worden vervangen door teken "b").

name

string

De naam van het tekenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

MicrosoftLanguageStemmingTokenizer

Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisformulieren.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

De discriminator voor afgeleide typen.

isSearchTokenizer

boolean

False

Een waarde die aangeeft hoe de tokenizer wordt gebruikt. Ingesteld op true als deze wordt gebruikt als de zoektokenizer, ingesteld op onwaar als deze wordt gebruikt als de indexeringstokenizer. De standaardwaarde is vals.

language

MicrosoftStemmingTokenizerLanguage

De taal die moet worden gebruikt. De standaardwaarde is Engels.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Tokens die langer zijn dan 300 tekens worden eerst gesplitst in tokens van lengte 300 en vervolgens wordt elk van deze tokens gesplitst op basis van de maximale lengte van het token. De standaardwaarde is 255.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

MicrosoftLanguageTokenizer

Verdeelt tekst met taalspecifieke regels.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

De discriminator voor afgeleide typen.

isSearchTokenizer

boolean

False

Een waarde die aangeeft hoe de tokenizer wordt gebruikt. Ingesteld op true als deze wordt gebruikt als de zoektokenizer, ingesteld op onwaar als deze wordt gebruikt als de indexeringstokenizer. De standaardwaarde is vals.

language

MicrosoftTokenizerLanguage

De taal die moet worden gebruikt. De standaardwaarde is Engels.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens. Tokens die langer zijn dan 300 tekens worden eerst gesplitst in tokens van lengte 300 en vervolgens wordt elk van deze tokens gesplitst op basis van de maximale lengte van het token. De standaardwaarde is 255.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

MicrosoftStemmingTokenizerLanguage

Geeft een lijst van de talen die worden ondersteund door de Microsoft language stemming tokenizer.

Waarde Description
arabic

Selecteert de Microsoft stemming tokenizer voor Arabisch.

bangla

Selecteert de Microsoft stemtokenizer voor het Bengaals.

bulgarian

Selecteert de Microsoft stemming tokenizer voor Bulgaars.

catalan

Selecteert de Microsoft stemming tokenizer voor Catalaans.

croatian

Selecteert de Microsoft stemming tokenizer voor Kroatisch.

czech

Selecteert de Microsoft stemming tokenizer voor Tsjechisch.

danish

Selecteert de Microsoft stemtokenizer voor Deens.

dutch

Kiest de Microsoft stemming tokenizer voor Nederlands.

english

Selecteert de Microsoft stemming tokenizer voor Engels.

estonian

Selecteert de Microsoft stemming tokenizer voor Ests.

finnish

Selecteert de Microsoft stemming tokenizer voor Fins.

french

Selecteert de Microsoft stemming tokenizer voor Frans.

german

Kiest de Microsoft stemtokenizer voor Duits.

greek

Selecteert de Microsoft stemtokenizer voor Grieks.

gujarati

Kiest de Microsoft stemming tokenizer voor Gujarati.

hebrew

Selecteert de Microsoft stemming tokenizer voor Hebreeuws.

hindi

Selecteert de Microsoft stemtokenizer voor Hindi.

hungarian

Selecteert de Microsoft stemtokenizer voor Hongaars.

icelandic

Selecteert de Microsoft stemming tokenizer voor IJslands.

indonesian

Selecteert de Microsoft stemming tokenizer voor Indonesië.

italian

Selecteert de Microsoft stemming tokenizer voor Italiaans.

kannada

Selecteert de Microsoft stemming tokenizer voor Kannada.

latvian

Selecteert de Microsoft stemming tokenizer voor Lets.

lithuanian

Selecteert de Microsoft stemming tokenizer voor Litouws.

malay

Selecteert de Microsoft stemming tokenizer voor Maleis.

malayalam

Selecteert de Microsoft stemming tokenizer voor Malayalam.

marathi

Selecteert de Microsoft stemming tokenizer voor Marathi.

norwegianBokmaal

Selecteert de Microsoft stemming tokenizer voor Noors (Bokmül).

polish

Selecteert de Microsoft stemtokenizer voor Pools.

portuguese

Kiest de Microsoft stemtokenizer voor Portugees.

portugueseBrazilian

Selecteert de Microsoft stemming tokenizer voor Portugees (Brazilië).

punjabi

Selecteert de Microsoft stemming tokenizer voor Punjabi.

romanian

Selecteert de Microsoft stemming tokenizer voor Roemeens.

russian

Selecteert de Microsoft stem-tokenizer voor Russisch.

serbianCyrillic

Selecteert de Microsoft stemming tokenizer voor Servisch (Cyrillisch).

serbianLatin

Selecteert de Microsoft stemming tokenizer voor Servisch (Latijn).

slovak

Selecteert de Microsoft stemtokenizer voor Slowaaks.

slovenian

Selecteert de Microsoft stemming tokenizer voor Sloveens.

spanish

Selecteert de Microsoft stemming tokenizer voor Spaans.

swedish

Selecteert de Microsoft stemtokenizer voor Zweeds.

tamil

Kiest de Microsoft stemming tokenizer voor Tamil.

telugu

Selecteert de Microsoft stemming tokenizer voor Telugu.

turkish

Kiest de Microsoft stemming tokenizer voor Turks.

ukrainian

Kiest de Microsoft stemming tokenizer voor Oekraïens.

urdu

Selecteert de Microsoft stemtokenizer voor Urdu.

MicrosoftTokenizerLanguage

Geeft een lijst van de talen die door de Microsoft-taaltokenizer worden ondersteund.

Waarde Description
bangla

Selecteert de Microsoft-tokenizer voor Bengaals.

bulgarian

Selecteert de Microsoft tokenizer voor Bulgaars.

catalan

Selecteert de Microsoft-tokenizer voor Catalaans.

chineseSimplified

Selecteert de Microsoft tokenizer voor Chinees (vereenvoudigd).

chineseTraditional

Selecteert de Microsoft-tokenizer voor Chinees (traditioneel).

croatian

Selecteert de Microsoft-tokenizer voor het Kroatisch.

czech

Selecteert de Microsoft-tokenizer voor Tsjechisch.

danish

Selecteert de Microsoft tokenizer voor Deens.

dutch

Selecteert de Microsoft tokenizer voor Nederlands.

english

Selecteert de Microsoft tokenizer voor Engels.

french

Selecteert de Microsoft-tokenizer voor Frans.

german

Selecteert de Microsoft-tokenizer voor Duits.

greek

Kiest de Microsoft-tokenizer voor Grieks.

gujarati

Selecteert de Microsoft-tokenizer voor Gujarati.

hindi

Selecteert de Microsoft-tokenizer voor Hindi.

icelandic

Selecteert de Microsoft tokenizer voor IJslands.

indonesian

Selecteert de Microsoft tokenizer voor Indonesisch.

italian

Selecteert de Microsoft-tokenizer voor Italiaans.

japanese

Selecteert de Microsoft tokenizer voor Japans.

kannada

Selecteert de Microsoft-tokenizer voor Kannada.

korean

Selecteert de Microsoft-tokenizer voor Koreaans.

malay

Selecteert de Microsoft-tokenizer voor Maleis.

malayalam

Selecteert de Microsoft-tokenizer voor Malayalam.

marathi

Selecteert de Microsoft-tokenizer voor Marathi.

norwegianBokmaal

Selecteert de Microsoft tokenizer voor Noors (Bokmül).

polish

Selecteert de Microsoft-tokenizer voor Pools.

portuguese

Selecteert de Microsoft tokenizer voor Portugees.

portugueseBrazilian

Selecteert de Microsoft-tokenizer voor Portugees (Brazilië).

punjabi

Selecteert de Microsoft tokenizer voor Punjabi.

romanian

Selecteert de Microsoft tokenizer voor Roemeens.

russian

Selecteert de Microsoft-tokenizer voor Russisch.

serbianCyrillic

Selecteert de Microsoft tokenizer voor Servisch (Cyrillisch).

serbianLatin

Selecteert de Microsoft-tokenizer voor Servisch (Latijn).

slovenian

Selecteert de Microsoft tokenizer voor Sloveens.

spanish

Selecteert de Microsoft-tokenizer voor Spaans.

swedish

Selecteert de Microsoft-tokenizer voor het Zweeds.

tamil

Selecteert de Microsoft-tokenizer voor Tamil.

telugu

Selecteert de Microsoft-tokenizer voor Telugu.

thai

Selecteert de Microsoft tokenizer voor Thais.

ukrainian

Selecteert de Microsoft-tokenizer voor Oekraïens.

urdu

Selecteert de Microsoft-tokenizer voor Urdu.

vietnamese

Kiest de Microsoft-tokenizer voor Vietnamees.

NGramTokenFilter

Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

De discriminator voor afgeleide typen.

maxGram

integer (int32)

2

De maximale lengte n-gram. De standaardwaarde is 2.

minGram

integer (int32)

1

De minimale lengte n-gram. De standaardwaarde is 1. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

NGramTokenFilterV2

Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

De discriminator voor afgeleide typen.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

NGramTokenizer

Hiermee wordt de invoer in n-grammen van de opgegeven grootte(n) tokenizes. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

De discriminator voor afgeleide typen.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte n-gram. De standaardwaarde is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

tokenChars

TokenCharacterKind[]

Tekenklassen om in de tokens te blijven.

PathHierarchyTokenizerV2

Tokenizer voor pad-achtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

De discriminator voor afgeleide typen.

delimiter

string

maxLength: 1
/

Het scheidingsteken dat moet worden gebruikt. De standaardwaarde is '/'.

maxTokenLength

integer (int32)

maximum: 300
300

De maximale tokenlengte. Standaard en maximum is 300.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

replacement

string

maxLength: 1
/

Een waarde die, indien ingesteld, het scheidingsteken vervangt. De standaardwaarde is '/'.

reverse

boolean

False

Een waarde die aangeeft of tokens in omgekeerde volgorde moeten worden gegenereerd. De standaardwaarde is vals.

skip

integer (int32)

0

Het aantal initiële tokens dat moet worden overgeslagen. De standaardwaarde is 0.

PatternAnalyzer

Scheidt tekst flexibel in termen via een normaal expressiepatroon. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

De discriminator voor afgeleide typen.

flags

string

Reguliere expressie-vlaggen, gespecificeerd als een '|' gescheiden string van RegexFlags-waarden.

lowercase

boolean

True

Een waarde die aangeeft of termen in kleine letters moeten worden gebruikt. De standaardwaarde is waar.

name

string

De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

pattern

string

\W+

Een patroon voor reguliere expressies om tokenscheidingstekens te koppelen. Standaard is een expressie die overeenkomt met een of meer niet-woordtekens.

stopwords

string[]

Een lijst met stopwoorden.

PatternCaptureTokenFilter

Gebruikt Java-regexes om meerdere tokens te verzenden: één voor elke capturegroep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

De discriminator voor afgeleide typen.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

patterns

string[]

Een lijst met patronen die overeenkomen met elk token.

preserveOriginal

boolean

True

Een waarde die aangeeft of het oorspronkelijke token moet worden geretourneerd, zelfs als een van de patronen overeenkomt. De standaardwaarde is waar.

PatternReplaceCharFilter

Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

De discriminator voor afgeleide typen.

name

string

De naam van het tekenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

pattern

string

Een normaal expressiepatroon.

replacement

string

De vervangende tekst.

PatternReplaceTokenFilter

Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden bewaard en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Als u bijvoorbeeld de invoertekst 'aa bb aa bb bb', patroon '(aa)\s+(bb)' en vervanging '$1#$2' invoert, zou het resultaat 'aa#bb aa#bb' zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

De discriminator voor afgeleide typen.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

pattern

string

Een normaal expressiepatroon.

replacement

string

De vervangende tekst.

PatternTokenizer

Tokenizer die gebruikmaakt van regex-patroon dat overeenkomt met het samenstellen van afzonderlijke tokens. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

De discriminator voor afgeleide typen.

flags

string

Reguliere expressie-vlaggen, gespecificeerd als een '|' gescheiden string van RegexFlags-waarden.

group

integer (int32)

-1

De op nul gebaseerde ordinaal van de overeenkomende groep in het patroon van de reguliere expressie om in tokens te extraheren. Gebruik -1 als u het hele patroon wilt gebruiken om de invoer op te splitsen in tokens, ongeacht de overeenkomende groepen. De standaardwaarde is -1.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

pattern

string

\W+

Een patroon voor reguliere expressies om tokenscheidingstekens te koppelen. Standaard is een expressie die overeenkomt met een of meer niet-woordtekens.

PhoneticEncoder

Identificeert het type fonetische encoder dat moet worden gebruikt met een PhoneticTokenFilter.

Waarde Description
metaphone

Codeert een token in een metafoonwaarde.

doubleMetaphone

Codeert een token in een dubbele metafoonwaarde.

soundex

Codeert een token in een Soundex-waarde.

refinedSoundex

Codeert een token in een Refined Soundex-waarde.

caverphone1

Codeert een token in een Caverphone 1.0-waarde.

caverphone2

Codeert een token in een Caverphone 2.0-waarde.

cologne

Codeert een token in een Fonetische waarde van Keulen.

nysiis

Codeert een token in een NYSIIS-waarde.

koelnerPhonetik

Codeert een token met behulp van het Kölner Phonetik-algoritme.

haasePhonetik

Codeert een token met behulp van de Haase-verfijning van het Kölner Phonetik-algoritme.

beiderMorse

Codeert een token in een Beider-Morse waarde.

PhoneticTokenFilter

Tokens maken voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

De discriminator voor afgeleide typen.

encoder

PhoneticEncoder

metaphone

De fonetische encoder die moet worden gebruikt. De standaardwaarde is 'metaphone'.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

replace

boolean

True

Een waarde die aangeeft of gecodeerde tokens oorspronkelijke tokens moeten vervangen. Als dit onwaar is, worden gecodeerde tokens toegevoegd als synoniemen. De standaardwaarde is waar.

Prefer

Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd.

Waarde Description
return=representation

RankingOrder

Vertegenwoordigt de score die moet worden gebruikt voor de sorteervolgorde van documenten.

Waarde Description
BoostedRerankerScore

Stelt de sorteervolgorde in als BoostedRerankerScore

RerankerScore

Stelt de sorteervolgorde in als ReRankerScore

RescoringOptions

Bevat de opties voor het wijzigen van het formaat.

Name Type Default value Description
defaultOversampling

number (double)

Standaardoversampling-factor. Oversampling haalt een grotere set potentiële documenten op om het resolutieverlies als gevolg van kwantisatie te compenseren. Dit verhoogt de set resultaten die opnieuw worden gescoord op vectoren met volledige precisie. De minimumwaarde is 1, wat betekent dat er geen oversampling (1x) is. Deze parameter kan alleen worden ingesteld als 'enableRescoring' waar is. Hogere waarden verbeteren terughalen ten koste van latentie.

enableRescoring

boolean

True

Als deze optie is ingesteld op true, worden de similariteitsscores na de eerste zoekopdracht op de gecomprimeerde vectoren opnieuw berekend met behulp van de vectoren met volledige precisie. Hierdoor wordt het intrekken verbeterd ten koste van latentie.

rescoreStorageMethod enum:
  • discardOriginals
  • preserveOriginals
preserveOriginals

Hiermee bepaalt u de opslagmethode voor originele vectoren. Deze instelling is onveranderlijk.

ScalarQuantizationCompression

Bevat configuratieopties die specifiek zijn voor de scalaire kwantisatiecompressiemethode die wordt gebruikt tijdens het indexeren en uitvoeren van query's.

Name Type Description
kind string:

scalarQuantization

Type VectorSearchCompressie.

name

string

De naam die moet worden gekoppeld aan deze specifieke configuratie.

rescoringOptions

RescoringOptions

Bevat de opties voor het wijzigen van het formaat.

scalarQuantizationParameters

ScalarQuantizationParameters

Bevat de parameters die specifiek zijn voor Scalaire kwantisatie.

truncationDimension

integer (int32)

Het aantal dimensies waaraan de vectoren moeten worden afgekapt. Het afkappen van de vectoren vermindert de grootte van de vectoren en de hoeveelheid gegevens die tijdens de zoekopdracht moet worden overgedragen. Dit kan opslagkosten besparen en de zoekprestaties verbeteren ten koste van terugroepen. Deze mag alleen worden gebruikt voor insluitingen die zijn getraind met Matryoshka Representation Learning (MRL), zoals OpenAI text-embedding-3-large (klein). De standaardwaarde is null, wat betekent dat er geen afkapping is.

ScalarQuantizationParameters

Bevat de parameters die specifiek zijn voor Scalaire kwantisatie.

Name Type Description
quantizedDataType

VectorSearchCompressionTarget

Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.

ScoringFunctionAggregation

Definieert de aggregatiefunctie die wordt gebruikt om de resultaten van alle scorefuncties in een scoreprofiel te combineren.

Waarde Description
sum

Verhoog de scores met de som van alle resultaten van de scorefunctie.

average

Verhoog de scores met het gemiddelde van alle resultaten van de scorefunctie.

minimum

Verhoog de scores met het minimum van alle resultaten van de scorefunctie.

maximum

Verhoog de scores met het maximum van alle resultaten van de scorefunctie.

firstMatching

Verhoog de scores met behulp van de eerste toepasselijke scorefunctie in het scoreprofiel.

product

Verhoog de scores door het product van alle resultaten van de scorefunctie.

ScoringFunctionInterpolation

Definieert de functie die wordt gebruikt om scoreverhoging te interpoleren in een reeks documenten.

Waarde Description
linear

Verhoogt de scores met een lineair afnemende hoeveelheid. Dit is de standaardinterpolatie voor scorefuncties.

constant

Verhoogt de scores met een constante factor.

quadratic

Verhoogt scores met een hoeveelheid die kwadratisch afneemt. Boosts nemen langzaam af voor hogere scores en sneller naarmate de scores afnemen. Deze interpolatieoptie is niet toegestaan in functies voor het scoren van tags.

logarithmic

Verhoogt de scores met een hoeveelheid die logaritmisch afneemt. Boosts nemen snel af voor hogere scores en langzamer naarmate de scores afnemen. Deze interpolatieoptie is niet toegestaan in functies voor het scoren van tags.

ScoringProfile

Definieert parameters voor een zoekindex die van invloed zijn op scoren in zoekquery's.

Name Type Description
functionAggregation

ScoringFunctionAggregation

Een waarde die aangeeft hoe de resultaten van individuele scorefuncties moeten worden gecombineerd. Staat standaard op "Som". Genegeerd als er geen scorefuncties zijn.

functions ScoringFunction[]:

Het verzamelen van functies die van invloed zijn op het scoren van documenten.

name

string

De naam van het scoreprofiel.

text

TextWeights

Parameters die de score verhogen op basis van tekstovereenkomsten in bepaalde indexvelden.

SearchField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

Name Type Description
analyzer

LexicalAnalyzerName

De naam van de analyse die moet worden gebruikt voor het veld. Deze optie kan alleen worden gebruikt met doorzoekbare velden en kan niet samen met searchAnalyzer of indexAnalyzer worden ingesteld. Zodra de analyse is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden.

dimensions

integer (int32)

minimum: 2
maximum: 4096

De dimensionaliteit van het vectorveld.

facetable

boolean

Een waarde die aangeeft of het veld moet worden verwezen in facetquery's. Meestal gebruikt in een presentatie van zoekresultaten met hit count per categorie (bijvoorbeeld zoeken naar digitale camera's en treffers per merk, per megapixel, prijs, enzovoort). Deze eigenschap moet null zijn voor complexe velden. Velden van het type Edm.GeographyPoint of Collection(Edm.GeographyPoint) kunnen niet worden gezien. De standaardinstelling geldt voor alle andere eenvoudige velden.

fields

SearchField[]

Een lijst met subvelden als dit een veld is van het type Edm.ComplexType of Collection(Edm.ComplexType). Moet null of leeg zijn voor eenvoudige velden.

filterable

boolean

Een waarde die aangeeft of het veld moet worden verwezen in $filter query's. filterbaar verschilt van doorzoekbaar in de manier waarop tekenreeksen worden verwerkt. Velden van het type Edm.String of Collection(Edm.String) die filterbaar zijn, ondergaan geen woordbreking, dus vergelijkingen zijn alleen voor exacte overeenkomsten. Als u een dergelijk veld bijvoorbeeld instelt op 'zonnige dag', vindt $filter=f eq 'sunny' geen overeenkomsten, maar $filter=f eq 'sunny day'. Deze eigenschap moet null zijn voor complexe velden. De standaardinstelling is waar voor eenvoudige velden en null voor complexe velden.

indexAnalyzer

LexicalAnalyzerName

De naam van de analyse die wordt gebruikt bij het indexeren van het veld. Deze optie kan alleen worden gebruikt met doorzoekbare velden. Deze moet samen met searchAnalyzer worden ingesteld en kan niet samen met de analyseoptie worden ingesteld. Deze eigenschap kan niet worden ingesteld op de naam van een taalanalyse; gebruik in plaats daarvan de eigenschap Analyzer als u een taalanalyse nodig hebt. Zodra de analyse is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden.

key

boolean

Een waarde die aangeeft of het veld documenten in de index uniek identificeert. Precies één veld op het hoogste niveau in elke index moet worden gekozen als het sleutelveld en moet van het type Edm.String zijn. Sleutelvelden kunnen worden gebruikt om documenten rechtstreeks op te zoeken en specifieke documenten bij te werken of te verwijderen. De standaardinstelling is onwaar voor eenvoudige velden en null voor complexe velden.

name

string

De naam van het veld, die uniek moet zijn binnen de veldenverzameling van het index- of bovenliggende veld.

normalizer

LexicalNormalizerName

De naam van de normalizer die voor het veld moet worden gebruikt. Deze optie kan alleen worden gebruikt met velden waarvoor filterbaar, sorteerbaar of faceteerbaar is ingeschakeld. Als de normalizer eenmaal is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden.

retrievable

boolean

Een waarde die aangeeft of het veld kan worden geretourneerd in een zoekresultaat. U kunt deze optie uitschakelen als u een veld (bijvoorbeeld marge) wilt gebruiken als filter-, sorteer- of scoremechanisme, maar niet wilt dat het veld zichtbaar is voor de eindgebruiker. Deze eigenschap moet waar zijn voor sleutelvelden en moet nul zijn voor complexe velden. Deze eigenschap kan worden gewijzigd voor bestaande velden. Als u deze eigenschap inschakelt, neemt de opslagvereisten voor de index niet toe. De standaardinstelling is true voor eenvoudige velden, false voor vectorvelden en null voor complexe velden.

searchAnalyzer

LexicalAnalyzerName

De naam van de analyse die tijdens het zoeken naar het veld wordt gebruikt. Deze optie kan alleen worden gebruikt met doorzoekbare velden. Het moet samen met indexAnalyzer worden ingesteld en het kan niet samen met de analyseoptie worden ingesteld. Deze eigenschap kan niet worden ingesteld op de naam van een taalanalyse; gebruik in plaats daarvan de eigenschap Analyzer als u een taalanalyse nodig hebt. Deze analyse kan worden bijgewerkt op een bestaand veld. Moet null zijn voor complexe velden.

searchable

boolean

Een waarde die aangeeft of het veld doorzoekbaar is in volledige tekst. Dit betekent dat het een analyse ondergaat, zoals woordbreking tijdens het indexeren. Als u een doorzoekbaar veld instelt op een waarde zoals 'zonnige dag', wordt het intern gesplitst in de afzonderlijke tokens 'zonnig' en 'dag'. Hiermee kunt u zoeken in volledige tekst naar deze termen. Velden van het type Edm.String of Collection(Edm.String) kunnen standaard worden doorzocht. Deze eigenschap moet false zijn voor eenvoudige velden van andere gegevenstypen die geen tekenreeks bevatten en moet null zijn voor complexe velden. Opmerking: doorzoekbare velden verbruiken extra ruimte in uw index om te voorzien in extra tokenized versies van de veldwaarde voor zoekopdrachten in volledige tekst. Als u ruimte wilt besparen in uw index en u geen veld nodig hebt om te worden opgenomen in zoekopdrachten, stelt u doorzoekbaar in op onwaar.

sortable

boolean

Een waarde die aangeeft of het veld moet worden verwezen in $orderby expressies. Standaard sorteert de zoekmachine resultaten op score, maar in veel ervaringen willen gebruikers sorteren op velden in de documenten. Een eenvoudig veld kan alleen worden gesorteerd als het één waarde heeft (het heeft één waarde in het bereik van het bovenliggende document). Eenvoudige verzamelingsvelden kunnen niet worden gesorteerd, omdat ze meerdere waarden hebben. Eenvoudige subvelden van complexe verzamelingen zijn ook meerdere waarden en kunnen daarom niet worden gesorteerd. Dit is waar, of het nu een direct bovenliggend veld of een voorouderveld is dat de complexe verzameling is. Complexe velden kunnen niet worden gesorteerd en de sorteerbare eigenschap moet null zijn voor dergelijke velden. De standaardinstelling voor sorteerbaar is waar voor enkelvoudige enkelvoudige velden, false voor enkelvoudige velden en null voor complexe velden.

stored

boolean

Een onveranderbare waarde die aangeeft of het veld afzonderlijk op de schijf wordt bewaard om in een zoekresultaat te worden geretourneerd. U kunt deze optie uitschakelen als u niet van plan bent om de inhoud van het veld in een zoekantwoord te retourneren om opslagoverhead op te slaan. Dit kan alleen worden ingesteld tijdens het maken van de index en alleen voor vectorvelden. Deze eigenschap kan niet worden gewijzigd voor bestaande velden of ingesteld als onwaar voor nieuwe velden. Als deze eigenschap is ingesteld als onwaar, moet de eigenschap 'opvraagbaar' ook op onwaar worden gezet. Deze eigenschap moet true of unset zijn voor sleutelvelden, voor nieuwe velden en voor niet-vectorvelden en moet null zijn voor complexe velden. Als u deze eigenschap uitschakelt, worden de opslagvereisten voor indexen verminderd. De standaardwaarde is waar voor vectorvelden.

synonymMaps

string[]

Een lijst met de namen van synoniemenkaarten die aan dit veld gekoppeld moeten worden. Deze optie kan alleen worden gebruikt met doorzoekbare velden. Op dit moment wordt slechts één synoniemenkaart per veld ondersteund. Als u een synoniemtoewijzing toewijst aan een veld, zorgt u ervoor dat querytermen die gericht zijn op dat veld tijdens query's worden uitgebreid met behulp van de regels in de synoniementoewijzing. Dit kenmerk kan worden gewijzigd voor bestaande velden. Moet null of een lege verzameling zijn voor complexe velden.

type

SearchFieldDataType

Het gegevenstype van het veld.

vectorEncoding

VectorEncodingFormat

De coderingsindeling om de inhoud van het veld te interpreteren.

vectorSearchProfile

string

De naam van het vectorzoekprofiel dat het algoritme en vectorizer specificeert dat moet worden gebruikt bij het doorzoeken van het vectorveld.

SearchFieldDataType

Definieert het gegevenstype van een veld in een zoekindex.

Waarde Description
Edm.String

Geeft aan dat een veld een tekenreeks bevat.

Edm.Int32

Geeft aan dat een veld een 32-bits geheel getal bevat dat is ondertekend.

Edm.Int64

Geeft aan dat een veld een 64-bits geheel getal bevat dat is ondertekend.

Edm.Double

Geeft aan dat een veld een IEEE-getal met dubbele precisie bevat.

Edm.Boolean

Geeft aan dat een veld een Booleaanse waarde (waar of onwaar) bevat.

Edm.DateTimeOffset

Geeft aan dat een veld een datum/tijd-waarde bevat, inclusief tijdzonegegevens.

Edm.GeographyPoint

Geeft aan dat een veld een geografische locatie bevat in termen van lengtegraad en breedtegraad.

Edm.ComplexType

Geeft aan dat een veld een of meer complexe objecten bevat die op zijn beurt subvelden van andere typen hebben.

Edm.Single

Geeft aan dat een veld een drijvendekommagetal met één precisie bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Single).

Edm.Half

Geeft aan dat een veld een drijvendekommagetal met halve precisie bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Half).

Edm.Int16

Geeft aan dat een veld een 16-bits geheel getal bevat dat is ondertekend. Dit is alleen geldig wanneer deze wordt gebruikt met Collection(Edm.Int16).

Edm.SByte

Hiermee wordt aangegeven dat een veld een 8-bits geheel getal bevat. Dit is alleen geldig wanneer deze wordt gebruikt met Collection(Edm.SByte).

Edm.Byte

Geeft aan dat een veld een 8-bits geheel getal zonder teken bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Byte).

SearchIndex

Vertegenwoordigt een definitie van een zoekindex, waarin de velden en het zoekgedrag van een index worden beschreven.

Name Type Description
@odata.etag

string

De ETag van de index.

analyzers LexicalAnalyzer[]:

De analyses voor de index.

charFilters CharFilter[]:

Het teken filtert voor de index.

corsOptions

CorsOptions

Opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor de index.

defaultScoringProfile

string

De naam van het scoreprofiel dat moet worden gebruikt als er geen is opgegeven in de query. Als deze eigenschap niet is ingesteld en er geen scoreprofiel is opgegeven in de query, wordt standaardscore (tf-idf) gebruikt.

description

string

De beschrijving van de index.

encryptionKey

SearchResourceEncryptionKey

Een beschrijving van een versleutelingssleutel die u in Azure Key Vault maakt. Deze sleutel wordt gebruikt om een extra niveau van versleuteling in rust te bieden voor je data wanneer je volledige zekerheid wilt dat niemand, zelfs Microsoft niet, je data kan ontsleutelen. Zodra u uw gegevens hebt versleuteld, blijven deze altijd versleuteld. De zoekservice negeert pogingen om deze eigenschap op null in te stellen. U kunt deze eigenschap indien nodig wijzigen als u uw versleutelingssleutel wilt draaien; Uw gegevens worden niet beïnvloed. Versleuteling met door de klant beheerde sleutels is niet beschikbaar voor gratis zoekservices en is alleen beschikbaar voor betaalde services die zijn gemaakt op of na 1 januari 2019.

fields

SearchField[]

De velden van de index.

name

string

De naam van de index.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

De normalizers voor de index.

scoringProfiles

ScoringProfile[]

De scoreprofielen voor de index.

semantic

SemanticSearch

Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden.

similarity SimilarityAlgorithm:

Het type gelijkenis-algoritme dat moet worden gebruikt bij het scoren en rangschiken van de documenten die overeenkomen met een zoekquery. Het gelijkenis-algoritme kan alleen worden gedefinieerd tijdens het maken van de index en kan niet worden gewijzigd in bestaande indexen. Als null is, wordt het algoritme ClassicSimilarity gebruikt.

suggesters

SearchSuggester[]

De suggesties voor de index.

tokenFilters TokenFilter[]:

Het tokenfiltert voor de index.

tokenizers LexicalTokenizer[]:

De tokenizers voor de index.

vectorSearch

VectorSearch

Bevat configuratieopties met betrekking tot vectorzoekopdrachten.

SearchIndexerDataNoneIdentity

Hiermee wist u de identiteitseigenschap van een gegevensbron.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Een URI-fragment dat het type identiteit specificeert.

SearchIndexerDataUserAssignedIdentity

Hiermee geeft u de identiteit op voor een gegevensbron die moet worden gebruikt.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Een URI-fragment dat het type identiteit specificeert.

userAssignedIdentity

string

De volledig gekwalificeerde Azure-resource-id van een door de gebruiker toegewezen beheerde identiteit, meestal in de vorm '/subscriptions/12345678-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId' die aan de zoekservice moet zijn toegewezen.

SearchResourceEncryptionKey

Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt om inactieve gegevens, zoals indexen en synoniementoewijzingen, te versleutelen of te ontsleutelen.

Name Type Description
accessCredentials.applicationId

string

Een AAD-toepassings-id waaraan de vereiste toegangsmachtigingen zijn verleend voor de Azure Key Vault die moet worden gebruikt bij het versleutelen van uw data-at-rest. De toepassings-id mag niet worden verward met de object-id voor uw AAD-toepassing.

accessCredentials.applicationSecret

string

De verificatiesleutel van de opgegeven AAD-toepassing.

identity SearchIndexerDataIdentity:

Een expliciete beheerde identiteit die moet worden gebruikt voor deze versleutelingssleutel. Als dit niet is opgegeven en de eigenschap toegangsreferenties null is, wordt de door het systeem toegewezen beheerde identiteit gebruikt. Bij het bijwerken van de resource, als de expliciete identiteit niet is opgegeven, blijft deze ongewijzigd. Als 'geen' is opgegeven, wordt de waarde van deze eigenschap gewist.

keyVaultKeyName

string

De naam van uw Azure Key Vault-sleutel die moet worden gebruikt om uw data-at-rest te versleutelen.

keyVaultKeyVersion

string

De versie van uw Azure Key Vault-sleutel die moet worden gebruikt om uw data-at-rest te versleutelen.

keyVaultUri

string

De URI van uw Azure Key Vault, ook wel DNS-naam genoemd, die de sleutel bevat die moet worden gebruikt voor het versleutelen van uw data-at-rest. Een voorbeeld van een URI kan https://my-keyvault-name.vault.azure.netzijn.

SearchSuggester

Hiermee definieert u hoe de Suggestie-API moet worden toegepast op een groep velden in de index.

Name Type Description
name

string

De naam van de suggestie.

searchMode enum:

analyzingInfixMatching

Een waarde die de capaciteiten van de suggestie aangeeft.

sourceFields

string[]

De lijst met veldnamen waarop de suggestie van toepassing is. Elk veld moet doorzoekbaar zijn.

SemanticConfiguration

Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden.

Name Type Description
name

string

De naam van de semantische configuratie.

prioritizedFields

SemanticPrioritizedFields

Beschrijft de titel-, inhouds- en trefwoordvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Ten minste één van de drie subeigenschappen (titleField, prioriteerdeKeywordsFields en prioriteerdeContentFields) moet worden ingesteld.

rankingOrder

RankingOrder

Hiermee geeft u het scoretype op dat moet worden gebruikt voor de sorteervolgorde van de zoekresultaten.

SemanticField

Een veld dat wordt gebruikt als onderdeel van de semantische configuratie.

Name Type Description
fieldName

string

Bestandsnaam

SemanticPrioritizedFields

Beschrijft de velden titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, hoogtepunten en antwoorden.

Name Type Description
prioritizedContentFields

SemanticField[]

Definieert de inhoudsvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Voor het beste resultaat moeten de geselecteerde velden tekst in natuurlijke taal bevatten. De volgorde van de velden in de matrix geeft hun prioriteit aan. Velden met een lagere prioriteit kunnen worden afgekapt als de inhoud lang is.

prioritizedKeywordsFields

SemanticField[]

Definieert de trefwoordvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Voor het beste resultaat moeten de geselecteerde velden een lijst met trefwoorden bevatten. De volgorde van de velden in de matrix geeft hun prioriteit aan. Velden met een lagere prioriteit kunnen worden afgekapt als de inhoud lang is.

titleField

SemanticField

Definieert het titelveld dat moet worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Als u geen titelveld in uw index heeft, laat u dit veld leeg.

SemanticSearch

Hiermee definieert u parameters voor een zoekindex die van invloed zijn op semantische mogelijkheden.

Name Type Description
configurations

SemanticConfiguration[]

De semantische configuraties voor de index.

defaultConfiguration

string

Hiermee kunt u de naam van een standaard semantische configuratie in uw index instellen, waardoor het optioneel is om deze elke keer als queryparameter door te geven.

ShingleTokenFilter

Hiermee maakt u combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

De discriminator voor afgeleide typen.

filterToken

string

_

De tekenreeks die moet worden ingevoegd voor elke positie waarop er geen token is. De standaardwaarde is een onderstrepingsteken ("_").

maxShingleSize

integer (int32)

minimum: 2
2

De maximale shingle grootte. De standaard- en minimumwaarde is 2.

minShingleSize

integer (int32)

minimum: 2
2

De minimale shingle grootte. De standaard- en minimumwaarde is 2. Moet kleiner zijn dan de waarde van maxShingleSize.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

outputUnigrams

boolean

True

Een waarde die aangeeft of de uitvoerstroom de invoertokens (unigrammen) en shingles bevat. De standaardwaarde is waar.

outputUnigramsIfNoShingles

boolean

False

Een waarde die aangeeft of unigrammen moeten worden uitgevoerd voor die tijden waarop er geen shingles beschikbaar zijn. Deze eigenschap heeft voorrang wanneer outputUnigrams is ingesteld op false. De standaardwaarde is vals.

tokenSeparator

string

De tekenreeks die moet worden gebruikt bij het samenvoegen van aangrenzende tokens om een shingle te vormen. De standaardwaarde is één spatie (" ").

SnowballTokenFilter

Een filter dat woorden stamt met behulp van een door Snowball gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

De discriminator voor afgeleide typen.

language

SnowballTokenFilterLanguage

De taal die moet worden gebruikt.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

SnowballTokenFilterLanguage

De taal die moet worden gebruikt voor een Snowball-tokenfilter.

Waarde Description
armenian

Selecteert de Lucene Snowball stemming tokenizer voor Armeens.

basque

Selecteert de Lucene Snowball stemming tokenizer voor Baskisch.

catalan

Selecteert de Lucene Snowball stemming tokenizer voor het Catalaans.

danish

Selecteert de Lucene Snowball stemming tokenizer voor Deens.

dutch

Selecteert de Lucene Snowball stemming tokenizer voor Nederlands.

english

Selecteert de Lucene Snowball stemming tokenizer voor Engels.

finnish

Selecteert de Lucene Snowball stemming tokenizer voor Fins.

french

Selecteert de Lucene Snowball stemming tokenizer voor Frans.

german

Selecteert de Lucene Snowball stemming tokenizer voor Duits.

german2

Selecteert de Lucene Snowball stemming tokenizer die gebruikmaakt van het algoritme van de Duitse variant.

hungarian

Selecteert de Lucene Snowball stemming tokenizer voor Hongaars.

italian

Selecteert de Lucene Snowball stemming tokenizer voor Italiaans.

kp

Selecteert de Lucene Snowball stemming tokenizer voor Nederlands die gebruikmaakt van het algoritme voor Kraaij-Pohlmann staming.

lovins

Selecteert de Lucene Snowball stemming tokenizer voor Engels die gebruikmaakt van het Lovins staming-algoritme.

norwegian

Selecteert de Lucene Snowball stemming tokenizer voor Noors.

porter

Selecteert de Lucene Snowball stemming tokenizer voor Engels die gebruikmaakt van het Porter stamalgoritme.

portuguese

Selecteert de Lucene Snowball stemming tokenizer voor Portugees.

romanian

Selecteert de Lucene Snowball stemming tokenizer voor Roemeens.

russian

Selecteert de Lucene Snowball stemming tokenizer voor Russisch.

spanish

Selecteert de Lucene Snowball stemming tokenizer voor Spaans.

swedish

Selecteert de Lucene Snowball stemming tokenizer voor Zweeds.

turkish

Selecteert de Lucene Snowball stemming tokenizer voor Turks.

StemmerOverrideTokenFilter

Biedt de mogelijkheid om andere stemmingsfilters te overschrijven met aangepaste stemming op basis van woordenlijst. Alle woordenlijstgestemde termen worden gemarkeerd als trefwoorden, zodat ze niet worden afgestemd met stemmers in de keten. Moet vóór stemmingsfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

De discriminator voor afgeleide typen.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

rules

string[]

Een lijst met stemregels in de volgende notatie: "word => stam", bijvoorbeeld: "ran => run".

StemmerTokenFilter

Taalspecifiek stemmingsfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

De discriminator voor afgeleide typen.

language

StemmerTokenFilterLanguage

De taal die moet worden gebruikt.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

StemmerTokenFilterLanguage

De taal die moet worden gebruikt voor een stemmer token filter.

Waarde Description
arabic

Selecteert de Lucene stemming tokenizer voor Arabisch.

armenian

Selecteert de Lucene stemming tokenizer voor Armeens.

basque

Selecteert de Lucene stemming tokenizer voor Baskisch.

brazilian

Selecteert de Lucene stemming tokenizer voor Portugees (Brazilië).

bulgarian

Selecteert de Lucene stemming tokenizer voor Bulgaars.

catalan

Selecteert de Lucene stemming tokenizer voor het Catalaans.

czech

Selecteert de Lucene stemming tokenizer voor Tsjechisch.

danish

Selecteert de Lucene stemming tokenizer voor Deens.

dutch

Selecteert de Lucene stemming tokenizer voor Nederlands.

dutchKp

Selecteert de Lucene stemming tokenizer voor Nederlands die gebruikmaakt van het algoritme voor Kraaij-Pohlmann stemming.

english

Selecteert de Lucene stemming tokenizer voor Engels.

lightEnglish

Selecteert de Lucene stemming tokenizer voor Engels die lichte stemming doet.

minimalEnglish

Selecteert de Lucene stemming tokenizer voor Engels die minimale stemming doet.

possessiveEnglish

Selecteert de Lucene stamtokenizer voor Engels die achterblijvende bezittelijke voornaamwoorden uit woorden verwijdert.

porter2

Selecteert de Lucene stemming tokenizer voor Engels die gebruikmaakt van het Porter2 stamalgoritme.

lovins

Selecteert de Lucene stemming tokenizer voor Engels die gebruikmaakt van het Lovins staming-algoritme.

finnish

Selecteert de Lucene stemming tokenizer voor Fins.

lightFinnish

Selecteert de Lucene stemming tokenizer voor Fins die lichte stemming doet.

french

Selecteert de Lucene stemming tokenizer voor Frans.

lightFrench

Selecteert de Lucene stemming tokenizer voor Frans die lichte stemming doet.

minimalFrench

Selecteert de Lucene stemming tokenizer voor Frans die minimale stemming doet.

galician

Selecteert de Lucene stemming tokenizer voor Galicisch.

minimalGalician

Selecteert de Lucene stemming tokenizer voor Galicisch die minimale stamming doet.

german

Selecteert de Lucene stemming tokenizer voor Duits.

german2

Selecteert de Lucene stem tokenizer die gebruikmaakt van het algoritme van de Duitse variant.

lightGerman

Selecteert de Lucene stemming tokenizer voor Duits die lichte stamming doet.

minimalGerman

Selecteert de Lucene stemming tokenizer voor Duits die minimale stemming doet.

greek

Selecteert de Lucene stemming tokenizer voor Grieks.

hindi

Selecteert de Lucene stemming tokenizer voor Hindi.

hungarian

Selecteert de Lucene stemming tokenizer voor Hongaars.

lightHungarian

Selecteert de Lucene stemming tokenizer voor Hongaars die lichte stemming doet.

indonesian

Selecteert de Lucene stemming tokenizer voor Indonesisch.

irish

Selecteert de Lucene stemming tokenizer voor Iers.

italian

Selecteert de Lucene stemming tokenizer voor Italiaans.

lightItalian

Selecteert de Lucene stemming tokenizer voor Italiaans die lichte stemming doet.

sorani

Selecteert de Lucene stemming tokenizer voor Sorani.

latvian

Selecteert de Lucene stemming tokenizer voor Lets.

norwegian

Kiest de Lucene stemming tokenizer voor Noors (Bokmül).

lightNorwegian

Kiest de Lucene stemming tokenizer voor Norwegian (Bokmül) die licht stemming doet.

minimalNorwegian

Selecteert de Lucene stemming tokenizer voor Norwegian (Bokmül) die minimale stemming doet.

lightNynorsk

Selecteert de Lucene stemming tokenizer voor Noors (Nynorsk) die lichte stemming doet.

minimalNynorsk

Selecteert de Lucene stemming tokenizer voor Noors (Nynorsk) die minimale stemming uitvoert.

portuguese

Selecteert de Lucene stemming tokenizer voor Portugees.

lightPortuguese

Selecteert de Lucene stemming tokenizer voor Portugees die lichte stamming doet.

minimalPortuguese

Selecteert de Lucene stemming tokenizer voor Portugees die minimale stamming doet.

portugueseRslp

Selecteert de Lucene stemming tokenizer voor Portugees die gebruikmaakt van het RSLP stamling-algoritme.

romanian

Selecteert de Lucene stemming tokenizer voor Roemeens.

russian

Selecteert de Lucene stemming tokenizer voor Russisch.

lightRussian

Selecteert de Lucene stemming tokenizer voor Russisch die lichte stemming doet.

spanish

Selecteert de Lucene stemming tokenizer voor Spaans.

lightSpanish

Selecteert de Lucene stemming tokenizer voor Spaans die lichte stemming doet.

swedish

Selecteert de Lucene stemming tokenizer voor Zweeds.

lightSwedish

Selecteert de Lucene stemming tokenizer voor Zweeds die lichte stemming doet.

turkish

Selecteert de Lucene stemming tokenizer voor Turks.

StopAnalyzer

Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopworden toe. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

De discriminator voor afgeleide typen.

name

string

De naam van de analyzer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

stopwords

string[]

Een lijst met stopwoorden.

StopwordsList

Identificeert een vooraf gedefinieerde lijst met taalspecifieke stopwoorden.

Waarde Description
arabic

Selecteert de lijst met stopwoordjes voor Arabisch.

armenian

Selecteert de lijst met stopwoorden voor Armeens.

basque

Selecteert de lijst met stopwoordjes voor Baskisch.

brazilian

Selecteert de lijst met stopwoordraadsels voor Portugees (Brazilië).

bulgarian

Selecteert de lijst met stopwoordjes voor Bulgaars.

catalan

Selecteert de lijst met stopwoordjes voor Catalaans.

czech

Selecteert de lijst met stopwoordpen voor Tsjechisch.

danish

Selecteert de lijst met stopwoordjes voor Deens.

dutch

Selecteert de lijst met stopwoordraadsels voor Nederlands.

english

Selecteert de lijst met stopwoordpen voor Engels.

finnish

Hiermee selecteert u de lijst met stopwoordpen voor Fins.

french

Selecteert de lijst met stopwoordjes voor Frans.

galician

Selecteert de lijst met stopwoorden voor Galicisch.

german

Selecteert de lijst met stopwoorden voor Duits.

greek

Selecteert de lijst met stopwoordraadsels voor Grieks.

hindi

Selecteert de lijst met stopwoorden voor Hindi.

hungarian

Selecteert de lijst met stopwoordjes voor Hongaars.

indonesian

Selecteert de lijst met stopwoordpen voor Indonesisch.

irish

Selecteert de lijst met stopwoorden voor Iers.

italian

Selecteert de lijst met stopwoorden voor Italiaans.

latvian

Selecteert de lijst met stopwoordraadsels voor Lets.

norwegian

Selecteert de lijst met stopwoordjes voor Noors.

persian

Selecteert de lijst met stopwoorden voor Perzisch.

portuguese

Selecteert de lijst met stopwoorden voor Portugees.

romanian

Selecteert de lijst met stopwoordjes voor Roemeens.

russian

Selecteert de lijst met stopwoorden voor Russisch.

sorani

Selecteert de lijst met stopwoordpen voor Sorani.

spanish

Selecteert de lijst met stopwoorden voor Spaans.

swedish

Selecteert de lijst met stopwoordjes voor Zweeds.

thai

Selecteert de lijst met stopwoordjes voor Thais.

turkish

Selecteert de lijst met stopwoordjes voor Turks.

StopwordsTokenFilter

Hiermee verwijdert u stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

De discriminator voor afgeleide typen.

ignoreCase

boolean

False

Een waarde die aangeeft of hoofdlettergebruik moet worden genegeerd. Indien waar, worden alle woorden eerst geconverteerd naar kleine letters. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

removeTrailing

boolean

True

Een waarde die aangeeft of de laatste zoekterm moet worden genegeerd als het een stopwoord is. De standaardwaarde is waar.

stopwords

string[]

De lijst met stopwoorden. Deze eigenschap en de eigenschap stopwords-lijst kunnen niet beide worden ingesteld.

stopwordsList

StopwordsList

english

Een vooraf gedefinieerde lijst met stopwoorden die moeten worden gebruikt. Deze eigenschap en de stopwords-eigenschap kunnen niet beide worden ingesteld. De standaardwaarde is Engels.

SynonymTokenFilter

Komt overeen met synoniemen met één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

De discriminator voor afgeleide typen.

expand

boolean

True

Een waarde die aangeeft of alle woorden in de lijst met synoniemen (als => notatie niet wordt gebruikt) aan elkaar worden toegewezen. Indien waar, worden alle woorden in de lijst met synoniemen (als => notatie niet gebruikt) aan elkaar toegewezen. De volgende lijst: ongelooflijk, ongelooflijk, fantastisch, geweldig is gelijk aan: ongelooflijk, ongelooflijk, fantastisch, geweldig => ongelooflijk, ongelooflijk, fantastisch, geweldig. Als onwaar, de volgende lijst: ongelooflijk, ongelooflijk, fantastisch, geweldig zal gelijk zijn aan: ongelooflijk, ongelooflijk, fantastisch, geweldig => ongelooflijk. De standaardwaarde is waar.

ignoreCase

boolean

False

Een waarde die aangeeft of invoer in hoofdletters moet worden gevouwen voor overeenkomende waarden. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

synonyms

string[]

Een lijst met synoniemen in de volgende twee indelingen: 1. ongelooflijk, ongelooflijk, fantastisch => geweldig - alle termen aan de linkerkant van => symbool zullen worden vervangen door alle termen aan de rechterkant; 2. ongelooflijk, ongelooflijk, fantastisch, geweldig - door komma's gescheiden lijst met equivalente woorden. Stel de optie Uitvouwen in om te wijzigen hoe de lijst wordt weergegeven.

TagScoringFunction

Definieert een functie waarmee scores van documenten worden verhoogd met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de onbewerkte score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe het stimuleren wordt geïnterpoleerd in documentscores; wordt standaard ingesteld op Lineair.

tag

TagScoringParameters

Parameterwaarden voor de tagscorefunctie.

type string:

tag

Type of ScoringFunction.

TagScoringParameters

Biedt parameterwaarden voor een scorefunctie voor tags.

Name Type Description
tagsParameter

string

De naam van de parameter die wordt doorgegeven in zoekopdrachten om de lijst met tags te specificeren die moeten worden vergeleken met het doelveld.

TextWeights

Definieert gewichten voor indexvelden waarvoor overeenkomsten het scoren in zoekquery's moeten verhogen.

Name Type Description
weights

object

Het woordenboek met gewichten per veld om de score van documenten te verbeteren. De sleutels zijn veldnamen en de waarden zijn de gewichten voor elk veld.

TokenCharacterKind

Vertegenwoordigt klassen van tekens waarop een tokenfilter kan werken.

Waarde Description
letter

Bewaart brieven in penningen.

digit

Houdt cijfers in tokens.

whitespace

Behoudt witruimte in tokens.

punctuation

Houdt interpunctie in tokens.

symbol

Bewaart symbolen in tokens.

TokenFilterName

Definieert de namen van alle tokenfilters die door de zoekmachine worden ondersteund.

Waarde Description
arabic_normalization

Een tokenfilter waarmee de Arabische normalisatiefunctie wordt toegepast om de orthografie te normaliseren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Verwijdert alle tekens na een apostrof, inclusief de apostrof zelf. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok Basis latijns) bevinden in hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Normaliseert CJK-breedteverschillen. Vouwt volledige breedte ASCII-varianten in het equivalente basis-Latijn, en halve breedte Katakana-varianten in de equivalente Kana. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Verwijdert Engelse bezitwoorden en stippen uit acroniemen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Bouw bigrams voor veelgebruikte termen tijdens het indexeren. Ook enkele termen worden nog steeds geïndexeerd, waarbij bigrams over elkaar heen worden weergegeven. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Hiermee genereert u n-grammen van de opgegeven grootte(s) vanaf de voor- of achterkant van een invoertoken. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Verwijdert elisies. "l'avion" (het vliegtuig) wordt bijvoorbeeld geconverteerd naar "avion" (vliegtuig). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Normaliseert Duitse tekens volgens de heuristiek van het Duitse 2-sneeuwbalalgoritme. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Normaliseert tekst in Hindi om enkele verschillen in spellingvariaties te verwijderen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Normaliseert de Unicode-weergave van tekst in Indiase talen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Elke binnenkomende token wordt twee keer verzonden, één keer als trefwoord en eenmaal als niet-trefwoord. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Een kstemfilter met hoge prestaties voor Engels. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Hiermee verwijdert u woorden die te lang of te kort zijn. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Beperkt het aantal tokens tijdens het indexeren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Hiermee normaliseert u tokentekst naar kleine letters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

Hiermee worden n-grammen van de opgegeven grootte(n) gegenereerd. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Past normalisatie toe voor Perzisch. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Tokens maken voor fonetische overeenkomsten. Zie https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Maakt gebruik van het portier-stemmingsalgoritmen om de tokenstroom te transformeren. Zie http://tartarus.org/~martin/PorterStemmer

reverse

Hiermee wordt de tokentekenreeks omgekeerd. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Normaliseert het gebruik van de uitwisselbare Scandinavische personages. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Vouwt Scandinavische personages Ã¥á... äæÃ"Æ->a en ööà ̧à ̃-o.> Het discrimineert ook het gebruik van dubbele klinkers aa, ae, ao, oe en oo, die alleen de eerste verlaten. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Hiermee maakt u combinaties van tokens als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Een filter dat woorden stamt met behulp van een door Snowball gegenereerde stemmer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Normaliseert de Unicode-weergave van Sorani-tekst. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Taalspecifiek stemmingsfilter. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Hiermee verwijdert u stopwoorden uit een tokenstroom. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Verwijdert voorloop- en volgspaties van tokens. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Kapt de voorwaarden af tot een specifieke lengte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Filtert tokens met dezelfde tekst als het vorige token eruit. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Normaliseert tokentekst in hoofdletters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Splitst woorden in subwoorden en voert optionele transformaties uit voor subwoordgroepen.

TruncateTokenFilter

Kapt de voorwaarden af tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

De discriminator voor afgeleide typen.

length

integer (int32)

maximum: 300
300

De lengte waarmee termen worden afgekapt. Standaard en maximum is 300.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

UaxUrlEmailTokenizer

Hiermee worden URL's en e-mailadressen als één token getokeniseerd. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

De discriminator voor afgeleide typen.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte, worden gesplitst. De maximale tokenlengte die kan worden gebruikt, is 300 tekens.

name

string

De naam van de tokenizer. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

UniqueTokenFilter

Filtert tokens met dezelfde tekst als het vorige token eruit. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

De discriminator voor afgeleide typen.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

onlyOnSamePosition

boolean

False

Een waarde die aangeeft of duplicaten alleen op dezelfde positie moeten worden verwijderd. De standaardwaarde is vals.

VectorEncodingFormat

Het coderingsformaat voor het interpreteren van de inhoud van vectorvelden.

Waarde Description
packedBit

Coderingsindeling die bits vertegenwoordigt die zijn verpakt in een breder gegevenstype.

VectorSearch

Bevat configuratieopties met betrekking tot vectorzoekopdrachten.

Name Type Description
algorithms VectorSearchAlgorithmConfiguration[]:

Bevat configuratie-opties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren of opvragen.

compressions VectorSearchCompression[]:

Bevat configuratieopties die specifiek zijn voor de compressiemethode die wordt gebruikt tijdens het indexeren of uitvoeren van query's.

profiles

VectorSearchProfile[]

Definieert combinaties van configuraties die moeten worden gebruikt met vectorzoekopdrachten.

vectorizers VectorSearchVectorizer[]:

Bevat configuratieopties voor het vectoriseren van tekstvectorquery's.

VectorSearchAlgorithmKind

Het algoritme dat wordt gebruikt voor indexeren en opvragen.

Waarde Description
hnsw

HNSW (Hierarchical Navigable Small World), een type bij benadering dichtstbijzijnde buren algoritme.

exhaustiveKnn

Uitgebreid KNN-algoritme dat brute-force zoekopdrachten uitvoert.

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. Het wordt aanbevolen om dezelfde gelijkenismetriek te kiezen waarop het inbeddingsmodel is getraind.

Waarde Description
cosine

Meet de hoek tussen vectoren om hun gelijkenis te kwantificeren, waarbij de grootte wordt genegeerd. Hoe kleiner de hoek, hoe dichter de gelijkenis.

euclidean

Berekent de rechte lijnafstand tussen vectoren in een multidimensionale ruimte. Hoe kleiner de afstand, hoe dichter de gelijkenis.

dotProduct

Berekent de som van elementengewijze producten om de uitlijning en grootte-gelijkenis te meten. Hoe groter en positiever, hoe dichter de gelijkenis.

hamming

Alleen van toepassing op binaire gegevenstypen met bitpakketten. Bepaalt ongelijksoortigheid door verschillende posities in binaire vectoren te tellen. Hoe minder verschillen, hoe dichter de gelijkenis.

VectorSearchCompressionKind

De compressiemethode die wordt gebruikt voor indexeren en query's.

Waarde Description
scalarQuantization

Scalaire kwantisatie, een type compressiemethode. Bij scalaire kwantisatie worden de oorspronkelijke vectorwaarden gecomprimeerd tot een smaller type door elk onderdeel van een vector te discretiseren en vertegenwoordigen met behulp van een gereduceerde set gekwantiseerde waarden, waardoor de totale gegevensgrootte wordt verkleind.

binaryQuantization

Binaire kwantisatie, een type compressiemethode. Bij binaire kwantisatie worden de oorspronkelijke vectorwaarden gecomprimeerd tot het smallere binaire type door elk onderdeel van een vector te discretiseren en weer te geven met behulp van binaire waarden, waardoor de totale gegevensgrootte wordt verkleind.

VectorSearchCompressionTarget

Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.

Waarde Description
int8

8-bits teken geheel getal.

VectorSearchProfile

Definieert een combinatie van configuraties die moeten worden gebruikt met vectorzoekopdrachten.

Name Type Description
algorithm

string

De naam van de configuratie van het vectorzoekalgoritme die het algoritme en de optionele parameters specificeert.

compression

string

De naam van de configuratie van de compressiemethode waarmee de compressiemethode en optionele parameters worden opgegeven.

name

string

De naam die u wilt associëren met dit specifieke vectorzoekprofiel.

vectorizer

string

De naam van de vectorisatie die wordt geconfigureerd voor gebruik met vectorzoeken.

VectorSearchVectorizerKind

De vectorisatiemethode die moet worden gebruikt tijdens de zoekopdracht.

Waarde Description
azureOpenAI

Genereer insluitingen met behulp van een Azure OpenAI-resource tijdens het uitvoeren van query's.

customWebApi

Genereer insluitingen met behulp van een aangepast webeindpunt tijdens de query.

aiServicesVision

Genereer insluitingen voor een afbeelding of tekstinvoer tijdens de query met behulp van de Azure AI Services Vision Vectorize-API.

aml

Genereer inbeddingen met behulp van een Azure Machine Learning-eindpunt dat is geïmplementeerd via de Azure AI Foundry Model Catalog op het moment van de query.

WebApiVectorizer

Hiermee geeft u een door de gebruiker gedefinieerde vectorizer op voor het genereren van de vectorinsluiting van een queryreeks. Integratie van een externe vectorizer wordt bereikt met behulp van de aangepaste web-API-interface van een vaardighedenset.

Name Type Description
customWebApiParameters

WebApiVectorizerParameters

Hiermee geeft u de eigenschappen op van de door de gebruiker gedefinieerde vectorizer.

kind string:

customWebApi

Type of VectorSearchVectorizer.

name

string

De naam die moet worden gekoppeld aan deze specifieke vectorisatiemethode.

WebApiVectorizerParameters

Hiermee geeft u de eigenschappen voor het maken van verbinding met een door de gebruiker gedefinieerde vectorizer.

Name Type Description
authIdentity SearchIndexerDataIdentity:

De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen. Als er een authResourceId is opgegeven en deze niet is opgegeven, wordt de door het systeem toegewezen beheerde identiteit gebruikt. Bij updates van de indexeerfunctie blijft de waarde ongewijzigd als de identiteit niet is opgegeven. Als deze optie is ingesteld op 'geen', wordt de waarde van deze eigenschap gewist.

authResourceId

string

Van toepassing op aangepaste endpoints die verbinding maken met externe code in een Azure-functie of een andere applicatie die de transformaties levert. Deze waarde moet de toepassings-id zijn die is gemaakt voor de functie of app wanneer deze is geregistreerd bij Azure Active Directory. Indien opgegeven, maakt de vectorisatie verbinding met de functie of app met behulp van een beheerde id (door het systeem of door de gebruiker toegewezen) van de zoekservice en het toegangstoken van de functie of app, waarbij deze waarde wordt gebruikt als resource-id voor het maken van het bereik van het toegangstoken.

httpHeaders

object

De headers die nodig zijn om het HTTP-verzoek te doen.

httpMethod

string

De methode voor het HTTP-verzoek.

timeout

string (duration)

De gewenste time-out voor de aanvraag. De standaardwaarde is 30 seconden.

uri

string (uri)

De URI van de web-API die de vectorizer levert.

WordDelimiterTokenFilter

Splitst woorden in subwoorden en voert optionele transformaties uit voor subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

De discriminator voor afgeleide typen.

catenateAll

boolean

False

Een waarde die aangeeft of alle subwoordonderdelen worden gekatoteerd. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure-Search-1' 'AzureSearch1'. De standaardwaarde is vals.

catenateNumbers

boolean

False

Een waarde die aangeeft of maximale uitvoeringen van aantal delen worden gekataleerd. Als dit bijvoorbeeld is ingesteld op true, wordt '1-2' '12'. De standaardwaarde is vals.

catenateWords

boolean

False

Een waarde die aangeeft of maximale uitvoeringen van woordonderdelen worden getaseerd. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure-Search' 'AzureSearch'. De standaardwaarde is vals.

generateNumberParts

boolean

True

Een waarde die aangeeft of subwoorden voor getallen moeten worden gegenereerd. De standaardwaarde is waar.

generateWordParts

boolean

True

Een waarde die aangeeft of deelwoorden moeten worden gegenereerd. Indien ingesteld, worden delen van woorden gegenereerd; bijvoorbeeld 'AzureSearch' wordt 'Azure' 'Search'. De standaardwaarde is waar.

name

string

De naam van het tokenfilter. Deze mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, mag alleen beginnen en eindigen met alfanumerieke tekens en mag maximaal 128 tekens bevatten.

preserveOriginal

boolean

False

Een waarde die aangeeft of oorspronkelijke woorden behouden blijven en worden toegevoegd aan de subwoordlijst. De standaardwaarde is vals.

protectedWords

string[]

Een lijst met tokens die moeten worden beschermd tegen scheidingstekens.

splitOnCaseChange

boolean

True

Een waarde die aangeeft of woorden moeten worden gesplitst in caseChange. Als dit bijvoorbeeld is ingesteld op true, wordt 'AzureSearch' 'Azure' 'Search'. De standaardwaarde is waar.

splitOnNumerics

boolean

True

Een waarde die aangeeft of u wilt splitsen op getallen. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure1Search' 'Azure' '1' 'Search'. De standaardwaarde is waar.

stemEnglishPossessive

boolean

True

Een waarde die aangeeft of u achtervolgende ''s' voor elk subwoord wilt verwijderen. De standaardwaarde is waar.