NGramTokenizer interface
Tokeniza a entrada em n-gramas dos tamanhos fornecidos. Esse tokenizador é implementado usando o Apache Lucene.
- Extends
Propriedades
| max |
O comprimento máximo de n-grama. O padrão é 2. O máximo é 300. |
| min |
O comprimento mínimo de n-grama. O padrão é 1. O máximo é 300. Deve ser menor que o valor de maxGram. |
| odatatype | Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser |
| token |
Classes de caractere a serem mantidas nos tokens. |
Propriedades herdadas
| name | O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode iniciar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres. |
Detalhes da propriedade
maxGram
O comprimento máximo de n-grama. O padrão é 2. O máximo é 300.
maxGram?: number
Valor da propriedade
number
minGram
O comprimento mínimo de n-grama. O padrão é 1. O máximo é 300. Deve ser menor que o valor de maxGram.
minGram?: number
Valor da propriedade
number
odatatype
Discriminatório polimórfico, que especifica os diferentes tipos que esse objeto pode ser
odatatype: "#Microsoft.Azure.Search.NGramTokenizer"
Valor da propriedade
"#Microsoft.Azure.Search.NGramTokenizer"
tokenChars
Classes de caractere a serem mantidas nos tokens.
tokenChars?: TokenCharacterKind[]
Valor da propriedade
Detalhes das propriedades herdadas
name
O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode iniciar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.
name: string
Valor da propriedade
string
Herdado deLexicalTokenizer.name