mindformers.models.glm2.ChatGLM3Tokenizer ========================================================================= .. image:: https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/website-images/r2.4.0/resource/_static/logo_source.svg :target: https://gitee.com/mindspore/mindformers/blob/v1.3.0/docs/api/api_python/models/mindformers.models.glm2.ChatGLM3Tokenizer.rst :alt: 查看源文件 .. py:class:: mindformers.models.glm2.ChatGLM3Tokenizer(vocab_file, bos_token='', eos_token='', end_token='', mask_token='[MASK]', gmask_token='[gMASK]', pad_token='', unk_token='',*kwargs) 构造一个基于Byte-Pair-Encoding的ChatGLM3模型分词器。 参数: - **vocab_file** (str) - 对应词表的路径。 - **bos_token** (str, tokenizers.AddedToken) - 在预训练期间使用的序列开始的标记,可以用作序列分类标记。默认值: `""` 。 - **eos_token** (str, tokenizers.AddedToken) - 序列结束的token。默认值: `""` 。 - **end_token** (str, tokenizers.AddedToken) - 序列结束的token。默认值: `""` 。 - **mask_token** (str, tokenizers.AddedToken) - 掩码token。默认值: `"[MASK]"` 。 - **gmask_token** (str, tokenizers.AddedToken) - 特殊的掩码token。默认值: `"[gMASK]"` 。 - **pad_token** (str, tokenizers.AddedToken) - 用于使tokens数组大小相同以便进行批处理的特殊标记,然后将被注意力机制或损失计算忽略。默认值: `""` 。 - **unk_token** (str, tokenizers.AddedToken) - 不存在的token。默认值: `""` 。 - **kwargs** - 其它传递到Tokenizer基类的参数。 返回: `ChatGLM3Tokenizer` 实例。