mindspore.dataset.text.WhitespaceTokenizer

class mindspore.dataset.text.WhitespaceTokenizer(with_offsets=False)[源代码]

基于ICU4C定义的空白字符(’ ‘, ‘\\t’, ‘\\r’, ‘\\n’)对输入的UTF-8字符串进行分词。

Note

Windows平台尚不支持 WhitespaceTokenizer

参数:
  • with_offsets (bool, 可选) - 是否输出标记(token)的偏移量,默认值:False。

异常:
  • TypeError - 参数 with_offsets 的类型不为bool。

支持平台:

CPU

样例:

>>> # If with_offsets=False, default output one column {["text", dtype=str]}
>>> tokenizer_op = text.WhitespaceTokenizer(with_offsets=False)
>>> text_file_dataset = text_file_dataset.map(operations=tokenizer_op)
>>> # If with_offsets=True, then output three columns {["token", dtype=str],
>>> #                                                   ["offsets_start", dtype=uint32],
>>> #                                                   ["offsets_limit", dtype=uint32]}
>>> tokenizer_op = text.WhitespaceTokenizer(with_offsets=True)
>>> text_file_dataset = text_file_dataset.map(operations=tokenizer_op, input_columns=["text"],
...                                           output_columns=["token", "offsets_start", "offsets_limit"],
...                                           column_order=["token", "offsets_start", "offsets_limit"])