比较与torchaudio.datasets.LJSPEECH的差异
torchaudio.datasets.LJSPEECH
class torchaudio.datasets.LJSPEECH(
    root: str,
    url: str = 'https://data.keithito.com/data/speech/LJSpeech-1.1.tar.bz2',
    folder_in_archive: str = 'wavs',
    download: bool = False)
更多内容详见torchaudio.datasets.LJSPEECH。
mindspore.dataset.LJSpeechDataset
class mindspore.dataset.LJSpeechDataset(
    dataset_dir,
    num_samples=None,
    num_parallel_workers=None,
    shuffle=None,
    sampler=None,
    num_shards=None,
    shard_id=None,
    cache=None)
差异对比
PyTorch:读取LJSpeech数据集。
MindSpore:读取LJSpeech数据集,不支持下载。
| 分类 | 子类 | PyTorch | MindSpore | 差异 | 
|---|---|---|---|---|
| 参数 | 参数1 | root | dataset_dir | - | 
| 参数2 | url | - | MindSpore不支持 | |
| 参数3 | folder_in_archive | - | MindSpore不支持 | |
| 参数4 | download | - | MindSpore不支持 | |
| 参数5 | - | num_samples | 指定从数据集中读取的样本数 | |
| 参数6 | - | num_parallel_workers | 指定读取数据的工作线程数 | |
| 参数7 | - | shuffle | 指定是否混洗数据集 | |
| 参数8 | - | sampler | 指定采样器 | |
| 参数9 | - | num_shards | 指定分布式训练时将数据集进行划分的分片数 | |
| 参数10 | - | shard_id | 指定分布式训练时使用的分片ID号 | |
| 参数11 | - | cache | 指定单节点数据缓存服务 | 
代码示例
# PyTorch
import torchaudio.datasets as datasets
from torch.utils.data import DataLoader
root = "/path/to/dataset_directory/"
dataset = datasets.LJSPEECH(root, url='https://data.keithito.com/data/speech/LJSpeech-1.1.tar.bz2')
dataloader = DataLoader(dataset)
# MindSpore
import mindspore.dataset as ds
# Download LJSpeech dataset files, unzip into the following structure
# .
# └── /path/to/dataset_directory/
#      ├── README
#      ├── metadata.csv
#      └── wavs
#          ├── LJ001-0001.wav
#          ├── LJ001-0002.wav
#          ├── LJ001-0003.wav
#          ├── LJ001-0004.wav
#          ├── LJ001-0005.wav
#          ├── LJ001-0006.wav
#          ├── LJ001-0007.wav
#          ├── LJ001-0008.wav
#           ...
#          ├── LJ050-0277.wav
#          └── LJ050-0278.wav
root = "/path/to/dataset_directory/"
ms_dataloader = ds.LJSpeechDataset(root)