# MindSpore Reinforcement Release Notes ## Reinforcement 0.6.0-alpha Release Notes ### 主要特性和增强 - [BETA] 支持GAIL(Generative Adversarial Imitation Learning [Jonathan Ho et al..2016](https://proceedings.neurips.cc/paper/2016/file/cc7e2b878868cbae992d1fb743995d8f-Paper.pdf)) 算法。算法解决了HalfCheetah环境问题,支持GPU后端设备。 - [BETA] 支持C51([Marc G. Bellemare et al..2017](https://arxiv.org/abs/1707.06887)) 算法。算法解决了CartPole环境问题,支持CPU后端设备。 - [BETA] 支持CQL(Conservative Q-Learning [Aviral Kumar et al..2019](https://arxiv.org/pdf/1906.00949)) 算法。算法解决了Hopper环境问题,支持CPU和GPU后端设备。 - [BETA] 支持AWAC(Accelerating Online Reinforcement Learning with Offline Datasets [Ashvin Nair et al..2020](https://arxiv.org/abs/2006.09359)) 算法。算法解决了Ant环境问题,支持CPU和GPU后端设备。 - [BETA] 支持Dreamer([Danijar Hafner et al..2020](https://arxiv.org/abs/1912.01603)) 算法。算法解决了Walker-walk环境问题,支持GPU后端设备。 ### 贡献者 感谢以下人员做出的贡献: Pro. Peter, Huanzhou Zhu, Bo Zhao, Gang Chen, Weifeng Chen, Liang Shi, Yijie Chen. 欢迎以任何形式对项目提供贡献!