>首页> IT >

腾讯联合Tencent NLP Oteam发布:开源项目派大星“PatrickStar”

时间:2021-11-03 13:51:18       来源:智东西

近日,腾讯微信AI团队联合Tencent NLP Oteam于GitHub上发布开源项目派大星“PatrickStar”。该开源项目将聚焦解决GPT、BERT等超大模型训练时产生的“GPU内存墙”问题,使用更为创新的异构内存管理方法,让相同配置的机器能够训练更大的模型,以更节能环保的方式让预训练模型普惠每位NLP社区用户。

派大星通过细粒度的方式管理模型数据,更有效使用了异构内存空间,进一步突破PTM模型规模的极限,同时,派大星的设计比同类方法占用更低内存使用,减少了CPU和GPU之间数据搬移开销,从而显著提升了计算资源的利用率。并且,派大星可以和多种并行训练方式正交使用。比如,派大星使用微软提出的零冗余优化器来实现单机多卡的数据并行。

经测试结果显示,派大星将模型规模上限在目前最佳方案DeepSpeed的基础上提升了1.5倍,并且展现了明显高于DeepSpeed的计算效率。在不到5000元价位的个人游戏电脑上,即可训练一个7亿参数的GPT模型。这将有助于极大降低预训练训练过程中的碳排放,以技术优化的方式助力低碳环保事业。

目前,派大星已参与到微信搜一搜、微信对话开放平台、小微智能音响等产品研发工作中,助力降低GPU卡使用数量,提升机器的利用率,减少数据中心的碳排放规模。接下来,微信AI团队也将持续深化开源技术的研发及应用,以创新促进行业发展及生态建设。

关键词: 开源项目 异构内存 节能环保 利用率