您当前的位置:
首页 >
文章列表页 >
面向大模型场景的异构算力分布式并行训练方法
学术通信 | 更新时间:2025-11-25
    • 面向大模型场景的异构算力分布式并行训练方法

    • Distributed parallel training technology for large-scale model with heterogeneous computing resources

    • 在人工智能领域,专家设计了异构混合并行训练架构,提出了计算任务拆解优化、分布式策略性能预测与生成、异构芯片间统一通信库三大解决方案,有效优化集群训练性能指标。
    • 通信学报   2025年46卷第10期 页码:309-325
    • DOI:10.11959/j.issn.1000-436x.2025167    

      中图分类号: TP391
    • 收稿:2025-05-30

      修回:2025-09-21

      录用:2025-09-23

      纸质出版:2025-10-20

    移动端阅览

  • 黄蕾,王升,班有容等.面向大模型场景的异构算力分布式并行训练方法[J].通信学报,2025,46(10):309-325. DOI: 10.11959/j.issn.1000-436x.2025167.

    HUANG Lei,WANG Sheng,BAN Yourong,et al.Distributed parallel training technology for large-scale model with heterogeneous computing resources[J].Journal on Communications,2025,46(10):309-325. DOI: 10.11959/j.issn.1000-436x.2025167.

  •  
  •  

0

浏览量

539

下载量

0

CSCD

文章被引用时,请邮件提醒。
提交
工具集
下载
参考文献导出
分享
收藏
添加至我的专辑

相关文章

基于多智能体强化学习的大规模灾后用户分布式覆盖优化
一种新型希夫碱锌配合物的合成及光谱学性质
非相对论粒子高次谐波辐射作为短波长激光的可能性
β-NaGd0.794 Yb0.200 Ho0.001 Tm0.005 F4 纳米颗粒的白色上转换发光
In0.2Ga0.8As/GaAs单量子阱PL谱温度特性及其机制

相关作者

黄子潇
许思
狄新凯
张晓光
王升
吴思雷
张治
李国军

相关机构

北京邮电大学人工智能学院
重庆邮电大学超视距可信信息传输研究所
北京邮电大学信息与通信工程学院
0