基于延迟隐藏因子的GPU 计算模型
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

Supported by the National High-Tech Research and Development Plan of China under Grant Nos.2006AA01A125, 2009AA01A129, 2009AA01A134 (国家高技术研究发展计划(863)); 核高基资助项目(2009ZX01036-001-002); 中国科学院知识创新工程重大项目课题(KGCX1-YW-13); 财政部国家重大科研装备研制项目(ZDYZ2008-2)


A GPU Computational Model Based on Latency Hidden Factor
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    近年来在生物计算,科学计算等领域成功地应用了GPU 加速计算并获得了较高加速比.然而在GPU 上编程和调优过程非常繁琐,为此,研究人员提出了许多提高编程效率的编程模型和编译器,以及指导程序优化的计算模型,在一定程度上简化了GPU上的算法设计和优化,但是已有工作都存在一些不足.针对GPU低延迟高带宽的特性,提出了基于延迟隐藏因子的GPU 计算模型,模型提取算法隐藏延迟的能力,以指导算法优化.利用3 种矩阵乘算法进行实测与模型预测,实验结果表明,在简化模型的情况下,平均误差率为0.19.

    Abstract:

    The general purpose GPU computing technology has been successfully used to accelerator many important applications. Though researches have designed many programming models and performance models, the amount of effort required to optimize the performance of applications on GPUs is still very high. In this paper, we propose a GPU computational model based on the ability that how much an algorithm could hide the latency. The experimental results show that our model could predict three matrix multiplication algorithms well.

    参考文献
    相似文献
    引证文献
引用本文

袁良,张云泉,龙国平,王可,张先轶.基于延迟隐藏因子的GPU 计算模型.软件学报,2010,21(zk):251-262

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2010-06-15
  • 最后修改日期:2010-12-10
  • 录用日期:
  • 在线发布日期:
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号