设为首页 | 登录 | 免费注册 | 加入收藏
文献检索:
  • 卷首语
  • 高性能计算是国家发展战略的制高点。经过近十五年的成长和发展,我国超级计算机的系统研制水平进入了国际先进行列,如大家熟悉的曾排名世界第一的“天河一号A”超级计算机、“神威蓝光”和“曙光星云”千万亿次超级计算机等,这标志着我国高性能计算机系统已迈入“千万亿次”时代。
  • 径向基函数在动网格中的应用及可新亍性研究
  • 径向基函数广泛应用于网格变形、气动外形优化设计、网格优化等领域。近年来,基于径向基函数的动网格技术得到了深入的研究和广泛的应用。本文结合计算流体力学和高性能计算的应用背景,从径向基函数对网格的变形质量和变形效率进行了总结和进一步研究:在网格变形方面,重点对比了不同基函数对同一网格运动变形能力和同一基函数对不同网格运动的适应能力;在网格变形效率方面,分析了算法在计算和存储的瓶颈所在,考虑了OpenMP和GPU这两种共享内存的加速方式,得到较好加速比。最后,分析了当网格规模增大时,动网格在分布式计算和存储模型(MPI)下的处理方法。
  • 科学计算网格软件SCE的持续交付方法研究
  • 为缩短SCE(Super Computing Environment)软件的交付周期,尽快满足用户的需求,在SCE整个开发周期中引入自动化测试及自动化部署。自动化测试能够完成对SCE软件的功能测试、性能测试;自动化部署能够将整个部署环节简化,快速完成软件的部署及升级。很大程度上缩短了软件的交付周期,初步实现适合SCE软件的持续交付,很好的推动了SCE的后续开发。
  • 基于OpenMP的二维非结构网格生成算法Delaunay并行实现
  • 在科学计算领域,网格生成的规模及其速度和质量已经成为制约求解速度和精度的瓶颈,快速生成高质量的网格在许多领域需求迫切。本文针对现代并行计算机多级体系结构,研究共享内存模型下的并行Delaunay网格生成算法,采用任务并行策略,通过OpenMP并行模型实现Delaunay算法的并行。实验表明,该并行算法和串行算法最终生成的网格在质量上的区别很小,而同时其网格生成效率也可以满足大规模网格生成的需求。
  • 一个基于共享内存的GPU资源调度器的设计与实现
  • 集群作业管理系统目前对GPU资源的管理还不是很完善,尤其在单节点多GPU的情况下,经常由于GPU设备的使用冲突、负载不均等原因而导致GPU设备利用率低。为此,本文设计并实现了一种基于共享内存方式的GPU资源调度器,结合集群作业管理系统,可以自动为用户作业分配需要的GPU设备资源,避免多个GPU设备的使用冲突,从而使得GPU设备的使用率达到最高。基于SAPPORO的GPU多体模拟程序在本系统环境下得到了很好的应用。
  • 克希霍夫时间偏移在GPU集群上的MPI/CUDA混合编程实现
  • 本文介绍了二维/三维克希霍夫时间偏移计算在GPU集群上的MPI/CUDA混合编程实现。系统的主体结构基于经典的主从模式,采用MPI进程-pthread线程-CUDA线程三个层次的并行架构,以及CPU/GPU协同计算并行架构和策略来设计实现。每个计算节点由一个多核CPU和多个GPU设备组成。输入数据在主节点上载入,平均分配到从节点上,存储到相应的磁盘空间内,并根据各节点的可用资源将数据划分为多块。每个从节点分别接收主节点发送的数据并存储到本地磁盘上的临时文件内。根据检测到的可用GPU设备数,每个从节点上创建同样数目的线程来一对一控制各个GPU。各从节点上每个数据块再进一步划分为大小相等的块一一分配给各个线程,由每个线程逐道在CPU上预处理后传送到GPU上处理,道内的各成像点分别由各CUDA线程并行处理。每个数据块偏移由每个线程内的相关道累加计算而得,结果返回到主节点上累加后输出到磁盘文件内。在实现过程中,采用CPU/GPU协同计算以及线}生插值走时的方式来进一步提高性能。系统性能在一典型异构GPU集群上测试,每个节点由一个配置8GB内存的四核CPU,以及配置6GB显存的C1060型号的GPU组成。对于不同的规模和积分计算模式,在该平台上的测试结果表明,本文实现的系统的性能对于包含相同计算节点数、每个节点上4个线程并行计算的MPI版本,可以达到平均约5~10倍的加速。
  • 三维低速机翼增升装置流动分离的雷诺数效应研究
  • 利用中国科学院计算机网络信息中心的深腾7000超级计算机系统,在MPI环境下测试分析了32~384核并行计算的时间成本和并行效率,测试表明128核并行计算具有最佳“时间&效率”,并选择此计算加载状态开展计算研究。通过求解RANS方程,研究了雷诺数对三维机翼增升装置流场特性与流动分离特性的影响,计算雷诺数范围1.75×10620.0×10^6,分析表明,随着雷诺数的增大,外襟翼上分离位置逐渐向后缘移动,吸力峰值变大。与此现象相对应的升力系数逐渐增大,力矩系数变小。在雷诺数达到10^7量级时,升力系数及力矩系数的变化趋于平缓,而在雷诺数为5.0×10^6之前,增升装置的气动力对雷诺数影响十分敏感。
  • 大型强子对撞机(LHC)上J/ψ的产生截面和极化的计算
  • 本文介绍了重夸克偶素产生在实验和理论上的重要陛,以及计算QCD(Quantum Chromo Dynamics)修正的意义。我们列出了J/ψ、ψ(2S)、Г(1S,2S,as)完整的prompt产生的各个过程,每个过程的费曼图的个数,计算的目标参量,各种输入参数等。通过分析理论计算的计算规模,精度要求及精度对结果的影响,指出在超级计算机上进行计算的必要性。为能够有效地利用超级计算机的资源,我们做了在深腾7000上的效率的测试,并给出部分测试结果。针对已有的计算结果,我们分析了这些数据所使用的计算量。最后,我们给出了FDC(Feynman Diagram Calculation)系统在超级计算机上计算的一些新成果。
  • 基于GridMol的等密度图算法实现与应用
  • 等密度图是由一系列密度相同的点所构成的面,它在高分子材料研究领域应用广泛。本文介绍了基于高性能计算化学系统(SCChem)的GridMol程序中等密度图显示功能的实现。应用Marching Cubes算法实现,并采用法向量均值的方法进行优化,在SCChem应用系统中进行测试,取得了较好的测试结果。
  • 基于BOINC平台的指纹自动识别系统的设计与实现
  • 指纹技术已经成为世界各国侦查部门查找和认定犯罪人的最直接、最可靠、最快捷的途径,其在破案过程中发挥的作用越来越大。我国指纹识别系统所面临的现状是:首先,我国人口基数大,流动人员多,并处于社会重大快速转型时期,跨区域犯罪、流窜犯罪、系列案件有所上升;其次,我国现有的指纹自动识别系统来自国内外六个不同厂家,由于不同的厂家在采集指纹时采取不同的方法,导致各系统采集的指纹数据不能及时共享,很多线索或指纹信息只能在本地系统中发挥作用,这样就造成了资源短缺。为了缓解上述现状,本文通过志愿计算的模式,利用BOINC平台对现有资源进行整合,使得警用办公主机能够在其空闲时间参与指纹比对,达到充分利用已有资源,实现资源的合理化配置的效果。
  • GPU异构平台上的第一性原理计算
  • 平面波赝势密度泛函方法是材料科学计算中最常用的方法,但是其CPU代码计算时间长并且扩展性差,限制了其在超级计算机上的绝对速度。本文综述了使用图形处理器加速第一性原理计算软件的发展,讨论了VASP(Vienna Ab-initio Simulation Package),Quantum Espresso,PEtot使用的不同的加速策略,提出了众核平台上平面波赝势方法并行机制的改进,最后展望了使用图形处理器求解第一性原理计算的挑战和前景。
  • 基于REST风格的科学计算环境信息Web服务
  • 科学计算环境提供了海量的计算资源和不同学科的大量应用,如何获取准确的信息并展示给用户和管理人员,是提高科学计算环境效率和易用特性必须解决的问题。本文在中国科学院科学环境中间件的基础上,研究和实现了基于REST风格的Web访问接口,提供用户、应用、资源和作业等信息的即时查询和指定条件下的信息统计服务。测试和实际应用表明,本文提出的Web信息服务,具有简单易用、功能全面、支持多平台和语言的特性,方便开发人员以丰富多样的形式展示科学计算环境的信息。
  • 中国气象局的高性能计算机系统
  • 中国气象局目前共有两套高性能计算机系统,其一是于2004年引进的IBM Cluster 1600;其二是于2009年引进的国产神威4000A系统。本文从系统的业务目标、系统架构、系统的软件环境、系统运行情况、系统维护等方面进行介绍,总结了高性能计算机系统在业务、科研的使用上情况及运行维护管理中遇到的问题及解决措施,为新一代计算机的引进提供良好的基础。
  • 2011年度中国科学院超级计算发展指数发布
  • 2012年8月22日,在云南腾冲举办的第二届中国科学院超级计算应用大会(SCA2012)上,中国科学院超级计算中心发布了20u年度中国科学院超级计算发展指数(CAS SCDI),该指数的评价指标数据基于自主开发的“CAS SCDI数据收集系统”Web在线收集,中国科学院超级计算环境用户群体中共计122个课题组提交了超级计算应用成果。
  • 高性能计算服务门户系统——超级云平台解决方案
  • 1概述 1.1项目背景 北京北龙超级云计算有限责任公司的高校高性能计算服务门户系统是为教育科研网格用户提供高性能与网格计算相关的综合信息、科学研究、学习交流等服务的重要平台。通过对广东省各接入高校以及中山大学分布于各院系的不同时期建设的多套高性能计算资源进行有机的整合与管理。
  • 《科研信息化技术与应用:中英文》封面

    关于我们 | 网站声明 | 合作伙伴 | 联系方式
    金月芽期刊网 2016 电脑版 京ICP备13008804号-2