Skip to content
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
CFD中文网

CFD中文网

  1. CFD中文网
  2. OpenFOAM
  3. 集群上并行测试OpenFOAM,并行效率并没有比单节点提升

集群上并行测试OpenFOAM,并行效率并没有比单节点提升

已定时 已固定 已锁定 已移动 OpenFOAM
42 帖子 7 发布者 29.7k 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
回复
  • 在新帖中回复
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • S 离线
    S 离线
    sjlouie91
    在 中回复了 Number44 最后由 编辑
    #33

    @number44
    感谢你的建议。如果不是CPU的问题的话,有没有可能瓶颈在硬盘读取上?
    我还有个疑问,我之前在LES算例上测试过GAMG求解器,一般来说GAMG计算更快,但是我不清楚是我设置有问题还是其他别的什么原因,我在使用GAMG的时候计算异常缓慢。
    这个是我之前的计算设置,请问是否有针对这个算法的较优的设置参数?
    GAMG.png

    Number44N 1 条回复 最后回复
  • S 离线
    S 离线
    sjlouie91
    在 中回复了 李东岳 最后由 编辑
    #34

    @李东岳
    您好李老师,针对这个波动,我之前也发现了,但是我后续又计算过一次,最终320核计算用时577s。总之,就是在240核以上基本上就不太有效果了。
    针对您提到的这两个算例,我测试一下。

    1 条回复 最后回复
  • Number44N 离线
    Number44N 离线
    Number44
    在 中回复了 sjlouie91 最后由 编辑
    #35

    @sjlouie91
    硬盘的读写只有刚开始和写结果的时候进行,迭代过程是不做硬盘读写的,除非频繁大量进行结果的存储,不然一般硬盘不太影响计算性能,更多受CPU的cache和内存影响。
    至于GAMG的参数,我选择抄
    PETSc4FOAM: a library to plug-in PETSc into the OpenFOAM framework
    里面提到的。

    算不准,发个散,报error,没问题!

    1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    写于 最后由 编辑
    #36

    不知道后来楼主怎么样了

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    1 条回复 最后回复
  • C 离线
    C 离线
    Caijinjin
    在 中回复了 李东岳 最后由 编辑
    #37

    @李东岳 在 集群上并行测试OpenFOAM,并行效率并没有比单节点提升 中说:

    -genv FI_PROVIDER tcp你这个去掉不能跑的话。你如何确定走的是infiniband,而不是以太网模式。我们这面跑openfoam不需要这个参数。我们之前测试也出现过你这种情况。后来我们换交换机硬件了。但目前我还不确定现在我们这5节点能到什么样,得下周能出个测试结果。另外,openfoam离散设置差异(比如GAMG那个),我个人感觉不会引起特别大的差异。不过你可以实测看看,我也不100%确定

    @xpqiu 这位大佬之前好像测试过2048个核心 :mianmo:

    老师,想问一下,用openmpi在自己组里面的集群上用pbs跨节点并行(10g以太网交换机)命令用的mpirun --mca btl_tcp_if_include <ip地址> -np reactingTwoPhaseEulerFoam -parallel,运行的时候发现计算的节点上cpu的用户进程占比us只有50-60%,系统进程占比sy有40-50%,这个问题有没有什么好的解决办法?

    李东岳李 1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    在 中回复了 Caijinjin 最后由 编辑
    #38

    才看到这个回复,首先,这个看起来不是正常的。CPU用满了应该是100%。能想到的是,能不能是系统被黑了有后台程序

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    C 1 条回复 最后回复
  • C 离线
    C 离线
    Caijinjin
    在 中回复了 李东岳 最后由 编辑
    #39

    @李东岳 李老师,我们组集群是新买的,应该不太可能是被黑了,除非是大厂他们给加了限制。现在我导给换了100G的IB交换机,就是运行案例的时候,它虽然显示是在run的,但是log文件里面没有实际的计算结果。我看了调度系统的日志说是:
    Open MPI accepted a TCP connection from what appears to be an another Open MPI process but cannot find a corresponding process entry for that peer.
    暂时还在寻找原因。

    李东岳李 1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    在 中回复了 Caijinjin 最后由 编辑
    #40

    @Caijinjin 我说的被黑了的意思是,系统被黑了?不是供应商黑了你们那种。我这面有过服务器被黑了,后面有挖矿程序。

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    C 1 条回复 最后回复
  • C 离线
    C 离线
    Caijinjin
    在 中回复了 李东岳 最后由 编辑
    #41

    @李东岳 老师,是这样的,这种现象在单个节点跑案例的时候是没有的,CPU是接近满负荷在运算的,但是一到多个节点并行就出现。
    现在我们换了IB交换机之后多节点还没跑起来过。。。

    李东岳李 1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    在 中回复了 Caijinjin 最后由 编辑
    #42

    @Caijinjin 如果可以提供下述信息:CPU型号、节点数、操作系统、价格这些参数(如果不方便公开,可以发我邮箱),我可以远程给你向日葵看一下。另外,你们为什么换IB交换机?我看你们去年6月份买的集群,这半年一直没用么

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    1 条回复 最后回复

  • 登录

  • 登录或注册以进行搜索。
  • 第一个帖子
    最后一个帖子
0
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]