Skip to content
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
CFD中文网

CFD中文网

  1. CFD中文网
  2. OpenFOAM
  3. HPC上运行OF

HPC上运行OF

已定时 已固定 已锁定 已移动 OpenFOAM
22 帖子 4 发布者 13.6k 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
回复
  • 在新帖中回复
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • G 离线
    G 离线
    gemini
    在 中回复了 leilei 最后由 编辑
    #13

    @leilei 那就跟你怎么并行跑OpenFOAM有关了,我以前用的mpirun命令,但没有自己指定过节点,刚看了一下文档(bash下输man mpirun),似乎可以通过-hostfile或者其它选项做资源管理。

    (你问的不属于OpenFOAM的范畴,纯粹是平台/操作系统的问题,Debian系的Linux系统一般可以用taskset将进程绑定到特定CPU。):134:

    L 1 条回复 最后回复
  • L 离线
    L 离线
    leilei
    在 中回复了 gemini 最后由 编辑
    #14

    @gemini
    谢谢回复
    对,哈哈,“航母群”里问“飞机”问题。。。但如是F18,可能“航母群”更有针对性。。。麻烦问下,你看的是什么手册?谢谢

    这OF群人才众多,哪位高人能指点下,我刚接触,经验是0

    谢谢大家

    G 1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    写于 最后由 编辑
    #15

    @leilei openfoam这个并行效率跟调试的关系非常大。openfoam这个效率跟商软不太一样。还取决于你的网格大小。

    基于一个计算任务,如何分配 node 和 core 及 内存的资源?

    针对你这个问题,如果小网格的话,跑一个node就行了。只有上大网格,几千万以上的时候,可以跑多节点。

    内存资源这个不是你控制的。如果交换机不是瓶颈。可以跑多个节点,每个节点跑一半的核心。

    总体来说,还是最好自己测试一下。openfoam跟商软不太一样。需要实测一下最优的性能。

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    L 1 条回复 最后回复
  • L 离线
    L 离线
    leilei
    在 中回复了 李东岳 最后由 编辑
    #16

    @李东岳 :
    太谢谢李老师了
    再追两问:

    1. 这方面有专门的书或资料可借鉴吗? 我 google 了 hpc node core allocation 但没找到有用的
    2. 看有的 sbatch 文件,与 node, core 有关的都在文件开头,但都被 # 给 comment 掉了。。。
      1/2 为什么?
      2/2 # 后,还会执行吗?

    如李老师有时间,你帮看看,问题很困惑我 。。。。。 再次感谢

    李东岳李 1 条回复 最后回复
  • G 离线
    G 离线
    gemini
    在 中回复了 leilei 最后由 编辑
    #17

    @leilei 在 HPC上运行OF 中说:

    麻烦问下,你看的是什么手册?

    没有什么手册,我都是baidu + 自带文档 :134:

    1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    在 中回复了 leilei 最后由 李东岳 编辑
    #18

    没有书,我这也都是自己测试总结的。我总结的是我自己发现的规律。我觉得具有一定普适性。#SBATCH是一起的。所以这个不是注释掉了。

    If you are writing a jobscript for a SLURM batch system, the magic cookie is "#SBATCH". To use it, start a new line in your script with "#SBATCH". Following that, you can put one of the parameters shown below, where the word written in <...> should be replaced with a value.

    https://hpc-wiki.info/hpc/SLURM

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    L 1 条回复 最后回复
  • L 离线
    L 离线
    leilei
    在 中回复了 李东岳 最后由 编辑
    #19

    @李东岳 @gemini
    非常感谢回复
    真好像:
    乡下穷小子进城遇好心人帮助,其中还有大城市美女

    谢谢大家

    L 1 条回复 最后回复
  • L 离线
    L 离线
    leilei
    在 中回复了 leilei 最后由 编辑
    #20

    各位老师:
    网上有的说: HPC上指定了compute资源后,并行要用 srun 。。。
    具体到OF,还需要要 decomposePar 和 mpirun 吗?

    这问题,本人无经验,很做出难判断,只能请有经验的老师帮澄清下

    谢谢老师

    1 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    写于 最后由 编辑
    #21

    srun是集群管理软件的使用
    decomposePar是openfoam的使用

    两个是两个东西。openfoam使用,是肯定要decomposePar的,不管你是提交作业还是直接mpirun

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    L 1 条回复 最后回复
  • L 离线
    L 离线
    leilei
    在 中回复了 李东岳 最后由 leilei 编辑
    #22

    @李东岳 :
    太感谢李老师了,明白了,谢谢。也谢谢曾帮过我的朋友。
    一个玩笑:
    把CFD大佬比为大城市美女,那咱乡下穷傻小子的心情就如那句歌词:
    。。。would it be a sin, when i cannot help falling in love with u ........(有可能记忆有出入)

    谢谢李老师

    1 条回复 最后回复

  • 登录

  • 登录或注册以进行搜索。
  • 第一个帖子
    最后一个帖子
0
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]