Skip to content
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
CFD中文网

CFD中文网

  1. CFD中文网
  2. OpenFOAM
  3. mpirun并行显示运算中,但是实际log文件无输出

mpirun并行显示运算中,但是实际log文件无输出

已定时 已固定 已锁定 已移动 OpenFOAM
7 帖子 4 发布者 4.2k 浏览
  • 从旧到新
  • 从新到旧
  • 最多赞同
回复
  • 在新帖中回复
登录后回复
此主题已被删除。只有拥有主题管理权限的用户可以查看。
  • 洱聿洱 离线
    洱聿洱 离线
    洱聿
    写于 最后由 编辑
    #1

    在运用集群计算过程中,单核运行算例没问题,但是提交到集群上会显示run的状态,但是log并没有数据,(log.waveFoam-d)如下图:
    87b4eae4-5a65-4558-b2b3-9bf69c56ab74-image.png

    提交并行文件如下:

    # Source tutorial run functions
    . $WM_PROJECT_DIR/bin/tools/RunFunctions
    
    # Set application name
    application="waveFoam"
    
    # Create the computational mesh
    echo Preparing 0 folder...
    rm -fr 0
    cp -r 0.org 0
    rm -rf constant/polyMesh
    cp -r constant/polyMesh.org constant/polyMesh
    # Create the wave probes
    runApplication waveGaugesNProbes
    
    # Compute the wave parameters
    runApplication setWaveParameters
    
    # Set the wave field
    runApplication setWaveField
    
    #decomosePar
    decomposePar > log.decomposePar
    mpirun -np 20 renumberMesh -overwrite -parallel > log.renumberMesh
    
    # Run the application
    #runApplication $application
    mpirun -np 20 waveFoam -parallel > log.waveFoam-d
    
    # To a post-processing analysis
    ln -s postProcessing/surfaceElevationAnyName surfaceElevationAnyName
    runApplication postProcessWaves2Foam
    # Reconstruct
    #runApplication reconstructPar
    rm -f /tmp/nodes.$$
    rm -f /tmp/nodefile.$$
    

    想问一下,是集群账户下mpirun的路径有问题嘛?

    卑以自牧,温润如玉。

    X 洱聿洱 2 条回复 最后回复
  • 李东岳李 在线
    李东岳李 在线
    李东岳 管理员
    写于 最后由 编辑
    #2

    应该是卡在某个地方了没跑起来

    http://dyfluid.com/index.html
    需要帮助debug算例的看这个 https://cfd-china.com/topic/8018

    洱聿洱 1 条回复 最后回复
  • 洱聿洱 离线
    洱聿洱 离线
    洱聿
    在 中回复了 李东岳 最后由 编辑
    #3

    @李东岳 试了之前在其他账户的并行算例也是这个问题,是mpi的问题嘛?

    卑以自牧,温润如玉。

    1 条回复 最后回复
  • X 离线
    X 离线
    xpqiu 超神
    在 中回复了 洱聿 最后由 编辑
    #4

    @洱聿 集群如果使用作业调度软件来提交作业的话,应该生成日志文件(类似 xxx.out and/or xxx.err),里面可能有什么报错信息。

    洱聿洱 1 条回复 最后回复
  • 洱聿洱 离线
    洱聿洱 离线
    洱聿
    在 中回复了 xpqiu 最后由 编辑
    #5

    @xpqiu 我之前运行过这个算例10小时,一直处在run 的状态,但og.waveFoam-d一片空白没有任何信息产生,是不是此账户下mpi命令不能运行,我这几天也在调试。

    卑以自牧,温润如玉。

    1 条回复 最后回复
  • 洱聿洱 离线
    洱聿洱 离线
    洱聿
    在 中回复了 洱聿 最后由 洱聿 编辑
    #6

    @洱聿 目前主动停止算例运行,会出error文件(但是之前以为是主动停止报的错误,就一直没有注意过),显示错误如下:

    [manage01:228000] [[60655,0],0] tcp_peer_recv_connect_ack: received different version from [[60655,1],1]: 1.8.8 instead of 1.10.2
    

    目前集群使用的mpi版本是1.10.2,是因为mpi版本太高,所以foam extend4.0不适用嘛?有fe40专门对应的openmpi版本嘛?

    卑以自牧,温润如玉。

    C 1 条回复 最后回复
  • C 离线
    C 离线
    cdf_rookie
    在 中回复了 洱聿 最后由 编辑
    #7

    @洱聿 在 mpirun并行显示运算中,但是实际log文件无输出 中说:

    @洱聿 目前主动停止算例运行,会出error文件(但是之前以为是主动停止报的错误,就一直没有注意过),显示错误如下:

    [manage01:228000] [[60655,0],0] tcp_peer_recv_connect_ack: received different version from [[60655,1],1]: 1.8.8 instead of 1.10.2
    

    目前集群使用的mpi版本是1.10.2,是因为mpi版本太高,所以foam extend4.0不适用嘛?有fe40专门对应的openmpi版本嘛?

    您好,您的问题是否已经解决了呢?

    1 条回复 最后回复

  • 登录

  • 登录或注册以进行搜索。
  • 第一个帖子
    最后一个帖子
0
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]