Skip to content
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]
皮肤
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 默认(不使用皮肤)
  • 不使用皮肤
折叠
CFD中文网

CFD中文网

I

Irisch

@Irisch
关于
帖子
13
主题
2
群组
0
粉丝
0
关注
0

帖子

最新

  • 使用KomegaSST模型做湍流模拟的y+值
    I Irisch

    对于使用KomegaSST模型作低雷诺数的湍流管流模拟,当y+值小于1时,是不是可以认为网格足够精细,无需再细化?
    另外k omega nut三个量大概在哪个范围内合理?我的结果大概是以下:

        k     10的负3次方
    

    omega 最大50w+,最小500左右
    nut 10的负10到负5次方


  • interFoam中设置两相的初速度
    I Irisch

    不好意思,周末有事回复慢了。Ubar选项可以在constant文件夹下添加fvOption文件来进行设置,具体的可以百度或者Google一下,Openwiki里会有说明,另外如果对初始的速度值有一些特别的要求的可以试试用swak4foam/groovyBC这个插件的边界条件,很好用。具体的使用网上也都有介绍的!希望对你有帮助。


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @队长别开枪 在 有关Openfoam在超算并行运算的问题 中说:

    网格尺寸无关性

    好的!非常感谢!


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @wwzhao
    task就是对应的一个分割的区域,就是总的task数目对应分割的数量24个,只不过你要给超算要告诉他你有几个task要做,这个是在超算上设置的。
    如果我把参差稍微放大到10的-4或者-3的量级,对结果会产生很大的影响么?


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @wwzhao 恩恩是的,非常感谢!


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @队长别开枪
    4(nodes) X 6(tasks/node) X 4(cpus/task(区域))=96cpus


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @队长别开枪
    可能是我没表达好。我先是分了24个区域在decomposePar文件里面,然后在超算上预定运算资源的时候,预定了4个nodes,每个nodes上有24个cpu,然后制定每个nodes运算6个task,一个task对应一个区域分区,最后指定每个task(区域)使用4个cpu来进行计算。这样的话就是4nodes6tasks/nodes4cpus/task(区域)=96cpus,是这么得出来的。
    我自己已经完成了一个cm级别的非常粗网格的计算,大概只有5000个网格的算例,结果确实是我们想要的,这个已经做出来了,计算速度很快,用自己电脑单核跑一下大概5个小时就出结果了。结果的效果很好,所以现在就需要做准确的精细计算了。


  • interFoam中设置两相的初速度
    I Irisch

    可以设置Ubar的数值来指定空气速度,另外setFields功能设定液滴初速,这样可以么?
    我用setFields设定了其他值,没试过设定速度。


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @队长别开枪 对了,那个最小尺寸的话,算下来应该是0.13 mm*0.0125 mm的这个量级。我之前希望把这个量级改一下,导师说不行,他们做实验的就是这个尺寸,所以要在其他参数上想办法。


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @aiweimo 您好!非常感谢您的回复!
    是的,并行运算核之间的交互问题也想到了,就是一直找不到一个合适的分割数量,可能我这里对并行运算和分割有点误区,需要再补足一下。


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @wwzhao 您好,非常感谢您的回复!
    那我这里有个问题,那如果在不产生发散的情况下,把网格继续细化,然后用多核计算,这个时间的消耗和用粗网格少核计算对比,会不会有明显差异?


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    @队长别开枪 您好!非常感谢您的回复!
    1、我maxCo和maxAlphaCo分别设置的都是1,导师那边要求的以1为界值。其他的边界条件是以$tutorials/multiphase/interFoam/RAS/waterChannel这个算例作为基础设定的。
    2、网格是非均匀网格,blockesh中的网格分割如下。

    hex ()    (150 40 1) simpleGrading (1 1 1)
    hex ()   (150 60 1) simpleGrading (1 6 1)
    hex () (300 40 1) simpleGrading (1 1 1)
    hex () (300 60 1) simpleGrading (1 6 1)
    hex() (150 40 1) simpleGrading (1 1 1)
    hex () (150 60 1) simpleGrading (1 6 1)
    

    3、代数方程求解器用的Smooth,湍流模型为kOmegaSSTLowRe,对应的残差值为:

    alpha.water         1e-8
    p_rgh                   5e-9
    U|k|omega           1e-6
    

    4、下面是log文件的一段,中间那个时间步长连续性也一直没解决。

    PIMPLE: iteration 1
    smoothSolver:  Solving for alpha.water, Initial residual = 0.000122159, Final residual = 6.40432e-11, No Iterations 2
    Phase-1 volume fraction = 0.949927  Min(alpha.water) = 0  Max(alpha.water) = 1.00072
    MULES: Correcting alpha.water
    Phase-1 volume fraction = 0.949927  Min(alpha.water) = -6.32704e-23  Max(alpha.water) = 1.00072
    GAMG:  Solving for p_rgh, Initial residual = 0.966053, Final residual = 0.004155, No Iterations 3
    time step continuity errors : sum local = 2.21621e-05, global = 3.2579e-08, cumulative = -0.00204445
    GAMG:  Solving for p_rgh, Initial residual = 0.967045, Final residual = 2.58939e-07, No Iterations 50
    time step continuity errors : sum local = 1.37846e-09, global = 4.13634e-12, cumulative = -0.00204445
    smoothSolver:  Solving for omega, Initial residual = 0.000115323, Final residual = 2.6647e-06, No Iterations 1
    smoothSolver:  Solving for k, Initial residual = 2.4012e-05, Final residual = 2.34055e-06, No Iterations 6
    ExecutionTime = 35841.2 s  ClockTime = 36002 s
    
    surfaceFieldValue inletFlux write:
        sum(inlet) of rhoPhi = -0.0742279
    
    surfaceFieldValue outletFlux write:
        sum(outlet) of rhoPhi = 0.0741348
    
    Courant Number mean: 0.00867972 max: 1.07575
    Interface Courant Number mean: 0.000872321 max: 1.07575
    deltaT = 6.62197e-08
    Time = 0.0324693
    

    5、核心的话是这样的,Taurus使用batch系统,可以指定需要的node,task,cpu数,内存量以及每个任务task分配的cpu数,task对应分割区域的的数量,每个区域可以分配你需要的cpu数上去算。我分了24份,每一份用4个核算,就是96个核。


  • 有关Openfoam在超算并行运算的问题
    I Irisch

    各位好。我现在有个关于并行运算的问题想求教一下。
    我现在在用interFoam求解器做一个换热器内部除垢过程的模拟。模拟的模型为一个长80 mm,高5 mm的方形管道,其中间有一块以凡士林作为模拟材料的污垢,高为0.5 mm。除垢物质为水,水流速度为1米每秒和3米每秒。先做的是2D模拟。
    现在我和导师画了一个大概600*400的网格给整个管道,然后用decomposePar对网格进行分割以提高运算效率,最后我们把整个算例提交到学校Taurus超算上去做计算。但是提交上去以后发现运算速度并没有特别的提高。最后需要出一个时间长度为近600秒的算例,但是超算上算0.03秒的时间花了5个小时,用了96个核。试了很多种分割网格的办法,横向x轴24等分的做了,现在做的是x轴6份,y轴4份,速度都没有显著的提高。
    不知道有没有谁有过类似的算例经验,能够指出我这中间哪里做的不对需要修改一下?或者有想法或者建议的!做了快3个月了,还是没有办法,有点着急。
    非常感谢各位的帮助!

  • 登录

  • 登录或注册以进行搜索。
  • 第一个帖子
    最后一个帖子
0
  • 最新
  • 版块
  • 东岳流体
  • 随机看[请狂点我]