@喂兔子的胡萝卜 PM?
hurricane007
帖子
-
-
@CFDngu 我在想是不是这个多少核的加速比最大和网格数量也有关。感觉是这个网格数量下,80核恰好能用满内存带宽。之前东岳兄提到过单路32核最快,会不会也是测试的网格数量某种程度恰好吃满内存带宽了,所以单个刀片加核数就卡在通讯那儿了……
-
@hurricane007 感谢! 我写清楚点私信你?
-
@李东岳 想知道加特林效果怎么样
-
@文昌鱼 这个好!!!
-
@李东岳 5K保守了,应该5500应该是稳的
-
RT,我们组招个热动或者化工类似背景的博后,工资SGD5000+,要求有CFD背景(ANSYS或者OF都均可),也理解传热传质的基本原理(我想热动或者化工的本科加上后面做CFD的应该都没问题),主要做结构化反应器的传热、传质和反应的模拟、设计等工作。
具体要求参见链接:https://ntu.wd3.myworkdayjobs.com/en-US/Careers/job/Research-Fellow--Chemical-Reactor-Engineering-_R00014083
如果有问题的话可以加我的微信先聊下:a511659516 -
RT,要求有CFD背景,ANSYS或者OFD都可以。
如果东岳兄允许的话我把链接贴上来。 -
@shrine 回“主要是穷……”
-
@孙智勇 格拉茨大学他们搞的那个CFD-DEM, 好像是ligggts,用LAMMPS处理颗粒跟踪的,据说可以搞不同的颗粒形状。你可以看看他们最近还有没有继续搞
-
昨天在一个大佬的文章里面看到这么一句 “At an even coarser scale, it is common to adopt an Euler–Euler (EE) approach consisting of separate Eulerian transport equations for the locally averaged variables of both the gas and solid phases (6, 16–18). This approach, commonly referred to as a two-fluid model (TFM), ......”
出自 Sundaresan, Sankaran, Ali Ozel, and Jari Kolehmainen. "Toward constitutive models for momentum, species, and energy transport in gas–particle flows." Annual review of chemical and biomolecular engineering 9 (2018): 61-81. https://www.annualreviews.org/doi/10.1146/annurev-chembioeng-060817-084025 -
@ibelief 可能还没自由到投资CFD 软件的钱等于早饭钱
-
@李东岳 那只能祝李博早日财富自由,就可以自主投资了!
-
@五好青年 sorry 回错人了……
-
@五好青年 哎,我看2月28号不是还在招人吗……怎么突然就黄了?
-
@下里巴人 看到这个帖子想起我之前做那个流化床模拟,加了跟管子就死活不收敛了,估计和你这个一样的问题。
话说有尺度差异的时候出来的这个网格好呆……明明圆形的楞给画成多边形了。
我想起Gmsh他们组最近有个博士答辩的东西就是做curve mesh的,不知道能不能用在计算上了。。 -
好像这货是24C 48T的……
说起来windows的内存管理我一直很不爽,因为他老是不让我用完内存…… -
@韬智tz 看了下你的回复,非常建议你去系统的学习一下tutorials,至少学习下OpenFOAM或者Fluent的基础操作再开始做计算
-
@hxy970122 扫了一眼Fluent的组分输运方程,对于各个组分就没有重力的影响,所以如果组分分离就肯定是因为扩散率不同。但是在binary mixture里面,似乎两个组分的扩散系数是相同的?
重力的影响是在质量方程和动量方程里面,所以就是所有组分受到的重力作用是平均重力……
-
@cccrrryyy 燃烧的时候是不是燃烧热导致的密度差导致火焰长度的差别啊
@hxy970122 话说用分子量差来做重力筛分我好像还是第一次听说…… 对于一个双组份混合气体的体系,实现重力分离的物理机制是什么呢?然后在模型里面哪些项是考虑这些物理机制的呢?
BTW,如果一个均匀混合的H2/CO进入一个空腔以后某种程度分离了,是不是有点熵减的意思了,让我想到麦克斯韦妖…… -
@韬智tz 不会。你要4个面你要自己去投影过去,但是因为是对称的所以一眼就能看出来了,所以不推荐这么干。另外我记得论坛里面讨论过对称几何计算出不对称的结果,你可以搜下之前那个帖子
-
@田畔的风 我记得几年前我玩过CFDEM,的确DPMFoam慢,最重要的是那个东西安装挺费劲,语法也和OF不一样。
MPPIC属于1.5欧拉了…… -
我记得是面用对称 symmetric,但是如果有中心轴好像是另外一个边界
-
@zhe 好久没来了才看到回复,感谢!!
-
@李梦瑶 话说你最后有没有搞定这个cellZoneInjection啊,能不能给个模板啊
-
我记得我有段时间算流化床,卡住的原因是连接处的网格问题,就像你这个小管子和大管子连接处,有没有做过渡啊。。。如果太尖锐了就可能卡住的。。。
-
@yupeng 具体我也不记得了,反正应该是个常规操作,搜一下应该就有的
-
@yupeng 似乎还有个简单的做法,就是把D盘某个文件夹mnt到WSL下面成一个文件夹类似的,然后东西就都存那个文件夹下就好了。。
-
@liujuncfd 燃烧的话,考虑下化学反应时间尺度和流动时间尺度不同的问题? 我记得又用split solver的做法,但是不知道你用的软件有没有。。。 不过如果是算化学反应的话本来就慢,毕竟化学反应一般都会导致刚性很强。。。
-
@刘雄国 哈哈哈好没事,反正看得懂的。嗯应该是进程。
MPI或者OpenMP并不影响这个问题,反正都是两边交流信息,所以其实影响这个问题的是第二个。如果离散相分数很低,考虑单向耦合,或者二向耦合(连续相->离散相,离散相->离散相),那么可以把离散相和连续相分开,因为只需要把所有的连续相的流动汇总,并加给离散相就好了。
如果是四向耦合,是不是大概这样:- 如果在每个时间步骤,用一个进程把所有的流场信息都集中起来供其他颗粒跟踪的进程去访问,并且还需要把所有的离散相信息汇总给连续相,那么通信量太大了。
- 即使把每个进程跟踪的颗粒都加上label,只定点访问某些进程的信息,似乎通信量也还挺大问题。
- 如果把流场的作为主进程,跟踪颗粒的作为slave进程,如果这个master/slave比是定的,那么也是之前的那个效率问题。
-
现在E-L方法中,在多线程计算的情况下,同一个线程需要计算连续相和离散相,但是在颗粒分布极度不均匀的时候就会产生每个线程所需要的计算时间完全不同的情况。既然连续相和离散相也是依次计算,那么有没有一种办法把两个东西分开呢?打个比方说,某个求解器,计算区域分为4块,4个线程来计算,然后用16个线程进行颗粒跟踪,每个线程分配的颗粒数量大致相当,两边再耦合。
如果有这种求解器的话,求指点一下,如果不能的话,求讨论一下为啥不能 -
@李梦瑶 Goldschimidt 算例里面, constant/kinematicCloudPositions,里面你能看一行一行的括号,里面有三个数字,就是每个颗粒的坐标,把这堆东西都删掉,换成你自己需要的就可以了。当然,40万颗粒的话,找个别的语言, Julia/Python/Matlab等来写个小代码生成、输出一个颗粒的位置信息的文本比较好。
-
@hurricane007 脑残了,之前写错地方了。现在找到了
-
@zhangxc0223 问下。。。他是写在哪个文件夹里面的啊。。。我怎么用了这个utility 么看到写入的东西
-
这个真的是大佬了!
-
@白礼耕 我记得theta() 是欧拉相或者拉格朗日相的分数?如果这个大于1应该就是越界了,理论上说DPM应该不至于超1,但是MPPIC容易超1是真的。还是我记错了这个是两者的比例?
@yfclark 在 拉格朗日粒子追踪死循环 中说:
@白礼耕 感谢回复,网格和粒子直径比确实小,最小比例为5,
然后网格粒子大小比是5应该问题不大的啊
-
@红豆沙 并没有。。。我们这边很神奇,几个学校的cluster是共享的,有各种CPU,5118,6142,EPYC 7501什么乱七八糟的,还有V100加速卡,然而我自己实验室给的一台破E5450,自己买了台Y540 打游戏。。。
-
@红豆沙 6核能跑59.8/165 , 12核是48/153,真是猛,我的9750H 用6核跑出来的是 74/251。看来笔记本U真不是降频这么简单,难道连浮点单元也砍了???
不过喂饱的问题,我在服务器上试了下,感觉6核还是喂不满的,12核和24核比6核都有很大提升
snappyHexMesh, 6C: 99.52 s;12C: 71.93 s;24C: 59.36s
simpleFoam,6C: 237 s;12C: 158 s;24C:86s,
然后想了下3900X的构架,12C分别在两个CCX上,应该是1个CCX 6个核心,如果就跑6C估计就正好分配给一个CCX上的单元所以更快,如果12C了,中间靠I/O核心通信,估计这个延迟会大一些?或者是因为超线程没关所以部分还在超线程的上面跑(类似并不是所有物理核心都被利用起来了,这种情况关掉超线程应该能提高)?或者因为AMD刚出来的时候驱动优化还不够?因为我之前看到过说Win10和 AMD两个通信好像有点问题导致某些东西没能运行在最快的核心上,你有没有装新的驱动再试试?
我倒是觉得对这个计算来说,内存通信和IF通信都不应该是瓶颈,毕竟网格数量还是比较少的。。。 -
-
@熊咔咔 是 parcel track啊
-
@熊咔咔 我大概回答一下,如果不对期待大家指出
OpenFOAM里面是把particle打包在parcel里面了的,但是如果 1 particle/parcel 就和particle没有本质区别。
parcel是一个打包的概念,把多个性质差不多的颗粒打包成一个来追踪,减少计算量,其直径是等效直径,比如 n particles/parcel, 直径是 (nd)^(1/3),但是particle force 是 nF。正常来讲最大n particles/ parcel 的这个n应该是小于最小cluster包含颗粒数量。如果原先用1particle/parcel 计算需要的时间是T,用parcel 的 n particles/parcel,假设总颗粒数量是 N,那么追踪的parcel数量减少到N/n,需要的时间可以粗略估计为是 T*(n/N)^0.5 -
@东岳 对,我那个5118是学校的计算集群,我记得我在哪儿看到过说这堆集群都是把超线程关了的,所以不可能使用的线程数量超过物理核心数量;然后睿频的话,应该是说如果你不关他,他默认是开的,但学校集群可能是关了的,你的如果是自己用应该是开着的,就是说如果睿频开着的,CPU温度和功率不超过他的限值的时候他可以运行在更高的频率上。比如你的5120 是14cores 28 threads 2.2G, 但是如果散热比较好功耗不超过某个限制的时候,他是可以整体跑在更高的频率上,这就能更快。
话说我觉得最惊奇的是我的9750H跑6线程居然比服务器CPU慢这么多,理论上说不过去啊,因为我看到跑的时候主频都跑到4G了,服务器才2.3G。得研究一下构架了 -
@东岳 我在想会不会是如果开了睿频的U会快一些,但是有的cluster 为了稳定性把超线程和睿频都关了,所以就会更慢一些。不知道你测的5120是开了睿频还是关了的
-
@hurricane007 在 OpenFOAM并行测试 中说:
今天终于想起把鸽了这么久的事情干了一下了,今天测试的是5118 2.3G. OpenFOAM 4.1
因为是服务器,所以先运行了surfaceFeatureExtract,blockMesh, decomposePar 以后,再用slurm 分别提交snappyHexMesh 和simpleFoam,运行完snappyHexMesh 以后把Allrun里面的这两行也运行一下再提交patchSummary, potentialFoam 和simpleFoam。不过是log文件里面是分别计时的,所以应该没影响。ls -d processor* | xargs -I {} rm -rf ./{}/0 ls -d processor* | xargs -I {} cp -r 0.orig ./{}/0
snappyHexMesh
6C: 99.52 s
12C: 71.93 s
24C: 59.36s
simpleFoam
6C: 237 s
12C: 158 s
24C simpleFoam 时间是86s, 基本符合预期换了个1812的OF来测了下,5118的U, snappyHexMesh 测出 83s,simpleFoam 测出190s,难道新版本有加成?
-
然后我又测试了另外一个cluster,CPU 是 6142 2.6G。因为这个机器不是给MPI并行用的,所以nodes 之间的通信不是很好。但是一个node 有两块16C的CPU,应该也不影响,最多也测到了24核,结果如下。12C的snappyHexMesh结果很奇怪,simpleFoam结果还算正常,但是提交到任务序列算都比之前直接在登陆节点算要慢,不知道为什么。
snappyHexMesh:
6C: 80.8s
12C:165.37s (这个数据有问题,不知道怎么回事)
24C:36.24s
simpleFoam
6C: 163s
12C:112s
24C:60s -
@东岳 对,我看了下你测试的,感觉这个差这么多不正常啊。我改天再试一下看。
BTW,我一样的办法换到6142上面,simpleFoam 跑了163s,比利时CECI这对电脑怎么回事 -
@东岳 估计是吃亏在主频比较低
-
@东岳 对的,感觉时间好长。。。
我们组招聘Research Fellow (博后)坐标新加坡NTU
200万网格并行算力测试(OpenFOAM版本)
我们组招聘Research Fellow (博后)坐标新加坡NTU
如何从一个图上后处理出周期?鼓泡床直接模拟
200万网格并行算力测试(OpenFOAM版本)
我们组招聘Research Fellow (博后)坐标新加坡NTU
我们组招聘Research Fellow (博后)坐标新加坡NTU
能发个招聘贴吗?南洋理工招个博后
大佬们这句该怎么礼貌而又得体的喷死他
求解颗粒沉降的方法选择问题
想起东岳兄那篇关于TFM的公众号文章
我要做自己的CFD软件,有生之年,跟商软来一次硬刚!
我要做自己的CFD软件,有生之年,跟商软来一次硬刚!
我要做自己的CFD软件,有生之年,跟商软来一次硬刚!
我要做自己的CFD软件,有生之年,跟商软来一次硬刚!
两个相切的圆如何进行关联
fluent多开分配计算资源
除了并行计算,还有什么能够提高运算效率。
能否通过重力扩散实现多组分气体的分层?
能否通过重力扩散实现多组分气体的分层?
除了并行计算,还有什么能够提高运算效率。
DPMFoam、MPPICFoam以及CFDEM怎么选择?
除了并行计算,还有什么能够提高运算效率。
使用MPPICFoam计算时,颗粒初始位置此文件如何建立?
使用MPPICFoam计算时,颗粒初始位置此文件如何建立?
使用MPPICFoam计算时,颗粒初始位置此文件如何建立?
用rhoPimpleFoam计算T型管冷热流混合,计算几步就停掉
利用wsl2在非系统盘中安装Ubuntu20.04并安装图形界面和配置OpenFOAM
利用wsl2在非系统盘中安装Ubuntu20.04并安装图形界面和配置OpenFOAM
为什么机器算的很慢?
欧拉-拉格朗日方法,用不同的线程来进行流场计算和颗粒跟踪
欧拉-拉格朗日方法,用不同的线程来进行流场计算和颗粒跟踪
使用MPPICFoam计算时,颗粒初始位置此文件如何建立?
Euler-Lagrangian求解算例中,怎么得到单个颗粒的在计算区域的停留时间?
Euler-Lagrangian求解算例中,怎么得到单个颗粒的在计算区域的停留时间?
ThermoMPPICFoam
拉格朗日粒子追踪死循环
AMD 新CPU好像测试结果还不错啊
AMD 新CPU好像测试结果还不错啊
DEM和DPM
DEM和DPM
DEM和DPM
OpenFOAM并行测试
OpenFOAM并行测试
OpenFOAM并行测试
OpenFOAM并行测试
OpenFOAM并行测试
OpenFOAM并行测试
OpenFOAM并行测试