abaqus提取节点应力怎样建立基于节点的表面

概述 简介 主/从方法和隐含假设 定義双面接触概述 定义面的规则 局部表面行为 接触问题中点的相对滑动 接触问题中调整初始节点位置 接触输出 完全约束的接触行为 刚体 简介 什么是接触? 当两个实体接触时力通过它们的接触表面传递。 在某些情况下只传递垂直接触表面的力。 如果存在摩擦沿接触表面的切姠传递切向力。 一般目标: 确定接触面积和传递的应力 接触是严重不连续形式的非线性行为,是一类特殊的不连续约束。 或者施加约束(表面不可以互相穿透)或者忽略约束。 为什么要定义接触 除非用户指定可能会接触的表面和/或节点,abaqus提取节点应力现在还不能检测接觸 接触例子-间隙接触 用节点与节点接触的方式为点接触建模。 赫兹接触 接触面之间的相对位移很小 分布表面的接触。 变形体之间的有限滑动接触 这是最一般类型的接触 例子:螺纹连接。 这些问题一般包含初始的过盈配合 自接触 单个表面与它自身接触称为自接触在abaqus提取节点应力的二维和三维模型中可用。 在分析过中当表面严重变形时,使用自接触将非常方便对于某些问题,在分析之前不可能确定單个的接触区域或者确定接触区域是非常困难的。 把单个接触表面作为接触对定义自接触而不是通过两个不同的表面定义。 变形体与剛体的接触: 表面之间的有限滑动(大位移) 变形组件之间的有限应变。 使用刚体表面减少计算时间 对于两个相互接触的物体如果其中┅个物体比另外的物体刚硬许多,可以将较为刚硬的物体指定为刚体;如金属成型过程中的砧。 abaqus提取节点应力不需要求解刚体的变形 茬参考点,最多利用六个自由度就可以模拟刚体的运动 有三种方法,可以以几何的方式定义刚体表面: 定义解析刚体表面 使用单元类型组合定义刚体(包括刚体单元),并将物体声明为刚体(一般刚体功能) 写用户子程序(RSURFU)定义表面 (只有abaqus提取节点应力/Standard可用)。 主/从方法和隱含假设 因为接触表面下面的实体被离散化接触表面也必须被离散化。 接触表面分为: 主面 从面 abaqus提取节点应力/Standard中使用的严格的主/从接触算法 从属表面的节点不能穿透到主控表面。 主控表面的节点可以穿透到从属表面 在多数情况下,abaqus提取节点应力/Explicit使用平衡的主/从算法 两佽应用单纯的主-从接触算法,并平均化在第二次施加接触约束时,交换主/从表面 使接触物体之间的侵彻达到最小化。 接触方向总是与主控表面垂直 沿主控表面的法向检查接触条件。 沿主控表面的法向传递接触力 沿接触表面的切向传递摩擦力。 定义双面接触概述 定义接触的三个步骤: 在abaqus提取节点应力/Standard中第一个表面为从属表面,第二个表面为主控表面 在abaqus提取节点应力/Explicit中,表面的顺序一般不影响接触計算 定义面的规则 定义面的规则 在变形体或划分网格的刚体上,使用*SURFACE, TYPE=ELEMENT选项定义表面 通过指定单元表面标识符定义表面。 让abaqus提取节点应仂自动确定连续体单元的“自由表面” 使用*SURFACE,

0.1 当代并行计算系统的构架

目前常鼡的并行计算机是对称多处理机(smp)和集群系统(cluster)常见的搭载单颗多核处理器的桌面个人计算机就属于 smp;cluster 是一种通过局域网络将多台计算机连接起来协同工作的并行计算系统,可以用普通个人电脑(PC)、工作站(workstation)或者 smp 来组建 clustersmp 与 cluster 最大的区别在于:smp 中内存地址具有单地址空间,各处理器鈳以平等地调用共享内存、I/O 设备和操作系统等各种资源;cluster 中内存实际分布在各个节点上处理器读取本地节点的内存时数据通过总线传输,延时低处理器读取其它节点的内存时数据通过局域网络传输,延时高smp 支持的最大处理器数一般不超过 10 个[1],因此 smp 只能作为小型的并行計算系统cluster利用局域网络进行处理器间通信的方法虽然能提高并联的处理器数,但也因局域网络的带宽和延时限制了集群的性能目前集群技术适合搭建 100 颗处理器以下级别的并行计算系统[1]。

目前 smp 结构的服务器一般是搭载多核处理器的双路或四路服务器但真正的八路或十六蕗服务器产品非常少见。一些 smp 结构的小型机可以并联更多的处理器但是其价格昂贵,后期维护复杂cluster 可以使用商业化大生产的多路服务器来构建。双路或四路服务器是很好的选择该类服务器价格低廉、性能优异,用来构建 cluster 可以获得很好的性能/价格比所以在科学计算领域,cluster 非常流行在 TOP500 中很大一部分并行计算系统都

此外还有一些阵列处理机、向量处理机,可能不兼容常用的 x86 程序所以应用上具有局限性。目前提出的 GPU 加速技术需要开发新的程序来使用该技术,用在运行商业程序的集群上也不适用

1 基于 abaqus提取节点应力 软件的数值模拟并行計算集群平台的建立

1.1 集群系统的结构

集群中的每台计算机设备都称为集群的节点(node),有时各节点在功能上具有分工那么各节点可以依照功能划分为管理节点、计算节点、I/O 节点等;有时一个节点也可能实现多个功能,例如小型集群可以将 I/O、存储、管理等功能都放在一个节点上这个节点就可以称为主节点。与 smp 相比集群更具有可扩放性:增加集群中处理器数量只需要增加集群的节点。

本文中构建的集群采用机架式设备组建按功能分为四类节点:计算节点、管理节点、存储节点和网络节点。其具体的硬件配置见表 1其拓扑结构图见图 1。图 1 显示叻该集群系统及其主要附属设备除集群各类节点外,电源系统、监视系统和冷却系统也是维持集群正常工作的重要附属设备

每台双 1Gb 以呔网卡,支持链路聚合与巨型帧
双 1Gb 以太网卡支持链路聚合与巨型帧
6 个组的链路聚合,每组最多 4 个端口
支持标准的 9k 巨型帧

图 1 集群系统的结構图

1.2 计算节点的选择

在构建基于 软件并行计算数值模拟集群平台时硬件选择方面如何兼顾显式计算和隐式计算是首先

需要考虑的问题。顯式算法和隐式算法在并行计算性能特性方面有很大的差异显式算法的并行性能好,但是如果模型网格划分很细致,则计算的时步需偠取值很小;隐式计算的并行性能稍差CPU 间通信多,但模型所取的计算时步和网格尺寸都可以大一些时间步长甚至是同类问题显式算法模型的 1000 倍。表 2 总结了隐式算法和显式算法的特点以及对计算机硬件的要求。

表 2 隐式算法与显式算法的特性比较[2]

相对而言内存、I/O 和通信量要少一些
I/O 大、进程通信量
相对而言,系统硬件配置可低一些
宽高、磁盘 I/O 速度

虽然隐式算法的并行计算扩展性差但是可以使用高主频的處理器来加速计算。本集群使计算节点采用高性能计算节点但是配置了较少的节点数,在 CPU 主频和 CPU 个数两个性能参数上取得平衡从而兼顧隐式算法和显示算法。

中央处理器(CPU)是决定计算机性能的核心部件计算机根据 CPU 支持的指令集的差异分为:复杂指令系统计算机(CISC)和精简指囹系统计算机(RISC)。常用的 Intel Xeon 和 AMD Option 处理器隶属于 CISC/IA-32(也称为 x86-64 或 EMT64)构架CISC 的发展历史悠久,可运行于 CISC 上的程序非常丰富该构架下的处理器研发工作

处理器主频低,其 abaqus提取节点应力 计算性能反而不如高频的 x86-64 处理器IBM Power 处理器隶属于 RISC 构架。虽然 RISC 在计算效率上高于 CISC但其相应程序的开发要慢于 CISC。由於 CISC/IA-64 和 RISC 非通用性计算速度相同的处理器产品中 x86-64 的价格最低廉。在 TOP500 中采用 x86-64 处理器的集群所占比例很大

综合考虑计算机软件的通用性、设备價格、设备性能和解决设备故障的难易性,Intel Xeon 或 AMD Option 处理器是很好的选择这两类处理器都属于 64 位处理器,也兼容 32 位程序

判断 x86-64 处理器性能的主偠指标是处理器核心类型、主频、总线带宽(或类似的技术)、缓存容量。但是在

要高于 Intel Xeon 5500 系列处理器所以上述主要指标只是处理器性能的参栲,为 abaqus提取节点应力 集群选择处理器需要做贴近实际运用的测试

1.3 存储节点对计算速度的影响

abaqus提取节点应力 软件在计算中将产生临时文件囷结果文件,这些文件需要存储在磁盘空间上一个集群系统的磁盘空间可能是局部存储类型的,这类空间只允许某一个节点访问;也可能是全局存储类型的这类空间允许所有节点访问。每个节点上装载的硬盘是局部存储但是可以通过网络文件系统(NFS)服务通过局域网络上實现磁盘共享,共享的磁盘空间就是全局存储空间

一般使用局部空间存储临时文件,使用全局空间存储结果文件这主要基于:1. 临时文件读写频繁,存储在读写速度快的局部存储上可以提高计算速度2. 结果文件体积巨大,需要大容量存储器构建全局存储空间的代价要小於构建局部存储空间的代价,同时全局存储空间易于统一管理使用全局空间存储结果文件是经济、易管理的。

在 abaqus提取节点应力 集群使用Φ一般是某节点通过 NFS 服务端程序为所有节点提供共享存储空间。提供共享存储空间有 3 个方法:1. 某管理节点或计算节点共享本地磁盘但昰服务器的硬盘槽位数量有限,更换硬盘操作繁琐; 2. 通过光纤网络将 FC-SAN 挂载到某管理节点或计算节点上然后由管理节点或计算节点操作 FC-SAN 来提供 NFS 服务。但是此时 FC-SAN 上的数据传输将通过光纤网络和集群内部局域网两个网络传输过程复杂、存在传输延时;3. 采用网络附加存储器(NAS)提供 NFS 垺务。NAS 即专门为提供文件服务而优化系统的服务器文件读写性能高。其可以直接连接到集群内部局域网上同时更换硬盘、数据备份、攵件管理也非常方便。

从共享文件管理性、存储容量可扩充性、数据传输速度方面综合考虑可以使用 NAS 为 abaqus提取节点应力 集群系统提供 NFS 服务。

NAS 的处理器、内存都是其性能指标NAS 的另外一个性能指标是其网络性能,如果是以太网络接口其网络带宽、是否支持巨型帧、是否支持鏈路聚合都对 NAS 性能产生影响。在集群使用中可能同时有多个节点要求读写 NAS 上存储的数据NAS 的工作负荷大,其性能将影响到集群系统整体的計算速度

在对 QNAP TS-439 Pro Turbo NAS 和另一款 NAS 产品做对比测试后发现:NAS 的性能对集群系统计算性能影响巨大。另一款 NAS 产品支持 1Gb 以太网络但整体性能参数较低:不支持链路聚合,最大支持 7.5K 巨型帧测试算例使用某一地铁隧道地震效应模型(使用 abaqus提取节点应力/Standard 求解器),同时 NAS 设备开启了所有能够提高網速的功能测试数据见图 2。

A 组-高负荷下使用 NAS 的 abaqus提取节点应力 计算:同时进行 7 个 abaqus提取节点应力 计算任务每个计算使用 4CPU,7 个计算任务都使鼡 NAS 设备来存储共享文件

B 组-低负荷下使用 NAS 的 abaqus提取节点应力 计算:只进行 1 个 abaqus提取节点应力 计算任务,使用 4CPU该计算任务使用 NAS 设备来存储共享攵件。

C 组-不使用 NAS 的 abaqus提取节点应力 计算:只进行 1 个 abaqus提取节点应力 计算任务使用 4CPU,该计算任务不使用 NFS 服务将文件直接存储在本地磁盘上。此种情况是最优情况但调用多个节点并行计算时必需使用 NFS 服务,即在集群构架下最优情况不适用于大型的并行计算

0

图 2 磁盘性能对计算速度的影响

组 TS-439 与 C 组的性能比较证明使用 TS-439 NAS 带来的性能影响可以接受;A、B 组 TS-439 性能比较证明 TS-439 NAS 在高负荷下的性能表现可以接受。但是另一款 NAS 产品带來的性能下降是无法接受的:低负荷下造成计算

abaqus提取节点应力软件可以在泊松比网站下载

声明:该文观点仅代表作者本人搜狐号系信息發布平台,搜狐仅提供信息存储空间服务

内容提示:基于abaqus提取节点应力的鋼结构相贯节点非线性静力分析

文档格式:PDF| 浏览次数:22| 上传日期: 17:45:32| 文档星级:?????

我要回帖

更多关于 abaqus提取节点应力 的文章

 

随机推荐