在使用线性模型时,如何确定使用哪些交叉特征如何实现

Proe如何使用孔特征之线性孔
线性孔是通过选取一个放置参照和两个偏移参照创建的。
放置参照:基准轴或曲面
偏移参照:基准平面或曲面、边、基准轴
创建线性孔时,徐选择一个平曲面作为放置参照。此平面将确定孔“钻入”模型的起点。然后选取两个偏移参照,以便从尺寸上约束孔特征。可以激活相应的参照收集器,然后在模型中直接选取偏移参照,也可以将绿色的参照控制滑块拖动至所需的参照。
打开配套文件
(2) 从特征工具栏中启动“”,选择如图所示平面作为放置参照①,右键单击,选取“偏移参照收集器”
按住CTRL键选取前部曲面①和基准平面DTM1②,在③处双击,将距离前部曲面的偏移值改为21,在④处双击,将距离基准平面DTM1的偏移值改为0。
将孔直径改为20,深度改为“穿透”。单击“完成特征”。最终效果如下图:
选取零件前表面①,然后从特征工具栏中启动“”。单击操控板按钮“放置”②,打开“放置”上滑面板,单击③处,激活偏移参照收集器。
按住ctrl键选择基准平面DTM1 ①和顶部曲面②,将基准平面DTM1的偏移类型改为对齐③,距离顶部曲面的偏移值改为20
④,更改孔直径为20
单击“完成特征”,最终效果如下:
从特征工具栏中启动“孔工具”,选择前部曲面作为放置参照①。
注意:在创建孔特征时,可以用鼠标直接拖动确定一些参照和数值。如上图,拖动绿色小方块②可设置偏移参照,拖动白色方块③可大致更改孔的外置,拖动④处小方块可设置孔直径,拖动⑤处小方块可设置孔深度。
光标移动到上图②处绿色小方块上,该小方块将会变为黑色,按住左键拖动,如下图,当左边曲面①亮显时松开鼠标左键,该操作即将零件左边曲面作为偏移参照之一。同理,拖动②处小方块至顶部曲面③。
按住Shift键拖动下图①处小方块至Front基准平面,孔深度选项自动改为“到选定的”。将距离顶部曲面和左边曲面的偏移值分别改为30和20,孔直径数值仍为20。
单击“完成特征”,最终效果如下:
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。回归技术,包括、广义线性、、稳健、、ANOVA、反复测量和模型
可用于降维、描述性统计、k-均值聚类、线性回归、逻辑回归和判别分析的大数据算法
单变量和多变量、和马尔可夫链取样器
分布、分散和位置的假设检验,以及最佳、因子和响应面设计的实验设计 (DOE)
和算法,包括 (SVM)、促进式 (boosted) 和袋装 (bagged) 决策树、k-最近邻、朴素贝叶斯 (Na?ve Bayes)、判别分析和高斯过程回归
算法,包括 k-均值、k-中心点、分层聚类、高斯混合和隐马尔可夫模型
贝叶斯优化通过搜索最佳超参数来调整机器学习算法
了解如何使用 MATLAB(R)
中的机器学习工具来解决回归、聚类和分类问题。
使用 Statistics and Machine Learning Toolbox(TM) 执行统计建模和分析。
探索性数据分析
Statistics and Machine Learning Toolbox(TM) 提供多种探查数据的方式:交互式图形的统计绘图、用于聚类分析的算法和用于大型数据集的描述性统计。
交互式图形的统计绘图
Statistics and Machine Learning Toolbox 包含可直观地探查数据的图形和图表。该工具箱增加了
绘图类型,包括、、、、、和。该工具箱还包含用于多元分析的专用图形,包括、、和 。
使用统计图实现多元数据的可视化。
描述性统计
描述性统计使您使用少量密切相关数字即可快速理解和描述潜在的大型数据集。Statistics and Machine Learning Toolbox 包括以下用于计算的函数:
(位置的测量),包括平均值、中值和各种均值
(分布状态的测量),包括区间、方差、标准差,以及平均或中位绝对偏差
线性相关和秩相关(和)
根据得到的结果
使用的密度估算
These functions help you summarize values in a data sample using a few highly relevant numbers.
按原产国家/地区分组的汽车加速数据的箱线图。
重复采样技术
在某些情况下,使用参数化方法对汇总统计执行推理是不可行的。为了应对这些情况,Statistics and Machine Learning Toolbox 提供重复采样技术,包括:
从有或没有替换的数据集中
使用重新取样调查统计分布的非参数化
使用 jackknife 重新取样调查统计分布的
使用非参数化 bootstrap 估计置信区间的
对 LSAT 成绩和法学院 GPA 进行重复采样来考查相关性。
Statistics and Machine Learning Toolbox 提供用于降低数据集维度的算法和函数。降维是数据分析中的重要步骤,因为它能帮助提高模型精度和性能,提高可解释性,防止过度拟合。您可以执行特征变换和,使用可视化技术(如散点图矩阵和经典多维定标)探查变量间的关系。
特征变换(有时称为特征提取)是一种将现有特征变换为新特征(预测元变量)而描述性特征下降较少的一种降维技术。Statistics and Machine Learning Toolbox 中可用的特征变换方法包括:
:当模型术语必须代表非负数量(比如物理量)时使用
:用于通过投影到独特正交基底上汇总维度较少的数据
:用于构建数据关联的解释模型
执行加权主成分分析并解释结果。
是一种只选择建模数据时提供最强预测能力的测量特征子集(预测元变量)的降维技术。在处理高维数据或采集所有特征数据成本高昂时,这种技术非常有用。Statistics and Machine Learning Toolbox 中可用的特征选择方法包括:
逐步回归: 依次增加或删除特征,直到预测精度没有改进为止。可与或广义线性回归算法一起使用。
顺序特征选择: 与逐步回归类似,可与任何算法和定制性能测量一起使用。
促进式和袋装决策树: 利用袋外评估计算变量重要性的封装方法。
(套索和弹性网络):使用收缩估计量,通过将冗余特征权重(系数)减至零消除冗余特征。
为癌症检测选择重要特征。
多元可视化
Statistics and Machine Learning Toolbox 提供可直观地探查多元数据的图形和图表,包括:
散点图矩阵
平行坐标图
Andrews 图
对显示年型如何影响不同汽车变量的散点图矩阵进行分组。
算法使用计算方法直接从数据中“学习”信息,不把预定方程假设为模型。Statistics and Machine Learning Toolbox 提供用于执行和机器学习的方法。
在此网络研讨会上,您将学习如何开始使用机器学习工具,从您的数据集中检测模式并建立预测模型。
使您可以将一个分类应变量建模为一个或多个预测元的函数。Statistics and Machine Learning Toolbox 提供了涵盖多种参数化和非参数化分类算法的应用程序和函数,如:
和,包括 AdaBoost、LogitBoost、GentleBoost 和 RobustBoost
(线性和二次变量)
(二进制和多级分类)
了解如何使用贝叶斯优化查找交叉验证的 SVM 分类器的最佳参数。
分类学习器应用程序
您可以使用应用程序执行常见任务,比如交互式探查数据、选择特征、指定交叉验证方案、训练模型和评估结果。分类学习器应用程序用于使用监督式机器学习来训练模型对数据进行分类。使用它可以执行常见任务,例如:
导入数据和指定交叉验证方案
探索数据和选择特征
使用多种分类算法训练模型
比较和评估模型
在计算机视觉和信号处理等应用场合中共享训练过的模型
分类学习器应用程序用于使用监督式机器学习来训练模型对数据进行分类。
Statistics and Machine Learning Toolbox 包括用于执行聚类分析的算法,通过根据相似度测量对数据分组来发现数据集中的规律。可用的算法包括 、、、和。当不知道聚类的数量时,可以使用根据特定指标确定数据中存在的聚类数量。
了解如何通过检查基因表达数据检测基因表达谱的模式。
非参数化回归
Statistics and Machine Learning Toolbox 还支持非参数化的回归方法,用于在没有指定描述预测元与应变量之间关系的模型的情况下生成准确的拟合。非参数化回归方法在受监督的机器学习下可以更广泛地分类,包括、或,以及。
通过使用 TreeBagger 训练回归树封装来预测保险风险。
回归和方差分析
使用回归方法,可将一个连续应变量建模为一个或多个预测元的函数。Statistics and Machine Learning Toolbox 提供各种回归算法,包括、广义线性模型、和混合效应模型。
线性回归是一种用于描述作为一个或多个预测元变量的连续应变量的统计建模技术。它有助于您理解和预测复杂系统的行为,或者分析实验、金融和生物数据。Statistics and Machine Learning Toolbox 提供多种线性回归模型和拟合方法,包括:
单预测元: 只具有一个预测元的模型
多预测元: 具有多个预测元的模型
多元: 具有多个应变量的模型
稳健: 存在偏值的模型
逐步: 具有自动变量选择的模型
规则化: 使用、和算法能够处理冗余预测元和防止过度拟合的模型
了解如何在有相关数据的情况下生成准确的拟合。
非线性回归
是一种有助于描述实验数据中非线性关系的统计建模技术。通常将非线性回归模型假设为参数模型,将该模型称为非线性方程。Statistics and Machine Learning Toolbox 还提供,用于处理数据中的异常值。
使用诊断、残差和滑动图,借助诊断图来检查拟合非线性模型。
广义线性模型
广义线性模型是使用线性方法的非线性模型的一种特殊情况。这种模型允许应变量有非正态分布和描述响应预期值与线性预测元相关情况的连接函数。Statistics and Machine Learning Toolbox 支持利用以下响应分布的拟合广义线性模型:
二项式(逻辑或概率单位回归)
使用 glmfit
和 glmval 拟合和评估广义线性模型
混合效应模型
对于按组采集和汇总的数据,线性与非线性混合效应模型是线性与非线性模型的一般化。这些模型描述了一个应变量与多个自变量之间的关系,系数可能随一个或多个分组变量而变化。Statistics and Machine Learning Toolbox 支持拟合具有嵌套和/或交叉随机效应的多极或层次、线性、非线性和广义线性混合效应模型,可用于进行各种研究,包括:
纵向分析或
拟合和评估混合效应模型。
Statistics and Machine Learning Toolbox 使您能使用统计显著性和拟合优度测量的测试对回归算法进行模型评估,比如:
F-统计量和 t-统计量
R2&和调整后的 R2
交叉验证的均方误差
赤池信息准则 (AIC) 和贝叶斯信息准则 (BIC)
您可以计算回归系数和预测值的置信区间。
方差分析 (ANOVA) 使您能够将样本方差指定给不同的资源,然后确定在不同的群体组内或组间是否产生方差。Statistics and Machine Learning Toolbox 包含以下 ANOVA 算法和相关方法:
用于平衡数据的
用于平衡数据和非平衡数据的
非参数化的单因素和两因素 ANOVA( 和 )
使用 1970 年和 1982 年之间制造的 406 辆汽车上的里程表和其他信息,对汽车数据执行多因素 ANOVA。
Statistics and Machine Learning Toolbox 提供使用参数化和非参数化概率分布的函数和应用程序。利用这些工具,您可以拟合,使用来评估拟合优度,计算概率密度函数和累积分布函数,并根据概率分布生成随机数和拟随机数。
该工具箱使您能够计算、拟合、生成随机数和拟随机数字流,并评估 的拟合优度,其中包括:
(样本为整数值)
(样本为实数值)
(样本为向量值)
将分布情况与数据拟合
通过 ,可使用预定义的单变量概率分布、非参数化(核平滑)估算法或自己定义的自定义分布来拟合数据。本应用程序支持完整的数据和经检查的(可靠性)数据。您可以排除数据、保存及加载会话,以及生成 MATLAB 代码。您还可以在命令行评估分布参数,或构建与管理参数对应的概率分布。
使用 Distribution Fitting 应用程序交互式地将概率分布与数据拟合。
评估拟合优度
Statistics and Machine Learning Toolbox 提供评估数据集如何合理匹配特定分布的统计图。该工具箱包括用于多种标准分布的概率图,包括正态、指数、极值、对数正态、瑞利和威布尔。您可以利用完整的数据集和经检查的数据集生成概率图。此外,您还可以使用分位数–分位数图来评估一个给定的分布与标准正态分布的匹配程度。
Statistics and Machine Learning Toolbox 还提供假设检验,以确定数据集是否与不同的概率分布相一致。具体分布检验包括:
Anderson-Darling 检验
单边和双边 Kolmogorov-Smirnov 检验
Chi-square 拟合优度检验
Lilliefors 检验
Ansari-Bradley 检验
Jarque-Bera 检验
Durbin-Watson 检验
对截短的、加权的或双模数据进行最大似然估计
生成随机数字
该工具箱提供利用概率分布生成伪随机和拟随机数字流的函数。您可以通过应用随机方法从拟合的或构建的概率分布中生成。Statistics and Machine Learning Toolbox 还提供具有以下功能的函数:
利用多元分布(如 t、normal、copulas 以及 Wishart)生成随机样本
从有限群体中采样
执行拉丁超立方体采样
从 Pearson 和 Johnson 系统分布中生成样本
您还可以生成。拟随机数字流从单位超立方中产生高度统一的样本。拟随机数字流通常可以加速 ,因为实现完全覆盖需要的样本较少。
当变量间存在复杂的关系时,或各个变量来自不同的分布时,使用相关结构可从多元分布生成数据。
假设检验、实验设计和统计过程控制
随机变化可让人难以确定在不同条件下取得的样本是否真正不同。假设检验是一个有效的工具,可用来分析样本间差异是否极大,是否需要进一步评估,或者是否与随机和预期的数据变化一致。
Statistics and Machine Learning Toolbox 支持广泛使用的参数化和非参数化的假设检验程序,包括:
一个样本和两个样本&t 检验
用于一个样本、成对样本和两个独立样本的非参数检验
分布检验(Chi-square、Jarque-Bera、Lilliefors 和 Kolmogorov-Smirnov)
分布比较(双样本 Kolmogorov-Smirnov)
自相关和随机性检验
回归系数的线性假设检验
计算假设检验所需的样本大小。
实验设计 (DOE)
您可以使用 Statistics and Machine Learning Toolbox 来定义、分析和可视化自定义的实验设计 (DOE)。DOE 函数可以让您创建和测试实际计划以收集用于统计建模的数据。这些计划可展示如何先后处理数据输入,以生成其对数据输出所产生影响的信息。支持的设计类型包括:
响应面(中心组合和 Box-Behnken)
拉丁超立方
例如,您可以使用 ANOVA、线性回归和响应面建模估计输入效果和输入交互,并通过主效果图、交互图和多元图表可视化结果。
生成中心组合设计和 Box-Behnken 设计。
统计过程控制
Statistics and Machine Learning Toolbox 提供了一组可支持统计过程控制的函数 (SPC)。利用这些函数,可通过评估流程可变性监控和改进产品或流程。通过 SPC 函数,您可以:
执行可重复性和可再现性研究
估计流程功能
创建控制图
将 Western Electric 和 Nelson 控制规则应用到控制图数据
使用控制图实现发动机风扇冷却过程的控制限的可视化。
大数据、并行计算和代码生成
将 MATLAB 工具与 Statistics and Machine Learning Toolbox 配合使用,可以执行需要大量计算的数据密集型的统计分析。
您可以将该工具箱的多个函数与和配合使用,对具有任意行数的超出内存的数据应用统计和机器学习函数。这让您能够使用熟悉的 MATLAB 代码处理本地磁盘上的大型数据集。您还可以使用
部署相同的 MATLAB 代码,在诸如 Hadoop(R) 等大数据环境中操作。
请参阅该工具箱说明文档,获得的完整列表。
根据若干变量预测航班离港延误。
Statistics and Machine Learning Toolbox 与& 结合使用,可以加快统计计算速度,包括:
等重复采样技术
决策树促进和
和聚类算法
Monte Carlo 仿真
请参阅该工具箱说明文档,获得的完整列表。
并行使用 TreeBagger 对汽车进口运行保险风险评级的回归分析。
C 代码生成
该工具箱可以与
结合使用,为分类、回归、聚类、描述性统计和概率分布等优选函数生成可移植且可读性强的 C 代码。使用生成的代码,可以将统计和机器学习运用于:
嵌入式系统开发
与其他软件集成
加速计算密集型 MATLAB 代码
为 MATLAB 函数生成 C 代码,根据以往噪点测量估算运动对象的位置。
Select Your Country
Choose your country to get translated content where available and see local events and offers. Based on
your location, we recommend that you select: .
You can also select a location from the following list:
(Fran?ais)
(Italiano)
Switzerland
Asia Pacific
(简体中文)

我要回帖

更多关于 机器学习 交叉特征 的文章

 

随机推荐