SGD分类器只能用于图像分类器吗

对于图像分类器的目标检测任务:通常分为目标的类别检测和目标的位置检测

目标的类别检测使用的指标:准确率 预测的结果是类别值,即cat

目标的位置检测使用的指标:欧式距离预测的结果是(x, y, w, h) x和y表示的是左上角的位置,w和h表示的是矩形框的宽和高

目标检测是分类和回归都进行的一种算法

对于位置的回歸而言使用全连接层获得结果的4个输出,使用欧式距离计算损失值

对图像分类器物体进行卷积对卷积后的特征图分开进行计算,一条通路计算回归一条通路计算分类

目标检测的实际操作步骤:

第一步:下载一个已经训练好的目标检测模型参数, 可以是AlexNet, VGG,GoogLeNet

第二步:连接一個新的全连接层用于进行分类和回归任务

第三步:进行实际参数的训练,对于回归任务使用L2损失值,对于分类任务使用softmax计算损失值,将求得的梯度使用梯度下降SGD,来更新w和b参数

第四步:对训练好的模型使用测试数据进行测试

滑动窗口:使用221*221*3的窗口在图像分类器上进荇滑动对每个窗口进行预测,判断哪个窗口存在物体的概率最大 即一张图片的每个窗口都输出一个值

各个模型的分类结果对比, 残差網络将当前层的输入与当前层的输出进行连接,作为下一层的输入因为如果这一层卷积没有用的话,那么在训练的过程中逐渐使得這层的参数为0,这样就不会导致训练结果变差的情况出现因此可以加深网络的深度

NB: 因为softmaxNN看上去是分类,其实是擬合(回归)拟合最大似然。

感知机采用的是形式最简单的梯度

一个批次三张图片,分别得到如下的预测值;而后计算loss

与"另外两个"嘚比较:

典型例子说服你:我们当然prefer后一个,w

第一步,逻辑回归的损失函数可以是“得分差”当然也可以是其他。

第二步利用“得汾差”来进行梯度下降,进行参数优化

常见有选择两种损失函数,如下:

(1)最小二乘损失函数:

(2)交叉熵损失函数:(正统策畧)

问题:线性梯度下降 vs 随机梯度下降

高维更高的数据:随机梯度下降

具体的损失函数可以通过 loss 参数来设置。 支持以下几种损失函數:

上述中前两个损失函数lazy的它们只有在某个样本违反了margin(间隔)限制才会更新模型参数,这样的训练过程非常有效并且可以应用在稀疏模型上,甚至当使用了L2罚项的时候

默认的设置是 penalty="l2"。L1罚项会导致稀疏的解使大多数稀疏为0。弹性网络解决了当属性高度相关情况下L1罚項的不足参数 l1_ratio 控制 L1 和 L2 罚项的凸组合。

—— 这一选择取决于你的类别之间是否互斥"

对于  类中每个类别二分类器通过判别该类和其它  类来學习。

通过随机梯度下降解线性分类问题

我要回帖

更多关于 图像分类器 的文章

 

随机推荐