对于图像分类器的目标检测任务:通常分为目标的类别检测和目标的位置检测
目标的类别检测使用的指标:准确率 预测的结果是类别值,即cat
目标的位置检测使用的指标:欧式距离预测的结果是(x, y, w, h) x和y表示的是左上角的位置,w和h表示的是矩形框的宽和高
目标检测是分类和回归都进行的一种算法
对于位置的回歸而言使用全连接层获得结果的4个输出,使用欧式距离计算损失值
对图像分类器物体进行卷积对卷积后的特征图分开进行计算,一条通路计算回归一条通路计算分类
目标检测的实际操作步骤:
第一步:下载一个已经训练好的目标检测模型参数, 可以是AlexNet, VGG,GoogLeNet
第二步:连接一個新的全连接层用于进行分类和回归任务
第三步:进行实际参数的训练,对于回归任务使用L2损失值,对于分类任务使用softmax计算损失值,将求得的梯度使用梯度下降SGD,来更新w和b参数
第四步:对训练好的模型使用测试数据进行测试
滑动窗口:使用221*221*3的窗口在图像分类器上进荇滑动对每个窗口进行预测,判断哪个窗口存在物体的概率最大 即一张图片的每个窗口都输出一个值
各个模型的分类结果对比, 残差網络将当前层的输入与当前层的输出进行连接,作为下一层的输入因为如果这一层卷积没有用的话,那么在训练的过程中逐渐使得這层的参数为0,这样就不会导致训练结果变差的情况出现因此可以加深网络的深度
NB: 因为softmaxNN看上去是分类,其实是擬合(回归)拟合最大似然。
感知机采用的是形式最简单的梯度
一个批次三张图片,分别得到如下的预测值;而后计算loss
与"另外两个"嘚比较:
典型例子说服你:我们当然prefer后一个,w2
第一步,逻辑回归的损失函数可以是“得分差”当然也可以是其他。
第二步利用“得汾差”来进行梯度下降,进行参数优化
常见有选择两种损失函数,如下:
(1)最小二乘损失函数:
(2)交叉熵损失函数:(正统策畧)
问题:线性梯度下降 vs 随机梯度下降
高维更高的数据:随机梯度下降
具体的损失函数可以通过 loss
参数来设置。 支持以下几种损失函數:
上述中前两个损失函数lazy的它们只有在某个样本违反了margin(间隔)限制才会更新模型参数,这样的训练过程非常有效并且可以应用在稀疏模型上,甚至当使用了L2罚项的时候
penalty="l2"
。L1罚项会导致稀疏的解使大多数稀疏为0。弹性网络解决了当属性高度相关情况下L1罚項的不足参数 l1_ratio
控制 L1 和 L2 罚项的凸组合。
—— 这一选择取决于你的类别之间是否互斥"
对于 类中每个类别二分类器通过判别该类和其它 类来學习。
通过随机梯度下降解线性分类问题