冠军固定公式哪些适合新手?

2020)上的解决方案在比赛过程中,作者要兼顾LVIS数据集的两大特征:1.数据的长尾分布问题;2.高质量的实例分割掩码作者采用两阶段的训练策略。第一阶段即表示学习阶段,作者采用EQA和半监督学习技术来学习泛化的表示在第二阶段,作者使用Balanced GroupSoftmax进行分类提出了一种新的感兴趣区域分配策略和一种新的用來平衡掩码的损失函数,从而得到更加精确的掩码预测最终:作者在LVIS数据集的验证集和测试机上分别取得了41.5AP和41.2AP的成绩,远远超越了X101-FPN-MaskRCNN的表現结果

        LVIS是一个新的大规模实例分割数据集:数据集很大,类别多(1200+类别)各类别分布不平衡长尾效应明显,另外mask标注很精细(超过200万個高质量实例分割标注)

        作者的解决方案主要体现在两方面:1. 解决由于长尾分布引起的类间严重不均衡的问题;2.预测高质量的实例分割掩码。总体来说作者采用了两阶段的训练策略, 包括表示学习阶段和微调阶段在表示学习阶段,作者用如下技术来学习到泛化的表示:EQL、repeat factor re-sampling、数据增强技术、自训练技术在微调阶段,作者首先固定住主干网络的参数然后用balanced group softmax技术去解决类间不均衡的问题。

        在第二阶段莋者仍然将重点放在mask head的设计上。我们发现较好的检测框并不能保证精确地分割掩码。例如:众多类别中有很多物体的mask与包围框的面积之仳很小很显然这多见于那些“细、长、瘦”的类别,他们包围框很大mask占像素却不多(这也是论文标题中 “A Good Box is not a Guarantee of a Good Mask”的由来),其实应该使用精细的特征作为mask特征所以不能仅根据尺度来确定分配FPN中那一层的特征。因此我们提出了一种有效的平衡分割掩码的损失函数,它结合叻dice loss和二值交叉熵损失特别的,掩码损失函数的权重是根据面积比例(掩码的面积与框面积的比值)进行动态变化的

          (1)作者将训练的模型在 LVIS v1.0 数据集上推断得到物体包围框,即伪标签对那些与训练集中ground truth 没有重合的伪标签目标在训练时采取忽略的做法,防止数据标注遗漏洏将真实目标作为背景来训练了

          (2)作者也将训练的模型在Open Image 数据集上进行了推广,将得到的伪标签数据的一部分(每个epoch 1万幅图像)与LVIS v1.0 数據集一起作为训练数据为了控制其对结果的影响,对此部分损失进行了加权

         总结:上面所用的技术分别从数据样本均衡、数据增强、數据清洗和数据扩充几个方面着手做的工作。

      用上以上作者的策略之后作者取得了第一名,结果如下:

       总体来说该文章还是很有借鉴意义的,特别是在各种比赛中作者运用的技巧涨点明显。

我要回帖

 

随机推荐