完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>
扫一扫,分享给好友
1、YOLOv6中的用Channel-wise Distillation进行的量化感知训练来自哪里
知识蒸馏 (KD)已被证明是一种用于训练紧凑密集预测模型的简单有效的工具。轻量级学生网络通过从大型教师网络转移的额外监督进行训练。大多数先前用于密集预测任务的 KD变体在空间域中对齐来自学生和教师网络的激活图,通常通过标准化每个空间位置上的激活值并最小化逐点和/或成对差异。
与之前的方法不同,这里建议对每个通道的激活图进行归一化以获得Soft概率图。通过简单地最小化两个网络的通道概率图之间的Kullback-Leibler (KL) 散度,蒸馏过程更加关注每个通道的最显著区域,这对于密集预测任务很有价值。
作者对一些密集的预测任务进行了实验,包括语义分割和目标检测。实验表明提出的方法大大优于最先进的蒸馏方法,并且在训练期间需要更少的计算成本。特别是,在COCO 数据集上的 mAP 中将 RetinaNet 检测器(ResNet50 主干)提高了 3.4%,在 Cityscapes 数据集上的 mIoU 中将PSPNet(ResNet18 主干)提高了 5.81%。
原作者:ChaucerG
YOLOv6中的用Channel-wise Distillation进行的量化感知训练来自哪里?.pdf
763.76 KB , 下载次数: 0
发布
飞凌嵌入式-ELFBOARD ADC基础知识分享
832 浏览0 评论
hc32f460串口仅能接收到一个数据
1083 浏览1 评论
如何配置Linux操作系统设备树让我的开发板可以将板子上的GPIO接口用作 I2S输出??
2004 浏览1 评论
EmbeddedButton,嵌入式按键处理框架
1552 浏览0 评论
迅为RK3568核心板桥梁监测设备接口应用
2100 浏览0 评论
德赢Vwin官网 网
德赢Vwin官网 论坛
查看 »
小黑屋|手机版|Archiver|德赢Vwin官网(湘ICP备2023018690号)
GMT+8, 2024-8-22 22:35, Processed in 0.590219 second(s), Total 70, Slave 51 queries .
Powered by德赢Vwin官网 网
© 2015bbs.elecfans.com