lass测试题分数6分,22岁,我的待遇应该...

更多频道内容在这里查看
爱奇艺用户将能永久保存播放记录
过滤短视频
暂无长视频(电视剧、纪录片、动漫、综艺、电影)播放记录,
按住视频可进行拖动
&正在加载...
举报视频:
举报原因(必填):
请说明举报原因(300字以内):
请输入您的反馈
举报理由需要输入300字以内
感谢您的反馈~
请勿重复举报~
请刷新重试~
收藏成功,可进入
查看所有收藏列表
当前浏览器仅支持手动复制代码
视频地址:
flash地址:
html代码:
通用代码:
通用代码可同时支持电脑和移动设备的分享播放
用爱奇艺APP或微信扫一扫,在手机上继续观看
当前播放时间:
一键下载至手机
限爱奇艺安卓6.0以上版本
使用微信扫一扫,扫描左侧二维码,下载爱奇艺移动APP
其他安装方式:手机浏览器输入短链接http://71.am/udn
下载安装包到本机:
设备搜寻中...
请确保您要连接的设备(仅限安卓)登录了同一爱奇艺账号 且安装并开启不低于V6.0以上版本的爱奇艺客户端
连接失败!
请确保您要连接的设备(仅限安卓)登录了同一爱奇艺账号 且安装并开启不低于V6.0以上版本的爱奇艺客户端
部安卓(Android)设备,请点击进行选择
请您在手机端下载爱奇艺移动APP(仅支持安卓客户端)
使用微信扫一扫,下载爱奇艺移动APP
其他安装方式:手机浏览器输入短链接http://71.am/udn
下载安装包到本机:
爱奇艺云推送
请您在手机端登录爱奇艺移动APP(仅支持安卓客户端)
使用微信扫一扫,下载爱奇艺移动APP
180秒后更新
打开爱奇艺移动APP,点击“我的-扫一扫”,扫描左侧二维码进行登录
没有安装爱奇艺视频最新客户端?
22岁女子嫁给60岁老汉,还生了一个女儿
正在检测客户端...
您尚未安装客户端,正在为您下载...安装完成后点击按钮即可下载
30秒后自动关闭
22岁女子嫁给60岁老汉,还生了一个女儿">22岁女子嫁给60岁老汉,还生了一个女儿
请选择打赏金额:
播放量12.7万
播放量数据:快去看看谁在和你一起看视频吧~
更多数据:
热门短视频推荐
Copyright (C) 2018 & All Rights Reserved
您使用浏览器不支持直接复制的功能,建议您使用Ctrl+C或右键全选进行地址复制
正在为您下载爱奇艺客户端安装后即可快速下载海量视频
正在为您下载爱奇艺客户端安装后即可免费观看1080P视频
&li data-elem="tabtitle" data-seq="{{seq}}"& &a href="javascript:void(0);"& &span>{{start}}-{{end}}&/span& &/a& &/li&
&li data-downloadSelect-elem="item" data-downloadSelect-selected="false" data-downloadSelect-tvid="{{tvid}}"& &a href="javascript:void(0);"&{{pd}}&/a&
选择您要下载的《
后才可以领取积分哦~
每观看视频30分钟
+{{data.viewScore}}分
{{data.viewCount}}/3
{{if data.viewCount && data.viewCount != "0" && data.viewCount != "1" && data.viewCount != "2" }}
访问泡泡首页
+{{data.rewardScore}}分
{{if data.rewardCount && data.rewardCount != 0 && data.getRewardDayCount != 0}}1{{else}}0{{/if}}/1
{{if data.rewardCount && data.rewardCount != 0 && data.getRewardDayCount != 0}}
+{{data.signScore}}分
{{data.signCount}}/1
{{if data.signCount && data.signCount != 0}}
色情低俗内容
血腥暴力内容
广告或欺诈内容
侵犯了我的权力
还可以输入
您使用浏览器不支持直接复制的功能,建议您使用Ctrl+C或右键全选进行地址复制&p&读网络小说到现在差不多十年了,以下很多书都是看过不止一遍的,&b&因为其具有开创性和经典的特性,书荒的时候会反复阅读&/b&,所以写了一篇长文,枚举了一些之前看过的,算是推推书吧。如果你你有更好的,欢迎交流,排名不分先后,聊到哪儿是哪儿,随缘更新。&/p&&p&&b&这18本书,我已经帮有兴趣的朋友整理成大礼包,放在文末讲!&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-eba68ceb4ab2e155e797a84b39edf5a8_b.jpg& data-size=&normal& data-rawwidth=&930& data-rawheight=&527& class=&origin_image zh-lightbox-thumb& width=&930& data-original=&https://pic4.zhimg.com/50/v2-eba68ceb4ab2e155e797a84b39edf5a8_r.jpg&&&figcaption&这是我总结的部分书单&/figcaption&&/figure&&p&&b&--文末有福利哦!--&/b&&/p&&p&因为各个类型都有很多经典,这里就选代表性的介绍下。&/p&&h2&&b&1.无限流:&/b&&/h2&&p&&b&《无限恐怖》&/b&--zhttty&b&(&/b&开山之作,&b&重推)、《王牌进化》&/b&--卷土、&b&《惊悚乐园》-&/b&-三天两觉&/p&&p&&br&&/p&&p&&b&《无限恐怖》&/b&是一本关于闯关和进化类型的小说,角色们从现实世界穿越到恐怖电影里,只有存活下来才能回到安全区,在安全区可以用你在电影里完成任务挣到的奖励换取任何体验,安全区时间一到就会被传送到下一部恐怖电影里,而这部电影之后是生存还是毁灭,没有人能知道。对未知死亡的恐惧,森林法则下的弱肉强食,末日危机的人性本态,其实都只是为了活下去。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-bcb446dc54ba18cd1185c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&756& data-rawheight=&306& class=&origin_image zh-lightbox-thumb& width=&756& data-original=&https://pic2.zhimg.com/50/v2-bcb446dc54ba18cd1185c_r.jpg&&&/figure&&p&&br&&/p&&p&&b&评价:&/b&&/p&&p&机缘巧合下看到这本小说,一口气读完,真是又紧张,又刺激啊,作者的文笔水平其实很一般,但是剧情思路开创了以在恐怖电影中求生进化的先河,为其他作者写无限流奠定了基础,所以也就出现了《王牌进化》、《惊悚乐园》等经典作品。&/p&&p&&br&&/p&&p&&b&豆瓣书评:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/2221889/& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&/2221889/&/span&&span class=&ellipsis&&&/span&&/a&&h2&&b&2.卡片流:&/b&&/h2&&p&&b&《卡徒》--&/b&方想(开山之作)&/p&&p&&br&&/p&&p&&b&《卡徒》&/b&讲的是一个新幻想时代的传奇故事,一段我为卡狂的激情岁月。在一个几乎以卡片为核心的联邦世界里,卡片级别的高低和力量的大小代表着一个人的地位、财富和荣誉,所有人都以拥有一张高级卡片或力量强大的卡片为荣。主角通过制作卡片演绎了一个从弱小到强大、从孤独求生到兄弟合作再到团队运营的传奇故事。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-a68a6debbdde2c90fd13f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&710& data-rawheight=&260& class=&origin_image zh-lightbox-thumb& width=&710& data-original=&https://pic3.zhimg.com/50/v2-a68a6debbdde2c90fd13f_r.jpg&&&/figure&&p&&br&&/p&&p&&b&评价:&/b&&/p&&p&这本书卡片功能有点像小时候看过电视《游戏王》,不同之处在于这里设定的是卡片为能量来源,更多的讲的是卡片的制作过程,材料收集,纹路描绘,剧情反转等等,给人耳目一新的感受。&/p&&p&&br&&/p&&p&&b&豆瓣书评:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/3810025/& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&/3810025/&/span&&span class=&ellipsis&&&/span&&/a&&h2&&b&3.机甲流:&/b&&/h2&&p&&b&《师士传说》-&/b&方想、&b&《小兵传奇》-&/b&玄雨&/p&&p&&br&&/p&&p&&b&《师士传说》&/b&讲的是大航天时代,凝聚着尖端技术的机甲成为星河战场的主角,核能、离子、电磁、超导……所有代表当前人类空间军事技术尖端、以及未来发展趋势的各种元素都被应用其中。光甲,其全称为“光芯单兵装甲辅助系统”,这种和平与战争相妥协的产物得到了迅速普及,而驾驶操控光甲的专业人才,师士,也因此成为了这个时代的主流。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-7312daf20fdc38d45327_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&718& data-rawheight=&303& class=&origin_image zh-lightbox-thumb& width=&718& data-original=&https://pic4.zhimg.com/50/v2-7312daf20fdc38d45327_r.jpg&&&/figure&&p&&b&评价:&/b&&/p&&p&小说中单兵装甲的辅助系统系统设定,人类通过操控机甲的视角很具代表性,很多东西都是在他之前的写手没写过的!很喜欢的作品,以庞大丰富的想象和干净简洁的文笔为人称道,受到很多粉丝的狂热喜爱。&/p&&p&&br&&/p&&p&&b&豆瓣链接:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/2240574/& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&/2240574/&/span&&span class=&ellipsis&&&/span&&/a&&h2&&b&4.黄泉引路人一类:&/b&&/h2&&p&&b&《断龙台》&/b&、&b&《邪兵谱》《碎丹青》&/b&(未出)-纳兰元初&/p&&p&&br&&/p&&p&&b&《黄泉引路人三部曲》&/b&里主角是一个负责将阳间恶灵引向黄泉投胎的家伙,以连锁离奇案件,邪恶的兵器谱等为基础,串起主角的身世之谜和揭开这个行业的神秘面纱。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-afb111fdefe0c6e6b736d5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&733& data-rawheight=&298& class=&origin_image zh-lightbox-thumb& width=&733& data-original=&https://pic4.zhimg.com/50/v2-afb111fdefe0c6e6b736d5_r.jpg&&&/figure&&p&&br&&/p&&p&&b&评价:&/b&&/p&&p&如果你是一个爱看恐怖,悬疑,玄幻题材的,这本书有你想要的东西。最吸引我的是这个故事的脉络,小说的结构,剧情发展的铺垫。在有限的篇幅里虚构了一个世界,用一个现代的故事串起一段古代恩怨。&/p&&p&&br&&/p&&p&&b&豆瓣书评:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/1463959/& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&/1463959/&/span&&span class=&ellipsis&&&/span&&/a&&h2&&b&5.功夫类:&/b&&/h2&&p&&b&《龙蛇演义》&/b&-梦入神机&/p&&p&&br&&/p&&p&&b&《龙蛇演义》&/b&主要写国术和现代火器的对撞,世界纷乱,龙蛇并起,古人学武,只杀敌不表演;今人学武,只表演不杀敌。主人公王超15年苦练,107场比武,87人点拨,悟山悟水悟日月,终进化境,发扬格斗家《&a href=&//link.zhihu.com/?target=https%3A//baike.baidu.com/item/%25E7%25B2%25BE%25E6%25AD%25A6%25E9%/5223059& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&精武门&/a&》所开启的国术流派。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-af9d84e7f140cfdcdbf0f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&697& data-rawheight=&290& class=&origin_image zh-lightbox-thumb& width=&697& data-original=&https://pic1.zhimg.com/50/v2-af9d84e7f140cfdcdbf0f_r.jpg&&&/figure&&p&&b&评价:&/b&&/p&&p&这本书提到了大量传统武术的词汇,创新了国术的概念,一部现代都市武侠小说不可避免的牵扯到黑拳,黑帮,政治,在此基础上,对武术题材的深度挖掘与联想叫人叹为观止,可以很大程度上引发读者对武术的热情。&/p&&p&&br&&/p&&p&&b&豆瓣书评:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject//& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&//&/span&&span class=&ellipsis&&&/span&&/a&&h2&&b&6.穿越流:&/b&&/h2&&p&&b&《庆余年》&/b&-猫腻、&b&《回到明朝当王爷》&/b&-月关、&b&《极品家丁》&/b&-禹岩、&b&《水煮大神》&/b&-一度君华&/p&&p&&br&&/p&&p&&b&《庆余年》&/b&讲的是一个垂死病人穿越到另一个平行世界,一步步成长,几十年的历程里,我们看到的是三代风云人物的起起落落、轮转更替。两条线索,范闲的成长、叶轻眉的一生贯穿着整个小说,一明一暗,把几十年的庆国风雨尽揽其中。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-c320be503d5727fefb1d728_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&731& data-rawheight=&278& class=&origin_image zh-lightbox-thumb& width=&731& data-original=&https://pic2.zhimg.com/50/v2-c320be503d5727fefb1d728_r.jpg&&&/figure&&p&&b&评价:&/b&&/p&&p&猫腻的文向来以细节描写和文笔出彩,这本书的设定是轻穿越,主角的穿越成长史自己能掌控的地方不多,很大程度得益于他的母亲(上一位穿越者)的积累,在她的保护下,才逐渐壮大起来,书中对配角的描写已经超越了主角,相比设定来说,更吸引人的是整本书的伏笔和剧情。&/p&&p&&br&&/p&&p&&b&豆瓣链接:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/3155622/& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&/3155622/&/span&&span class=&ellipsis&&&/span&&/a&&h2&&b&7.军事类:&/b&&/h2&&p&&b&《狼群》-&/b&刺血、&b&《终生制职业》-&/b&周建良、&b&《无家》-&/b&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/search/%25E9%259B%25AA%25E5%25A4%259C%25E5%%25E6%25B2%25B3& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&雪夜冰河&/a& &/p&&p&&br&&/p&&p&&b&《狼群》&/b&这是一部描述海外特种作战部队形式之一——雇佣军生活的小说。以第一人称的视角,给我们展现了,主角因为一次意外被国际雇佣兵看重,踏上惊险的生死搏杀之旅,逐渐成为一名优秀的雇佣兵战士的故事。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-60cc7c9b587b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&733& data-rawheight=&290& class=&origin_image zh-lightbox-thumb& width=&733& data-original=&https://pic4.zhimg.com/50/v2-60cc7c9b587b_r.jpg&&&/figure&&p&&br&&/p&&p&&b&评价:&/b&&/p&&p&作为被誉为最强军事幻想小说,基础是很多真实的军事知识,第一视角的直观体验,看完只能用真实,热血,悲壮形容,深刻体现了狼群文化。记得当时这本书是读书圈里神作的存在,基本上没有不爱看的。&/p&&p&&br&&/p&&p&&b&豆瓣书评:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/1430597/& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&/1430597/&/span&&span class=&ellipsis&&&/span&&/a&&p&&br&&/p&&h2&8.网络竞技:&/h2&&p&&b&《全职高手》&/b&-蝴蝶蓝、&b&《流氓高手II》&/b&-无罪&/p&&p&&br&&/p&&p&&b&《全职高手》&/b&讲的网游《荣耀》中被誉为斗神的顶尖高手叶修,因为种种原因遭到俱乐部的驱逐,离开职业圈的他寄身于一家网吧成了一个小小的网管,但是,拥有十年游戏经验的他,在《荣耀》新开的第十区 重新投入了游戏,带着对往昔的回忆,和一把未完成的自制武器,开始了重返巅峰之路……&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-f09ff0ff652e534aa3f3c1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&740& data-rawheight=&294& class=&origin_image zh-lightbox-thumb& width=&740& data-original=&https://pic1.zhimg.com/50/v2-f09ff0ff652e534aa3f3c1_r.jpg&&&/figure&&p&&br&&/p&&p&&b&评价:&/b&&/p&&p&这本书的设定是主角在职业巅峰被赶出局,落魄状态下,通过网游带领一堆网友重返职业赛并夺得冠军的故事,与其他竞技网文相比,全书的叙事风格很幽默,没有关于情情爱爱的拖沓剧情,就是讲梦想,对喜爱的东西追求,值得一看。&/p&&p&&br&&/p&&p&&b&豆瓣书评:&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject//& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&book.douban.com/subject&/span&&span class=&invisible&&//&/span&&span class=&ellipsis&&&/span&&/a&&p&&br&&/p&&p&&b&以上是我推荐的8大类,18本小说,如果你有毅力读完这些,那我估计有一段时间里你会看不下别的小说了!&/b&&/p&&h2&&b&注:这18本书,我已经帮有兴趣的朋友整理成大礼包,放在干货分享里哦!&/b&&/h2&&hr&&p&&a href=&//link.zhihu.com/?target=https%3A//www.baidu.com/s%3Fwd%3D%25E9%25B2%%25BF%2585%26tn%3DSE_PcZhidaonwhc_ngpagmjz%26rsv_dl%3Dgh_pc_zhidao& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&鲁迅&/a&先生在其杂文&a href=&//link.zhihu.com/?target=https%3A//www.baidu.com/s%3Fwd%3D%25E3%E5%258D%258E%25E7%259B%%259B%%E2%E9%259D%%25B9%25B4%25E5%25BF%%25AF%25BB%25E4%25B9%25A6%25E3%tn%3DSE_PcZhidaonwhc_ngpagmjz%26rsv_dl%3Dgh_pc_zhidao& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《华盖集——青年必读书》&/a&中说:&/p&&p&&b&“中国书虽有劝人入世的话,也多是僵尸的乐观,外国书即使是颓唐和厌世的,但却是活人的颓唐和厌世。我以为要少——或者竟不看中国书,多看外国书”。&/b&&/p&&p&&b&看中国书时,总觉得就沉静下去,与实人生离开;读外国书——但除了印度——时,往往就与人生接触,想做点事。 &/b&&/p&&p&&b&少看中国书,其结果不过不能作文而已。&/b&&/p&&p&&b&但现在的青年最要紧的是“行”,不是“言”。 &/b&&/p&&p&&b&只要是活人,不能作文算什么大不了的事。&/b&&/p&&p&这段话是他拿来劝中国青年人“少读或不读中国书,多读外国书”时说的。&/p&&p&有没有道理呢?拿到现在来说不一定有了,中国从民国挣扎到现在,总也应该出几本争气的书才对。&/p&&p&但如果拿这句话来说眼花缭乱的快消网文,那就真的是再贴切不过了。&/p&&p&&b&脑洞大开的作品无穷无尽,禁得起时间沉淀的作品却少之又少。&/b&&/p&&p&&b&所以,书荒的时候,再翻翻经典名著,也不失阅读的乐趣。&/b&&/p&&hr&&p&篇幅有限,这里我就只介绍了一部分,自己做了个公众号,用来分享经典作品。&/p&&p&如果你有兴趣想要更多书单,可以关注公众号 &b&【 颜如玉书库
】&/b&&/p&&p&&br&&/p&&p&&b&回复【1】,可以得到我总结的绿色无广告的找书网站,能帮你找到99%的电子书!!!&/b&&/p&&p&&b&回复【2】,可以得到以上18本的资源!!!&/b&&/p&&p&另外我会定期更新各种类型的&b&经典书籍介绍点评和福利资源&/b&。&/p&&p&当然,也欢迎来讨论你对一些小说的看法。&/p&&p&&br&&/p&&p&&b&最后,整理不易,朋友们不要光收藏啊!&/b&&/p&&p&&b&觉得有用的记得点个赞,感谢!!!&/b&&/p&
读网络小说到现在差不多十年了,以下很多书都是看过不止一遍的,因为其具有开创性和经典的特性,书荒的时候会反复阅读,所以写了一篇长文,枚举了一些之前看过的,算是推推书吧。如果你你有更好的,欢迎交流,排名不分先后,聊到哪儿是哪儿,随缘更新。这18…
&p&谢邀。上干货!&/p&&a href=&//link.zhihu.com/?target=https%3A//www.learnopencv.com/& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic2.zhimg.com/v2-8ec8ca3e3fc34c_ipico.jpg& data-image-width=&125& data-image-height=&125& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learn OpenCV ( C++&/a&&p&你没看错,这是一个网站(很牛逼),打开上述链接,可以看到&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-5d947d36bdcfdecd80fc1b8d212a608d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&682& data-rawheight=&418& class=&origin_image zh-lightbox-thumb& width=&682& data-original=&https://pic1.zhimg.com/50/v2-5d947d36bdcfdecd80fc1b8d212a608d_r.jpg&&&/figure&&p&咦,这不是....嗯,人脸识别...&b&人脸关键点检测(LandMark&/b&)...&/p&&p&&br&&/p&&p&&b&拖着鼠标往下滑:&/b&&/p&&p&&a href=&//link.zhihu.com/?target=http%3A//LearnOpenCV.com& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&LearnOpenCV.com&/span&&span class=&invisible&&&/span&&/a& (二维码自动识别)&/p&&p&咦,这不是....嗯,二维码(QR Code)检测...条形码(Barcode)检测... + 识别&/p&&p&&br&&/p&&p&&b&拖着鼠标再往下滑:&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-90a3cdc3fe_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&761& data-rawheight=&267& class=&origin_image zh-lightbox-thumb& width=&761& data-original=&https://pic2.zhimg.com/50/v2-90a3cdc3fe_r.jpg&&&/figure&&p&咦,这不是....嗯,图像分类...没错,是它,很diao的图像分类&/p&&p&&br&&/p&&p&等等,你以为就介绍到这了么,不好意思,我很ying的&/p&&p&&b&附上learnopencv源码&/b&&/p&&a href=&//link.zhihu.com/?target=https%3A//github.com/spmallick/learnopencv& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic2.zhimg.com/v2-2f9b48adc8edcc2656d2d_ipico.jpg& data-image-width=&400& data-image-height=&400& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&spmallick/learnopencv&/a&&p&随便打开一个demo,如ImageAlignment-FeatureBased&/p&&p&咦,这不是...没错,C++与Python双版本...简直良心到...看什么,鼓掌啊&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-3e1d95decfe275e15434aa_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&633& data-rawheight=&252& class=&origin_image zh-lightbox-thumb& width=&633& data-original=&https://pic2.zhimg.com/50/v2-3e1d95decfe275e15434aa_r.jpg&&&/figure&&p&&b&------我是可爱的分割线------&/b&&/p&&p&镜像问题:&a href=&https://www.zhihu.com/question//answer/& class=&internal&&阿木寺:有没有一些图像处理新手可以练习的项目?&/a&&/p&
谢邀。上干货!你没看错,这是一个网站(很牛逼),打开上述链接,可以看到咦,这不是....嗯,人脸识别...人脸关键点检测(LandMark)... 拖着鼠标往下滑: (二维码自动识别)咦,这不是....嗯,二维码(QR Code)…
&p&我17年年初的时候写了一个,当时研究了挺久,也没找到能直接用账号密码来实现模拟登录的方法。最终只能用cookie了。写完后放到了github上。本来我只是想放上去保存一下自己的代码的,没想到后来有不少人(我觉得)发现了给了star并且fork了去,还有人在我的代码的基础上增加了新功能。&/p&&p&这个项目目前也成了我在github上star和fork数量都最多的一个&/p&&p&项目地址:&a href=&//link.zhihu.com/?target=https%3A//github.com/xjr7670/QQzone_crawler& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&xjr7670/QQzone_crawler&/a&&/p&&p&我的专栏里也有配套的文章:&/p&&a href=&https://zhuanlan.zhihu.com/p/& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic2.zhimg.com/v2-8d86fcf61a90e4f1d27cac617f7655ed_180x120.jpg& data-image-width=&884& data-image-height=&585& class=&internal&&东围居士:QQ空间动态爬虫&/a&&a href=&https://zhuanlan.zhihu.com/p/& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic4.zhimg.com/v2-42f2b2db541bcf2003468ebf803213fb_180x120.jpg& data-image-width=&1014& data-image-height=&798& class=&internal&&东围居士:QQ空间动态分析&/a&&p&&/p&
我17年年初的时候写了一个,当时研究了挺久,也没找到能直接用账号密码来实现模拟登录的方法。最终只能用cookie了。写完后放到了github上。本来我只是想放上去保存一下自己的代码的,没想到后来有不少人(我觉得)发现了给了star并且fork了去,还有人在我的…
&p&自己眼中的嘻哈,和别人眼中的嘻哈,看完你还敢说你有freestyle吗?&/p&&a class=&video-box& href=&//link.zhihu.com/?target=https%3A//www.zhihu.com/video/997312& target=&_blank& data-video-id=&& data-video-playable=&true& data-name=&& data-poster=&https://pic1.zhimg.com/80/v2-1b1104659ddbeb7d33ec3ac_b.jpg& data-lens-id=&997312&&
&img class=&thumbnail& src=&https://pic1.zhimg.com/80/v2-1b1104659ddbeb7d33ec3ac_b.jpg&&&span class=&content&&
&span class=&title&&&span class=&z-ico-extern-gray&&&/span&&span class=&z-ico-extern-blue&&&/span&&/span&
&span class=&url&&&span class=&z-ico-video&&&/span&https://www.zhihu.com/video/997312&/span&
&/a&&p&每看一次,笑一次,绝对的有毒!&/p&
自己眼中的嘻哈,和别人眼中的嘻哈,看完你还敢说你有freestyle吗?每看一次,笑一次,绝对的有毒!
&p&日更新: &a class=&member_mention& href=&//www.zhihu.com/people/dadee8dcb05ef06ce5dbcc4& data-hash=&dadee8dcb05ef06ce5dbcc4& data-hovercard=&p$b$dadee8dcb05ef06ce5dbcc4&&@毅种循环&/a& 在七天的期限内&b&没有&/b&拿出我刷赞、组团反对他答案的证据,&b&没有&/b&拿出店家使用矿卡的证据,也&b&没有&/b&向我道歉、删除文章中相关内容。详情请见:&/p&&a href=&https://zhuanlan.zhihu.com/p/& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic2.zhimg.com/v2-2a58fdc33d_180x120.jpg& data-image-width=&2594& data-image-height=&1945& class=&internal&&莱菲斯抓狗:@毅种循环(毅神)没有拿出证据,也没有向我道歉&/a&&p&&br&&/p&&p&今天收到评论, &a class=&member_mention& href=&//www.zhihu.com/people/dadee8dcb05ef06ce5dbcc4& data-hash=&dadee8dcb05ef06ce5dbcc4& data-hovercard=&p$b$dadee8dcb05ef06ce5dbcc4&&@毅种循环&/a& 发文怼我的回答,我在阅读文章后作出了以下回应:&/p&&a href=&https://zhuanlan.zhihu.com/p/& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic4.zhimg.com/v2-f2a6c8eec6b0x120.jpg& data-image-width=&550& data-image-height=&412& class=&internal&&莱菲斯抓狗:怼我可以,但是请你拿出实锤&/a&&p&我不同意 &a class=&member_mention& href=&//www.zhihu.com/people/dadee8dcb05ef06ce5dbcc4& data-hash=&dadee8dcb05ef06ce5dbcc4& data-hovercard=&p$b$dadee8dcb05ef06ce5dbcc4&&@毅种循环&/a& 的文章大部分观点,但同意他指出的两个问题:&/p&&p&&br&&/p&&p&1、我这篇回答只是我一个人的推荐,而店家却以“知乎社区推荐商家”来宣传,刚才和店家沟通时,他也承认错误,并承诺尽快修改。&/p&&p&&br&&/p&&p&2、店家在出售电脑时确实会使用二手硬盘,但前提是:店家已将二手硬盘有数据丢失的风险告知买家,和买家说明全新和二手硬盘的利弊,由买家自己选择。而且店家声明,买家购买电脑前会询问其用途,买来办公的,就会上全新硬盘。说明店家考虑到了买家的数据安全问题。&/p&&p&&br&&/p&&p&在我的文章中,我自作主张的给店家做了二手硬盘的售后方案,如果不这样,我删除的我回答并道歉。我完全没有想到店家实际上考虑了买家的数据安全问题。但我不会收回我的话,还是会删除本篇回答,只是觉得有些对不起店家。&/p&&p&&br&&/p&&p&刚才和店家沟通时,店家说其实我的回答也不全面,因为他们家今年开始主做全新的八代平台装机,二手业务会越来越少。这也是我的答案时效性有限的地方,因此也给部分朋友和店家带来了困扰,我深表歉意!&/p&&p&&br&&/p&&p&但是我再次声明,我不是水军,不是托,更没有收钱办事。我之前的回答是我尽可能真实、准确的回答,我&b&问心无愧&/b&。&/p&&p&&br&&/p&&p&因此, 对于&a class=&member_mention& href=&//www.zhihu.com/people/dadee8dcb05ef06ce5dbcc4& data-hash=&dadee8dcb05ef06ce5dbcc4& data-hovercard=&p$b$dadee8dcb05ef06ce5dbcc4&&@毅种循环&/a& 文章中关于我是水军的无端揣测和没有事实根据、仅凭经验而得出的判断,损害了我在知乎的名誉,我要求 &a class=&member_mention& href=&//www.zhihu.com/people/dadee8dcb05ef06ce5dbcc4& data-hash=&dadee8dcb05ef06ce5dbcc4& data-hovercard=&p$b$dadee8dcb05ef06ce5dbcc4&&@毅种循环&/a& 在一周内拿出实锤的证据,否则向我道歉并删除文章中的相关内容。&/p&&p&&br&&/p&&p&最后想给小白分享一些买电脑的心得:按照预算-需求-售后的顺序来买电脑。记住,预算才是第一位的。别听大神们让你无脑上高配,因为不是他们出钱。&/p&
在七天的期限内没有拿出我刷赞、组团反对他答案的证据,没有拿出店家使用矿卡的证据,也没有向我道歉、删除文章中相关内容。详情请见: 今天收到评论, …
&p&相信很多来这里的人和我第一次到这里一样,都是想找一种比较好的目标跟踪算法,或者想对目标跟踪这个领域有比较深入的了解,虽然这个问题是&b&经典目标跟踪算法&/b&,但事实上,可能我们并不需要那些曾经辉煌但已被拍在沙滩上的tracker(目标跟踪算法),而是那些即将成为经典的,或者就目前来说最好用、速度和性能都看的过去tracker。我比较关注目标跟踪中的相关滤波方向,接下来我帮您介绍下我所认识的目标跟踪,尤其是相关滤波类方法,分享一些我认为比较好的算法,顺便谈谈我的看法。&/p&&p&1.图片来自某些slides和paper,如有侵权请提醒删除。&/p&&p&2.以下内容主要是论文的简单总结,代码分析和个人看法,不涉及任何公司内部资料。&/p&&p&3.转载请注明出处,谢谢。&/p&&p&4.如有错误欢迎指出,非常感谢。有问题可以私信我,也可以在评论区提出,时间有限但也都会尽量回复,同时感谢各位道友帮忙解答。&/p&&h2&第一部分:目标跟踪速览&/h2&&p&&b&先跟几个SOTA的tracker混个脸熟,大概了解一下目标跟踪这个方向都有些什么&/b&。一切要从2013年的那个数据库说起。。如果你问别人近几年有什么比较niubility的跟踪算法,大部分人都会扔给你吴毅老师的论文,&b&OTB50&/b&和&b&OTB100&/b&(OTB50这里指OTB-2013,OTB100这里指OTB-0分别代表视频数量,方便记忆):&/p&&ul&&li&Wu Y, Lim J, Yang M H. &b&Online object tracking: A benchmark&/b& [C]// CVPR, 2013.&/li&&li&Wu Y, Lim J, Yang M H. &b&Object tracking benchmark &/b&[J]. TPAMI, 2015.&/li&&/ul&&p&顶会转顶刊的顶级待遇,在加上引用量多,影响力不言而喻,已经是做tracking必须跑的数据库了,测试代码和序列都可以下载: &a href=&//link.zhihu.com/?target=http%3A//cvlab.hanyang.ac.kr/tracker_benchmark/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Visual Tracker Benchmark&/a&,OTB50包括50个序列,都经过人工标注:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-e544f145ded9d69c98e092adaf2d8bc5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1730& data-rawheight=&694& class=&origin_image zh-lightbox-thumb& width=&1730& data-original=&https://pic1.zhimg.com/50/v2-e544f145ded9d69c98e092adaf2d8bc5_r.jpg&&&/figure&&p&两篇论文在数据库上对比了&b&包括2012年及之前的29个顶尖的tracker&/b&,有大家比较熟悉的OAB, IVT, MIL, CT, TLD, Struck等,大都是顶会转顶刊的神作,由于之前没有比较公认的数据库,论文都是自卖自夸,大家也不知道到底哪个好用,所以这个database的意义非常重大,直接促进了跟踪算法的发展,后来又扩展为&b&OTB100&/b&发到TPAMI,有100个序列,难度更大更加权威,我们这里参考OTB100的结果,首先是29个tracker的速度和发表时间(&i&标出了一些性能速度都比较好的算法&/i&):&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-63db35d3d2f57965cea3c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&518& data-rawheight=&389& class=&origin_image zh-lightbox-thumb& width=&518& data-original=&https://pic3.zhimg.com/50/v2-63db35d3d2f57965cea3c_r.jpg&&&/figure&&p&接下来再看结果(&i&更加详细的情况建议您去看论文比较清晰&/i&):&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-92fe48e735d8a4ae1585_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1161& data-rawheight=&730& class=&origin_image zh-lightbox-thumb& width=&1161& data-original=&https://pic4.zhimg.com/50/v2-92fe48e735d8a4ae1585_r.jpg&&&/figure&&p&直接上结论:平均来看&b&Struck, SCM, ASLA&/b&的性能比较高,排在前三不多提,着重强调&b&CSK&/b&,第一次向世人展示了相关滤波的潜力,&b&排第四还362FPS&/b&简直逆天了。速度排第二的是经典算法&b&CT(64fps)&/b&(&i&与SCM, ASLA等都是那个年代最热的稀疏表示&/i&)。如果对更早期的算法感兴趣,推荐另一篇经典的survey(&i&反正我是没兴趣也没看过&/i&):&/p&&ul&&li&Yilmaz A, Javed O, Shah M. &b&Object tracking: A survey &/b&[J]. CSUR, 2006. &/li&&/ul&&p&2012年以前的算法基本就是这样,自从2012年AlexNet问世以后,CV各个领域都有了巨大变化,所以我猜你肯定还想知道年发生了什么,抱歉我也不知道(&i&容我卖个关子&/i&),不过我们可以肯定的是,2013年以后的论文一定都会引用OTB50这篇论文,借助&b&谷歌学术中的被引用次数&/b&功能,得到如下结果:&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-ccb19ad37fe2a0393afbdf98_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&907& data-rawheight=&563& class=&origin_image zh-lightbox-thumb& width=&907& data-original=&https://pic2.zhimg.com/50/v2-ccb19ad37fe2a0393afbdf98_r.jpg&&&/figure&&p&这里仅列举几个引用量靠前的,依次是&b&Struck&/b&转TPAMI, 三大相关滤波方法&b&KCF, CN, DSST&/b&, 和&b&VOT竞赛&/b&,这里仅作示范,有兴趣可以亲自去试试。&b&(这么做的理论依据是&/b&:一篇论文,在它之前的工作可以看它的引用文献,之后的工作可以看谁引用了它;虽然引用量并不能说明什么,但好的方法大家基本都会引用的(&i&表示尊重和认可&/i&);之后还可以通过限定时间来查看某段时间的相关论文,如&a href=&tel:&&&/a&就能找到最新的论文了,至于论文质量需要仔细甄别;其他方向的重要论文也可以这么用,顺藤摸瓜,然后你就知道大牛是哪几位,接着关注跟踪一下他们的工作&b& ) &/b&这样我们就大致知道目标跟踪领域的最新进展应该就是相关滤波无疑了,再往后还能看到相关滤波类算法有&b&SAMF, LCT, HCF, SRDCF&/b&等等。当然,引用量也与时间有关,建议分每年来看。此外,最新版本OPENCV3.2除了&b&TLD&/b&,也包括了几个很新的跟踪算法 &a href=&//link.zhihu.com/?target=http%3A//www.docs.opencv.org/3.2.0/d9/df8/group__tracking.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&OpenCV: Tracking API&/a&:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-7f1e3a8d9f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&984& data-rawheight=&342& class=&origin_image zh-lightbox-thumb& width=&984& data-original=&https://pic3.zhimg.com/50/v2-7f1e3a8d9f_r.jpg&&&/figure&&p&TrackerKCF接口实现了&b&KCF&/b&和&b&CN&/b&,影响力可见一斑,还有个GOTURN是基于深度学习的方法,速度虽快但精度略差,值得去看看。tracking方向的最新论文,可以跟进三大会议(CVPR/ICCV/ECCV) 和arXiv。&/p&&h2&&b&第二部分&/b&:背景介绍&/h2&&p&&b&接下来总体介绍下目标跟踪。&/b&这里说的目标跟踪,是通用单目标跟踪,第一帧给个矩形框,这个框在数据库里面是人工标注的,在实际情况下大多是检测算法的结果,然后需要跟踪算法在后续帧紧跟住这个框,以下是VOT对跟踪算法的要求:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-518e71f77d3bf360acdc6f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&480& data-rawheight=&361& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&https://pic3.zhimg.com/50/v2-518e71f77d3bf360acdc6f_r.jpg&&&/figure&&p&通常目标跟踪面临&b&几大难点&/b&(吴毅在&b&VALSE&/b&的slides):外观变形,光照变化,快速运动和运动模糊,背景相似干扰:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-b5f8aff728d0de563869_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&716& data-rawheight=&416& class=&origin_image zh-lightbox-thumb& width=&716& data-original=&https://pic4.zhimg.com/50/v2-b5f8aff728d0de563869_r.jpg&&&/figure&&p&平面外旋转,平面内旋转,尺度变化,遮挡和出视野等情况:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-3dbabf17d52c20bcbdf12_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&622& data-rawheight=&460& class=&origin_image zh-lightbox-thumb& width=&622& data-original=&https://pic3.zhimg.com/50/v2-3dbabf17d52c20bcbdf12_r.jpg&&&/figure&&p&正因为这些情况才让tracking变得很难,目前比较常用的数据库除了&b&OTB&/b&,还有前面找到的&b&VOT&/b&竞赛数据库(类比ImageNet),已经举办了四年,VOT2015和VOT2016都包括60个序列,所有序列也是免费下载 &a href=&//link.zhihu.com/?target=http%3A//votchallenge.net/challenges.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VOT Challenge | Challenges&/a&:&/p&&ul&&li&Kristan M, Pflugfelder R, Leonardis A, et al. &b&The visual object tracking vot2013 challenge results&/b& [C]// ICCV, 2013.&/li&&li&Kristan M, Pflugfelder R, Leonardis A, et al. &b&The Visual Object Tracking VOT2014 Challenge Results&/b& [C]// ECCV, 2014.&/li&&li&Kristan M, Matas J, Leonardis A, et al. &b&The visual object tracking vot2015 challenge results&/b& [C]// ICCV, 2015.&/li&&li&Kristan M, Ales L, Jiri M, et al. &b&The Visual Object Tracking VOT2016 Challenge Results&/b& [C]// ECCV, 2016.&/li&&/ul&&p&&b&OTB和VOT区别&/b&:OTB包括25%的灰度序列,但VOT都是彩色序列,这也是造成很多颜色特征算法性能差异的原因;两个库的评价指标不一样,具体请参考论文;VOT库的序列分辨率普遍较高,这一点后面分析会提到。对于一个tracker,如果论文在两个库(最好是OTB100和VOT2016)上都结果上佳,那肯定是非常优秀的(&i&两个库调参你能调好,我服,认了~~&/i&),如果只跑了一个,个人更偏向于VOT2016,因为序列都是精细标注,且评价指标更好(&i&人家毕竟是竞赛,评价指标发过TPAMI的&/i&),&b&差别最大的地方&/b&,OTB有随机帧开始,或矩形框加随机干扰初始化去跑,作者说这样更加符合检测算法给的框框;而VOT是第一帧初始化去跑,每次跟踪失败(预测框和标注框不重叠)时,5帧之后重新初始化,VOT以short-term为主,且认为跟踪检测应该在一起不分离,detecter会多次初始化tracker。&/p&&p&&b&补充&/b&:&b&OTB&/b&在2013年公开了,对于2013以后的算法是透明的,论文都会去调参,尤其是那些只跑OTB的论文,如果关键参数直接给出还精确到小数点后两位,建议您先实测(&i&人心不古啊~被坑的多了&/i&)。&b&VOT&/b&竞赛的数据库是每年更新,还动不动就重新标注,动不动就改变评价指标,对当年算法是难度比较大,所以结果相对更可靠。(&i&相信很多人和我一样,看每篇论文都会觉得这个工作太好太重要了,如果没有这篇论文,必定地球爆炸,宇宙重启~~所以就像大家都通过历年ILSVRC竞赛结果为主线了解深度学习的发展一样,第三方的结果更具说服力,所以我也以&b&竞赛排名+是否公开源码+实测性能&/b&为标准,优选几个算法分析&/i&)&/p&&p&&b&目标视觉跟踪(Visual Object Tracking)&/b&,大家比较公认分为两大类:&b&生成(generative)&/b&模型方法和&b&判别(discriminative)&/b&模型方法,目前比较流行的是判别类方法,也叫检测跟踪tracking-by-detection,为保持回答的完整性,以下简单介绍。&/p&&p&&b&生成类方法&/b&,在当前帧对目标区域建模,下一帧寻找与模型最相似的区域就是预测位置,比较著名的有&b&卡尔曼滤波,粒子滤波,mean-shift&/b&等。举个例子,从当前帧知道了目标区域80%是红色,20%是绿色,然后在下一帧,搜索算法就像无头苍蝇,到处去找最符合这个颜色比例的区域,推荐算法&b&ASMS&/b& &a href=&//link.zhihu.com/?target=https%3A//github.com/vojirt/asms& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&vojirt/asms&/a&:&/p&&ul&&li&Vojir T, Noskova J, Matas J. &b&Robust scale-adaptive mean-shift for tracking&/b& [J]. Pattern Recognition Letters, 2014.&/li&&/ul&&p&&b&ASMS&/b&与&b&DAT&/b&并称“颜色双雄”(&i&版权所有翻版必究&/i&),都是仅颜色特征的算法而且速度很快,依次是VOT2015的第20名和14名,在VOT2016分别是32名和31名(&i&中等水平&/i&)。ASMS是VOT2015官方推荐的实时算法,平均帧率&b&125FPS&/b&,在经典mean-shift框架下加入了尺度估计,经典颜色直方图特征,加入了两个先验(尺度不剧变+可能偏最大)作为正则项,和反向尺度一致性检查。作者给了C++代码,在相关滤波和深度学习盛行的年代,还能看到mean-shift打榜还有如此高的性价比实在不容易(&i&已泪目~~&/i&),实测性能还不错,如果您对生成类方法情有独钟,这个非常推荐您去试试。(&i&某些算法,如果连这个你都比不过。。天台在24楼,不谢&/i&)&/p&&p&&b&判别类方法&/b&,OTB50里面的大部分方法都是这一类,CV中的经典套路&b&图像特征+机器学习&/b&, 当前帧以目标区域为正样本,背景区域为负样本,机器学习方法训练分类器,下一帧用训练好的分类器找最优区域:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-d2c2473036eda496b79609_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1337& data-rawheight=&651& class=&origin_image zh-lightbox-thumb& width=&1337& data-original=&https://pic4.zhimg.com/50/v2-d2c2473036eda496b79609_r.jpg&&&/figure&&p&与生成类方法最大的区别是,分类器采用机器学习,训练中用到了&b&背景信息&/b&,这样分类器就能专注区分前景和背景,所以判别类方法普遍都比生成类好。举个例子,在训练时告诉tracker目标80%是红色,20%是绿色,还告诉它背景中有橘红色,要格外注意别搞错了,这样的分类器知道更多信息,效果也相对更好。&b&tracking-by-detection&/b&和&b&检测算法&/b&非常相似,如经典行人检测用HOG+SVM,&b&Struck&/b&用到了haar+structured output SVM,跟踪中为了尺度自适应也需要多尺度遍历搜索,区别仅在于跟踪算法对特征和在线机器学习的速度要求更高,检测范围和尺度更小而已。这点其实并不意外,大多数情况检测识别算法复杂度比较高不可能每帧都做,这时候用复杂度更低的跟踪算法就很合适了,只需要在跟踪失败(drift)或一定间隔以后再次检测去初始化tracker就可以了。其实我就想说,&b&FPS才TMD是最重要的指标,慢的要死的算法可以去死了&/b&(&i&同学别这么偏激,速度是可以优化的&/i&)。经典判别类方法推荐&b&Struck&/b&和&b&TLD&/b&,都能实时性能还行,Struck是2012年之前最好的方法,TLD是经典long-term的代表,思想非常值得借鉴:&/p&&ul&&li&Hare S, Golodetz S, Saffari A, et al. &b&Struck: Structured output tracking with kernels &/b&[J]. IEEE TPAMI, 2016. &/li&&li&Kalal Z, Mikolajczyk K, Matas J. &b&Tracking-learning-detection &/b&[J]. IEEE TPAMI, 2012. &/li&&/ul&&p&长江后浪推前浪,前面的已被排在沙滩上,这个后浪就是相关滤波和深度学习。&b&相关滤波&/b&类方法correlation filter简称CF,也叫做discriminative correlation filter简称DCF,注意和后面的DCF算法区别,包括前面提到的那几个,也是后面要着重介绍的。&b&深度学习&/b&(Deep ConvNet based)类方法,因为深度学习类目前不适合落地就不瞎推荐了,可以参考Winsty的几篇 &a href=&//link.zhihu.com/?target=http%3A//www.winsty.net/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Naiyan Wang - Home&/a&,还有VOT2015的冠军&b&MDNet &/b&&a href=&//link.zhihu.com/?target=http%3A//cvlab.postech.ac.kr/research/mdnet/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning Multi-Domain Convolutional Neural Networks for Visual Tracking&/a&,以及VOT2016的冠军&b&TCNN &/b&&a href=&//link.zhihu.com/?target=http%3A//www.votchallenge.net/vot2016/download/44_TCNN.zip& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&votchallenge.net/vot201&/span&&span class=&invisible&&6/download/44_TCNN.zip&/span&&span class=&ellipsis&&&/span&&/a&,速度方面比较突出的如80FPS的&b&SiamFC &/b&&a href=&//link.zhihu.com/?target=http%3A//www.robots.ox.ac.uk/%7Eluca/siamese-fc.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&SiameseFC tracker&/a&和100FPS的&b&GOTURN &/b&&a href=&//link.zhihu.com/?target=https%3A//github.com/davheld/GOTURN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&davheld/GOTURN&/a&,注意都是在GPU上。基于ResNet的&b&SiamFC-R&/b&(ResNet)在VOT2016表现不错,很看好后续发展,有兴趣也可以去VALSE听作者自己讲解 &a href=&//link.zhihu.com/?target=http%3A//www.iqiyi.com/w_19ruirwrel.html%23vfrm%3D8-8-0-1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VALSE--LucaBertinetto-Oxford-JackValmadre-Oxford-pu&/a&,至于GOTURN,效果比较差,但优势是跑的很快100FPS,如果以后效果也能上来就好了。做科研的同学深度学习类是关键,能兼顾速度就更好了。&/p&&ul&&li&Nam H, Han B. &b&Learning multi-domain convolutional neural networks for visual tracking&/b& [C]// CVPR, 2016.&/li&&li&Nam H, Baek M, Han B. &b&Modeling and propagating cnns in a tree structure for visual tracking&/b&. arXiv preprint arXiv:, 2016.&/li&&li&Bertinetto L, Valmadre J, Henriques J F, et al. &b&Fully-convolutional siamese networks for object tracking&/b& [C]// ECCV, 2016.&/li&&li&Held D, Thrun S, Savarese S. &b&Learning to track at 100 fps with deep regression networks &/b&[C]// ECCV, 2016.&/li&&/ul&&p&&b&最后&/b&,深度学习END2END的强大威力在目标跟踪方向还远没有发挥出来,还没有和相关滤波类方法拉开多大差距(&i&速度慢是天生的我不怪你,但效果总该很好吧,不然你存在的意义是什么呢。。革命尚未成功,同志仍须努力&/i&)。另一个需要注意的问题是目标跟踪的数据库都没有严格的训练集和测试集,需要离线训练的深度学习方法就要非常注意它的训练集有没有相似序列,而且一直到VOT2017官方才指明要限制训练集,不能用相似序列训练模型。&/p&&p&最后强力推荐两个资源。王强 &a class=&member_mention& href=&//www.zhihu.com/people/2d6e027e5db50df5dea1& data-hash=&2d6e027e5db50df5dea1& data-hovercard=&p$b$2d6e027e5db50df5dea1&&@Qiang Wang&/a& 维护的&b&benchmark_results &/b& &a href=&//link.zhihu.com/?target=https%3A//github.com/foolwood/benchmark_results& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&foolwood/benchmark_results&/a&:大量顶级方法在OTB库上的性能对比,各种论文代码应有尽有,大神自己C++实现并开源的CSK, KCF和DAT,还有他自己的&b&DCFNet&/b&论文加源码,找不着路的同学请跟紧。&/p&&p&&a class=&member_mention& href=&//www.zhihu.com/people/24f6a8ba54a520ceb91b& data-hash=&24f6a8ba54a520ceb91b& data-hovercard=&p$b$24f6a8ba54a520ceb91b&&@H Hakase&/a& 维护的&b&相关滤波类资源&/b& &a href=&//link.zhihu.com/?target=https%3A//github.com/HakaseH/CF_benchmark_results& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&HakaseH/CF_benchmark_results&/a& ,详细分类和论文代码资源,走过路过别错过,相关滤波类算法非常全面,非常之用心!&/p&&p&(&i&以上两位,看到了请来我处交一下广告费,9折优惠~~&/i&)&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-afaabd2d4a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1674& data-rawheight=&679& class=&origin_image zh-lightbox-thumb& width=&1674& data-original=&https://pic3.zhimg.com/50/v2-afaabd2d4a1_r.jpg&&&/figure&&h2&第三部分:相关滤波&/h2&&p&&b&介绍最经典的高速相关滤波类跟踪算法CSK, KCF/DCF, CN。&/b&很多人最早了解CF,应该和我一样,都是被下面这张图吸引了:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-cddc24ac950d23_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&407& data-rawheight=&239& class=&content_image& width=&407&&&/figure&&p&这是KCF/DCF算法在OTB50上(&i&&b&2014年4月就挂arVix了,&/b& 那时候OTB100还没有发表&/i&)的实验结果,Precision和FPS碾压了OTB50上最好的Struck,看惯了勉强实时的Struck和TLD,飙到高速的KCF/DCF突然有点让人不敢相信,其实KCF/DCF就是在OTB上大放异彩的CSK的多通道特征改进版本。注意到那个超高速615FPS的MOSSE(&i&严重超速这是您的罚单&/i&),这是目标跟踪领域的第一篇相关滤波类方法,这其实是真正第一次显示了相关滤波的潜力。和KCF同一时期的还有个CN,在2014'CVPR上引起剧烈反响的颜色特征方法,其实也是CSK的多通道颜色特征改进算法。&b&从MOSSE(615)到 CSK(362) 再到 KCF(172FPS), DCF(292FPS), CN(152FPS), CN2(202FPS)&/b&,速度虽然是越来越慢,但效果越来越好,而且始终保持在高速水平:&/p&&ul&&li&Bolme D S, Beveridge J R, Draper B A, et al. &b&Visual object tracking using adaptive correlation filters&/b& [C]// CVPR, 2010.&/li&&li&Henriques J F, Caseiro R, Martins P, et al. &b&Exploiting the circulant structure of tracking-by- detection with kernels &/b&[C]// ECCV, 2012.&/li&&li&Henriques J F, Rui C, Martins P, et al. &b&High-Speed Tracking with Kernelized Correlation Filters &/b&[J]. IEEE TPAMI, 2015.&/li&&li&Danelljan M, Shahbaz Khan F, Felsberg M, et al. &b&Adaptive color attributes for real-time visual tracking&/b& [C]// CVPR, 2014.&/li&&/ul&&figure&&img src=&https://pic2.zhimg.com/50/v2-2ad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1540& data-rawheight=&222& class=&origin_image zh-lightbox-thumb& width=&1540& data-original=&https://pic2.zhimg.com/50/v2-2ad_r.jpg&&&/figure&&p&CSK和KCF都是&b&Henriques J F&/b&(&i&牛津大学&/i&)&a href=&//link.zhihu.com/?target=http%3A//www.robots.ox.ac.uk/%7Ejoao/index.html%23& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Jo?o F. Henriques&/a& 大神先后两篇论文,影响后来很多工作,核心部分的岭回归,循环移位的近似密集采样,还给出了整个相关滤波算法的详细推导。还有岭回归加kernel-trick的封闭解,多通道HOG特征。&/p&&p&&b&Martin Danelljan&/b&大牛(林雪平大学)用多通道颜色特征&b&Color Names(CN)&/b&去扩展CSK得到了不错的效果,算法也简称&b&CN&/b& &a href=&//link.zhihu.com/?target=http%3A//www.cvl.isy.liu.se/research/objrec/visualtracking/colvistrack/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Coloring Visual Tracking&/a& 。&/p&&p&MOSSE是单通道灰度特征的相关滤波,CSK在MOSSE的基础上扩展了密集采样(加padding)和kernel-trick,KCF在CSK的基础上扩展了多通道梯度的HOG特征,CN在CSK的基础上扩展了多通道颜色的Color Names。HOG是梯度特征,而CN是颜色特征,两者可以互补,所以HOG+CN在近两年的跟踪算法中成为了hand-craft特征标配。最后,根据KCF/DCF的实验结果,讨论两个问题:&/p&&ul&&li&&b&1. 为什么只用单通道灰度特征的KCF和用了多通道HOG特征的KCF速度差异很小?&/b&&/li&&/ul&&p&第一,作者用了HOG的快速算法fHOG,来自Piotr's Computer Vision Matlab Toolbox,C代码而且做了SSE优化。如对fHOG有疑问,请参考论文Object Detection with Discriminatively Trained Part Based Models第12页。&br&第二,HOG特征常用cell size是4,这就意味着,100*100的图像,HOG特征图的维度只有25*25,而Raw pixels是灰度图归一化,维度依然是100*100,我们简单算一下:27通道HOG特征的复杂度是27*625*log(625)=47180,单通道灰度特征的复杂度是10000*log(1,理论上也差不多,符合表格。&/p&&p&看代码会发现,作者在扩展后目标区域面积较大时,会先对提取到的图像块做因子2的下采样到50*50,这样复杂度就变成了2500*log(,下降了非常多。那你可能会想,如果下采样再多一点,复杂度就更低了,但这是以牺牲跟踪精度为代价的,再举个例子,如果图像块面积为200*200,先下采样到100*100,再提取HOG特征,分辨率降到了25*25,这就意味着响应图的分辨率也是25*25,也就是说,响应图每位移1个像素,原始图像中跟踪框要移动8个像素,这样就降低了跟踪精度。在精度要求不高时,完全可以稍微牺牲下精度提高帧率(&i&但看起来真的不能再下采样了&/i&)。&/p&&ul&&li&&b&2. HOG特征的KCF和DCF哪个更好?&/b&&/li&&/ul&&p&大部分人都会认为KCF效果超过DCF,而且各属性的准确度都在DCF之上,然而,如果换个角度来看,以DCF为基准,再来看加了kernel-trick的KCF,mean precision仅提高了0.4%,而FPS下降了41%,这么看是不是挺惊讶的呢?除了图像块像素总数,KCF的复杂度还主要和kernel-trick相关。所以,下文中的CF方法&b&如果没有kernel-trick,就简称基于DCF,如果加了kernel-trick,就简称基于KCF&/b&(&i&剧透基本各占一半&/i&)。当然这里的CN也有kernel-trick,但请注意,这是Martin Danelljan大神第一次使用kernel-trick,也是最后一次。。。&/p&&p&这就会引发一个疑问,kernel-trick这么强大的东西,怎么才提高这么点?这里就不得不提到Winsty的另一篇大作:&/p&&ul&&li&Wang N, Shi J, Yeung D Y, et al. Understanding and diagnosing visual tracking systems[C]// ICCV, 2015. &/li&&/ul&&p&一句话总结,&b&别看那些五花八门的机器学习方法,那都是虚的,目标跟踪算法中特征才是最重要的&/b&(&i&就是因为这篇文章我粉了WIN叔哈哈&/i&)&b&,&/b&以上就是最经典的三个高速算法,CSK, KCF/DCF和CN,推荐。&/p&&h2&第四部分:14年的尺度自适应&/h2&&p&VOT与OTB一样最早都是2013年出现的,但VOT2013序列太少,第一名的PLT代码也找不到,没有参考价值就直接跳过了。直接到了VOT2014竞赛 &a href=&//link.zhihu.com/?target=http%3A//votchallenge.net/vot2014/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VOT2014 Benchmark&/a& 。这一年有25个精挑细选的序列,38个算法,那时候深度学习的战火还没有烧到tracking,所以主角也只能是刚刚展露头角就独霸一方的CF,下面是前几名的详细情况:&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-9aad5ed14edb0d087bd653c9c9d73e87_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&897& data-rawheight=&248& class=&origin_image zh-lightbox-thumb& width=&897& data-original=&https://pic2.zhimg.com/50/v2-9aad5ed14edb0d087bd653c9c9d73e87_r.jpg&&&/figure&&p&前三名都是相关滤波CF类方法,第三名的KCF已经很熟悉了,这里稍微有点区别就是加了多尺度检测和子像素峰值估计,再加上VOT序列的分辨率比较高(检测更新图像块的分辨率比较高),导致竞赛中的KCF的速度只有24.23(EFO换算&b&66.6FPS&/b&)。这里speed是&b&EFO&/b&(Equivalent Filter Operations),在VOT2015和VOT2016里面也用这个参数衡量算法速度,这里一次性列出来供参考(MATLAB实现的tracker实际速度要更高一些):&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-4b431e58f906bf88be6c38_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&769& data-rawheight=&172& class=&origin_image zh-lightbox-thumb& width=&769& data-original=&https://pic3.zhimg.com/50/v2-4b431e58f906bf88be6c38_r.jpg&&&/figure&&p&&b&其实前三名除了特征略有差异,核心都是KCF为基础扩展了多尺度检测&/b&,概要如下:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-e493b50e7cb39b84ffc6a3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&808& data-rawheight=&239& class=&origin_image zh-lightbox-thumb& width=&808& data-original=&https://pic1.zhimg.com/50/v2-e493b50e7cb39b84ffc6a3_r.jpg&&&/figure&&p&&b&尺度变化&/b&是跟踪中比较基础和常见的问题,前面介绍的KCF/DCF和CN都没有尺度更新,如果目标缩小,滤波器就会学习到大量背景信息,如果目标扩大,滤波器就跟着目标局部纹理走了,这两种情况都很可能出现非预期的结果,导致漂移和失败。&/p&&p&&b&SAMF&/b& &a href=&//link.zhihu.com/?target=https%3A//github.com/ihpdep/samf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ihpdep/samf&/a&,浙大Yang Li的工作,基于KCF,特征是HOG+CN,多尺度方法是平移滤波器在多尺度缩放的图像块上进行目标检测,取响应最大的那个平移位置及所在尺度:&/p&&ul&&li&Li Y, Zhu J. &b&A scale adaptive kernel correlation filter tracker with feature integration&/b& [C]// ECCV, 2014.&/li&&/ul&&p&Martin Danelljan的&b&DSST&/b& &a href=&//link.zhihu.com/?target=http%3A//www.cvl.isy.liu.se/research/objrec/visualtracking/scalvistrack/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Accurate scale estimation for visual tracking&/a&,只用了HOG特征,DCF用于平移位置检测,又专门训练类似MOSSE的相关滤波器检测尺度变化,开创了平移滤波+尺度滤波,之后转TPAMI做了一系列加速的版本&b&fDSST&/b&,非常+非常+非常推荐:&/p&&ul&&li&Danelljan M, H?ger G, Khan F, et al. &b&Accurate scale estimation for robust visual tracking&/b& [C]// BMVC, 2014.&/li&&li&Danelljan M, Hager G, Khan F S, et al. &b&Discriminative Scale Space Tracking &/b&[J]. IEEE TPAMI, 2017.&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/50/v2-ceafcb41ac2fca6a3b001bd5c240c93e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1319& data-rawheight=&423& class=&origin_image zh-lightbox-thumb& width=&1319& data-original=&https://pic1.zhimg.com/50/v2-ceafcb41ac2fca6a3b001bd5c240c93e_r.jpg&&&/figure&&p&简单对比下这两种尺度自适应的方法:&/p&&ul&&li&&b&DSST和SAMF所采用的尺度检测方法哪个更好&/b&?&/li&&/ul&&p&首先给大家讲个笑话:Martin Danelljan大神提出DSST之后,他的后续论文就再没有用过(&i&直到最新CVPR的ECO-HC中为了加速用了fDSST&/i&)。&/p&&ol&&li&虽然SAMF和DSST都可以跟上普通的目标尺度变化,但SAMF只有7个尺度比较粗,而DSST有33个尺度比较精细准确;&/li&&li&DSST先检测最佳平移再检测最佳尺度,是分步最优,而SAMF是平移尺度一起检测,是平移和尺度同时最优,而往往局部最优和全局最优是不一样的;&/li&&li&DSST将跟踪划分为平移跟踪和尺度跟踪两个问题,可以采用不同的方法和特征,更加灵活,但需要额外训练一个滤波器,每帧尺度检测需要采样33个图像块,之后分别计算特征、加窗、FFT等,尺度滤波器比平移滤波器慢很多;SAMF只需要一个滤波器,不需要额外训练和存储,每个尺度检测就一次提特征和FFT,但在图像块较大时计算量比DSST高。&/li&&/ol&&p&所以尺度检测DSST并不总是比SAMF好,其实&b&在VOT2015和VOT2016上SAMF都是超过DSST的&/b&,当然这主要是因为特征更好,但至少说明尺度方法不差。总的来说,DSST做法非常新颖,速度更快,SAMF同样优秀也更加准确。&/p&&ul&&li&&b&DSST一定要33个尺度吗?&/b&&/li&&/ul&&p&DSST标配33个尺度非常非常敏感,轻易降低尺度数量,即使你增加相应步长,尺度滤波器也会完全跟不上尺度变化。关于这一点可能解释是,训练尺度滤波器用的是一维样本,而且没有循环移位,这就意味着一次训练更新只有33个样本,如果降低样本数量,会造成训练不足,分类器判别力严重下降,不像平移滤波器有非常多的移位样本(&i&个人看法欢迎交流&/i&)。&b&总之,请不要轻易尝试大幅降低尺度数量,如果非要用尺度滤波器33和1.02就很好&/b&。&/p&&p&以上就是两种推荐的尺度检测方法,以后简称为&b&类似DSST的多尺度&/b&和&b&类似SAMF的多尺度&/b&。如果更看重速度,加速版的fDSST,和仅3个尺度的SAMF(如VOT2014中的&b&KCF&/b&)就是比较好的选择;如果更看重精确,33个尺度的DSST,及7个尺度的SAMF就比较合适。&/p&&h2&第五部分:边界效应&/h2&&p&&b&接下来到了VOT2015竞赛&/b& &a href=&//link.zhihu.com/?target=http%3A//votchallenge.net/vot2015/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VOT2015 Challenge | Home&/a& ,这一年有60个精挑细选的序列,62个tracker,最大看点是&b&深度学习&/b&开始进击tracking领域,&b&MDNet&/b&直接拿下当年的冠军,而&b&结合深度特征的相关滤波&/b&方法DeepSRDCF是第二名,主要&b&解决边界效应&/b&的SRDCF仅HOG特征排在第四:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-06caea4e02775_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1553& data-rawheight=&599& class=&origin_image zh-lightbox-thumb& width=&1553& data-original=&https://pic4.zhimg.com/50/v2-06caea4e02775_r.jpg&&&/figure&&p&随着VOT竞赛的影响力扩大,举办方也是用心良苦,经典的和顶尖的齐聚一堂,百家争鸣,&b&多达62个tracker&/b&皇城PK,华山论剑。除了前面介绍的深度学习和相关滤波,还有结合object proposals(&i&类物体区域检测&/i&)的&b&EBT(&/b&&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&EBT:Proposal与Tracking不得不说的秘密 - 知乎专栏&/a&&b&)&/b&排第三,Mean-Shift类颜色算法&b&ASMS&/b&是推荐实时算法,还有前面提到的另一个颜色算法&b&DAT&/b&,而在第9的那个Struck已经不是原来的Struck了。除此之外,还能看到经典方法如OAB, STC, CMT, CT, NCC等都排在倒数位置, 经典方法已经被远远甩在后面。&/p&&p&在介绍SRDCF之前,先来分析下相关滤波有什么缺点。&b&总体来说,相关滤波类方法对快速变形和快速运动情况的跟踪效果不好&/b&。&/p&&p&&b&快速变形主要因为CF是模板类方法。&/b&容易跟丢这个比较好理解,前面分析了相关滤波是模板类方法,如果目标快速变形,那基于HOG的梯度模板肯定就跟不上了,如果快速变色,那基于CN的颜色模板肯定也就跟不上了。这个还和模型更新策略与更新速度有关,固定学习率的线性加权更新,如果学习率太大,部分或短暂遮挡和任何检测不准确,模型就会学习到背景信息,积累到一定程度模型跟着背景私奔了,一去不复返。如果学习率太小,目标已经变形了而模板还是那个模板,就会变得不认识目标。&/p&&p&&b&快速运动主要是边界效应(Boundary Effets)&/b&,而且边界效应产生的错误样本会造成分类器判别力不够强,下面分训练阶段和检测阶段分别讨论。&/p&&p&&b&训练阶段,合成样本降低了判别能力&/b&。如果&b&不加余弦窗&/b&,那么移位样本是长这样的:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-fbcd68a286_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1209& data-rawheight=&573& class=&origin_image zh-lightbox-thumb& width=&1209& data-original=&https://pic4.zhimg.com/50/v2-fbcd68a286_r.jpg&&&/figure&&p&除了那个最原始样本,其他样本都是“合成”的,100*100的图像块,只有1/10000的样本是真实的,这样的样本集根本不能拿来训练。如果&b&加了余弦窗&/b&,由于图像边缘像素值都是0,循环移位过程中只要目标保持完整,就认为这个样本是合理的,只有当目标中心接近边缘时,目标跨越了边界的那些样本是错误的,这样虽不真实但合理的样本数量增加到了大约2/3(一维情况padding= 1)。但我们不能忘了即使这样仍然有1/3(&a href=&tel:&&&/a&)的样本是不合理的,这些样本会降低分类器的判别能力。再者,&b&加余弦窗也不是“免费的”&/b&,余弦窗将图像块的边缘区域像素全部变成0,大量过滤掉了分类器本来非常需要学习的背景信息,原本训练时判别器能看到的背景信息就非常有限,我们还加了个余弦窗挡住了背景,这样进一步降低了分类器的判别力(&i&是不是上帝在我前遮住了帘。。不是上帝,是余弦窗&/i&)。&/p&&p&&b&检测阶段,相关滤波对快速运动的目标检测比较乏力&/b&。相关滤波训练的图像块和检测的图像块大小必须是一样的,这就是说你训练了一个100*100的滤波器,那你也只能检测100*100的区域,如果打算通过加更大的padding来扩展检测区域,那样除了扩展了复杂度,并不会有什么好处。目标运动可能是目标自身移动,或摄像机移动,按照目标在检测区域的位置分四种情况来看:&/p&&ol&&li&如果目标在中心附近,检测准确且成功。&/li&&li&如果目标移动到了边界附近但还没有出边界,加了余弦窗以后,部分目标像素会被过滤掉,这时候就没法保证这里的响应是全局最大的,而且,这时候的检测样本和训练过程中的那些不合理样本很像,所以很可能会失败。&/li&&li&如果目标的一部分已经移出了这个区域,而我们还要加余弦窗,很可能就过滤掉了仅存的目标像素,检测失败。&/li&&li&如果整个目标已经位移出了这个区域,那肯定就检测失败了。&/li&&/ol&&p&&b&以上就是边界效应(Boundary Effets),推荐两个主流的解决边界效应的方法,其中SRDCF速度比较慢,并不适合实时场合&/b&。&/p&&p&&b&Martin Danelljan&/b&的&b&SRDCF&/b& &a href=&//link.zhihu.com/?target=http%3A//www.cvl.isy.liu.se/research/objrec/visualtracking/regvistrack/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning Spatially Regularized Correlation Filters for Visual Tracking&/a&,主要思路:既然边界效应发生在边界附近,那就忽略所有移位样本的边界部分像素,或者说限制让边界附近滤波器系数接近0:&/p&&ul&&li&Danelljan M, Hager G, Shahbaz Khan F, et al. &b&Learning spatially regularized correlation filters for visual tracking&/b& [C]// ICCV. 2015.&/li&&/ul&&figure&&img src=&https://pic2.zhimg.com/50/v2-c5bbc6b84b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1321& data-rawheight=&400& class=&origin_image zh-lightbox-thumb& width=&1321& data-original=&https://pic2.zhimg.com/50/v2-c5bbc6b84b_r.jpg&&&/figure&&p&SRDCF基于DCF,类SAMF多尺度,采用&b&更大的检测区域&/b&(padding = 4),同时&b&加入空域正则化&/b&,惩罚边界区域的滤波器系数,由于没有闭合解,采用高斯-塞德尔方法迭代优化。检测区域扩大(1.5-&4),迭代优化(破坏了闭合解)导致SRDCF只有5FP,但效果非常好是2015年的baseline。&/p&&p&另一种方法是&b&Hamed Kiani&/b&提出的MOSSE改进算法,基于灰度特征的&b&CFLM&/b& &a href=&//link.zhihu.com/?target=http%3A//www.hamedkiani.com/cfwlb.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Correlation Filters with Limited Boundaries&/a& 和基于HOG特征的&b&BACF &/b&&a href=&//link.zhihu.com/?target=http%3A//www.hamedkiani.com/bacf.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning Background-Aware Correlation Filters for Visual Tracking&/a&,主要思路是采用较大尺寸检测图像块和较小尺寸滤波器来提高真实样本的比例,或者说滤波器填充0以保持和检测图像一样大,同样没有闭合解,采用ADMM迭代优化:&/p&&ul&&li&Kiani Galoogahi H, Sim T, Lucey S. &b&Correlation filters with limited boundaries &/b&[C]// CVPR, 2015.&/li&&li&Kiani Galoogahi H, Fagg A, Lucey S. &b&Learning Background-Aware Correlation Filters for Visual Tracking &/b&[C]// ICCV, 2017.&/li&&/ul&&figure&&img src=&https://pic4.zhimg.com/50/v2-8b5a1516ecc6c2bf1373a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1157& data-rawheight=&505& class=&origin_image zh-lightbox-thumb& width=&1157& data-original=&https://pic4.zhimg.com/50/v2-8b5a1516ecc6c2bf1373a_r.jpg&&&/figure&&p&CFLB仅单通道灰度特征,虽然速度比较快167FPS,但性能远不如KCF,不推荐;最新BACF将特征扩展为多通道HOG特征,性能超过了SRDCF,而且速度比较快35FPS,非常推荐。&/p&&p&其实这两个解决方案挺像的,都是用更大的检测及更新图像块,训练作用域比较小的相关滤波器,不同点是SRDCF的滤波器系数从中心到边缘平滑过渡到0,而CFLM直接用0填充滤波器边缘。&/p&&p&VOT2015相关滤波方面还有排在第二名,&b&结合深度特征&/b&的&b&DeepSRDCF&/b&,因为深度特征都非常慢,在CPU上别说高速,实时都到不了,虽然性能非常高,但这里就不推荐,先跳过。&/p&&h2&第六部分:颜色直方图与相关滤波&/h2&&p&&b&VOT2016竞赛&/b& &a href=&//link.zhihu.com/?target=http%3A//votchallenge.net/vot2016/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VOT2016 Challenge | Home&/a&,依然是VOT2015那60个序列,不过这次做了重新标注更加公平合理,今年有70位参赛选手,意料之中深度学习已经雄霸天下了,8个纯&b&CNN方法&/b&和6个&b&结合深度特征&/b&的CF方法大都名列前茅,还有一片的CF方法,最最最重要的是,良心举办方竟然公开了他们能拿到的&b&38个tracker,部分tracker代码和主页,下载地址&/b&:&a href=&//link.zhihu.com/?target=http%3A//votchallenge.net/vot2016/trackers.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VOT2016 Challenge | Trackers&/a& (&i&以后妈妈再也不用担心我找不到源码了~&/i&),注意部分是下载链接,部分是源码压缩包,部分源码是二进制文件,好不好用一试便知,方便对比和研究,需要的赶快去试试。马上来看竞赛结果(&i&这里仅列举前60个&/i&):&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-26092e9decb_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&862& data-rawheight=&507& class=&origin_image zh-lightbox-thumb& width=&862& data-original=&https://pic2.zhimg.com/50/v2-26092e9decb_r.jpg&&&/figure&&p&高亮标出来了前面介绍过的或比较重要的方法,结合多层深度特征的相关滤波&b&C-COT&/b&排第一名,而CNN方法&b&TCNN&/b&是VOT2016的冠军,作者也是VOT2015冠军MDNet,纯颜色方法&b&DAT&/b&和&b&ASMS&/b&都在中等水平(&i&其实两种方法实测表现非常接近&/i&),其他tracker的情况请参考论文。再来看速度,SMACF没有公开代码,&b&ASMS&/b&依然那么快,排在前10的方法中也有两个速度比较快,分别是排第5的&b&Staple&/b&,和其改进算法排第9的&b&STAPLE+&/b&,而且STAPLE+是今年的推荐实时算法。首先恭喜Luca Bertinetto的&b&SiamFC&/b&和&b&Staple&/b&都表现非常不错,然后再为大牛默哀三分钟(&i&VOT2016的paper原文&/i&):&/p&&blockquote&This was particularly obvious in case of SiamFC trackers, which runs orders higher than realtime (albeit on GPU), and Staple, which is realtime, but are incorrectly among the non-realtime trackers.&/blockquote&&p&VOT2016竟然发生了乌龙事件,&b&Staple在论文中CPU上是80FPS,怎么EFO在这里只有11&/b&?幸好公开代码有Staple和STAPLE+,实测下来,虽然我电脑不如Luca Bertinetto大牛但Staple我也能跑76FPS,而更可笑的是,&b&STAPLE+比Staple慢了大约7-8倍&/b&,竟然EFO高出4倍,到底怎么回事呢?&/p&&p&首先&b&看Staple的代码&/b&,如果您直接下载Staple并设置params.visualization = 1,Staple默认调用Computer Vision System Toolbox来显示序列图像,而恰好如果您没有这个工具箱,默认每帧都会用imshow(im)来显示图像,所以非常非常慢,而设置&b&params.visualization = 0&/b&就跑的飞快(&i&作者你是孙猴子派来的逗逼吗&/i&),建议您将显示图像部分代码替换成DSST中对应部分代码就可以正常速度运行和显示了。&/p&&p&再来&b&看STAPLE+的代码&/b&,对Staple的改进包括额外从颜色概率图中提取HOG特征,特征增加到&b&56通道&/b&(Staple是28通道),平移检测额外加入了&b&大位移光流运动估计&/b&的响应,所以才会这么慢,而且肯定要慢很多。&/p&&p&所以很大可能是&b&VOT举办方把Staple和STAPLE+的EFO弄反了&/b&,&b&VOT2016的实时推荐算法应该是排第5的Staple,相关滤波结合颜色方法,没有深度特征更没有CNN,跑80FPS还能排在第五&/b&,这就是接下来主要介绍的,2016年最NIUBILITY的目标跟踪算法之一Staple (&i&直接让排在后面的一众深度学习算法怀疑人生&/i&)。&/p&&p&&b&颜色特征&/b&,在目标跟踪中颜色是个非常重要的特征,不管多少个人在一起,只要目标穿不用颜色的一幅就非常明显。前面介绍过2014年CVPR的CN是相关滤波框架下的模板颜色方法,这里隆重介绍&b&统计颜色特征方法DAT&/b& &a href=&//link.zhihu.com/?target=http%3A//lrs.icg.tugraz.at/members/possegger%23dat& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning, Recognition, and Surveillance @ ICG&/a& ,帧率15FPS推荐:&/p&&ul&&li&Possegger H, Mauthner T, Bischof H. &b&In defense of color-based model-free tracking&/b& [C]// CVPR, 2015. &/li&&/ul&&p&DAT统计前景目标和背景区域的颜色直方图并归一化,这就是&b&前景和背景的颜色概率模型,&/b&检测阶段,&b&贝叶斯方法判别&/b&每个像素属于前景的概率,得到像素级颜色概率图,再加上边缘相似颜色物体抑制就能得到目标的区域了。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-08fb77bfea69b2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&267& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic4.zhimg.com/50/v2-08fb77bfea69b2_r.jpg&&&/figure&&p&如果要用一句话介绍&b&Luca Bertinetto&/b&(&i&牛津大学&/i&)的&b&Staple&/b& &a href=&//link.zhihu.com/?target=http%3A//www.robots.ox.ac.uk/%7Eluca/staple.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Staple tracker&/a&,那就是把模板特征方法DSST(基于DCF)和统计特征方法DAT结合: &/p&&ul&&li&Bertinetto L, Valmadre J, Golodetz S, et al. &b&Staple: Complementary Learners for Real-Time Tracking&/b& [C]// CVPR, 2016.&/li&&/ul&&p&前面分析了相关滤波模板类特征(HOG)对快速变形和快速运动效果不好,但对运动模糊光照变化等情况比较好;而颜色统计特征(颜色直方图)对变形不敏感,而且不属于相关滤波框架没有边界效应,快速运动当然也是没问题的,但对光照变化和背景相似颜色不好。综上,这两类方法可以互补,也就是说DSST和DAT可以互补结合:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-e662af9c37c8fe_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&748& data-rawheight=&334& class=&origin_image zh-lightbox-thumb& width=&748& data-original=&https://pic4.zhimg.com/50/v2-e662af9c37c8fe_r.jpg&&&/figure&&p&两个框架的算法高效无缝结合,25FPS的DSST和15FPS的DAT,而结合后速度竟然达到了&b&80FPS&/b&。DSST框架把跟踪划分为两个问题,即平移检测和尺度检测,DAT就加在平移检测部分,相关滤波有一个响应图,像素级前景概率也有一个响应图,两个响应图&b&线性加权&/b&得到最终响应图,其他部分与DSST类似,平移滤波器、尺度滤波器和颜色概率模型都以固定学习率线性加权更新。&/p&&p&另一种相关滤波结合颜色概率的方法是17CVPR的&b&CSR-DCF&/b&,提出了空域可靠性和通道可靠性,没有深度特征性能直逼C-COT,速度可观&b&13FPS:&/b&&/p&&ul&&li&Luke?i? A, Vojí? T, ?ehovin L, et al. &b&Discriminative Correlation Filter with Channel and Spatial Reliability&/b& [C]// CVPR, 2017.&/li&&/ul&&p&CSR-DCF中的空域可靠性得到的二值掩膜就类似于&b&CFLM中的掩膜矩阵P&/b&,在这里自适应选择更容易跟踪的目标区域且减小边界效应;以往多通道特征都是直接求和,而CSR-DCF中&b&通道采用加权求和&/b&,而通道可靠性就是那个自适应加权系数。采用&b&ADMM&/b&迭代优化,可以看出CSR-DCF是DAT和CFLB的结合算法。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-3a4be80f75f3e490d69b3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&473& data-rawheight=&410& class=&origin_image zh-lightbox-thumb& width=&473& data-original=&https://pic4.zhimg.com/50/v2-3a4be80f75f3e490d69b3_r.jpg&&&/figure&&p&VOT2015相关滤波还有排第一名的&b&C-COT&/b&(别问我第一名为什么不是冠军,我也不知道),和DeepSRDCF一样先跳过。&/p&&h2&第七部分:long-term和跟踪置信度&/h2&&p&以前提到的很多CF算法,也包括VOT竞赛,都是针对&b&short-term&/b&的跟踪问题,即短期(shor-term)跟踪,我们只关注短期内(如100~500帧)跟踪是否准确。但在实际应用场合,我们希望正确跟踪时间长一点,如几分钟或十几分钟,这就是长期(&b&long-term&/b&)跟踪问题。&/p&&p&&b&Long-term&/b&就是希望tracker能长期正确跟踪,我们分析了前面介绍的方法不适合这种应用场合,必须是short-term tracker + detecter配合才能实现正确的长期跟踪。&/p&&blockquote&用一句话介绍Long-term,就是给普通tracker配一个detecter,在发现跟踪出错的时候调用自带detecter重新检测并矫正tracker。 &/blockquote&&p&介绍CF方向一篇比较有代表性的long-term方法,Chao Ma的&b&LCT&/b& &a href=&//link.zhihu.com/?target=https%3A//github.com/chaoma99/lct-tracker& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&chaoma99/lct-tracker&/a&: &/p&&ul&&li&Ma C, Yang X, Zhang C, et al. &b&Long-term correlation tracking&/b&[C]// CVPR, 2015. &/li&&/ul&&p&LCT在DSST一个平移相关滤波Rc和一个尺度相关滤波的基础上,又加入第三个&b&负责检测目标置信度的相关滤波Rt&/b&,检测模块Online Detector是&b&TLD中所用的随机蔟分类器&/b&(random fern),在代码中改为SVM。第三个置信度滤波类似MOSSE不加padding,而且特征也不加cosine窗,放在平移检测之后。 &/p&&figure&&img src=&https://pic2.zhimg.com/50/}

我要回帖

更多关于 lass测试题 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信