1.通过计算机视觉跟踪人物得到位置信息,在龙芯派计算组上对感兴趣的展品进行综合判断,最后在自制物联网耳机上播放对应的展品解说,充当智能导游。
2.输入的信息是人物位置,输入的信息是展品解说,达成人机交互。
3.为了减少延时,和增加可移动性,我们在原先的基础上使用了边缘设备,和分布式计算技术。
利用hardoop架构,以一个龙芯派为主节点,以另一个龙芯派为副节点,组成龙芯计算组,由主节点龙芯派调度任务,进行分布式计算,提高服务端处理能力并保存用户的参观数据。架构图如下
总控由两个龙芯派组成的计算组担任,通过接受自制iot耳机的数据以及参馆人员跟踪(EdgeBoard边缘设备)传回的数据进行耳机与参观人员的匹配,判断参观人员对展品的感兴趣程度,对iot耳机进行信息通信等任务,达到EdgeBoard,龙芯派,iot耳机的联动,实现人机交互的目的。 具体流程如下图
下面这张思维导图展示了我们最终的目标跟踪项目的算法思路: Figure 1:这是我们整个算法(最终工程项目)的思维导图:包含四个模块,DeepSort 模块、Detector 模块、 ReID_Extractor 模块以及 Tracking by Detection“总控”模块。
可以看到,我们训练了三个 ReID 特征提取网络,就是考虑到实际应用是需要尽可能轻量 级、推理速度快的网络。 理论上来说,ReID 对最终目标跟踪的效果是相对小的:无论是在 Simple Online and Realtime Tracking with a Deep Association Metric 或者是在 FairMOT: On the Fairness of Detection and Re-Identification in Multiple Object Tracking 中,再或者其它的相关论文中,都有直接或间接的实验论证这一点。不同的 re-ID models(特征提取网络),对最终的跟踪效果影响相对较小。 因此,后续继续优化该项目,可以考虑更换更加轻量级的 re-ID models,从而达到 real-time 的实际应用需求。
Figure 2:训练得到 ppyolo detector 的过程
尽管这个过程看起来很简单,但在实际操作的过程中还是会遇到很多的问题的。当然, 我们不仅仅只是训练了这一个目标检测模型,同时我们还训练了使用 MOT20 数据集的 ppyolo 模型和 MOT20 数据集、Crowdhuman 数据集训练的 CenterNet(Free)模型以及在最初实验的时候,我们使用的是 PaddleHub 中使用百度自制的行人数据集训练的 yolo v3 模型。另外,值得一提的是,在最终项目落地的时候,为尽可能的考虑到它的实用性,我们需要将现有的目标检测模型换成更轻量级的目标检测模型:ppyolo-tiny。
Figure 3:DeepSort 的跟踪流程:1、通过卡尔曼滤波得到检测目标的预测值。 2、计算 。 3、卡尔曼滤波更新。4、 Association with deep features。
Figure 4:四个相应模块,辅助 Tracker 的 update.
通过自制PCB,集成了ESP8266和耳机口,可与互联网相连接,小巧,轻便。(PCB见耳机部分文件夹)
我们使用Arduino对自制耳机进行开发,首先自动连接博物馆Wifi,再与龙芯派计算组进行信息的传递(ID 的匹配,音频的传输等),最后通过播放器播放展品解说。 下图为耳机工作过程
杨雨桥 韩鹏远 吴昊洋
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。