厉害了,利用深度学习开发老板探测器(附源码)

vwen82 8年前
   <p>如果上班的时候想放松一下,或者直说想偷偷懒,看点和工作无关的网页,这时候万一老板突然出现在背后,会不会感到很难堪呢?</p>    <p>有的浏览器设置了boss按键,手快的人还可以切换屏幕,不过总会显得不自然,而且经常搞的手忙脚乱的。</p>    <p>一个日本程序员决定自己动手,编写一个一劳永逸的办法,我们来看看他是怎么实现的吧~</p>    <p>思路很直接:用网络摄像头自动识别在工位通道走过的人脸,如果确认是老板的话,就用一张写满了代码的截图覆盖到整个屏幕上。 整个工程中应用了Keras深度学习框架来建立识别人脸的神经网络,和一个网络摄像头用来捕捉老板的人脸。</p>    <p><strong>任务是这样的</strong></p>    <p><strong>当老板接近我的工位时,电脑就会自动切换屏幕</strong></p>    <p>办公室的情况如下:</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/77468c978336a69c2307099f31524b7f.jpg"></p>    <p>从老板的座位到我的座位大约6~7米,他会在离开座位后4到5秒钟到达我的座位,因此,需要在这之前隐藏屏幕,所以时间比较紧迫。</p>    <p><strong>策略</strong></p>    <p>首先需要让电脑完成对老板面部的深度学习。然后在我的办公桌上摆上一个网络摄像头,让摄像头对着通道,当网络摄像头捕捉到老板的脸时就切换屏幕。</p>    <p>嗯,这是一个完美的项目。先取一个好名字,就叫Boss Sensor(老板探测器)好了。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/950e8e6a9058968c62113b7e2ed4f4d6.jpg"></p>    <p>Boss Sensor的简单结构图如下:</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/956b3cfcfbee1e98da8bb9e6d19afc48.jpg"></p>    <p>处理过程分为三步:</p>    <ul>     <li>网络摄像头实时拍摄图像</li>     <li>学习模型检测和识别所拍摄图像的人脸</li>     <li>如果识别结果是老板则切换屏幕</li>    </ul>    <p>所需要的技术实现只有三项:</p>    <ul>     <li>拍摄人脸图像</li>     <li>识别人脸图像</li>     <li>切换屏幕</li>    </ul>    <p>一步步完成之后整合就可以了。</p>    <p><strong>拍摄人脸图像</strong></p>    <p>首先找一个网络摄像头,我用的是BUFFALO BSW20KM11BK摄像头,大家随便找个清晰度够的就可以了。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/e32788234c97624f7cd97a7da7e59e17.jpg"></p>    <p>最好不要用相机自带的识别软件裁剪人脸,因为后面的深度学习过程还需要处理。所以,我用Python和OpenCV编写了一段裁剪人脸图像的脚本,代码在这里下载:</p>    <p>https://github.com/Hironsan/BossSensor/blob/master/camera_reader.py</p>    <p>偷拍到的人脸图像比我之前设想的更清楚▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/87dd64e8ac290a60363469e17bb3ef28.jpg"></p>    <p><strong>识别人脸图像</strong></p>    <p>接下来,要用机器学习教会电脑识别老板的脸。</p>    <p>我们需要以下三个步骤:</p>    <ul>     <li>采集图像</li>     <li>图像预处理</li>     <li>建立机器学习模型</li>    </ul>    <p>让我们一个接一个看一下。</p>    <p><strong>采集图像</strong></p>    <p>首先,需要收集大量的图片供电脑学习。一般来说有三种大量收集图片的方法:</p>    <ul>     <li>谷歌图片搜索</li>     <li>非死book的图像采集</li>     <li>从视频里截图</li>    </ul>    <p>一开始,我像电影里的特工一样收集了各种搜索引擎上的老板照片,还有非死book上老板自己上传的照片,但说实话,没有收集到足够的图像。所以,反正老板就在身边,我就简单粗暴的拍摄了一段他的视频,然后把视频分解成大量的图像。</p>    <p><strong>图像预处理</strong></p>    <p>现在我有很多人脸图像了,但还不能拿它们来建立学习模型,必须要裁剪掉与脸部不相关的部分。</p>    <p>我使用ImageMagick来提取人脸,你可以用别的图像软件来做。</p>    <p>总之,最后我收集了大量的人脸图像,就像这样: ▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/8d6963a6aa3ff9748146301b3806b17a.jpg"></p>    <p>估计我是全世界拥有最多老板头像的人了,肯定比他爸爸妈妈要多的多。</p>    <p>现在可以准备机器学习了。</p>    <p><strong>建立机器学习模型</strong></p>    <p>Keras框架用来建立卷积神经网络和神经网络培训。Tensorflow用来写Keras的后端。如果只识别脸部的话,可以调用一些Web API比如微软的Computer Vision API,但这次我决定自己来实现,因为这个项目需要确保实时性。</p>    <p>网络体系结构大体如下,Keras非常方便,它可以很轻松的输出这样的结构: ▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/b7cd53c67f679cc11394f783e80f620c.jpg"></p>    <p>代码在这里下载:</p>    <p>https://github.com/Hironsan/BossSensor/blob/master/boss_train.py</p>    <p>至此,只要老板出现在摄像头中,我就可以识别出他来了。</p>    <p><strong>切换屏幕</strong></p>    <p>最后一步,很简单,学习模型识别出老板的脸之后,把电脑屏幕换掉就好了。</p>    <p>我是程序员,所以我准备了这样一张图:▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/fd064b612e22dcadd038826a49d165d1.jpg"></p>    <p>电脑上只显示这张图片,这样就可以假装我在认真工作了。</p>    <p>这张图需要全屏显示,所以我调用了PyQt库,代码在这里下载:</p>    <p>https://github.com/Hironsan/BossSensor/blob/master/image_show.py</p>    <p>一切工作都完成了。</p>    <p><strong>成品</strong></p>    <p>最后把分别实现的技术整合起来并验证,真的成功了!</p>    <p>“现在老板离开了座位,正走向我的工位。”▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/0875535cdc41f87d21d7f29632ecd4d2.jpg"></p>    <p>“OpenCV已经检测出人脸,将人脸图像发送给学习模型。”▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/f46fba0bddba71b4064283eb1503e29e.jpg"></p>    <p>“学习模型认出了他,屏幕自动切换。ヽ(‘ ∇‘ )ノ”▼</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/77468c978336a69c2307099f31524b7f.jpg"></p>    <p><strong>总结</strong></p>    <p>结合网络摄像头的实时图像采集和Keras深度学习框架,确实可以完成人脸识别。</p>    <p>在实践过程中,我发现OpenCV的图像精度不够高,虽然不影响识别,但我准备改用Dlib来提高精度,另外我想自己编写人脸检测训练模型。</p>    <p>网络摄像头获取的图像不够清晰,我准备换个摄像头。</p>    <p>唉,坑还是越挖越深啊~</p>    <p> </p>    <p> </p>