1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?

打开今天的 GitHub Trending。
有一个叫 wifi-densepose 的开源项目 登上了热榜,一天斩获了 2000+ 的 Star 。
它号称不需要摄像头,仅通过 WiFi 信号就能看见还原出房间里人的动作和姿态。
图片[1]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News

WiFi DensePose 是一个把普通 WiFi 信号变成人体姿态 + 生命体征 + 存在检测的开源项目。

它的输入是 WiFi 的 Channel State Information(CSI),每个子载波的幅度+相位,以及部分场景下的 RSSI。

说是能够输出多人 3D 或 2D 姿态、呼吸率、心率等信息。

研究了一下,虽然这个开源项目很火。但是当前实现的能力和 README 里说的穿墙 DensePose 全身追踪有很大差距,目前还不是一个扎实落地的完整开源实现。

01

开源项目简介

WiFi 信号在空间中传播时,遇到人体会产生反射、折射和散射。就像光照在人身上会投下影子一样,WiFi 信号也会被身体改变。

项目通过捕捉一种叫 CSI 的数据,分析这些微小的信号波动,从而推断出人的位置、肢体动作甚至心率。

图片[2]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News
开源地址:https://github.com/ruvnet/wifi-densepose

CMU 之前发过一个论文《DensePose From WiFi》。

就是使用深度神经网络,把 WiFi CSI 的相位和幅度映射到 24 个身体区域的 UV 坐标。

如果想达到非常好的效果:需要专门的 CSI 硬件,还要精心采集和标注数据集。同时需要上十万步迭代的大规模训练和复杂 loss 设计。

项目提到了 Dense 这个词,就意味着它应该不是只识别几个关节,比如手肘、膝盖,而是试图还原出人体表面的 3D 模型网格。

识别出人体 24 个不同的部位,并把它们映射到 3D 坐标系中。

但是,翻了一下 wifi-densepose 开源项目,作者在 Issue #39 中自己承认:

现在还没有实现的:“Full DensePose-quality estimation”——真正意义上论文级的 DensePose from WiFi,需要训练的神经网络,目前只是写在 roadmap 上,还没完成。

图片[3]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News图片[4]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News

所以开源项目 wifi-densepose 目前更像一个功能有限但真实存在的 WiFi 感知 Demo,还停留在原型、子功能阶段的东西。

使用时一定要降低预期,把它当作研究性玩具,而不是已经实现了论文级 DensePose from WiFi 的成品系统。

02

如何使用

上面也提到了,这个开源项目的效果其实并没有匹配上它自己的热度。

README 上那种一键 docker run 就能穿墙实时全身姿态的宣传,和当前实际能做到的事情差距非常大,这种宣传还是挺有误导性的。

如果你只是想先体验效果看看,可以电脑上装好 Docker,然后运行:

docker pull ruvnet/wifi-densepose:latestdocker run -p 3000:3000 -p 3001:3001 -p 5005:5005/udp ruvnet/wifi-densepose:latest

在浏览器打开 http://localhost:3000,就能看到 3D 姿态可视化界面了。

如果你还没配好 ESP32 / CSI 网卡,可以先用项目自带的测试信号或录制数据,验证一下端到端流程,再考虑整个硬件。

03

点击下方卡片,关注逛逛 GitHub

这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:

图片

<原文链接:https://mp.weixin.qq.com/s/KbvFPODzQtEODvkSsyShlA

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容