![图片[1]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260302234737990-1772466457-449cd83496ece5bf3b5e1456fa05278a.png)
WiFi DensePose 是一个把普通 WiFi 信号变成人体姿态 + 生命体征 + 存在检测的开源项目。
它的输入是 WiFi 的 Channel State Information(CSI),每个子载波的幅度+相位,以及部分场景下的 RSSI。
说是能够输出多人 3D 或 2D 姿态、呼吸率、心率等信息。
研究了一下,虽然这个开源项目很火。但是当前实现的能力和 README 里说的穿墙 DensePose 全身追踪有很大差距,目前还不是一个扎实落地的完整开源实现。
01
开源项目简介
WiFi 信号在空间中传播时,遇到人体会产生反射、折射和散射。就像光照在人身上会投下影子一样,WiFi 信号也会被身体改变。
项目通过捕捉一种叫 CSI 的数据,分析这些微小的信号波动,从而推断出人的位置、肢体动作甚至心率。
![图片[2]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260302234740758-1772466460-2836c636865df559ad014b97b9d3ad83.png)
开源地址:https://github.com/ruvnet/wifi-denseposeCMU 之前发过一个论文《DensePose From WiFi》。
就是使用深度神经网络,把 WiFi CSI 的相位和幅度映射到 24 个身体区域的 UV 坐标。
如果想达到非常好的效果:需要专门的 CSI 硬件,还要精心采集和标注数据集。同时需要上十万步迭代的大规模训练和复杂 loss 设计。
项目提到了 Dense 这个词,就意味着它应该不是只识别几个关节,比如手肘、膝盖,而是试图还原出人体表面的 3D 模型网格。
识别出人体 24 个不同的部位,并把它们映射到 3D 坐标系中。
但是,翻了一下 wifi-densepose 开源项目,作者在 Issue #39 中自己承认:
现在还没有实现的:“Full DensePose-quality estimation”——真正意义上论文级的 DensePose from WiFi,需要训练的神经网络,目前只是写在 roadmap 上,还没完成。
![图片[3]-1 天斩获 2000 的 Star!用 WiFi 检测人体姿态、监测生命特征?-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260302234742650-1772466462-75e7605fc2c6f656ed7c8e04ecf7cac7.png)
所以开源项目 wifi-densepose 目前更像一个功能有限但真实存在的 WiFi 感知 Demo,还停留在原型、子功能阶段的东西。
使用时一定要降低预期,把它当作研究性玩具,而不是已经实现了论文级 DensePose from WiFi 的成品系统。
02
如何使用
上面也提到了,这个开源项目的效果其实并没有匹配上它自己的热度。
README 上那种一键 docker run 就能穿墙实时全身姿态的宣传,和当前实际能做到的事情差距非常大,这种宣传还是挺有误导性的。
如果你只是想先体验效果看看,可以电脑上装好 Docker,然后运行:
docker pull ruvnet/wifi-densepose:latestdocker run -p 3000:3000 -p 3001:3001 -p 5005:5005/udp ruvnet/wifi-densepose:latest
在浏览器打开 http://localhost:3000,就能看到 3D 姿态可视化界面了。
如果你还没配好 ESP32 / CSI 网卡,可以先用项目自带的测试信号或录制数据,验证一下端到端流程,再考虑整个硬件。
03
点击下方卡片,关注逛逛 GitHub
这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:

<原文链接:https://mp.weixin.qq.com/s/KbvFPODzQtEODvkSsyShlA


















暂无评论内容