反过来,老任的东西也可以这么玩:电视机顶上放两个camera(手柄),手上拿一个红外led光源。于是根据两个camera的位置,和光源在两个camera上的成像坐标,也可以计算出光源的三维坐标,就好比人用两只眼睛可以知道物体的远近一样。在计算几何学里,这是一个最最最最普通的multi-view geometry问题,属于本科生毕业设计水平,或者研究生课堂项目的水平。本人就在去年用两只wii手柄和OpenCV实现过,还挺准的。
最后再说两句这个camera。它的原理说起来很简单,初中物理即可理解,但要做出来可不简单。它里面有个光源,以100Hz的频率发光,光线照射到目标,然后反射回来,被sensor探测到。于是,到目标的距离就是(光线来回的时间差/2)/光速。例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。
原帖由 superjay 于 2009-6-5 09:54 发表
这个我也看过,webcam镜头前贴相片底片,过滤可见光源,只捕捉到红外射线,之前考虑用这个来模拟鼠标,在客厅使用很方便,遥控板对着电视机摄像头挥舞就行了,HTPC应用价值很大
和我的理解一样,昨天解释 ...
原帖由 Firesun 于 2009-6-5 10:09 发表
识别距离是2.5m的时间差是16.67纳秒,这个就算能接受,那么识别2.45m和2.5m的移动,就是0.333纳米,这个精度已经能达到了么?
原帖由 hahalee 于 2009-6-5 10:15 发表
哈哈,说实话我也没用过这种摄像头。不过你说得对,用这种技术识别细小的运动可能是个问题。微软的那个摄像头,精度误差到底是多大,只有他们自己知道。
例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。
原帖由 superjay 于 2009-6-5 10:34 发表
一方面,精度要高,才能分辨出玩家细微轮廓
另一方面,采集帧数至少要达到60fps左右,那么以1/60左右的快门速度捕捉影象,就可以识别到16ns前后的反射射线
为什么必须是摄相头呢——因为不是捕捉单个点,而 ...
原帖由 ffcactus 于 2009-6-5 10:44 发表
我和BD(或许只是我)的意思是, 就是给你人体轮廓的全息信息, 也很难识别所有关节运动,更别提手头等,面部表情等。
所以Full Body Motion Capture很是夸张。
原帖由 superjay 于 2009-6-5 10:56 发表
我的意思是,这个如果没难度,何必招聘那么大帮人来搞研究,又不是国内学校养的学术腐败分子
我保持乐观态度,说过了,因为近年来比较关注这个技术,从track ir开始都是单摄像头实现三维空间识别,可以说是初 ...
原帖由 hahalee 于 2009-6-5 09:46 发表
最后再说两句这个camera。它的原理说起来很简单,初中物理即可理解,但要做出来可不简单。它里面有个光源,以100Hz的频率发光,光线照射到目标,然后反射回来,被sensor探测到。于是,到目标的距离就是(光线来回的时间差/2)/光速。例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。
原帖由 mapledot 于 2009-6-5 11:07 发表
每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?
如果区区一台360就能完成这么精确的深度采样定位,那动辄花费数亿美金的好莱坞大片为什么不引进这一技 ...
原帖由 村上春樹 于 2009-6-5 11:29 发表
SONY 的EYETOY+按摩棒原來是MOCAP啊
果然是SONY東西就是好,兩百美元的東西幹掉了自家兩萬美元電影界用的MOCAP設備
這不是SF前面說的,常識上我不相信這東西存在.![]()
原帖由 mapledot 于 2009-6-5 11:30 发表
LZ不是说了吗,那就是MOTION CAPTURE啊,只不过关键点比较少而已。难道对于LZ的文章,你只相信自己愿意相信的部分?这算缩头吗?:D :D
原帖由 村上春樹 于 2009-6-5 11:33 发表
LZ哪裡說了這是MOCAP.![]()
你們的常識大神不是不願意相信這東西存在嗎?
200美元的EYETOY+按摩棒,怎麼一下子可以與MOTION CAPTURE相比了。電影界怎還不使用呢?
應該要不予相信.![]()
原帖由 LTFYH 于 2009-6-5 11:36 发表
那这样说SONY用的也就是类似与好莱坞的MOTION CAPTURE技术更精确咯?自己抽自己吗
-----
这是 JOHNNY LEE在自己博客中写的
" 但当你有了点集和环境3D信息后,你要让机器将点集诠释成人体。这里便是让同 ...
原帖由 村上春樹 于 2009-6-5 11:37 发表
沒看到LZ用了MOCAP這詞啊,你自己YY的就先扯淡![]()
只看到一個計算物體於三維空間的遠近與其上定位點座標,就認為這是mocap了
是你自己說sony的et+按摩棒是mocap,怎麼當看到微軟的東西便說我不願意相 ...
原帖由 ffcactus 于 2009-6-5 10:44 发表
我和BD(或许只是我)的意思是, 就是给你人体轮廓的全息信息, 也很难识别所有关节运动,更别提手头等,面部表情等。
所以Full Body Motion Capture很是夸张。
原帖由 Minstrelboy 于 2009-6-5 10:50 发表
LZ枉读了博士,还是那么naive。你以为在这里战需要你的博士专业知识??
天师点神FF神小水等人只需要无下限的智商和脸皮厚度就可以了
原帖由 mapledot 于 2009-6-5 11:07 发表
每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?
如果区区一台360就能完成这么精确的深度采样定位,那动辄花费数亿美金的好莱坞大片为什么不引进这一技 ...
最最后,本人不是任何公司的fans。但我还是要对微软研究院里的天才们,为他们长期以来在computer vision上的杰出贡献,脱帽致敬。
原帖由 superjay 于 2009-6-5 12:23 发表
我发现一个特点,FF一拨的群体,都喜欢把别人的话拿来重复一遍,好象就变成自己的真知灼见了
什么idog、语音识别、深度摄相头,见一个学一个,嘴巴比鹦鹉还灵
这小子也这个德行
估计也20出头胡子一把了 ...
原帖由 superjay 于 2009-6-5 22:10 发表
啧啧,狗急跳墙,开始乱咬人了,
加了个二流子社团就开始威胁无党派群众了,你这种货色还嫌没给S家丢够脸吗,
从昨天到今天,每句话都在丢人显眼、引得众人鄙视,纯粹一败家子、丧门星,
好好一帖子跑进 ...
欢迎光临 TGFC Lifestyle (http://bbs.tgfcer.com/) | Powered by Discuz! 6.0.0 |