Board logo

标题: [业评] 潜水博士忍不住发科普贴,关键字:计算几何学,体感技术,natal,深度摄像机 [打印本页]

作者: hahalee    时间: 2009-6-5 09:46     标题: 潜水博士忍不住发科普贴,关键字:计算几何学,体感技术,natal,深度摄像机

这两天看了大家不少讨论,没有一个人真正能说得清楚透彻的,作为一个身在美国的phd,
我现在就来给大家科普一下三家公司的体感技术原理:

老任的:这个大家想必都比较清楚了,电视机上的sensor bar实际上是两个固定距离的红外光源,手柄上则是一个红外camera,原理不复杂,根据两个红外光源在camera上的成像点坐标,可以计算出手柄相对于屏幕的方位。

反过来,老任的东西也可以这么玩:电视机顶上放两个camera(手柄),手上拿一个红外led光源。于是根据两个camera的位置,和光源在两个camera上的成像坐标,也可以计算出光源的三维坐标,就好比人用两只眼睛可以知道物体的远近一样。在计算几何学里,这是一个最最最最普通的multi-view geometry问题,属于本科生毕业设计水平,或者研究生课堂项目的水平。本人就在去年用两只wii手柄和OpenCV实现过,还挺准的。

sony:我不想批评sony,不过这次sony展出的震动棒其实就是我上面说的原理,用两台camera来对手柄上的那个光球作三维定位,再配合手柄内部的加速度计。当然了,我那个课堂项目是用来混学分的,鲁棒性可用性自然比sony的差了不少,还需要不少改进。但定位原理是一样的,每本computational geometry的教材里都会当作基础知识来讲。不过sony把本科毕设级别的东西拿到E3上来show,未免要让业内人士给看轻了。

微软:这次微软的东西确实比较让外行人震撼,大家可能搞不清楚这到底是怎么做的吧。怎么对全场景的所有东西,而不是仅仅几个光源点,进行三维定位???
我先稍微列举一下外行们直觉上容易想到的办法:

1. 只用一个camera,但依靠神奇的模式识别技术,把图里的东西都认出来,然后比对它们实际的大小和在图像中的大小,就能知道它的大概距离了。
评论:这是最最外行的想法。没错,人闭上一只眼睛以后,还能靠上述原理估算出物体的距离。但是,计算机哪有人那么多知识啊,它怎么知道那东西原来该是多大呢?何况这对模式识别技术要求也太高了。最后,靠这种方法得不到精确的结果。

2. 用两个camera,和multi-view geometry的技术。这个做法是很多computer vision applications的基础,尤其是在augument reality方面。做法变化非常多,我只说个简单的:
首先,对每个camera返回的图像,依靠模式识别把图像里的关键点,关键线找出来,比如桌子的边,人的眼睛等等;然后把两幅图像上的关键点、线进行配对;配对以后就能计算它们三维空间的座标了。依靠这些关键点、线的三维信息,就可以得到整个场景的三维信息。

3. 以上说的两个办法都太依赖模式识别了,而这玩意又往往靠不住。所以实际最常用的,大家在好莱坞大片花絮里看到的,就是用人工的关键点替代模式识别。比如在人身上布满容易识别的小球,周围布上一堆camera。这个大家最容易理解,我就不说了。

那微软的natal用的是什么?以上三个皆不是,natal甚至跟multi-view geometry一点关系都没有。natal使用的是一种叫做“深度摄像机”的特殊camera。英文叫做Time-of-flight camera。国内如果没有被封的话可以看这里:http://en.wikipedia.org/wiki/Time-of-flight_camera

这到底是个什么东西呢?简单讲,这个camera在返给你每一帧图像的同时,也告诉你每个像素点离camera的距离,也就是一幅带有深度信息的图像。这玩意儿简直就像一个雷达一样,直接就把multi-view geometry辛辛苦苦要算的三维信息测出来了。你可以想象一下,这个camera给你的就不是一个平面图像,而是一个三维曲面。微软的软件,就可以直接在这基础上识别目标,和目标的运动。

最后再说两句这个camera。它的原理说起来很简单,初中物理即可理解,但要做出来可不简单。它里面有个光源,以100Hz的频率发光,光线照射到目标,然后反射回来,被sensor探测到。于是,到目标的距离就是(光线来回的时间差/2)/光速。例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。

最最后,本人不是任何公司的fans。但我还是要对微软研究院里的天才们,为他们长期以来在computer vision上的杰出贡献,脱帽致敬。

[ 本帖最后由 hahalee 于 2009-6-5 09:48 编辑 ]
作者: 美版游戏饭丝    时间: 2009-6-5 09:50

顶LZ及微软研究院的哥们
作者: ffcactus    时间: 2009-6-5 09:53

原来如此, 受教, 但视频上好像是有2个深度摄像头啊。
作者: superjay    时间: 2009-6-5 09:54

引用:
反过来,老任的东西也可以这么玩:电视机顶上放两个camera(手柄),手上拿一个红外led光源。于是根据两个camera的位置,和光源在两个camera上的成像坐标,也可以计算出光源的三维坐标,就好比人用两只眼睛可以知道物体的远近一样。在计算几何学里,这是一个最最最最普通的multi-view geometry问题,属于本科生毕业设计水平,或者研究生课堂项目的水平。本人就在去年用两只wii手柄和OpenCV实现过,还挺准的。
这个我也看过,webcam镜头前贴相片底片,过滤可见光源,只捕捉到红外射线,之前考虑用这个来模拟鼠标,在客厅使用很方便,遥控板对着电视机摄像头挥舞就行了,HTPC应用价值很大
引用:
最后再说两句这个camera。它的原理说起来很简单,初中物理即可理解,但要做出来可不简单。它里面有个光源,以100Hz的频率发光,光线照射到目标,然后反射回来,被sensor探测到。于是,到目标的距离就是(光线来回的时间差/2)/光速。例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。
和我的理解一样,昨天解释这个用的发射激光线测量月球距离的例子,初中课本就有,可能大家都忘了
作者: ooo    时间: 2009-6-5 09:56

顶楼主科普贴,感觉有这技术,汽车自动驾驶都可能了,就像霹雳游侠
作者: ffcactus    时间: 2009-6-5 10:01

引用:
原帖由 superjay 于 2009-6-5 09:54 发表


这个我也看过,webcam镜头前贴相片底片,过滤可见光源,只捕捉到红外射线,之前考虑用这个来模拟鼠标,在客厅使用很方便,遥控板对着电视机摄像头挥舞就行了,HTPC应用价值很大



和我的理解一样,昨天解释 ...
请问你昨天在那个帖子里解释了这个技术如同测量月球距离一样?我去学习学习。
作者: seablue    时间: 2009-6-5 10:02

好帖子,真正的深入浅出,受教了
作者: 放PSONY    时间: 2009-6-5 10:02

顶技术贴 萎软很强大
作者: moilow    时间: 2009-6-5 10:03

引用:
原帖由 ffcactus 于 2009-6-5 09:53 发表
原来如此, 受教, 但视频上好像是有2个深度摄像头啊。
另一個是RGB攝像头
作者: seablue    时间: 2009-6-5 10:04

不过wiki上说,这技术对多个物体的运动识别是短板,怪不得微软在展会上说多人应用还需要进一步开发
作者: Firesun    时间: 2009-6-5 10:09

识别距离是2.5m的时间差是16.67纳秒,这个就算能接受,那么识别2.45m和2.5m的移动,就是0.333纳米,这个精度已经能达到了么?
作者: superjay    时间: 2009-6-5 10:12

引用:
原帖由 ffcactus 于 2009-6-5 10:01 发表

请问你昨天在那个帖子里解释了这个技术如同测量月球距离一样?我去学习学习。
自取其辱

http://club.tgfc.com/thread-6082817-6-1.html

80楼,第三排
作者: ooo    时间: 2009-6-5 10:15

[posted by wap]

再yy一下PN技术进化应用在军事和民用领域,无人驾驶,机器人。星球大战的场景很快就来到现实世界了
作者: hahalee    时间: 2009-6-5 10:15

引用:
原帖由 Firesun 于 2009-6-5 10:09 发表
识别距离是2.5m的时间差是16.67纳秒,这个就算能接受,那么识别2.45m和2.5m的移动,就是0.333纳米,这个精度已经能达到了么?
哈哈,说实话我也没用过这种摄像头。不过你说得对,用这种技术识别细小的运动可能是个问题。微软的那个摄像头,精度误差到底是多大,只有他们自己知道。
作者: 金碧辉煌    时间: 2009-6-5 10:17

进来观摩
作者: ffcactus    时间: 2009-6-5 10:19

引用:
原帖由 hahalee 于 2009-6-5 10:15 发表


哈哈,说实话我也没用过这种摄像头。不过你说得对,用这种技术识别细小的运动可能是个问题。微软的那个摄像头,精度误差到底是多大,只有他们自己知道。
这个我估计只能运用在对精度要求不高的场合。
否则拥有海量经费的美国军方早就大加以运用了。
作者: 马拉多纳    时间: 2009-6-5 10:20

[posted by wap, platform: Nokia]

微软是这个领域内的最强者
作者: BD    时间: 2009-6-5 10:24

突然TG的博士比民工数量都多了,“深度摄像机”和适应室内不同光线的“红外摄像机”,是Natal公布的时候地球人都知道了的事情。
关键中的关键是这些技术还是无法做出所谓Full Body Motion Capture,靠这些东西根本不足以保证识别出人的身体,四肢关节,更别提手指,手腕的动作。然后生成Animation直接用在游戏里面。

作者: FXCarl    时间: 2009-6-5 10:25



判定一个三维几何形体是什么,并不容易 ……
作者: ffcactus    时间: 2009-6-5 10:28

恩, BD说得是, 刚才LZ也列举了三种方法, 第三种方法只是简化了识别的第一步。但是LZ自己也说了, 后面那都是靠的模式识别, 太复杂,太没确定性。
full body motion capture估计也是雾里看花罢了。
作者: 逆寒冰冷雨    时间: 2009-6-5 10:31

lz是谁的马甲?
作者: 太平洋雪    时间: 2009-6-5 10:31

我感到比较奇怪,怎么今年E3后TG的博士就雨后春笋了。
作者: 任黑    时间: 2009-6-5 10:31

索尼的才是最好的
作者: superjay    时间: 2009-6-5 10:34

引用:
例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。
一方面,精度要高,才能分辨出玩家细微轮廓

另一方面,采集帧数至少要达到60fps左右,那么以1/60左右的快门速度捕捉影象,就可以识别到16ns前后的反射射线

为什么必须是摄相头呢——因为不是捕捉单个点,而是整个玩家轮廓剪影
作者: ffcactus    时间: 2009-6-5 10:40



左边黄色的是什么, 还有右边两个呢?
我怎么感觉好像是用了2个深度摄像机呢。
作者: 古兰佐    时间: 2009-6-5 10:43

不错,LZ写的还是比较浅显易懂的.
作者: ffcactus    时间: 2009-6-5 10:44

引用:
原帖由 superjay 于 2009-6-5 10:34 发表


一方面,精度要高,才能分辨出玩家细微轮廓

另一方面,采集帧数至少要达到60fps左右,那么以1/60左右的快门速度捕捉影象,就可以识别到16ns前后的反射射线

为什么必须是摄相头呢——因为不是捕捉单个点,而 ...
我和BD(或许只是我)的意思是, 就是给你人体轮廓的全息信息, 也很难识别所有关节运动,更别提手头等,面部表情等。
所以Full Body Motion Capture很是夸张。
作者: Virtue    时间: 2009-6-5 10:45

MS这玩艺和一台主机的价格差不多.
作者: TG下限    时间: 2009-6-5 10:47

haha . lee  = johnny . lee  ?!   
作者: Minstrelboy    时间: 2009-6-5 10:50

LZ枉读了博士,还是那么naive。你以为在这里战需要你的博士专业知识??

天师点神FF神小水等人只需要无下限的智商和脸皮厚度就可以了
作者: superjay    时间: 2009-6-5 10:56

引用:
原帖由 ffcactus 于 2009-6-5 10:44 发表

我和BD(或许只是我)的意思是, 就是给你人体轮廓的全息信息, 也很难识别所有关节运动,更别提手头等,面部表情等。
所以Full Body Motion Capture很是夸张。
我的意思是,这个如果没难度,何必招聘那么大帮人来搞研究,又不是国内学校养的学术腐败分子

我保持乐观态度,说过了,因为近年来比较关注这个技术,从track ir开始都是单摄像头实现三维空间识别,可以说是初级应用、技术雏形,再到3dv去年推出的实际视频,一切都表明natal并非“耸人听闻”

你反复强调的精度问题,那得看研究院的人做到什么程度了,我们没办法知道——何况了,那手柄玩FPS也比不上鼠标,有关系么?谁说手柄FPS也必须追求电子竞技般的精度呢?natal也一样,即使最后精度不够,那么我们不必做高精度需求的应用就可以了
作者: 村上春樹    时间: 2009-6-5 11:07

引用:
原帖由 ffcactus 于 2009-6-5 10:19 发表

这个我估计只能运用在对精度要求不高的场合。
否则拥有海量经费的美国军方早就大加以运用了。
遊戲領域需求的精度是要多高 又或者說你又看過多少美國軍方的科技應用呢?

遊戲應用只需要對有限的資訊作出回應,EYETOY+按摩棒也許讓SF覺得很精準,表現出來的還是應用程式針對所收到的近似值而作反饋
作者: mapledot    时间: 2009-6-5 11:07

每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?

如果区区一台360就能完成这么精确的深度采样定位,那动辄花费数亿美金的好莱坞大片为什么不引进这一技术?而仍然采用落后的人工关键点定位技术?

[ 本帖最后由 mapledot 于 2009-6-5 11:11 编辑 ]
作者: 村上春樹    时间: 2009-6-5 11:10

引用:
原帖由 mapledot 于 2009-6-5 11:07 发表
每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?
如果上面是有DSP來處理空間定位所需的資訊運算,這確實可以排除360端的性能問題,也可以讓該外設更為泛用

以後NETBOOK這種等級的計算機也可以上NATAL,W7需要的只是一個驅動層.
作者: superjay    时间: 2009-6-5 11:10

引用:
原帖由 mapledot 于 2009-6-5 11:07 发表
每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?
费力找茬,找了个老话题,natal设备内置芯片处理采集的信息

至于什么芯片,什么软件,不是你需要担心的
作者: mapledot    时间: 2009-6-5 11:13

引用:
原帖由 superjay 于 2009-6-5 11:10 发表


费力找茬,找了个老话题,natal设备内置芯片处理采集的信息

至于什么芯片,什么软件,不是你需要担心的
也就是360版的32X咯? 价格比360本身还要贵吧
作者: LTFYH    时间: 2009-6-5 11:14

你以为ms会这么白痴吗?出一个比360还贵的外设?
作者: cc0128    时间: 2009-6-5 11:14

PHD顶个毛。
别人计算机科学与信息技术毕业的光用虚拟内存就秒杀你。

[ 本帖最后由 cc0128 于 2009-6-5 11:15 编辑 ]
作者: ffcactus    时间: 2009-6-5 11:15

引用:
原帖由 superjay 于 2009-6-5 10:56 发表


我的意思是,这个如果没难度,何必招聘那么大帮人来搞研究,又不是国内学校养的学术腐败分子

我保持乐观态度,说过了,因为近年来比较关注这个技术,从track ir开始都是单摄像头实现三维空间识别,可以说是初 ...
关键是我就看不惯某些人明明外行, 还把这个NP吹得天花乱坠。
作者: 村上春樹    时间: 2009-6-5 11:15

引用:
原帖由 mapledot 于 2009-6-5 11:13 发表


也就是360版的32X咯? 价格比360本身还要贵吧
據說一顆能全解碼Blu-ray 的DSP,成本也不到10美元。mapledot想一想為何會這麼便宜啊。
作者: superjay    时间: 2009-6-5 11:15

引用:
原帖由 mapledot 于 2009-6-5 11:13 发表


也就是360版的32X咯? 价格比360本身还要贵吧
iphone才推出的时候比你家神机还贵,区区一手机,首月美国小量百多万,你要比么?

人家这玩意根本就不是做给你这种所谓CU的,大众玩家要开明得多,前所未有的东西,那叫一个趋之若骛,iphone是这样,wii也是
作者: cuberoot    时间: 2009-6-5 11:16

引用:
原帖由 hahalee 于 2009-6-5 09:46 发表
最后再说两句这个camera。它的原理说起来很简单,初中物理即可理解,但要做出来可不简单。它里面有个光源,以100Hz的频率发光,光线照射到目标,然后反射回来,被sensor探测到。于是,到目标的距离就是(光线来回的时间差/2)/光速。例如,对于一个2.5米以外的目标,这个时间差是16纳秒。至于这么短的时间差怎么能被精确测量到,请自己google吧。
这么高的精度,这技术能被允许使用?
那自动瞄准机枪不是可以每一发子弹消灭一个敌人?制导炮弹不是可以每一颗炮弹消灭一辆坦克?kkv不是可以横扫飞机和导弹了?
作者: carnon    时间: 2009-6-5 11:17

最近大量高级在美博士现身TG,跟你们混在一个论坛真是倍儿有面子啊
作者: 村上春樹    时间: 2009-6-5 11:17

引用:
原帖由 ffcactus 于 2009-6-5 11:15 发表

关键是我就看不惯某些人明明外行, 还把这个NP吹得天花乱坠。
問題是某些人明明外行,還能把一個先進專案踩得前途黯淡。

據說這些人向來以SF,或者是常識專家自居。又有人的簽名檔曾道:「你們對我的所知全然無知.....」

或許這就是NATAL開發人員有幸看到天朝論壇SF反映後的內心寫照吧.

[ 本帖最后由 村上春樹 于 2009-6-5 11:19 编辑 ]
作者: 教师随笔量产型    时间: 2009-6-5 11:19

引用:
原帖由 mapledot 于 2009-6-5 11:07 发表
每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?

如果区区一台360就能完成这么精确的深度采样定位,那动辄花费数亿美金的好莱坞大片为什么不引进这一技 ...
你丫看过哪怕一篇PN的文章没有?这玩意有MS定制的处理器好不?
作者: superjay    时间: 2009-6-5 11:20

引用:
原帖由 ffcactus 于 2009-6-5 11:15 发表

关键是我就看不惯某些人明明外行, 还把这个NP吹得天花乱坠。
你批评是对的,我吹捧是错的,为什么呢,是因为你连语音识别都搞不懂,所以你更内行,我错了,你的逻辑已经腾云驾雾了,就放过我吧
作者: 教师随笔量产型    时间: 2009-6-5 11:21

引用:
原帖由 carnon 于 2009-6-5 11:17 发表
最近大量高级在美博士现身TG,跟你们混在一个论坛真是倍儿有面子啊
卷毛还是普林斯顿的呢,貌似数学模型比赛也在前列吧?
作者: 村上春樹    时间: 2009-6-5 11:21

MAPLEDOT開始把自己的水平拉到FF神齊頭了.

MOCAP與MOTION TRACK所需要的精確度與資訊量都不一樣

作者: 教师随笔量产型    时间: 2009-6-5 11:23

早说过了,提MOTION TRACK就知道肯定是对牛弹琴,这玩意和MOTION TRACK一样?简直浪费口水
作者: ffcactus    时间: 2009-6-5 11:25

引用:
原帖由 superjay 于 2009-6-5 11:20 发表


你批评是对的,我吹捧是错的,为什么呢,是因为你连语音识别都搞不懂,所以你更内行,我错了,你的逻辑已经腾云驾雾了,就放过我吧
我又没说你。 语音识别有什么难, 我手机还能识别, 关键还不是看量和质。 还有MS展示的又不是语音识别, 是人机交流。
作者: 倍舒爽    时间: 2009-6-5 11:25

明白了~
牛x的,从概念上,
这东西基本上帮人体正面建立了3d模型了~
作者: 穆托姆博    时间: 2009-6-5 11:25

博士出来设精          华贴,  感谢!!
如果萎软多人运用不能,  感觉就不如wii的众乐乐。
作者: mapledot    时间: 2009-6-5 11:26

引用:
原帖由 村上春樹 于 2009-6-5 11:21 发表
MAPLEDOT開始把自己的水平拉到FF神齊頭了.

MOCAP與MOTION TRACK所需要的精確度與資訊量都不一樣
那这样说SONY用的也就是类似与好莱坞的MOTION CAPTURE技术更精确咯?自己抽自己吗:D :D
作者: zhangf    时间: 2009-6-5 11:27

lz介绍的很好, 谢谢
作者: 村上春樹    时间: 2009-6-5 11:29

引用:
原帖由 mapledot 于 2009-6-5 11:26 发表

那这样说SONY用的也就是类似与好莱坞的MOTION CAPTURE技术更精确咯?自己抽自己吗:D :D
SONY 的EYETOY+按摩棒原來是MOCAP啊

果然是SONY東西就是好,兩百美元的東西幹掉了自家兩萬美元電影界用的MOCAP設備

這不是SF前面說的,常識上我不相信這東西存在.

真是類似好萊塢的按摩棒+et,怎麼SONY自己也在拍電影的,不使用呢?

[ 本帖最后由 村上春樹 于 2009-6-5 11:30 编辑 ]
作者: mapledot    时间: 2009-6-5 11:30

引用:
原帖由 村上春樹 于 2009-6-5 11:29 发表


SONY 的EYETOY+按摩棒原來是MOCAP啊

果然是SONY東西就是好,兩百美元的東西幹掉了自家兩萬美元電影界用的MOCAP設備

這不是SF前面說的,常識上我不相信這東西存在.
LZ不是说了吗,那就是MOTION CAPTURE啊,只不过关键点比较少而已。难道对于LZ的文章,你只相信自己愿意相信的部分?这算缩头吗?:D :D
作者: carnon    时间: 2009-6-5 11:30

引用:
原帖由 教师随笔量产型 于 2009-6-5 11:21 发表

卷毛还是普林斯顿的呢,貌似数学模型比赛也在前列吧?
操教授很好啊,在这里发表的言论都很高深
作者: 村上春樹    时间: 2009-6-5 11:33

引用:
原帖由 mapledot 于 2009-6-5 11:30 发表

LZ不是说了吗,那就是MOTION CAPTURE啊,只不过关键点比较少而已。难道对于LZ的文章,你只相信自己愿意相信的部分?这算缩头吗?:D :D
LZ哪裡說了這是MOCAP.

你們的常識大神不是不願意相信這東西存在嗎?

200美元的EYETOY+按摩棒,怎麼一下子可以與MOTION CAPTURE相比了。電影界怎還不使用呢?

應該要不予相信.
作者: mapledot    时间: 2009-6-5 11:35

引用:
原帖由 村上春樹 于 2009-6-5 11:33 发表


LZ哪裡說了這是MOCAP.

你們的常識大神不是不願意相信這東西存在嗎?

200美元的EYETOY+按摩棒,怎麼一下子可以與MOTION CAPTURE相比了。電影界怎還不使用呢?

應該要不予相信.
RF终于开始使用扯淡神功了~~
作者: LTFYH    时间: 2009-6-5 11:36

那这样说SONY用的也就是类似与好莱坞的MOTION CAPTURE技术更精确咯?自己抽自己吗

-----
这是 JOHNNY LEE在自己博客中写的
     " 但当你有了点集和环境3D信息后,你要让机器将点集诠释成人体。这里便是让同行惊奇的地方,我们团队开发的人体追踪演算法在Computer Vision的艺术应用领域(电影,游戏)遥遥领先,其应变能力和演算性能超越所有我见过的专业领域的同类产品,民用产品则更不用提了。这个项目给我一个微型“曼哈顿计划”的感觉,来自世界各地的学者云集于此让这一切成为现实。"
     这里头很清楚的说明了ms的追踪算法“超越所有我见过的专业领域的同类产品”。
作者: 村上春樹    时间: 2009-6-5 11:37

引用:
原帖由 mapledot 于 2009-6-5 11:35 发表


RF终于开始使用扯淡神功了~~
沒看到LZ用了MOCAP這詞啊,你自己YY的就先扯淡

只看到一個計算物體於三維空間的遠近與其上定位點座標,就認為這是mocap了


是你自己說sony的et+按摩棒是mocap,怎麼當看到微軟的motion tracking便說我不願意相信,換到索尼上就是說不過是精度差一些的mocap而已.

[ 本帖最后由 村上春樹 于 2009-6-5 11:39 编辑 ]
作者: mapledot    时间: 2009-6-5 11:38

引用:
原帖由 LTFYH 于 2009-6-5 11:36 发表
那这样说SONY用的也就是类似与好莱坞的MOTION CAPTURE技术更精确咯?自己抽自己吗

-----
这是 JOHNNY LEE在自己博客中写的
     " 但当你有了点集和环境3D信息后,你要让机器将点集诠释成人体。这里便是让同 ...
原来MS使用的是火星科技。那看看这火星科技3年内能不能上市吧:D :D
作者: mapledot    时间: 2009-6-5 11:39

引用:
原帖由 村上春樹 于 2009-6-5 11:37 发表


沒看到LZ用了MOCAP這詞啊,你自己YY的就先扯淡

只看到一個計算物體於三維空間的遠近與其上定位點座標,就認為這是mocap了


是你自己說sony的et+按摩棒是mocap,怎麼當看到微軟的東西便說我不願意相 ...
不是MOTION CAPTURE,那你说说是什么原理?
作者: 倍舒爽    时间: 2009-6-5 11:39

最难得就是把传统mocap和natal的区别阐述清楚了~~

我当时发了个贴基本上也没人能答上,感谢了。。
作者: 村上春樹    时间: 2009-6-5 11:41

引用:
原帖由 mapledot 于 2009-6-5 11:39 发表


不是MOTION CAPTURE,那你说说是什么原理?
MOTION TRACKING是什麼原理?
作者: hahalee    时间: 2009-6-5 11:45

引用:
原帖由 ffcactus 于 2009-6-5 10:44 发表

我和BD(或许只是我)的意思是, 就是给你人体轮廓的全息信息, 也很难识别所有关节运动,更别提手头等,面部表情等。
所以Full Body Motion Capture很是夸张。
所以微软的人说,重点在于软件嘛

至于深度摄像机,这倒不是新科技,sony也有生产过,就是死贵死贵
作者: hahalee    时间: 2009-6-5 11:47

引用:
原帖由 Minstrelboy 于 2009-6-5 10:50 发表
LZ枉读了博士,还是那么naive。你以为在这里战需要你的博士专业知识??

天师点神FF神小水等人只需要无下限的智商和脸皮厚度就可以了
哈哈,我自己是不战的,我写这个科普是为了让大家的战斗更加精彩
作者: superjay    时间: 2009-6-5 11:47

引用:
原帖由 ffcactus 于 2009-6-5 11:25 发表

我又没说你。 语音识别有什么难, 我手机还能识别, 关键还不是看量和质。 还有MS展示的又不是语音识别, 是人机交流。
大家瞧,我一点,他又事后诸葛亮了,我要哭了

idog是这样,聊天机器人是这样,现在是语音识别,我说你啥时候灵光点自己说点有用的出来,你把我的话重复一遍有啥用

人机交流我从昨天到今天已经解释不下5遍了,和你说话实在累,之前有个帖子我给cannon说过……你自己去找……
作者: hahalee    时间: 2009-6-5 11:49

引用:
原帖由 mapledot 于 2009-6-5 11:07 发表
每秒60次处理这样的深度图象,需要什么级别的计算机?你估计以360的机能,摄像头采样的图象分辨是几乘几的?

如果区区一台360就能完成这么精确的深度采样定位,那动辄花费数亿美金的好莱坞大片为什么不引进这一技 ...
计算的话靠专用芯片就好了

至于这个摄像头,精度还真是不高,好像是200×300左右的

至于好莱坞,对他们来讲精确最重要,用几十个摄像头,几十上百个跟踪点的专用系统是最精准的,但你家里用不起啊
作者: hahalee    时间: 2009-6-5 11:52

引用:
原帖由 carnon 于 2009-6-5 11:17 发表
最近大量高级在美博士现身TG,跟你们混在一个论坛真是倍儿有面子啊
哈哈,我写的东西,是计算机视觉的研究生课程内容,但一般本科生应该都能看懂了,你要是看不明白,那我也没办法

[ 本帖最后由 hahalee 于 2009-6-5 11:56 编辑 ]
作者: hahalee    时间: 2009-6-5 11:59

引用:
原帖由 mapledot 于 2009-6-5 11:26 发表

那这样说SONY用的也就是类似与好莱坞的MOTION CAPTURE技术更精确咯?自己抽自己吗:D :D
sony跟好莱坞的动作跟踪系统,计算原理上是差不多的,不过好莱坞的专用系统能有几十个摄像头环绕四周,人身上可以布几十上百个跟踪点,sony的这个就是两个摄像头,三四个点,简单得太多。从技术上讲,没啥贡献。
作者: hahalee    时间: 2009-6-5 12:00

引用:
原帖由 mapledot 于 2009-6-5 11:38 发表

原来MS使用的是火星科技。那看看这火星科技3年内能不能上市吧:D :D
还真不是火星科技,深度摄像头市面上早就有得卖了,就是贵啊
作者: west2046    时间: 2009-6-5 12:06

学习了
作者: doomking    时间: 2009-6-5 12:07

技术力高和实现效果好坏有联系么,舍近求远总是不讨好的

深度摄像头这玩意2000年就有了,很高科技么

[ 本帖最后由 doomking 于 2009-6-5 12:11 编辑 ]
作者: west2046    时间: 2009-6-5 12:13

引用:
原帖由 doomking 于 2009-6-5 12:07 发表
技术力高和实现效果好坏有联系么,舍近求远总是不讨好的

深度摄像头这玩意2000年就有了,很高科技么
没说是火星科技了,太好了!
神机用BD不用DVD很高科技么
作者: wants    时间: 2009-6-5 12:18

我的话被楼主先说了……

但是我还是打算写篇扯淡的喷文,可惜这两天时间不够用
作者: superjay    时间: 2009-6-5 12:23

我发现一个特点,FF一拨的群体,都喜欢把别人的话拿来重复一遍,好象就变成自己的真知灼见了

什么idog、语音识别、深度摄相头,见一个学一个,嘴巴比鹦鹉还灵

这小子也这个德行
引用:
原帖由 doomking 于 2009-6-5 12:07 发表
技术力高和实现效果好坏有联系么,舍近求远总是不讨好的

深度摄像头这玩意2000年就有了,很高科技么
估计也20出头胡子一把了,感觉心智水平还在10岁左右

[ 本帖最后由 superjay 于 2009-6-5 12:24 编辑 ]
作者: 将PSone进行到底    时间: 2009-6-5 12:35

natal挺好的你们不要黑他了好吗
作者: mapledot    时间: 2009-6-5 12:40

引用:
原帖由 west2046 于 2009-6-5 12:13 发表

没说是火星科技了,太好了!
神机用BD不用DVD很高科技么
所以现在连个赛车都要用两张盘了么
作者: ooo    时间: 2009-6-5 13:48

[posted by wap]

为了喷而喷,太扭曲了。我说SQNY害人不浅啊…
作者: RestlessDream    时间: 2009-6-5 13:56

引用:
原帖由 ffcactus 于 2009-6-5 10:40 发表


左边黄色的是什么, 还有右边两个呢?
我怎么感觉好像是用了2个深度摄像机呢。
最基本的都没高清楚还来喷。。。早就说了,一个是RGB摄像头,一个是深度探测器……你还是歇歇吧,和BD老师好好搅基去
作者: RestlessDream    时间: 2009-6-5 13:57

引用:
最最后,本人不是任何公司的fans。但我还是要对微软研究院里的天才们,为他们长期以来在computer vision上的杰出贡献,脱帽致敬。
感谢LZ分享
作者: 林则徐    时间: 2009-6-5 14:05

赞phd
作者: 天堂    时间: 2009-6-5 20:12

我居然能看懂一些,自动化没白学。
作者: 耶稣复临    时间: 2009-6-5 20:36

多谢lz科普
作者: 夹心饼干    时间: 2009-6-5 20:38

顶LZ
作者: 耶稣复临    时间: 2009-6-5 20:39

引用:
原帖由 hahalee 于 2009-6-5 12:00 发表


还真不是火星科技,深度摄像头市面上早就有得卖了,就是贵啊
想知道深度摄像头一枚大概多少钱
作者: doomking    时间: 2009-6-5 20:39

引用:
原帖由 superjay 于 2009-6-5 12:23 发表
我发现一个特点,FF一拨的群体,都喜欢把别人的话拿来重复一遍,好象就变成自己的真知灼见了

什么idog、语音识别、深度摄相头,见一个学一个,嘴巴比鹦鹉还灵

这小子也这个德行



估计也20出头胡子一把了 ...
难道这位是10岁出头自以为20岁心智的SB
作者: superjay    时间: 2009-6-5 20:59

引用:
原帖由 doomking 于 2009-6-5 20:39 发表

难道这位是10岁出头自以为20岁心智的SB
撒泼了吧

小屁娃子,进大人的帖子凑热闹,搭不上话,就知道撒泼
作者: doomking    时间: 2009-6-5 21:13

引用:
原帖由 superjay 于 2009-6-5 20:59 发表


撒泼了吧

小屁娃子,进大人的帖子凑热闹,搭不上话,就知道撒泼
游离于软组织之外的头号野狗,连软组织都懒得理你

[ 本帖最后由 doomking 于 2009-6-5 21:16 编辑 ]
作者: superjay    时间: 2009-6-5 22:10

引用:
原帖由 doomking 于 2009-6-5 21:13 发表

游离于软组织之外的头号野狗,连软组织都懒得理你
啧啧,狗急跳墙,开始乱咬人了,

加了个二流子社团就开始威胁无党派群众了,你这种货色还嫌没给S家丢够脸吗,

从昨天到今天,每句话都在丢人显眼、引得众人鄙视,纯粹一败家子、丧门星,

好好一帖子跑进来你几颗耗子屎,有营养的说不出来,左骂一句右骂一句,就算是狗还属于吉娃娃那种肉没几两重、还喜欢乱叫唤的品种

我要是你们狗社的老板都把你人道毁灭了,免得败坏名声

[ 本帖最后由 superjay 于 2009-6-5 22:12 编辑 ]
作者: west2046    时间: 2009-6-5 22:15

引用:
原帖由 superjay 于 2009-6-5 22:10 发表


啧啧,狗急跳墙,开始乱咬人了,

加了个二流子社团就开始威胁无党派群众了,你这种货色还嫌没给S家丢够脸吗,

从昨天到今天,每句话都在丢人显眼、引得众人鄙视,纯粹一败家子、丧门星,

好好一帖子跑进 ...
请不要侮辱败家子,丧门星




欢迎光临 TGFC Lifestyle (http://bbs.tgfcer.com/) Powered by Discuz! 6.0.0