» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[经验交流] ADAS之奥迪A8, 奔驰S, 特斯拉HW 2.0 设备研究

1, 奥迪A8
奥迪称之为zFAS中央驾驶辅助控制系统, 新A8的这套系统, 就是前几年在上海A7测试车上的那套, 2011年开始研发, 定位L3. 最新一代的zFAS据说也已经接近完工了.
a8的系统由4大块构成,
---Intel(Mobileye)的EyeQ3,负责交通信号识别,行人检测,碰撞报警,光线探测和车道识别
---Nvidia的K1, 负责驾驶员状态检测,360度全景, 360度全景处理
---Intel(Altera)的Cyclone V, 负责目标识别融合,地图融合,自动泊车,预刹车,激光雷达传感器数据处理
---英飞凌的Aurix TC297T负责自动拥堵驾驶, 系统校验辅助, 矩阵大灯以及道路构图. 用作安全MCU, 达到最高ASIL-D级

新A8前后左右配置了12个超声波传感器, 4个360度全景摄像头, 在风挡边缘配置前置摄像头,在车角配置4个中程雷达,前部配置了远程雷达和红外摄象机, 此外是目前唯一在车辆前部配置激光雷达的车辆. 这套系统采用了新的数据交换总线, 由飞机的总线制造商TTTech完成.

一个图总结

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:05 编辑 ]
附件: 您所在的用户组无法下载或查看附件


TOP

2, 特斯拉HW1/HW2
HW1: 博世的77GHz前向毫米波雷达,内置ECU。前向摄像头,内置以Mobileye EyeQ3为核心的ECU,12个超声波传感器
HW2: 前向三个摄像头,B柱上两个摄像头,车后视镜下方各一组摄像头,一个后置摄像头. 总控制器ECU集中为一个, 位于手套箱里, 属于跟本不考虑, 时间大于一切强上新方案的设计.
ECU使用Nvidia PX2+Tegra, 就是auto pilot 2.0, 2大芯片
---PX2: GTX1060, 8G GDDR5的显存, 单芯片. 负责360度全景以及处理
---Parker的Tegra 16G LPDDR4. 负责17寸大屏PAD和仪表显示运行, 摄像头ADAS等等等等, PPT上峰值性能接近是苹果A9X的2倍
系统安全ASIL-D级, 也是使用英飞凌TC297T
前方的三个前向摄像头镜头视角分别是150度、50度和25度, 可以理解为3个不同角度的单目摄像头, 但是无法组成双目搭配出来的前后间距3d效果. 单纯硬件上说远不如新A8

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:17 编辑 ]



TOP

奔驰S, 看图说话
优点是奔驰S采用了双目摄像头, 能够比对精确计算出物体距离车辆的远近程度, 道理同人眼
其他同新A8大同小异, 缺点是没有A8的激光雷达, 极端环境下摄像头应用有限

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:27 编辑 ]
附件: 您所在的用户组无法下载或查看附件


TOP

最后纯摄像头方案的局限性(会在不需要刹车的地方主动刹车)
L1/L2/L3道路识别的差别
以及L5 PEGASUS的PPT

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:31 编辑 ]
附件: 您所在的用户组无法下载或查看附件

TOP

有关仅使用摄像头方案, 国内厂商的Q&A, 足够解释斯巴鲁的问题了 没啥扫地僧的可能性, 优势是廉价.

Q:第二代Smarter Eye距离大概是80米左右,您估计以后发展能够到多少距离?
A:我们觉得3D的视觉传感器跟光学特性有关系,如果我用长焦的镜头,我加大相机基线可以看到150米甚至200米的东西,但是视角会比较小。可能我们在看到120米左右,能维持10%的测距误差,而视角小于10度;如果看到150米估计视角会小于5度,或者在7度左右,这就是视角受限。有可能会产生一些需求,就是你多个双目相机的融合,比如我一个视角在40度左右,看80米以内,一个视角在20度以内,我们看120米之内的,还有一个是视角在10度左右的,我们看160米之内。我们可以看到像沃尔沃或者Mobileye,他们有一个三单目融合,双目也可以做三组双目融合,但是体积受不了。可以做单目和双目融合。

Q:双目相机以后会不会有变焦的摄像头?
A:其实我觉得也可能产生这样一种需求,就是科研单位或者院校用一种变焦的镜头,可以设计好固定的几个焦距来做实验,但是行车过程中变焦比较危险,至少有来回变焦的延时,这一段时间内采集的图像不清楚,这个时候所有的感知都不可靠。不采用变焦镜头,成本不是主因,主要是看它是否满足我们车辆对安全行驶的需求,如果是一辆低速车辆,3公里之下行驶,变焦头应该还是可以的,车速80,变焦头就比较危险,毕竟车辆每秒钟行使两米多。

Q:我还是很关心误差,你刚才讲80米左右误差5米,5米来讲是不是还是有可能把误差降低一点?
A:一个光学系统所能达到的精确程度,跟很多的因素有关,比如镜头的选型,还有镜头的分辨率,以及对焦准确性,成像的环境是怎样的。我们在晴朗平坦的地方测距精度肯定要好于雨雪天气下的测距精度。另外,定焦镜头的测距的有效范围也是有限的。我们要做到一组双目相机,尽量近处看到最近,远处尽量远,这是矛盾的。我们想如果看到80米很精确,我们就要用更长焦的镜头,但是问题在于如果你要想在2米看的清楚,又想在80米看的清楚,可能最准确的地方是在50米左右,前后焦段都是逐渐降质的。80米以上的高精度测距,可能需要16分之一的像素匹配精度,这样数据字节的宽度会变大。同时光学系统精度也不是单纯的数据可以解释,跟系统整个的精度有关。

Q:您介绍双目视觉方案这里面,点云万点每秒的速度,明显会比激光雷达快得多。但是我想激光雷达为什么会有速度限制,是因为它必须是现场,因为激光雷达有一个特点,是有脉冲的方式,必须等到脉冲回来才能计算,通过反射波的时长计算距离。按照我对光学的理解,是通过时差来计算距离的。那我的前提是两个左右眼成像要是精准的,如果成像不是精准的,比方说我的焦距设在10米,但是我的观察点是在100米,它的原点一定是不同的,在这种情况下,在100米去计算时差,应该是非常不精确的,得到的点也是不精确的。所以我想对于双目视觉,同样会有扫描的过程,这个扫描就不是我们讲的激光扫描,是调焦距的,因为我们在做分子级的电子显微镜的时候,我们是在不断的调焦距,我们必须要把每一层都要拍下来,才能得到准确的图像。但是因为你刚才提到一个问题,就是没有变焦,如果用一个镜头肯定只有一个距离是最清晰的,其他距离是不清晰的,我们可以推断出来,你刚才彩色的那个图上只有一个点是准确的,其他非焦距点都是不准确的。
A:清晰不清晰是看大家怎么定义,比如可以容许的弥散圆半径,与设备的焦距,光圈,以及镜头与sensor的素质,安装精度等息息相关。不是说清晰就是某一个物理点的成像聚焦在一微米上,这是没有意义的。所谓的清晰就是一个物理点在成像里是能被一个像素的尺寸范围涵盖住,还是被半个像素的尺寸范围涵盖住,如果这个像素的感光面积是6微米大小的,你成的像是三微米大小,那一个像素就可能含有两个物理点的信息。
设备需要达到的清晰度是由使用者来设定的,需要通过对镜头的分析以及传感器的分析来实现,里面有一些的计算公式和原理,感兴趣的朋友可以搜索了解一下。在某一个对焦距离上,该处的物体成像肯定最清晰,但该位置前后清晰度容许的景深范围内的物体成像都是清晰的。另外,成像清晰双目视觉的一个重要需求,第二个需求是匹配算法能不能实现实时准确的匹配。
还有一个问题,双目视觉的远端测距误差大,是因为障碍物距离的越远,对应的视差值越小,例如,远处的障碍物视差为3的时候,距离是150米,视差为2的时候,距离是200米,一个整数视差值差了50米,这样的情况下的障碍物提取分析就不容易稳定。因此,我们说真正产品开放出来的测距或者障碍物提取的距离,是缩小到2米到80米的区间,原因是在于让设备提供的功能在该范围内是真实可用的,不是夸大其词。
车用视觉传感器在物体特别近的时候,太高的测距准确性意义没有特别大,因为这个时候测距值相对变化较小,假如这一个点是10.212米,下一个点变成了10.211米,这种误差用途不大。双目视觉与人眼的视觉感受相似,越近的物体测的越准,越远越不准,但是这种感觉是真实可用的,可以帮助我们安全驾驶,因为一个驾驶员只要有健全的双眼就能把车开好。所以我们的双目视觉也在模拟人眼进行学习和实时道路感知,也在提升我们设备的精度和体验,我们相信这种性价比很好的传感器一定能应用到10万元的家用轿车上。

[ 本帖最后由 TJ-NNY 于 2017-10-28 18:35 编辑 ]

TOP

引用:
原帖由 tainey 于 2017-10-28 03:36 发表
posted by wap, platform: Android
明显s级最高
a8比s高
a8用到激光雷达了
时间新的优势, 你就算再怎么不计成本, 产品现在就只有这些, 那也没办法, 只能用这些

TOP

引用:
原帖由 FXCarl 于 2017-11-1 20:53 发表


失效管理是功能安全的必要内容,如果失效的话车辆应该会提醒驾驶员接管并且自己减速。不会保持功能继续工作的
驾驶员需要时间介入车辆的警告, 从麻痹大意的到回神接管车辆通常要好几秒, 高速上一秒就是3米
失效以后并不是紧急刹停的, 但是很多时候不给你这个时间去反应, 比如盘山公路转弯对面来车, 一旦出了事情就完蛋了, 你经不起那0.01%的可能性的折腾

TOP

posted by wap, platform: iPhone
引用:
原帖由 @KARUTO  于 2017-11-2 11:57 发表
现在定性了,奥迪A8属于3.0,而特斯拉现在阶段最多只能算2.5
普及面不一样的,特斯拉低配标配,a8高配选装
35万和135差距巨大

TOP

引用:
原帖由 BD 于 2017-11-2 22:59 发表
在Tesla方面,LZ缺乏大量的技术细节甚至有一些错误。

首先,Tesla的Autopilot2.0硬件上包括:
1. 前置雷达
2. 8个摄像头,3个前方,2个侧前方,2个侧后方,1个后方
3. 12个声纳
而且Tesla刚刚升级了计算处理器到更高配置的Autopilot 2.5 (2.1),内部代号AP3。

其次,激光雷达并不是什么更先进的技术或者更好,激光雷达在很多厂商的实验室里面已经被论证过了,精度上的确有优势,但是容易被下雨和下雪等天气因素干扰。

最重要的是,无论采用什么样的硬件传感器搭配。自动驾驶的核心技术是识别物体算法,目前的主流技术是深度学习(Deep Learning)AI。该技术的关键是通过大量的数据进行不间断的重复迭代来实现算法优势和识别精度。这一点上Tesla具有其他厂商都无法比拟的优势。从2016年初开始生产的所有的Tesla都标配Autopilot2.0硬件,而且全部配备LTE网络,就算用户不选配Autopilot,只是用户无法使用其提供的功能,每辆车仍都参与数据积累,并且随时把数据上传到Tesla的网路上。从目前Tesla公布的数据,配备Autopilot2.0的Model S和Model X超过12万辆,就算Model 3目前生产速度仍然没有上去,但是2年后,这个数字也会提高到40-50万辆,5年后应该在150万辆的规模。这比起Audi或者奔驰只有顶级车辆选配才有来说,在数据积累俩上高了几个数量级。

另外,目前已有的Autopilot的事故报道都是基于Autopilot的,当时因为Tesla不具备独立开发整个系统的资源,所以是和Mobileye合作。后来Tesla自己从零开始搞Autopilot2.0用了仅仅1年的时间,就达到了1.0多年积累下来的水平。接下来的几个月内我相信会看到配备Autopilot2.0硬件的系统会迅速达到并且超过Level3,2-3年内达到Level5。

最后,Tesla的整个硬件系统的高度数字化和平台的可扩展性是其他车厂不可比拟的。之所以说Tesla是唯一配得上和iPhone同时代的汽车正因为这一点。用户不再需要通过更换汽车来更新系统,就以前两个月来说。Tesla连续推出了3个Autopilot的优化补丁,大幅度提高了系统识别率。同时甚至通过软件升级的方式提高了Model X 75D的加速性能。这种快速迭代才能够适应自动驾驶这种新技术进步的速度。Tesla已经展示了Autopilot2.0可以实现Level5的驾驶体验(参看官网展示视频),而且原计划在今年年底或者明年年初进行从美国西海岸到东海岸的Level5驾驶展示。
你认真看下我写的, 把你硬件都涵盖进去了
deep learning, 是个遥远的泡泡, 和用volta的pegasus一样, 没有实际产品, 只是有一个预期. 汽车厂商和手机厂商不同, 需要时间做整车电气性能各种适配, 不是直接拿来就能用, 所以必须2020年.

硬件是实打实有数据支撑的, HM2.1比HM2多出的性能提高, 仅仅用做了冗余. deep learning解决不了性能计算上的缺失, 这就好比你网速再快, 也无法用远程服务器来玩游戏一样. 再说得简单些, 任何一台主机的游戏画面, 后期一定是比早期强, 但是再强, 也是在范围内, ps做不到ps2的画面. 特斯拉从2014年底才出的HM1, 在此之前的车辆均无法实现auto pilot, 所以推上有人问elon, 车辆时时刻刻在升级, 老用户怎么办? elon回复说, 如果指望特斯拉一成不变, 那他买错车了. 明年mobileye Q4和nvidia px都会有新品, 明年的特斯拉也会第一时间更新到HW3. 别说你的HW2没可能到L5, 就算明年的HW3都没可能到L5. deep leaning, 更像是软件上的发错误送诊断报告给微软, 根据大数据来优化修正, 至于你自己这里那里用得怎么样, 和deep learning无关, 那是给厂商的.

此外75d的加速性能提高, 不仅仅是通过软件上的提高. 特斯拉的P和普通型号在硬件上是有2处不同的, 比如P的车辆线路上用了space x的材料, 能承受更大负荷. 所以老的75D, 老硬件无法升级到4.4s的加速时间, 并不是你想的那样能永远无限升级, ios也一样, 3年前的iphone已经卡得不行了, 5年前的iphone直接不能升ios11, 但是车辆的平均寿命, 远大于5年

[ 本帖最后由 TJ-NNY 于 2017-11-4 00:34 编辑 ]

TOP

引用:
原帖由 cf3b5 于 2017-11-2 23:49 发表

我觉得这个解释说来说去就是说距离而已!但是问题是,一个ADAS,仅仅判断个距离就行了吗?
雷达能够很精准,但是明显也就一个距离数据而已,就算能很早发现远处的障碍物,但是在缺乏环境数据支持下
前面有多少个 ...
我15年就买顶配有这些功能了.
你理解有误, 所有adas的雷达方案, 都配有摄像头, 都是hybrid的. 雷达做雷达的工作, 摄像头做摄像头的工作. 没有纯摄像头方案, 就是因为怕"万一". 当不敢保证100%有效的时候, 必须加大几倍的冗余做可靠性.
我这么跟你解释, 定速巡航做为辅助驾驶的手段, 为什么没人去告厂商? 因为定速巡航明确规定驾驶员要驾驶. 斯巴鲁同理, 这就是斯巴鲁adas的上限了, L3, 否则发生事故立刻叫你破产.
其他厂商在做的工作是, 不需要驾驶员驾驶了, L5. 可能现你现在感觉不出来差别, 但是人家打的地基, 是摩天大楼100层. 你现在拿着6楼的图纸, 站在刚造好3楼对隔壁100层在挖地基的人说, 你们说造100层的怎么还高不过我3层啊......等3年后mobile eye Q4装到实车上, 马上给你好看

[ 本帖最后由 TJ-NNY 于 2017-11-4 00:35 编辑 ]

TOP

posted by wap, platform: iPhone
引用:
原帖由 @BD  于 2017-11-4 05:03 发表
Deep learning早就不是概念,而是已经在应用层面的东西。特别是自动驾驶需要的图形识别技术。而且Deep Learning是通过大量的数据来提高识别过程的决策正确率和最优。
简单一点的例子就是Google的Alpha Go。这点和不现实的Cloud Rendering有质的的区别,因为自动驾驶需要解决的是对环境的掌握和预判,而Rendering是纯拼的毫秒级的数据处理和吞吐能力。我是做游戏开发十几年的技术人员,这点我可以说比任何人都要清楚。目前几乎所有厂商的自动驾驶平台都是基于Deep Learning的。而Deep Learning的系统先进程度是完全由迭代次数和数据量决定的。这方面Tesla早已一骑绝尘。

我说的75D和P没有一毛钱关系。因为P只有在最高配置上才有,比如P90D和P100D。而且这种升级不是第一次了,当然这种纯软件优化肯定是有限度的。但是Tesla的软件升级对驾乘体验的提高是任何其他传统车厂无法比拟的。而且Tesla对于车型的硬件更新速度也是很快的,Elon曾经说过,每个月,他们就可能优化几个零件,所以无论从质量还是稳定性,Tesla新下生产线的车都是在稳步提高。这才是Elon说的意思,原话大致是:你要是想等的话,会一直等下去。以自动驾驶为例,以后的任何进步,装备HW1的车肯定是享用不到的。但是所有2.0的Elon保证可以达到Level 5的承诺是不变的,而且在2.5也就是APH3推出之后,Elon表示如果Level5在APH2上存在性能负载的问题,他会免费为用户更换到APH3。这个承诺Elon多次重申,是肯定不会变的。
特斯拉把P的部分技术下放到75D了,所以加速能快,不是纯软件,老的75D加速只有5.6,只有新的4.4
HM2到不了L5,而且也没可能更换到HM3。我当初打算买P85的认证二手车,特地问过后期加装,14年的顶配没有auto pilot我问是否可以我加几万加装,销售说特斯拉不加装,所有加装的都是软件远程解锁,硬件有就有,硬件没有就没有。
不要因为你买了特斯拉,就想得太美好,特斯拉只是在应用供应商产品上快而已,这个快也有后遗症,比如model s把adas的ecu放手套箱,考虑不到给新硬件预留位置,不等换代立刻马上又要应用新技术,于是车内哪有空间就放哪里了

本帖最后由 TJ-NNY 于 2017-11-4 16:00 通过手机版编辑

TOP

posted by wap, platform: iPhone
引用:
原帖由 @BD  于 2017-11-4 19:47 发表
你果然是什么都不懂,首先不是P系列的技术用在75D上,P系列装备的是不同的马达。

其次,14年的Tesla用的是HW1,是无法升级到HW2的。Tesla把ECU放在手套箱是有其考量的,因为ECO驱动中控和速度表位置的两个显示屏幕,而且那个位置是车架结构上相对坚固的地方。比起奔驰把ECU放在车尾,追尾严重一点就要换强。
P和普通的就2处不同,你查起来肯定比我查起来方便,一个是更大的逆变器,一个是线缆接口能承受更高的瞬间输出,马达都是一样的.
其次14年的p85是没有autopilot的,14年11月才装上这玩意儿,国内基本上要15年中的车才有配,15年小改款出了p85d,改进了拨杆位置,座椅包裹海绵,中控台储物空间
HW是一整套玩意儿,后期无法加装因为不可能挖洞换饰板换风挡装摄像头上去,所以HW2也无法升级到HW3,这是摄像头雷达一整套系统一起在工作,不是你想象diy换个cpu系统电脑能升级加速...
还不明白的话,过两年等HW3出了你就明白了,摄像头雷达的布局位置又都会变化,你怎么去升级?

TOP

引用:
原帖由 BD 于 2017-11-5 07:02 发表


不懂就不要装懂,省得我直接抽你脸
963446

P85从2012年开始就有,Autopilot1.0是从2014年九月开始配置的。

你不停的在说HW3,目前对于Tesla来说只有APH3(这个是内部系统配置的编码)也就是外界称的Autop ...
你的图漏了最关键的P85, motor trend做过model s 85和p85的对比分析, 不过很可惜现在没找到, 他们搜索功能不行, 而且我这儿速度很慢, 维基上有一小段
In the 85D, the rear drive unit is replaced by a smaller one to save cost and weight, while the second motor of similar size is added to the front wheels. This results in an AWD car with comparable power and acceleration to the RWD version. Additionally, Tesla said the 85D has a 2% (5-mile) range increase and 11% increase in top speed over the 85.[88] In the P85D, the high-power rear drive unit is retained, while a new front drive motor boosts the total power by about 50%. This results in a significant increase in acceleration and top speed.
大致区别是
model s 85   后大
model s p85  后大
model s 85d  前小后小
model s p85d 前小后大
在85和p85上, 2者采用相同的马达

HW2到不到的了L5不是elon说了算,他要能说了算model 3怎么还能比计划迟? L5的定义太苛刻, 10年内没啥可能, 相反L4倒是可以在5年内出现.

TOP

posted by wap, platform: iPhone
引用:
原帖由 @BD  于 2017-11-6 22:28 发表
无论是85还是P85都是图一,你说的从85到P85的改动是很早之前改动。而且这个改动和我之前说的75D的性能提升不一回事儿。目前来讲,P系列都是前小后大的马达配置。

另外,你显然不明白设计和生产之间的区别的话,生产进度受各种因素的制约,不受任何人的控制,包括零配件的供货以及产品线的装配,任何一个环节上的客观因素都会导致进度上受影响。而技术能否达到设计要求,这方面Elon可以完全控制。不过我们既然都把话说到这儿了,我们可以拍照留贴。等时间到了,发上来打脸。
P系列逆变器和线缆和常规不一样,之前针对85和p85的有第三方去分析过差异
但是75d的前后速度提升,如果是纯软件的话,一个ota就能解决了,现在既然是无法通过ota解决,那么必然是硬件上的差异
另外生产进度是可控的,特斯拉用的技术,都是现阶段有的成品,区别是传统意义上整车厂商做适配,特斯拉取消了这个过程。供应商都有明确的技术参数,ps做不了ps2的工作

TOP

posted by wap, platform: iPhone
引用:
原帖由 @BD  于 2017-11-7 22:19 发表
75D上一次速度提升就是纯Firmware升级,这种纯软件升级在Tesla历史上有过两次。这是我一直在说的,是你一直扯到不相关的85和P85的不同。

另外,传统厂商和供货商有数十年的合作关系,很多规格上的磨合早就解决了,而Tesla目前还在供货商的磨合期,这是之前Model X延期的主要原因。这次Model 3的延期是因为Model 3采用全新的电池封装规格和电池模组组装方式。Subcontractor在生产线的装配上出现了问题,这是上周三Tesla在第三季度股东会议上的官方说法,目前Elon已经亲临Gigafactory负责解决这个问题。这种问题对于一个新公司来说都是不可控,但是可以解决的。这和所谓Autopilot2.0能否达到Level5完全两个事情,因为后者是技术能否达到的能力,这在设计和开发上是完全可控的。
Adas是通过硬件实时运算实现的....

TOP

发新话题
     
官方公众号及微博