1
sir283 29 天前 via Android
视觉能识别距离跟物体,而且有 OpenCV 这个开源巨头撑腰,国内环境大家又不是不知道,能白嫖为什么要付费?
|
2
fredweili 29 天前
我支持,不喜欢激光雷达,增加成本,对城市智驾也没什么要求
|
3
zzboat0422 29 天前
纯视觉:下限低,上限高。要非常有能力的厂商才能做好。
纯激光雷达(小米测试车):下限高,上限低,技术要求低,兜底能力强,没技术积累又想快速赶超的厂商可能会选。 视觉+激光雷达:看倾向,当激光雷达与视觉信号冲突时,优先听哪个的,华为听雷达的,小鹏听视觉的。 视觉+4D 毫米波(乐道):不清楚效果怎么样,可能是激光雷达的低成本替代。 |
4
okakuyang 29 天前
谁的喇叭大谁就是第一
|
5
defaw 29 天前 3
激光雷达方案是视觉的超集,单这一句话已经可以说明一切了,你有的我都有,你没有的我也有。
除了贵,哪一点都是更好 |
6
sentinelK 29 天前
1 、成本高。
2 、激光雷达部署位置受限。不能做到不破坏车体工程学的前提下的 360°视野。 3 、由于 2 ,导致激光雷达的 AI 训练材料不足。 这就导致如果想实现高于 L2 级别的辅助/自动驾驶,目前的科技下,纯视觉是“不得不”的选择。 否则就要解决: 1 、激光雷达、毫米波雷达、视觉三者的博弈问题。 2 、激光雷达的训练内容问题。 |
7
zthreefires 29 天前 1
@sentinelK #6 如果是基于规则的,博弈问题本质是规则没梳理清楚。如果是端到端,对于模型来说,激光雷达和摄像头的博弈与 前向侧向摄像头之间的博弈没区别。稍微想一想就知道所谓的博弈根本不是问题,一堆人还天天说来说去
|
8
sentinelK 29 天前
@zthreefires 其实并不一样,因为设备之间的获取精度有太大差别。
所以虽然从统计学 AI 的训练角度讲,其实都是训练材料,但从训练结果上讲,我个人揣测,估计很难收束到一个理想的局部最优中。 统计学 AI 的训练并不是不加任何辅助的直接一股脑扔进去,坐等大力出奇迹那么简单。 |
9
juded 29 天前
买扫地机我都买带激光雷达的...
|
10
sentinelK 29 天前
@zthreefires 举个实际的例子,国产特斯拉在今年年初,刚刚经历了终端模型迭代。从视觉+前向毫米波,过渡到纯视觉。
从最终实际体验上讲,车子的决策果断性,以及对复杂路况的判断(屏幕的 UI 反馈)有很明显的提升。 |
11
zthreefires 29 天前
@sentinelK #8 精度有差别就不能训练了?你也知道数据不是直接放到模型里训练的。从 LLM 来看,视频和文本信息显然不同,但视频放到模型里,能显著提升对文本信息的理解能力,这是有论文实验数据支撑的。另外,特斯拉自己的发布会对端到端的解释就是输入视频数据,学习开车。虽然我不信,要么还是有一层规控,要么有小模型托底,但无论如何,特斯拉宣传的端到端就是这么简单直接。
|
12
hccsoul326 29 天前
纯视觉方案会不会开到某些限制的场所 不让开摄像头🤔
|
13
sentinelK 29 天前
@zthreefires 所以问题在于不是不能训练,而是能不能训练好。
从特斯拉放弃前向毫米波,且模型质量上升的结果来看,多个不同精度的训练内容,“或许”训练上的难度是高于单一媒介材料的。 另外,你也说了,特斯拉的端到端是纯视觉。这不是从某种角度上反向验证了,纯视觉做到“端到端”是目前的唯一解么? |
14
desstiony 29 天前
去试试开源的 depth anything 的效果
|
15
sentinelK 29 天前
|
16
br_wang 29 天前
纯视觉方案是不是就没有车顶那个犄角了?
|
17
paopjian 29 天前
不是单纯是厂商为了降低成本吗,纯视觉就少个模块就能少个供应商.福特公司宁愿死人赔偿都不愿意召回就是因为赔偿付的更少, 那么车企宁愿智驾死人赔偿也不改良智驾不也是很合理么
|
18
sentinelK 29 天前
@juded “买扫地机我都买带激光雷达的...”
所以扫地机器人头顶都有一个“飞碟”。 你会买一个头顶顶一个飞碟的汽车吗? 这就是目前最大的问题。 @hccsoul326 “纯视觉方案会不会开到某些限制的场所 不让开摄像头” 不会的,只要解决视频内容的存储位置以及暴露规则就可以。特斯拉的“解禁”就是实际例子。 |
19
sentinelK 29 天前
|
20
Sivan2017 29 天前 2
一个极端的例子,如果是下雨天或者雾天,视觉方案是不是就废了?但是雷达或许还能有些用?
|
21
Wilson233 29 天前
感觉应该是雷达 + 视觉更好
|
23
arcaitan 29 天前
人开车靠视觉可以判断, 那车也可以吧, 信马斯克
|
24
lifavor 29 天前 3
行业相关
核心是成本问题: lidar + 视觉融合方案相比纯视觉精度高 10 个点左右,全套方案 1w 左右,雷达只能提高前视精度,障碍物测距,远距离车道规划 纯视觉方案价格 3k-7k 左右,10 个点的精度优势已随着模型增大,数据增多逐渐降低 radar 主要用在 AEB 上,可以看前前车,纵向障碍物测速 以上每种传感器都有弱场景,雪天等弱回波场景( lidar ),暗光+脏污遮挡+相机标定+视觉白名单以外(视觉),井盖+隧道退化( radar ) 另外一点:出了事猾伪第一时间甩锅博世和文远(记不清是不文远),第二标注 AEB 工况速度,第三调后台踏板状态。 自动驾驶是辅助驾驶 |
25
nowant 29 天前
@zzboat0422 纯视觉就没冲突了?路上同一个物体,在不同角度受到光照影响可能看到的也不一样吧
|
26
imkenbun 29 天前
主要还是端到端的技术上牛逼
|
27
evan9527 29 天前
纯视觉不是最优,是成本最低的。
大力推销的一定是利润最高的。 |
28
agood 29 天前 via iPhone
目前能购实现完全自动驾驶的只有特斯拉吧,什么最优还用猜吗?市场已经给出答案了
|
29
wulili 29 天前
就成本而言,纯视觉方案更优。就智能程度而言,纯视觉方案大概率也更优。
不用考虑什么大雾天这种极端天气,没什么意义,这种情况就算是人开车也有很高的风险。 |
30
dingzi 29 天前
@hccsoul326 不会出现关闭摄像头,而是直接不让你进去
|
33
mxT52CRuqR6o5 29 天前
如果是原生多(雷达)模态的神经网络 AI 应该就可以不存在不同类型雷达冲突的问题
|
35
dddd1919 29 天前
视觉那就是用眼看,雷达就是盲人拿根棍子连戳带走,各有优势,看你喜欢用眼看还是拿棍子戳
|
36
o0 29 天前
肯定是最便宜的🐶
|
37
s642153378 29 天前
智能驾驶 100 分的话,纯视觉方案可以做到 75 分,视觉激光雷达融合方案可以做到 80+分,但成本陡增。
|
38
zthreefires 29 天前 1
@agood #28 马一龙都不敢说特斯拉实现了完全自动驾驶,一个 L2 的玩家天天吹,人家 L4 的玩家干了十几年了都不敢说实现 L5 了
|
39
Tengdw 29 天前 via iPhone
分情况讨论,给家用车的 L2 纯视觉就已经够了,原因很简单特斯拉已经做出来了,各家跟上就可以了。商业运营的无人汽车 L4 纯视觉是不行的。
推荐硅谷 101 出的两期无人驾驶相关视频,里面有很多大佬的观点 [端到端能带来新春天?深扒分裂的无人驾驶行业 [硅谷 101] -哔哩哔哩] https://b23.tv/QFPMHkS [千亿美元的喧嚣与寒冬后,无人驾驶终于要落地了? [硅谷 101] -哔哩哔哩] https://b23.tv/7DWjhoF |
40
tunzao 29 天前
我比较好奇的是为什么不加入听觉?
|
41
Wind2Illidan 29 天前
@tunzao 尖叫自动刹车?对长发司机很友好啊,手动狗头
|
42
brokensword2018 29 天前
目前带激光雷达的,起作用的也主要是摄像头。 激光雷达精度不够,是辅助作用。 所以说视觉方案确实是主流。
|
43
niubee1 29 天前
看这个视频 被车库里的广告逼停,跟董明珠闯红灯一样
|
44
billbob 29 天前
都不是,视觉自然语言处理是一门科学,不管是激光,还是图像,还是声音,声波,困难于的自然语言特征识别,识别的特征需要更多的内容去让它学习,图像是最便宜的,我们有摄像头.数据多,更好的训练,它才是能达到最好的.
激光雷达的识别率一直止步不前就是因为识别上不去,贵的不是硬件,而是激光方案成功的成本. |
45
DIMOJANG 29 天前
@Sivan2017 #20 我的理解是恶劣天气的时候对摄像头主要的 debuff 是可视距离变短了,所以得限制车速;但又因为恶劣天气的时候本身就不能开太快,所以影响不算太大。不过当然这种情况下雷达在数据采集的质量上肯定是有优势的。
|
47
SenLief 29 天前
激光+视觉才是对的,天气对于视觉的影响还是太大了,而且车上芯片算力也不够。
|
48
Goooooos 29 天前
|
49
DecimalSurfboard 29 天前 via Android
性价比最高并不是最优
|
50
sakujo 29 天前
从使用角度来讲,当然是传感器越多越好,不能因为成本问题倒置这个前提。
|
52
xuanbg 24 天前
纯视觉的方案,大雾天大雨天大雪天沙城暴都立马废啊,微波雷达基本不太受影响。
|