汽车知识科普博主:专业解读汽车知识,资深汽车博主分享心得
分类:汽车知识 发布时间:2024-09-13 17:57:58
近期,知名汽车博主发布文章指出,最新的FSDv12.5.5版本在极少数情况下仍可能出现违规行驶,如闯红灯等。
许多专业人士之前便对FSD的模型输出机制有所猜测,怀疑其是否缺乏某种安全冗余措施。据推测,该系统直接将摄像头捕捉的画面转换为车辆操作指令,中间环节几乎无多余的安全检查机制。如今看来,这种推测似乎存在一定道理。尽管此种设计能在某种程度上提升响应效率,但其存在的安全隐患不容忽视。在复杂多变的道路环境下,若系统缺乏必要的安全冗余机制,出现问题的概率自然会相对较高。
FSD从传统的模块化设计逐渐转向端到端的设计范式,这一转变虽然解决了许多问题,但同时也带来了一些新的挑战。以前的自动驾驶系统需单独处理感知、决策、控制等多个环节,每个环节都可能出错。而端到端的设计虽然让系统更加一体化,提高了整体性能,但这也意味着系统更加依赖于大数据和深度学习。对于训练此类系统,需要大量的高质量数据。若数据不够全面或模型成熟度不足,便有可能出现如闯红灯等意外情况。
此外,对于端到端的系统,其测试和验证的难度也大大增加。这类系统无法通过简单的模块测试来发现潜在问题,而是需要大量的实际道路测试才能揭示其潜在风险。
目前许多中国车企采取的策略是,利用端到端的设计以提高系统上限,同时结合规则以保证安全下限。但即便有数据存在,如果没有适当的规则加以约束,结果仍然可能出现偏差。就如同人类驾驶员一样,心中必须有明确的交通规则的指导。
目前看来,仍需进一步加大数据的收集与投入,期待人工智能的持续进化。值得注意的是,并非任何数据都可用于端到端的训练,必须经过严格筛选。若数据被污染,训练结果也将受到影响。特斯拉已经优化多年但尚未彻底解决这一问题,显示出其中的复杂性和挑战。对此类问题,确实需要从业者进行深入的反思。
自动驾驶技术的发展仍然任重道远。为实现真正安全可靠的自动驾驶,我们需要更多的数据、更先进的算法以及更加严格的测试和验证机制。