• 北京公园科普月教您识飞鸟--旅游频道_百家讲坛刘秀 2018-11-26
  • 无证旅行社套路深 低价游、“潜规则”坑骗老年人--旅游频道_汉寿党建网 2018-11-26
  • 上赛道开启蒸蒸日上2018_叶赫那拉宇策 2018-11-26
  • 多名乘客生病 阿联酋一航班在纽约降落后被隔离_沈人杰 2018-11-26
  • 四川绵阳市涪城区工区街道迎宾社区党总支 
    盘活资源,让共建共治有支撑_重生之医门嫡女
    2018-11-26
  • 国家发改委助力民企纾困新表态:只要是好企业 我们就拿钱救_无路可逃by蓝飏 2018-11-26
  • 军事安全遭遇新变局新挑战_雅荡 2018-11-26
  • 青海省:游客在青海旅游被骗1万多 县委迅速协调解决_重生之我是宇智波泉奈 2018-11-26
  • 颠覆2018 悬疑2019_帮忙找一本书【要小说阅读网女生版那里的】 2018-11-26
  • 中国驻英大使馆在伦敦马克思墓前举办缅怀活动_朱炜明 2018-11-26
  • 综述:中马共享21世纪海上丝路新梦想_泰山恩仇 2018-11-26
  • 国庆在线旅游投诉七成都是酒店预订--旅游频道_影儿女装官网 2018-11-26
  • 交通运输部:前三季度高速公路完成投资超7亿_中原证券官网 2018-11-25
  • 涉案金额10.4亿!吕梁市原副市长张中生被判处死刑_何辅堂 2018-11-25
  • 景山学校落户通州!7大名校将为区域加分 _荀攸传 2018-11-25
  • 商务合作,域名招租请联系QQ:959847138
    殷佳心>今日>正文

    自动驾驶撞死一个人被判无罪,未来的AI世界会好吗?

    2019-04-06 13:12:00 A5创业网 李北辰 分享

    殷佳心 www.yzcom.cn   2019年创业最赚钱的50个项目

    2018年3月18日,美国亚利桑那州,一辆配备了安全驾驶员的Uber自动驾驶汽车,撞倒了一位违规横穿马路的行人,后者被送往医院,最终不治身亡。

    一年后,就在大众舆论快要忘却这桩悲剧的时候,它有了最新判决结果,当地检察官在一封信中称,Uber在事故中负有刑事责任的指控“没有依据”,事故视频可能并未准确地描述车祸过程,当时车上的安全驾驶员则需进一步调查。

    你可以理解为:这起全球首例无人车致死事故,无人车,无罪。

    在post-truth时代,任何公共事件都能成为划分敌我的分野工具。这次也不例外,判决一出,围拢在不同利益集团和观念阵地的旗帜下,人们迅速开始站队。

    有人欣喜于“技术的胜利”。毕竟,是“愚蠢”的人类违规横穿马路在先,技术又有什么错呢?另外,“愚蠢”的还有安全驾驶员,警方表示,Uber的自动驾驶系统在出事前就发现了受害者,但因计算机系统的设置问题,计算机控制模式下车辆无法自动启用紧急刹车,刹车的责任交给了安全驾驶员,但安全驾驶员在事故当晚看了大约42分钟的“美国好声音”,她反复低头,无心关注路面,就在她一次抬头的半秒钟后,事故发生。

    不过,尽管看起来无人车是“无辜”的,但对于判决结果,也有人感到“不舒服”。毕竟,是人类对机器的信赖,造成了这桩悲剧。这也是为什么,尽管检方目前判Uber无罪,但美国国家运输安全委员会仍在对事故进行调查,Uber也仍有可能遭到挑战。

    面临挑战的不只是Uber一家公司,事实上,这桩事故也犹如一记闷棍,再次逼迫所有人思考:人类信任机器的边界在哪里?

    L5可能是个梦

    截至目前,全球几乎没有太多完善的保险条例和法律权限来规定无人车的责任,美国40多个州在无人车法规的制定上莫衷一是,已经足以折射出自动驾驶的现实痛点。

    首先是技术,最近大众商用车负责人在接受媒体采访时表示,实现L5自动驾驶,堪比火星探测。

    我觉得他仍然低估了L5的难度。关于自动驾驶的未来,业内一种最极端的说法是:L5或许是一个梦。为什么?因为AI处理不了意外。

    数十年前,AI概念诞生初期,当时的研究者心高气傲,并不满足于将机器仅用于计算,他们试图让AI完整拷贝人脑的思考过程,让机器“知其然,也知其所以然”。

    但众所周知,多年以来,人类意识之谜没有任何实质进展,研究者开始收缩野心,重回对“计算”的追寻。如今的机器学习就是一条试图弯道超车的捷径,将现实世界以数据作为颗粒度呈现,再通过神经网络消化数据,更好地认清这个世界。

    以自动驾驶为例,它最基础的原理就是将人类司机目力所及的一切物体,路人,建筑,其他车……都构建成三维模型,关心它们之间的移动趋势,估算速度,预测路线,有冲突就刹车或绕路。

    但从逻辑上,这也几乎意味着,无人车做不到所谓“绝对”的准确性,因为真实的交通是一个复杂生态系统,随机分布着各种意外。

    据说谷歌自动驾驶就遇到过一些意外:比如,几个小孩在高速路上玩青蛙;一个残疾人坐着电动轮椅,在路上追一只鸭子,鸭子绕圈跑,他也绕圈追……面对如此荒诞场景,你很难苛求机器能百分百预测这些人的轨迹。要知道近些年人工智能领域的一切进步,都可归为相似的框架:“输入数据,生成回应”——换句话说,由过去推导未来,机器没法预测完全不在它经验范围内的意外。

    当然,像小孩玩青蛙,残疾人追鸭,这种意外想必大多数人也没见过,但与机器的“没见过”不同,因为人类“理解”他们在干嘛,就足以导向正确决策。

    这也是现阶段安全驾驶员的作用,可惜这次人类自己也失职了。

    临时不想死怎么办?

    除了技术所限,人类将方向盘彻底交给机器,还面临道德问题。

    学者万维刚在“精英日课”专栏里举了一个例子:你正以高速开车,突然发现前方有一群小学生在马路上打闹,避让他们,就只能撞到路边的建筑物墙上,这意味着你有生命危险,请问在这种情况下,你是选择撞墙还是撞向小学生?

    我相信有许多人会选择撞墙,人性光辉,为你点赞——但问题来了,假如自动驾驶系统的初始设置,就是在这种情况下“先确保行人安全”,你作何感想?

    可能会觉得“不舒服”,就像万维刚老师所言:“我牺牲我自己,是我自己的决定。我不能让汽车替我做决定!万一我临时不想死怎么办?万一汽车判断错了怎么办?我不想开一辆在某种情况下会牺牲我的车。现在有很多公司正在研究自动驾驶的道德规范,Google 甚至还专门聘请了哲学家,但是没有研究出来什么令人满意的方案。”

    面对人类如此矛盾的物种,也许令人满意的方案根本就不存在。事实上,只要是出于所谓的自由意志(尽管神经科学已基本抛弃了它的存在),人类无论自己做出什么决策,其他人都会感到“事态可控”,但若同一决策出自AI之手,许多人就会感到巨大的不适。

    声明:本站部分资源来源于网络,版权归原作者或者来源机构所有,如作者或来源机构不同意本站转载采用,请通知我们,我们将第一时间删除内容。本站刊载文章出于传递更多信息之目的,所刊文章观点仅代表作者本人观点,并不意味着本站赞同作者观点或证实其描述,其原创性及对文章内容的真实性、完整性、及时性本站亦不作任何保证或承诺,请读者仅作参考。
    编辑:
    赖永初 | 武汉助孕公司 | 三亚代怀孕公司 | 天津代怀孕哪里找 | 郑州助孕优 | 南昌代怀孕 | 恒兴烧坊 | IT传奇霸业 | 大话健康网 | 孝感新闻资讯网 | 企鹅保险网 | 嵊州新闻资讯网 | 代生孩子的女人怎么找 | 吉林来孕 |
    商务合作,域名招租请联系QQ:959847138