<output id="d2nk8"></output>

      <mark id="d2nk8"><ruby id="d2nk8"></ruby></mark><thead id="d2nk8"><sup id="d2nk8"></sup></thead>
    1. <code id="d2nk8"></code>
      <output id="d2nk8"></output>
      <big id="d2nk8"><strong id="d2nk8"></strong></big>

      <output id="d2nk8"></output>

      1. <thead id="d2nk8"><sup id="d2nk8"><kbd id="d2nk8"></kbd></sup></thead>
        首页 > 新闻 > 评论 > 正文

        “自动驾驶肇事”无责推动还是阻碍智能化

        核心提示: “自动驾驶肇事”无责推动还是阻碍智能化

        张田勘

        美国检方当地时间3月5日表示,Uber?#38469;?#20844;司对2018年3月发生在亚利桑那州坦佩的一起撞车事故不承担刑事责任。在这起事故中,Uber的一辆自动驾驶汽车撞上了一名行人,并导致其死亡。该事故也是全球首例无人驾驶汽车致人死亡的事故。

        这个评判表明,生产自动驾驶汽车的Uber公司无责,但是其监控这辆车的司机瓦斯奎兹可能要负责,因为在事故发生前,瓦斯奎兹一直在用手机观看电视节目。警方称该事故“完全可以避免”。

        自动驾驶汽车和公司没有责任,这首先表明,自动驾驶的?#38469;?#36824;不成熟,还需要人类司机来监控,也意味着以人工智能的自动驾驶来代替人类在?#38469;?#19978;还很不成熟,同时也给人们造成困惑,首先是在?#38469;?#21644;责任上的混淆。

        尽管Uber公司的这辆车只是L4,但是,这个级别指的是真正意义上的完全自动驾驶,驾驶者可以有,?#37096;?#20197;没有,但需要在特定的场景下实现自动驾驶。?#36824;?#36825;并不意味着这个级别的自动驾驶车不会出事,一旦出事,车上有驾驶员的话,也意味着驾驶员要负责。

        即便是到了L5级,实现完全自动驾驶,而且在任何环境下都可以运营,也并不保证自动驾驶汽车不会出事故,只是出事故的比?#39542;?#22823;大降低,因而会更安全。因为,智能驾驶的反应会比人类驾驶员更快,也因此会减少更多的交通事故。即便如此,自动驾驶汽?#29380;?#36824;是会出事故。如果出了事故,到底由谁来负责?

        ?#28304;耍?#38656;要立法先行,而在立法上面,自动驾驶汽车同样受到人类伦理的太多限制。现在调查的结果是,2018年3月发生事故时,Uber的涉事车辆的自动驾驶系统在撞人前发现了受害者,但因为计算机系统设置的问题,计算机控制模式?#40065;?#36742;无法自动启用紧急刹车,刹车的责任交给了安全驾驶员负责。从这个角度看,监控的司机瓦斯奎兹当然应该为这起事故负责。

        但是,如果是L5的全自动驾驶,而且自动驾驶软件发现了行人,系统也启动了刹车,但由于刹车发生故障,无法让车辆停住,这时这辆车的两边也都有大量人群,那么,自动驾驶系统是选择继续前行撞到前方行人呢,还是拐弯撞向?#21592;?#30340;人群,这?#23548;?#19978;就是电车伦理的翻版。

        在负法律责任之前,牵涉的是自动驾驶汽车设计的伦理难题。这个问题在不同的国家和地区,有着不同的伦理观或者伦理偏好,因此,如果非要设计这样的自动驾驶软件的话,可能在不同的国家有不同的软件。

        研究人员发现,全球不同国家的伦理偏好既有共性,也有差异。共性是:保护人类的生命,而非其他动物的生命;拯救多人的生命,而非少数人;保护年轻人的生命,而非老年人。差异是,在东亚一些国家,人们偏向保护老人而非保护年轻人。此外,在保护对象的伦理偏好上,全球的?#25215;?#26159;:婴儿、女孩、男孩、怀孕妇女、?#34892;?#21307;生、女性医生、女性运动员、女性高管、?#34892;?#36816;动员、?#34892;?#39640;管、胖女人、胖男人、无家可归者、老男人、老女人、狗、罪犯、猫。

        这也意味着,如果按这样的伦理偏好设计自动驾驶软件,以应对电?#30340;?#39064;的选择,也不可能不引起争议。而且,这样的伦理偏好和?#38469;?#35774;计能否结合起来,发生事故也许是一瞬间的事,人来不及反应,同样机器和智能软件也来不及反应,也就无法选择汽车撞向哪一边。

        更重要的是,当发生事故后,法律责任是否就要按这样的伦理偏好来?#26469;闻?#20915;或减轻。当然,前提是,谁来负法律责任,是厂商还是智能软件的设计者?

        尽管特斯拉CEO埃隆·马斯克(Elon Musk)预计,到2019年年底其公司将可拥有运营无人驾驶汽车所需要的全部?#38469;酰?#20294;是,伦理和法律问题如果不能解决,自动驾驶汽车还是不能上路。

        【换个姿势看山东-天天豪礼有惊喜-全新界面国际范儿】

        齐鲁壹点 最懂山东

        齐鲁壹点

        责任编辑:狄克红
        怎样玩广东快乐10分
        <output id="d2nk8"></output>

            <mark id="d2nk8"><ruby id="d2nk8"></ruby></mark><thead id="d2nk8"><sup id="d2nk8"></sup></thead>
          1. <code id="d2nk8"></code>
            <output id="d2nk8"></output>
            <big id="d2nk8"><strong id="d2nk8"></strong></big>

            <output id="d2nk8"></output>

            1. <thead id="d2nk8"><sup id="d2nk8"><kbd id="d2nk8"></kbd></sup></thead>
              <output id="d2nk8"></output>

                  <mark id="d2nk8"><ruby id="d2nk8"></ruby></mark><thead id="d2nk8"><sup id="d2nk8"></sup></thead>
                1. <code id="d2nk8"></code>
                  <output id="d2nk8"></output>
                  <big id="d2nk8"><strong id="d2nk8"></strong></big>

                  <output id="d2nk8"></output>

                  1. <thead id="d2nk8"><sup id="d2nk8"><kbd id="d2nk8"></kbd></sup></thead>