人工智能犯罪不能逍遥法外!

  2017-04-26  源自: 今题网  字体    

2017年有以下趋势:复杂算法可以帮助预防和解决人类的犯罪问题,同时还能帮助预测法庭审判以及人权相关审讯的结果,并协助律师的工作。甚至有人提出,到2040年,先进的机器人将成为“犯罪分子”。比如说去年在加州发生了一起案件,负责安检的机器人从一个孩子身上碾过去,造成了事故。

今题本地推广,小费用大曝光

我们应该如何理解这一切?我们应该感到害怕吗?这种担心通常是徒劳的。那么,我们应该对此不屑一顾,继续支持Netflix吗?这听起来很吸引人,但答案是否定的。我们应该开始制定计划来应对所有这些问题吗?答案是肯定的。

今力网 - 领先的美国房产平台推荐多名优秀专业的房产经纪人

对人工智能的恐惧是一个热门话题。当一项新技术非常强大、同时又有些陌生的时候,看起来可能会非常可怕。不过,像《终结者》这样的电影不仅仅带着娱乐的目的,通过它们我们还可以窥见未来的世界,或者说,至少对可能出现的未来世界有所了解。

在众多需要考虑的问题中,有一点值得注意,即法律所能发挥的作用。业内专业人士对未来机器人的生存形态持有极大的分歧意见,但我们必须面对这样一个事实,即人工智能技术有能力对人类造成伤害,而且这项技术已经出现在我们周围。这种伤害可以有多种表现形式:战争中满载武器的军用无人机,执法机器人杀死爆炸案的嫌疑人或者其他无辜的人,又或者是机器人造成事故、失误、疏忽等。

在法律上有一个直白的说法:“哪里有罪行,哪里就有申诉。”但是,当机器人犯罪的时候,我们应该去告谁呢?这个问题通常看起来过于抽象而不值得担忧。但是请不要忘记:机器人曾因购买毒品被逮捕,却并没有被起诉;一名司机在特斯拉车里启用自动驾驶后发生事故死亡,而美国国家公路交通安全管理局却免除了特斯拉的责任。虽然这些例子的确比较少见,但历史总会带给我们很多意外。例如,在莱特兄弟乘坐“小鹰号”兜风之前,没人想到有一天人类可以飞上天。

随着技术的发展,法律一次次接受新的挑战。尽管最初有些反应过度,但最终还是顺利得到了完善。简而言之,法律在发展。

机器人犯罪

虽然法律可以在多方面被定义,但从根本上来说,它是一个用来满足人们期望的社会系统。因为有法律的存在,所以如果你被抢劫了,你就会很自然地认为抢劫犯会被指控,并因此受到惩罚。但是反过来,法律也对我们抱有期望,我们必须在自己良心允许的范围内充分遵守它。作为人类,我们通常可以做到这一点。例如在开车时,人类有能力决定是要加速还是遵守限速规定。因此,法律认为人类是“法律上的人”。在不同程度上,企业也被赋予了法律人格,即法人。法律赋予了企业一定的经济和法律权利,但更重要的是,它也赋予了它们责任。举个例子,如果某公司推出了自动机器,那么该公司就有相应的法律责任。而当机器拥有自主意识时,问题就出现了。

智能助手AlexaSiriCortana的技术令人印象深刻,但它们还不够格成为法人。但是,当新一代人工智能产品有能力造成真正的伤害时,会发生什么呢?

人工智能有犯罪心理吗?

刑法有两个重要的概念。首先,它包含了这样一种概念,即当伤害已经发生,或者某种行为或疏忽可能造成伤害时,就要追究当事人的责任。其次,刑法要求被告对自己的行为负责。这就是所谓的“犯罪心理”或“犯罪意图”。犯罪意图是指,被告具有攻击行为,并且攻击的意图是故意伤害他人,或者在行动之前就知道此次行为可能带来的伤害后果,那么就可以判定被告具有犯罪意图。

那么,如果一台先进的机器人犯了罪,那么它应该如何受到法律制裁呢?律师如何去证明非人类的机器人有“犯罪心理”呢?这一点可以通过借鉴或调整现有的法律原则来实现吗?

以无人驾驶汽车为例。无人驾驶汽车能够在公路上行驶,而法律法规规定至少方向盘后面要坐一个人。然而,一旦全自动驾驶汽车到来,就需要对法律法规进行更加广泛的调整,以适应人类与自动驾驶系统的新型互动方式。

随着人工智能技术的发展,它最终将达到一种成熟的状态,可能会不受人类的控制。而随着这一现象变得普遍,关于伤害、风险、错误和惩罚等问题就变得更加需要重视。在电影、电视和文学作品中或许会出现机器人犯错后造成致命后果的情节,但从现实的法律来看,生活没办法像好莱坞那么惊心动魄。

那么我们不禁要问:机器人能犯罪吗?简单回答一下,答案是肯定的。如果机器人杀了人,那么它就犯了罪,但从技术上来看只能说是一半的罪行,因为很难确定它的犯罪意图。我们怎么知道机器人是不是故意的呢?但就目前而言,我们还远远创造不出一个完全自主的“类人类”机器人,无法令它的外形、行为、语言和思考方式做到和人类完全一样。即便如此,人工智能领域几次小小的发展,也依然有可能会创造出一个会犯罪的机器人。金融算法和歧视性算法出现的错误比比皆是。

跟随我的思路,想象一下,如果《终结者》里面的机器人真的存在,而且犯罪了,例如谋杀,那么问题不是要确定它是不是真的杀了人,而是要确定它行为的程度是否符合犯罪意图的原则。但是,我们要如何证明犯罪意图的存在呢?我们能不能对机器人进行交叉审查,就像对人类被告那样?也许可以,但我们需要更进一步,检查时机器人犯错的代码。那么,“意图”这个东西在机器的思维中是以什么形式存在的呢?我们该如何证明机器人是正当防卫还是早有预谋呢?

接下来我们再来讨论一下更深层次的问题。毕竟这不仅仅关乎暴力犯罪。想象一下,某一天我们将拥有一个系统,它可以随意使用你的信用卡在网上买东西。有一天,它买了违禁品。实际上这不是我虚构出来的,而是真实的事件。两名伦敦专家创造了一个机器人,它在暗网随便买了点东西。它买了什么呢?假牛仔裤,有监控摄像头的棒球帽,储藏罐,耐克,200根香烟,消防队的钥匙,假LV。这两个人应该对自己创造的机器人的行为负责吗?也许吧。但如果机器人的购买行为是它自行决定的呢?

机器人监狱?

即使上述这些法律问题得到了解决,我们依然面临如何惩罚的问题。30年的牢狱之刑是否能对机器人构成实质性惩罚?它既不会变老,也不会衰弱,更不会思念它爱的人们。当然,除非在编写运行代码时,有设置过它可以反思自己的不当行为,并且这些代码能够被重新编写。那么,作为机器人的创造者,我们应该赋予机器人什么样的情绪作为人类“悔恨”的类似物呢?

当我们谈论机器人是否能犯罪这一话题时,我们所谈论的是人工智能的特殊情况,例如一个系统有了某些特别的行为,也许是好的,但也是不可预见的,因此才会给法律带来挑战。

事实上,人工智能对医学的新发展起到了促进作用,我们也正在通过人工智能学习更多关于宇宙的知识,而这是斯蒂芬·霍金那样的科学家也无法做到的。

今力网 - 领先的美国房产平台推荐多名优秀专业的房产经纪人

人工智能的希望在于,当我们发现了机器人做出的某些特殊却有益的行为时,我们是可以找到相应的解决方案的,以确保机器人不会触犯法律、道德,或是做出其他危险的行为。然而,目前连人权的保障都未能在全世界范围内普及,因此我不禁思考,我们在对人类的行为进行克制时已经竭尽全力,那么面对机器人,我们是否能够说自己做好了充分的准备呢?

今题本地推广,小费用大曝光

[责任编辑:rankd]

    标签:今题  科技  人工智能  犯罪  
分享到:
申请 成为今题达人 ~~轻松赚芒果,月月有惊喜~~带来不一样的专属体验!!