当前位置:云顶集团娱乐4008 > 电子科技 >

人工智能或许会对法律规范、道德伦理等产生冲

发布时间:2017-12-03 阅读:

  人工智能可能会影响法律规范,道德等。 - 新闻 - 科学网

  最近,由美国公司生产的超模拟机器人索菲亚(Sophia)在电视节目中对人类作出了很好的回应,并成为红色机器人。对话中,索菲亚透露出喜悦,惊喜,厌恶等表情的确令人印象深刻,网友惊呼:快速而真实的人无法分辨!

  \\ u0026

  技术往往是一把双刃剑。人工智能的飞速发展带来了一些困惑和挑战。人工智能会有自己的意识和情感吗?这会对人类社会产生什么影响吗?

  \\ u0026

  法律纠纷

  \\ u0026

  假设没有人受伤,这是开发者的责任或驾驶公司的责任

  \\ u0026

  人工智能造成的道德困境让许多专家感到纠结。尽管这样一个场景目前仍然存在,只是假设:一辆满载乘客的无人驾驶汽车正在开车,遇到紧急情况马路对面的孕妇,如果紧急刹车可能会翻车伤害乘客,而不是紧急刹车可能撞到怀孕妇女。在这种情况下,无人驾驶车辆将会怎么做?

  \\ u0026

  如果司机是一个男人,那么这个时刻完全依赖于人们的冷静判断,甚至是本能或者直觉,当人工智能落入人类伦理困境的极端场景时,每一步都是由算法设定的。

  \\ u0026

  无人机依赖于人工智能的大脑,目前不可能做出超出人为算法设定的限制的行为决策。浙江大学计算机学院教授吴飞说,每年国家的交通事故数据都会送到计算机,人工智能可以学习海量数据中隐含的各种行为,简而言之,无人机将选择一个类似于从前一个案例数据库中选择当前案例,然后根据选择的案例执行这个决策。

  \\ u0026

  但是在一个完全陌生的场景中,电脑将会怎么做?无人驾驶车辆的第一种选择仍然是搜索,即在大脑中快速搜索,并且当前场景的相似度超过一定阈值

  \\ u0026

  过去的场景的价值,形成相应的决定。如果计算机搜索到的场景的相似度小于阈值,即无法找到相似的场景,则可以通过某种方式来控制无人机的随机选择。吴飞说。

  \\ u0026

  程序员可以编码无人驾驶的车辆来同意如何去做,但是这个协议必须总是遵循一般的社会道德。在这个过程中,程序员应该把道德检查器一起。程序员应该以代码的形式反映道德决策,并将其输入到系统中。吴飞想。

  \\ u0026

  无人机伤害了谁,谁负责呢?

  \\ u0026

  目前,人工智能尚未达到人类智能或超人类智能,人工智能不能作为主角。浙江大学教授盛小明表示,从技术角度看,技术实施水平还很低。其实一个演员的问题只能找到它的设计师。从哲学角度来看,赋予人工智能的主导地位是荒谬的。对主体概念有一系列限制,如反思能力,主观判断,情感价值目标设定等。人工智能不是一种严格的智力意识。

  \\ u0026

  人工智能所表现出来的智能及其对人类行为规范的掌握和遵从,是建立在大数据学习的基础上的,与人的主观意识有本质的区别。人工智能不是一个有机体,不能构成行为的主体。传统的司法审判不能复制成人工智能。因此,人工智能不能成为社会责任的责任。中国社会科学院社会学研究所副研究员赵连飞也持有同样的观点。

  \\ u0026

  以无人驾驶汽车为例,无论是人工智能开发商的责任,还是无人驾驶汽车公司对第三方的责任,甚至是第三方的责任,还是在何种情况下,关于人造智能框架的相关法律法规通过制定商业合同协议书。赵连飞说。

  \\ u0026

  情感的神话

  \\ u0026

  人类和人工智能,如情侣,父女和其他情绪的出现,将检验现代的伦理规范

  \\ u0026

  科幻电影迷们不会忘记这几个片段:电影“机械姬”终结了机器人伊娃有了自主权,刀杀了自己的设计师;在电影“她”中,人类作家西奥多华人工智能操作系统萨曼莎诞生了爱情。不幸的是,西奥多在发现萨曼莎的同时也与很多网友有过一段爱情,两人对原来爱情的理解根本不是一回事。

  \\ u0026

  虽然科幻电影倾向于消极地描绘人工智能,但也在一定程度上表达了人的焦虑和焦虑。实际上,人工智能会有自己的意识,人类有感觉吗?

  \\ u0026

  这取决于如何定义生成的单词。人工智能的自主性仍然取决于学习的模式和过程。正如阿尔法狗一步棋的选择就像是选择了大量可能的国际象棋之一一样,自治在终极意义上是一种有限的自主,实际上取决于学到什么。在赵​​连飞出现的人工智能意识和情感表达,是人类意识和情感的获得,但不会超过这个范围。

  \\ u0026

  机器可以超越人类学习,主动产生意识和情感吗?吴飞认为,就目前的研究而言,这是遥不可及的。但是有一条假想的,可能的路径,通过这个路径可以通过认识人脑来创造人类的大脑。不幸的是,我们对人脑如何产生意识和情感的基本问题还不够了解。

  \\ u0026

  人工智能越来越像人类,人类对机器有感情怎么办?

  \\ u0026

  人类是否具有人工智能的感觉取决于这个过程是否给人类带来幸福。互联网发展初期最常见的词语之一就是互联网上说,没有人知道你是一只狗。这表明,当人类不知道传播者的身份时,只要对方能给自己带来快乐,就可能产生感情。赵连飞认为,这可能会对人类交互模式产生影响。例如,未来基于知识的人工智能可以回答许多人们可以思考的问题,从而导致个人学习风格,生活方式甚至社交模式的变化。

  \\ u0026

  如果人和AI出现夫妻等情绪,就会考验现代的伦理规范。如果社会上流行的观点认为这种关系是道德的,那么人们可能更倾向于以类似于夫妻之间的道德规范的方式来调整两者之间的关系;但是如果一个人总是认为人与智能的关系是主导的游戏关系,那么相应的道德标准就不能谈论它了。赵连飞说。

  \\ u0026

  未雨绸缪

  \\ u0026

  专家建议提高人工智能技术规范和法律约束

  \\ u0026

  面对人工智能的影响,专家认为,五十年代美国科幻小说家阿西莫夫机器人提出了三大法则,今天仍有借鉴之处。这三条法则是:机器人不得伤害,也不能看到人受伤,袖手旁观;机器人应遵守所有人的命令,但不得违反第一法。机器人应该保护自己的安全,但不能违反第一法和第二法。

  \\ u0026

  毕竟,人是智能行为的主要转折点。吴飞认为,人类可以在下雨天处理人工智能造成的威胁。

  \\ u0026

  开发者应始终把技术进步的冲动放在社会责任要求的人工智能上。就像生物克隆技术一样,从克隆技术提出之日起,克隆的社会伦理问题总是优先于克隆的技术问题。赵连飞认为,人类在开发人工智能的过程中,应该逐渐积累人工智能控制的经验和技术,特别是防止人工智能失控的经验和技术。

  \\ u0026

  在技​​术上加强对人工智能的控制是完全可行的。尽管人工智能日益复杂,但基本事实仍然是处理大量数据的智能程序的结果。编程时,开发人员可以通过编程将其设置为安全。例如,如果它被认为是人,就必须自动保持距离;它不能做出攻击行为,并受其机械强度的约束。中国科学院自动化研究所研究员孙振安表示,人类的法律规范和道德要求也可以用代码的形式写入机器,所有的数字都是语言上符合人类代码的进行。

  \\ u0026

  除了设计和施工要遵循技术规范外,还要由政府有关部门牵头,由技术专家,社会科学研究人员,政府管理部门成立人工智能管理委员会,人工智能研究中心并审查开发项目评估并严格控制从技术到产品的联系。赵连飞认为,此外,还应加强人工智能研究的多方面,跟踪和了解人工智能的发展趋势和实践,以未来学研究为基本范式。

  \\ u0026

关键词: 电子科技