当前位置:云顶集团娱乐4008 > 社会科学 >

如何看待霍金对人工智能的警告—新闻—科学网

发布时间:2017-12-04 阅读:

  如何看待霍金关于人工智能的警告 - 新闻 - 科技网

  今年3月8日,着名物理学家史蒂芬·霍金向英国“独立报”表示,人类必须建立有效的机制,尽快发现威胁,防止新技术(人工智能)对人类的威胁进一步增加。霍金警告说,未来人工智能可能会以生物化学或核战争的方式摧毁人类。实际上,早在2015年9月,霍金就发出了类似的警告:聪明而有能力的人工智能会使人类灭亡。霍金说:一个超级智能的人工智能可以很好的实现它的目标,如果这些目标不符合我们的人类,我们人类就会陷入困境。

  我们如何处理霍金的警告?首先,霍金本人也是人工智能技术的支持者,霍金认为现在人工智能已经渗透到各个领域,人工智能甚至可以帮助消除长期的社会挑战,如疾病和贫困。

  人工智能是当今新技术革命的佼佼者,实际上人工智能技术经历了三波发展,第一波以手工知识为特征,典型的例子是智能手机应用等,第二波的特点是统计学习,典型的例子是人工神经网络系统,在无人驾驶汽车等领域取得了进展,虽然这些人工智能技术在具体问题上有很强的推理和判断能力,但是没有学习的能力。通过适应环境,AI了解环境,发现自律的逻辑规则,并建立自己的决策流程。今年早些时候,Google AlphaGO以60:0的成绩升级了Master,击败了世界顶级国际象棋所有最好的球员; 5月25日,AlphaGO再次在两局中击败了中国职业球员克杰;我认为这些都是人工智能标志的第三波。

  其次,人工智能技术也是一把双刃剑。一方面,使用人工智能技术自动化将大大提高生产效率,节省人力成本。通过优化行业现有产品和服务,将开辟更广阔的市场空间。由于人工智能在社会经济中具有不可替代的重要作用,人工智能已被写入我国两届政府工作报告中。

  另一方面,人工智能技术也给社会带来了短期和长期的风险。在不久的将来,重复,耗时和乏味的工作;在迅速变化的复杂环境中超越人类极限的努力很可能被影响劳动力市场的人工智能系统所取代。可以预见,由于人工智能的发展,大多数人的智力将低于或接近人工智能的水平,如果没有有效的政策控制,财富将集中在少数智能手中人工智能,这将进一步扩大社会贫富差距,引发社会扯皮。

  对于霍金关于人工智能的警告所引发的人类生存风险,人工智能将来在整体上将超越人类的智能,这方面的理解仍然存在分歧,很多自然科学家认为目前的人工智能是还远远没有达到上述水平,危险性还远远不够,有的社会科学家担心,随着技术变革的深入,人工智能触发的连锁反应将会出现无法控制的情况,上述认识的差异恰恰反映了人类对智力理解的多样性,从这个角度来看,科学家完全理解人类的智慧和复制,只是时间问题,鉴于人工智能超越人类智能的潜力以及由此产生的严重后果,内在的不确定性科学技术的发展,充分论证了研究人工智能安全问题的必要性。

  早在1950年,美国着名的科幻小说家艾萨克·阿西莫夫(Isaac Asimov)便创作了“我,机器人”小说,提出了着名的机器人三大法则:第一法则,机器人不能伤害人类或者见证第二定律,机器人必须遵守人给予的命令,除非命令与第一条规则冲突。第三定律,机器人不得违反第一,二定律,尽可能地保护自己的生存。从那以后,这三个法则不断激发人工智能安全的新思维。由于人工智能最终会有自己的自主感,因此人与人工智能系统之间的关系必须以普遍可信的指导方针为指导。特别是在军事领域要更加小心,否则最有可能出现在人机交战现场所描绘的科幻电影中。

  因此,我们在发展人工智能系统的同时,亦须确保在预先制定的有关指引下进行工作,以防止其变得更为不正规。

关键词: 社会科学