探究人工智能的伦理学问题机器可以学习了人怎么办
探究人工智能的伦理学问题:机器可以“学习”了,人怎么办?
2017年1月在美国加州Asilomar召开的“阿西洛马会议”(the2017Asilomar conference),包括844名人工智能和机器人领域的专家们基于对AI和Robot迅猛发展的深切关注,联合签署了称之为“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作遵守这些原则,共同保障人类未来的利益和安全。
对AI和Robot的发展所产生的对人类自身的地位和价值的影响的担忧由来已久,稍前一些,2014年由Skype联合创始人Jaan Tallinn、麻省理工学院教授Max Tegmark,物理学家史蒂芬霍金、SpaceX和Tesla Motors创始人Elon Musk、牛津大学Future of Humanity Institute主任Nick Bostrom、 MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大学遗传学教授George Church、MIT物理学教授Alan Guth以及剑桥大学、UC Berkeley等人工智能方面的专家、教授以志愿者的身份创立了“生命的未来研究所”(Future of Life Institute,FLI)。
2015年1月11日他们发表了一封公开信:Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter(公开信:为稳健性和利益性的人工智能而进行研究),提出“我们的人工智能必须只做我们要它们做的”即“有益的人工智能”的口号,而对这样的问题的高度关注此前已经引起了业内外的广泛注意和严肃讨论并有所行动,如:AAAI2008-09Presidential Panel on Long-Term AI Futures,Asilomar Meeting on Long-Term AI Futures,Partnership on Artificial Intelligence to Benefit People and Society等,而更早的时候,在实体机器人出现之前的上世纪四十年代,科幻小说家阿西莫夫(Isaac Asimov)提出了著名的“机器人学三大法则”和以后的多种补充原则(LawⅠ:A Robot may not injure a human being or, through inaction, allow a human being to come to harm)。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律情况下要尽可能保护自己的生存,这三条法则实际是把机器对人的服从作为机器的设计和制造的原则,并没考虑具有“自主能力”、甚或有自我意识等高级人工智能的问题,现在那种“高度自主的人工智能系统”(Highly autonomous AI systems)或被称为“强人工智能”或“通用人工智能”(Artificial General Intelligence ,AGI)等似乎已在敲门了,人类如应何而对?
“阿西洛马人工智能原则”实际上是所有关注AI和Robot的发展所产生的对人类难以估量的影响的长期观察和思考的一次集中性表达,在更深远的意义上,可以看作是科学家顶替缺位的哲学家、人类学家、伦理学家对人类自身的性质和地位和价值的一次严肃思考。
12345下一页>