WTO/FTA咨询网

首页>专家观点>殷格非专栏

来源: 类型:

人工智能时代的社会责任思考

人类即将要进入的人工智能时代是一个什么样的生活场景呢?

简单地讲,人工智能将会成为我们日常生活不可或缺的一部分。人工智能就像互联网、就像水和电一样渗透到生活和工作的每一个方面。当然也要渗透到社会责任工作的每个方面。据有关专家研究,人工智能将会使社会责任履行变得更加容易和高效,比如区块链技术跟供应链结合起来就会让供应链社会责任履行变得更加透明,并且履责的行为和绩效将被记录并不可更改。

在带来巨大好处的时候,这也会存在潜在的风险和不利影响。而且这种潜在的风险和不利影响,如果不加以管理,可能完全超出我们的想象。如刚刚离世的著名学者史蒂芬•霍金曾说: “人工智能的崛起可能是人类文明的终结”。这说明人工智能的发展对我们人类的影响将会非同一般。人工智能的影响究竟几何?有的专家认为人工智能的发展要么让人类永生,要么让人类灭亡。可以说,人类每一次技术的飞跃,都会带来人类的大发展,同时也给人类自身带来巨大的风险和问题。这也说明要重视人工智能影响的管理,将成为摆在社会责任业界的新课题。

人工智能发展的三阶段

从技术发展层面来讲,人工智能发展一般可分为弱人工智能、通用人工智能和超级人工智能三个阶段。弱人工智能还无法达到人类的智力水平,即人工智能在人类的控制下在特定领域使用, 解决特定问题。但弱人工智能同样影响巨大。比如人工智能在工业上大规模使用,将会导致工作岗位被机器人取代。如果像有的专家预测的那样, 将来95% 的工作岗位都会被人工智能取代。如果大部分人在大部分时间都没有工作,这个社会是一个怎样的状态,显然我们自己还没准备好。再如,在军事化用途上,将人工智能用于生产更高效的无人机杀人武器,追求的是不再需要人来指出攻击目标即可自动判定目标并执行攻击。

在通用人工智能阶段,人工智能将从狭窄的、特定领域的智能迈向更通用的智能,这个时候这些机器能在没有编码特定领域知识的情况下解决不同种类的问题,甚至能像人一样做出判断和决策。比如,谷歌Alphabet旗下的子公司DeepMind开发的Alphabet Zero作为围棋弈者从零开始,面对的只是一张空白棋盘和游戏规则,通过自学使自己的游戏技能得以提高,而不是通过输入人类的对弈棋谱来训练自己。这代表着人类在建造真正智能化机器方面向前迈进了一步,因为即使在没有大量训练数据的情况下,机器也能根据规则和目的需要找出解决困难问题的方法。这在某种程度上似乎具备了所谓的“自觉意识”。有的专家认为,即使没有像人一样的自觉意识,但人类也面临将这个世界的管理权让渡给人工智能。随着人工智能的进化,他们终将认识到人类是这个世界的负担,最后理性的结果或许是清除行尸走肉的人类。一份最近的专家调查显示,可能是 2040-2050年左右,有50% 的概率实现人类水平的通用智能。

从技术发展的终极层面来讲,如果人的思维也是从无思维的物质开始生成的,人的意识又是从思维开始的,那么从纯理论上来讲,人工智能零部件也是无思维的物质,而这些无思维的物质最终也可能会像人一样有思维,进而也可能会像人一样具有自我意识。从而最终可能成为像人一样的一个智能物种。这就是所谓的超级人工智能时代。这个时候人类面临的挑战就更加不可预测了。因为有的专家预计,这种超级的人工智能有可能反叛人类,而跟人类来竞争、来较劲,甚至发生超级智能和人类之间的战争。这种超级智能甚至能思考人类存在于地球的必要性和合理性。

综上所述,无论是弱人工智能,还是通用智能以及超级人工智能,其潜在的风险巨大。作为发展这种人工智能主体的人来讲有责任管理好潜在风险和负面影响。在弱人工智能阶段,人工智能的各相关方是责任主体。这样看来,涉及到人工智能的各个相关方的社会责任问题。人工智能研发者、相关产品和服务的生产者、销售和服务者,也包括使用者以及政府监管部门等各相关方都肩负着重要的社会责任,防范人工智能的风险和负面作用。

应遵循的九项原则

首先,要遵循有益于人类的原则。树立人工智能要服务于人们美好生活的理念和意识。也就是人工智能的研究与开发要着眼于有益的智能方向去做。

第二,研发人工智能要遵循透明度原则。特别是研究的目的、目标和功能要向相关方和社会公开公布,以便接受社会责任监督,防止人工智能的研发走偏方向。

第三,利益相关方原则。要加强相关方之间的交流和信任,尊重回应利益相关方的利益和所求。比如研发者与政策制定部门要加强交流,适时出台相关的政策和要求,对人工智能的研发加以引导和规范;在利用大数据时要尊重相关方的合法权益和隐私,还要做到责权利相匹配。

第四,担责原则。人工智能的研发和生产者是人工智能的权益人,更重要的是其责任人,对人工智能的滥用要承担责任。确保人工智能的质量,一是要避免明显的安全缺陷;二是发生人工智能故障或者损害时,应当可以查明原因。这样一方面防止意外发生,另一方面,也能促进业界共享, 防止类似的错误或者损害发生。

第五,道德伦理原则。人工智能的开发者要赋予人工智能以与人类相同的价值观。这样人工智能的目的和行为是在可以控制的范围。

第六,审慎原则。对于在要开发的人工智能的潜在风险和负面影响不能有效评估的情况下,要采取谨慎的态度,不能冒昧地推进。

第七,尊重人权的原则。人工智能的设计和运作应尊重人权,要符合人类尊严,权利,自由和文化多样性的理念。

第八,共享的原则。人工智能技术应该尽可能地使更多人受益,要尽量让更多人更广泛的共享,造福全人类。

第九,双主体责任原则。在通用人工智能以及超级人工智能阶段,除了人工智能相关方承担相应的社会责任外,人工智能系统本身作为一个智能体也应作为责任主体加以规范。

智能问答