来说,这两种方向应同时进行,一个最大的原因便是人类若想得到长足发展,必先研究透自身,一举两得,何乐而不为?
以上所述,还可寻到根据,接下来的便只能是进行合乎逻辑的推理和大胆的设想了。
强人工智能即指超过人类的层次,它可能超过一点,也可能超过几千万倍,跨度极大。也正是因为它的不可控性,人们才会认为这是一个潘多拉魔盒,会毁灭人类,但是这也同样可能使人类真正永生。那么有什么办法能使超人工智能受到人类的控制呢?答案是没有,起码在我们当前的认知中是不切实际的。自然界创造了人类,可人类却近乎脱离了自然界的控制。那么,人工智能是不是该停止呢?我认为不该。前面提到了递变演化,超人工智能的层次提高是人类插不上手的,只能靠它自身的递变演化。但是递变演化却不是只出现在人工智能身上,人类也有自己的递变演化,而且根据加速回报理论,递变的单位所需时间是会逐渐缩短的,如果我们能从人工智能那里取得这样的经验,发展的就不会只是人工智能。再者,从强人工智能到超人工智能的层次质变,同样可以被借鉴用于人类的发展,这就意味着人类自身是会永远领先人工智能一步。难道人类担心过被猴子毁灭吗?没有。同样人工智能就好比比我们智能层次低的猴子,也不会导致我们的毁灭。并且我们可利用人工智能为我们自身服务。当然,这只局限于理论推导、假设猜想,很可能未来的走向会与之大相径庭。
人工智能的发展不应是单方面的,视野必须拓宽出去。对于人工智能的研究其实等同于对人自身的研究,它不仅仅只是一门计算机科学,更是一门生命科学。如果能将它的研究与生命科学的研究结合起来,人们对它的了解就可能更透彻。比如说,对于大脑的研究,一定会牵扯到思维的研究,而对思维研究的深入,可以让我们更好地设计智能的思维,甚至于我们可以将人类的心理在不影响性能的情况下导入其中。人类的心理会使它们站在人类的角度思考,甚至可以说智能便成了人类的另一种存在形式。在这里,就又引出一个问题:安全和性能,我们应更注重哪一个。答案非常明确,安全。如果连安全都保证不了,那它就没有存在的价值。原子能,人类可以控制,所以才有了核电的存在。人工智能同样如此,虽然我希望人工智能能造福人类,但若能证实它对人类的弊大于利,那就应该终止有关的研究,让它成为历史。
有人说人工智能是人类最后的一项发明,因为一旦超人工智能出现,人类便会灭绝,未免太过悲观了。生物与生物之间最纯粹的关系是利益关系,人工智能与人类之间也可以通过利益关系关联起来,并且让人类处于主导的地位。那么人类可以为人工智能提供什么利益呢?目标。人类是已知唯一有独立意识的存在,我们可以提供给人工智能目标,这就需要我们再设计时不能让它产生独立意识,如果这能实现,就意味着我们拥有了超越人类层次却对人类无比忠诚的存在,人类社会的发展必因此得到更大的进步。