有朝一日人工智能机器会拒绝服从人类指挥,甚至杀死或控制人类、最终统治世界吗?包括英国理论物理学家斯蒂芬?霍金在内,数百名科学家和企业家联合发表的一封公开信或体现了这种担忧,公开信敦促人们警惕人工智能“脱离人类的控制”,导致灾难。(1月14日《钱江晚报》)
物理大师斯蒂芬?霍金等人的谨慎担忧,折射出科学家和企业家的良知,如同二战时期另一位物理学界的大师爱因斯坦担忧原子弹落入纳粹德国一样,不是杞人忧天,而是先知先觉。
从人工智能现在的发展水平衡量,“人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具”,其智能化水平与人类相比,还处于一个较低的阶段,尚无法威胁到人类,还在科学家的掌控之中。
但人工智能产业蓬勃发展的势头,却来势凶猛。随着互联网、云计算、微电子技术、3D打印技术等高科技产业的迅猛发展,无人机、机器人士兵等军事技术装备的不断突波,民用、军用机器人智能化水平越来越高,遥远的未来出现科幻电影中的人与机器人的冲突、战争完全有可能成为现实。
随着人类第三次产业革命的浪潮,各国不惜巨资投入到人工智能领域,人工智能的升级换代将进入高速发展的倍增轨道。眼下虽然还在人类脚下“嗷嗷待哺”,有朝一日,如不加以防范,人工智能就是人类豢养的一只“伏地魔”。
人工智能依靠其自身强大的计算能力,一旦有了自我设计和制造能力,其智力水平会超过人类。如果没有道德范畴的约束,最终摆脱人类的控制后,其犯罪行为,给人类带来的灾难不亚于原子弹的核威力。长期而言,出现一些科幻电影中“政变”的情况,是科学家们最担心的事情。
人类高速发展的同时,工业化也给大自然和人类本身不断造成新的伤害。面对挑战,精英们发出理性睿智的声音,是人类的曙光。人类应该避免成为自身的掘墓人,各个国家应该共同面对未来的“敌人”,及早制订人工智能领域共同的准则,可控可防,维护世界和平,让人工智能造福人类,而不是统治人类世界的“恶魔”。(中国台湾网网友:孟刚)
(本文为网友来稿,不代表中国台湾网观点)