《2023年人工智能和超级智能——读《超级智能》后感.docx》由会员分享,可在线阅读,更多相关《2023年人工智能和超级智能——读《超级智能》后感.docx(7页珍藏版)》请在taowenge.com淘文阁网|工程机械CAD图纸|机械工程制图|CAD装配图下载|SolidWorks_CaTia_CAD_UG_PROE_设计图分享下载上搜索。
1、2023年人工智能和超级智能读超级智能后感 人工智能和超级智能 读超级智能后感 2023年大家都听到过一个词:阿尔法狗。去年由谷歌公司开发的AlphaGo以4:1战胜围棋世界排名第二的李世石(第一名是中国的柯杰)。2023年末2023年初,该系统在中国棋类网站上以Master为注册帐号与中日韩数十位围棋高手(包括柯杰)进行快棋对决,连续60局无一败绩。可以肯定的一点,在围棋上人工智能已经领先于人类。可能大家觉得人工智能和以往的其他棋类程序一样,通过推算所有的后续步骤取得胜利。其实不然,如果采用穷举法,围棋的运算空间非常庞大,据计算将超过整个宇宙中所有粒子的总量,没有任何计算机能完成这个任务。A
2、lphaGo采用是学习方式,通过学习棋谱来学会下棋,通过和自己下棋来提高棋艺。人工智能两个关键点,一能看懂棋谱,二能自己练习提高。程序总是固定的有限的,它的内部运行是可以预测的;人工智能不同,能够学习,能够自我进步,它的运行步骤随着学习过程不断进化。 可能大家觉得,下棋这种事人工智能再厉害也无所谓。那我们再看看另一则新闻:IBM的人工智能“沃森”首次确诊罕见白血病,只用了10分钟。人工智能能够给人看病了!我查了一下资料,2023年Watson已经走入中国医院,与中山大学附属肿瘤防治中心、中国医科大学附属第四医院等23家医院达成合作,将沃森运用到诊断过程。沃森的前身就是当年那个下国际象棋的深蓝,
3、当年深蓝战胜国际象棋世界冠军时也是一个大新闻。而现在深蓝的后代沃森不仅能够下棋,还能看病,还能回答智力问答(类似猜谜),还能从事法律、金融等多个行业。它能以极快的速度阅读最新的医学论文,理解并运用到诊断过程中,所以一些刚刚发现的病,它也能诊断出来。看看人工智能多厉害,有没有一天会超越人类呢?如果超越人类会怎样呢? 著名科学家斯蒂芬霍金曾发出警告,人工智能会控制人类,人类有灭亡的风险。如果你想了解人工智能超越人类以后的可能性,你可以看看这本书超级智能。实际上我并不建议大家去读它。首先,本书比较专业,作者尼克波斯特洛姆作为牛津大学未来研究院的院长,行文中有很多的专业性描述;其次本书的中文版出版社中
4、信出版公司的翻译是知名的烂。读这本书真是一件艰巨的任务,让我想起大学学习离散数学时的美好时光。 书的全名超级智能 : 路线图、危险性与应对策略,很好的揭示了主要内容:超级智能是什么,超级智能如何实现(路线图),超级智能有什么危险(危险性),如何有效避免这些危险(应对策略)。 人类能在地球上成千上万的生物中脱颖而出,占有支配地位靠的就是智力,也就是智能。智能包含很多的内容,比如认知能力,学习能力,沟通能力,规划能力,组织协调能力,想象力等等。人类比地球上其他任何生物聪明很多,所以地球生物界人类现在是老大。 如果有一种智能,在几乎所有领域比人类更聪明,那就是超级智能。这种聪明是全方面的,作者指出了
5、6种超级能力:智能升级、战略策划、社会操纵、黑客技术、技术研发、经济生产,并且证明开始拥有其中一种能力的超级智能最终都能获得其他的能力。我的理解智能升级就是能够主动进化,战略策划就是有很强的谋略,社会操纵就是心理学大师加传销话术,后三种就很好理解了。总之这些都是超级智能超脱人类的控制,能够自主发展的必须能力。 书中指出有三种形式的超级智能: 速度超级智能,功能和人脑相似但是速度更快; 素质超级智能,速度和人脑相似但是功能更强大; 组织超级智能,通过将小型智能组织在一起形成远超个体的智能(作者指出现在社会由于组织和沟通技术的发展,解决问题的能力已经远超以前,但是还达不到超级智能的程度)。 实现超
6、级智能有五种可能方式: 人工智能,通过人工智能程序实现超级智能; 全脑仿真,把人脑切片扫描,通过电子元件模拟每一神经元的功能,模仿人脑实现超级智能; 生物认知,通过遗传生物技术优生优育逐步提高人类智商实现超级智能; 人脑-计算机交互界面,把在人脑和计算机直接相连(比如在人脑植入芯片),实现超级智能。 网络和组织,人类集体智能经过长久的发展或者互联网获得了智能的必备要素(互联网有了自主意识),实现超级智能。 作者认为最有可能实现的是全脑仿真和生物认知,可能最先实现的反而是人工智能。前两者在现有生物和信息技术的基础上稳步发展就可以了(虽然时间漫长),而后者则有可能依赖数学家或某个程序员的灵光闪现就
7、能实现。 那么超级智能出现之后对人类会有什么危险呢?(全脑仿真和人工智能的)超级智能出现后,凭借对人类智商压制将取得世界的控制权,人类的命运将交到超级智能的手里,就像现在狗或者老虎的生存环境更多是受到人类的控制。如果超级智能对人类好,人类就能大发展;如果超级智能对人类坏,那人类可能就要灭亡(存在性灾难)。 一般来说超级智能系统在建造之初就有一个目标,对于它来说这就是人生真谛,要为之奋斗终身。我们能不能通过控制人工智能的初始目标来让它对人类好呢?比如把目标设成著名的机器人三定律:第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命
8、令与第一定律冲突时例外;第三定律:机器人在不违反第 一、第二定律的情况下要尽可能保护自己的生存。这样机器人就只能听人类的话为人类服务了,不就好了么。其实三定律本身就有很大的漏洞,下面的恶性失败模式将会具体来说。 失败1:反常目标实现方式。目标:让人类和平,实现方式:把人类全部消灭;目标:让人类幸福,实现方式把所有人都抓起来装上生物刺激装置,让人一直处于幸福感中;目标:机器人三定律,实现方式:为实现第一定律,避免人类有被伤害的危险,把所有人都隔离监禁。 失败2:基础设施过量。目标:计算圆周率,实现方式:建造大量计算机设施用来计算圆周率,甚至把人作为设施;目标:世界和平,实现方式:把整个地球建满监
9、控设施,让人无法发生冲突。 失败3:意识犯罪。这个比较复杂,大概如果超级智能对虚拟的人(有智能)实施折磨,从人类道德道德来说是犯罪,而机器不一定这么看。 最后作者探讨了一些更为全面的价值观加载方法,试图通过让超级智能具有更加人性化的价值观,确保超级智能为人类服务,而不是毁灭人类。 从我的角度,这部分实际上写的不是那么清晰,或者说看起来不是那么有效。因为如书中所说,超级智能相对人类智能的差别,不是像一个爱因斯坦与一个儿童之间的差别那么小,更可能是像一个人和一只狗之间的差别那么巨大,以至于我们的所有分析只是猜测,让一只狗去考虑怎么控制人类,那只能是想象。 最后我要说的是,虽然人工智能转变成超级智能对人类可能会产生很大的风险,同样机遇也一样巨大。如果哪个国家首先建成了超级智能,对其他国家就有了决定性的优势。同时在人工智能的发展过程中,对人类带来的生产力提高也是不容忽视的,有专家预测通过人工智能对医疗行业的提升,我们的平均寿命能达到150岁。想想就让人激动。所以前瞻的风险性研究很必要,踏踏实实的推进人工智能在我国的发展更为重要,比如档案系统能不能引进人工智能提供档案服务呢? 人工智能和超级智能读超级智能后感 读人工智能有感 人工智能 人工智能 人工智能 人工智能 人工智能 人工智能 人工智能 人工智能