“提到人工智能,就不得不提到阿兰?麦席森?图灵(alanmathisonturing),就是他为人工智能提出了重要的衡量标准——‘图灵测试’。”
图灵测试太有名气了,天隐也是有耳闻的,该测试是让人类测试者通过键盘向一个人和一个机器发问,这个测试者不知道他问的是人还是机器。如果在经过一定时间的提问以后,这位人类测试者不能确定谁是人谁是机器,那就认为这个机器是具有智能的。
“这个测试实际上更像是判断一个智能程序是否达到了agi的程度,并且是第一类也就是类人的人工智能”,从因蒂克斯柔和的表情不难判断出,他此时此刻又想到了豪克,“然而,这个测试也是有着重大缺陷的。”
“缺陷?”在天隐看来,除了作为类人人工智能的判断方式这一点有些狭隘之外,图灵测试并没有明显的不足,不过天隐也知道,虽然因蒂克斯喜欢滔滔不绝外加偷懒,但是绝对不会说出任何没有依据或是没有经过严格论证的结论。
“首先,是作为评判者的测试人,要以何种智力水平为准?测试人需要掌握多大范围的知识?测试人本身倾向何种思维逻辑?如果以各项指标都处于平均位置的测试人的结论作为评判依据,通过测试的,显而易见是跟一般人类近似的人工智能;但是没通过测试的呢,它们一定就不是人工智能么,或者说它们就一定没有思维能力么?”
因蒂克斯一边说,一边捡了根树枝在地上画着,天隐扛着第12包泥经过的时候扫了一眼,发现是一个树形示意图。
“既然测试者本身是平均水准,那就意味着他很有可能不会理解高水准的人的逻辑,就像世界上没有多少人能理解爱因斯坦的相对论,但是你不能说爱因斯坦不具有智能,所以第二类agi和可能会出现的asi很有可能根本无法通过图灵测试,仅仅是因为,他们的思考方式不能被人所理解。”
说到这里,因蒂克斯轻轻地叹了一口气,好像曾经亲身经历过一般,而后在地上的树形图上画了个圈,转向了另一个分支,“其次,图灵测试的内容是极其多变且复杂的,而且很多问题完全没有令人信服的评判标准,比如,我和希露德同时掉海里了,亲爱的首领,你会救谁?”
这也叫问题?肯定是救希露德嘛!不过看因蒂克斯双眼里都充满了期待,天隐觉得有些话还是不说得好,而且,天隐脑中突然冒出一个很奇怪的想法,“如果我不会游泳,相救也救不了……”
啪!因蒂克斯用树枝狠狠地在地上抽了一下,“就是这个!我就是这个意思!或许测试者原本的意思,是想看看被测试对象在面对此类问题的时候会做出怎样的道德判断,然而他忽略了一点,就是很多看似是道德方面的问题,其实是可以用理性进行解答的。”
“根据休谟的观点,理性从本质上来看是无能的,其唯一的目的就是对观念进行比较,它无法区分行动中的善与恶;道德判断虽然可以区分行动的善恶,但是却不是基于某种确定的观念,而是建立在印象的基础上,换言之,这是一种因人而异的‘感觉’。”
“也就是说,提出道德问题的测试者,很大程度上是希望知道被测试对象是不是拥有‘感觉’,而不是真的想知道该对象究竟抱持何种观念。当测试人得到的是用理性判断出的答案时,比如你刚刚说的‘不会游泳,没法救人’,他们就会不自觉地产生一种负面的主观倾向,这种倾向,往往会令被测试对象无法通过测试。”
到这里天隐还是可以理解的,所以点了点头,示意因蒂克斯继续。
“这就是图灵测试的第二个缺陷,即测试人往往在不自觉的情况下偷换了测试目的——将检验被测试对象具不具有思考能力,替换成了被测试对象是不是像人一样思考,前者才是判断人工智能的标准,后者嘛,千年来世界各地的哲学家们都没法确切地定义,理论上,处于平均水准的测试人是不可能给出不存在的定义的。”
“那要是找不同水准的测试人来呢?”虽然觉得被誉为“人工智能之父”的图灵应该不会想不到,但是天隐还是提出了自己的想法,一方面,如杨所说,培养一个什么问题都能思考的大脑,另一方面第14包泥显得格外沉重,天隐需要转移一下注意力以缓解疲劳。
“即便扩大样本范围,根据性别、年龄、人种、职业、智力水平、道德水准的差异,找出足够多的人组成测试团队”,因蒂克斯每说一个词就在地上画一个小圈,而后画了一个大圈将所有的小圈都包括进去,又在大圈的下面标注了一个词——“human(人类)”。
“这个测试团队显然没有脱离人类的范畴,能够得出的结论,简而言之,就是被测试对象是否具有能被人理解的思考能力。除此之外,被测试对象是否拥有感觉,是否具有伦理观,是否有道德感,无法做出判断,因为人类本身就没有一个统一的道德与伦理标准。”
“而这,虽然不能完全说是图灵测试的缺陷,但也确确实实是图灵测试不能消弭的一个问题——无法令人信任人工智能,我们越是测试,越是发现无法测试的东西太多;我们越是发觉自己无知,就越是恐惧;我们越是不安,就越是容易陷入疯狂……”
后面的话因蒂克斯没有说下去,但是天隐完全可以猜到。正是这种源自未知的恐惧,令各类艺术创作中出现的人工智能几乎无一例外地都造成了骚动,都站在了人类的对立面,虽然在这些想象的产物中,人类总是能得到最好的结局,但是,假如有一天,真的要面对比豪克高等一个甚至几个数量级的人工智能时,结局一定能使最好的嘛?
这个问题好像也不是很难解决,天隐是这样想的:既然人类可以建立起数种被多数人认同的伦理道德,用来维持社会的平衡,那同样可以建立起适用于人工智能的伦理道德,或者是可以同时适用于人类和人工智能的伦理道德……
“人工智能的伦理道德……”天隐不知不觉地说出了声,虽然声音很小,但还是被因蒂克斯捕捉到了。
“你!你刚刚说什么!”因蒂克斯一跃而起,神情激动地一把抓住天隐,用力地摇着肩膀,“你刚刚说的,再说一遍!”
哗啦,第16包泥没能完成属于自己的长征,在半途就因为不可抗力而散落了一地。天隐不知道是不是自己说错了什么话,但还是小声地重复了一遍,“人工智能伦理道德……”
“是的!是的!没错!就是这个!哈哈哈!哈哈、哈哈哈哈哈!”因蒂克斯放开了天隐,一边敲着头上的椰子壳,一边狂笑着,“你,搞不好真的是个天才!人工智能伦理道德,同时适用于人类和人工智能,哈哈哈、哈哈,哈哈哈哈哈……这种东西,你竟然想得出来!哈哈哈哈哈哈……”
“我不会什么地方说错了吧?”如果说天隐有一些优点,那其中之最就是不会对自己的想法过度自负,经常会处于反思和自我否定的状态中,或许这就是杨对于天隐无比欣赏的地方吧。
“不!不不不!一点都没有错!”因蒂克斯高兴地手舞足蹈,“我怎么没有想到!本大爷怎么会忽略这么明显的一点!是的,不错,人工智能伦理道德,这是个非常值得期待的东西,很棒!简直太棒了!难道不是么?”
看着语无伦次的因蒂克斯,天隐觉得还是决定先把他丢一边,趁着自己还有力气多搬几包泥。其实天隐心里也是有点小小的开心的,毕竟自己无心的想法得到了认可,虽然因蒂克斯作为艺术家的资格屡屡受到质疑,但是从没有人轻视过因蒂克斯作为科学家的能力,能被科学家的因蒂克斯认同,天隐很高兴。
高兴归高兴,你不干活就算了,跟着我干嘛,一边去一边去!看着突然跟在自己后面的因蒂克斯,天隐一阵头大,这也太碍事了,但是估计说了他也不会听,所以天隐只在心中发着牢骚。
“快!”因蒂克斯突然大吼了一声,吓得天隐一哆嗦,险些把候补第16包淤泥掉到地上,“快问我一些问题,关于人工智能的道德伦理,什么都行!快!”
“你想制定出人工智能的道德伦理?”
“是的!”
“为了豪克?”
“是的!是的!”因蒂克斯连说两遍,不过令天隐愿意相信的,不是他肯定的语气,而是充满执着与疯狂的眼神,这是一种科学家应有的气势。
“如果如果人工智能伦理……”天隐觉得这么说顺畅一些,人工智能的道德伦理这个短语怎么感觉都怪怪的,“能够被接受的话……”
“对于人工智能的担忧与恐惧就会缩小到可以被接受的范围!”因蒂克斯立刻接上了天隐的话头,“也就是说,即便今后出现了完整的第一类agi,或者asi,只要人类和人工智能双方都能够遵从‘人工智能伦理’,那就不会出现过于严重的后果!”
“那该由谁,以什么方式制定‘人工智能伦理’呢?”
“那还用问?”因蒂克斯一脸惊奇地看着天隐,指了指天隐又指了指自己,“当然是你跟我啊,你提出了这个概念,我认可了这个概念,还有豪克可以检验这个概念,如此得天独厚的条件,自然是我们来做!”
姑且,由着因蒂克斯发疯吧,如果可以稍微不那么碍事的话,就更好了——这就是天隐此时心里想的东西,不过天隐低估了因蒂克斯的执着,也低估了自己的思考能力。此刻正在努力建造菜田的天隐,完全想不到,在不远的将来,他不仅仅成为了匹斯人的市长,还成为了匹斯人
小提示:按 回车 [Enter] 键 返回书目,按 ← 键 返回上一页, 按 → 键 进入下一页。
赞一下
添加书签加入书架