網路城邦
上一篇 回創作列表 下一篇   字體:
我的胡思乱想 (六) 我们是三维空间里的上帝吗?有关AI,意识与图灵检测
2009/11/29 21:58:53瀏覽794|回應3|推薦4
这是我的胡思乱想,没有条理,没有道理,没有意义。GRY兄在天下发表了《超级电脑与国防》一文。小弟受益非浅。小弟在GRY兄文章下回复谈到了AI的一些论述。GRY兄表示了一个看法:绝不相信电脑可以回复帖子。小弟别有看法,这个正好放在小弟的《我的胡思乱想》系列里成为第六篇。这个系列的特点就 是不负责任的,没有专题与边界的乱想胡说,是头脑风暴的碰撞和对一切小弟有兴趣话题的幻想:这一切都没有价值判断的含义而仅仅基于个人有限的理性。这不代表正确或错误而只探讨一种可能或纯粹就是小弟的恶趣味。下面开始放“鬼片”了………注意哦!

小弟认为电脑可以回覆帖子。

人类的语言基本也是一种逻辑。人们无法用语言表述经验之外的任何东西。

那么,只要我们构建一个足够的数据库,将各个单词,词组与短语的对应情绪与逻辑编入其中,问题就解决了90%。值得特别注意的是,我们语言的表达在文化与心理上已经形成了一定的“约定”与表达范式,人类的表达能力是存在严重的路径依赖的。电脑如果有足够的运筹能力的话,可以通过分析词组在人类文化中使用的语意与语法频率,以及背后的对应含义(文化与心理学)来调用数据库,并且根据概率判断是何种情绪。我们知道人类的99%的反应也是基于“应激——反馈”的逻辑路径,这样人类的99%以上的语言表述逻辑将被电脑完全的掌握。小弟认为电脑相当程度上是可以通过“回帖子”这样的“类图灵检测”的,小弟认为这不过是未来二十到三十年的事情。实际上,电脑回复帖子的事情已经存在。比如电脑阅卷就可以看做是一个电脑回复帖子。

帖子是无法完全的表达人类复杂的情绪与心理活动的,因为文字是某种“二维”空间的展示方法。人类自己也无法通过“二维信息”来判断对面是不是人的真实(包括心理与情绪的真实)。人们也只能基于文字做出合乎经验与逻辑的回复。不是有句话吗:你不知道对面是不是条狗在上网。除非你说“美眉,我们来视频吧”——结果你看见的是条斑点狗......悲剧啊!

实际上任何低维的存在都无法完美的表达高维的存在,而只能反映高维度的部分“投影”。小弟认为电脑搞定“二维”应该是可以的。那么人与人的对话,人的声音,表情等等如果都可以转化为“二维”空间的表达符号,电脑都可以搞得定。问题在于我们可以不可以做到这个高概率的一一逻辑映射。那么人脑处理二维信息的模型与电脑处理二维信息的模型难道有根本的不同吗?基本上人类的大脑与电脑对于“二维”信息的判断模型是完全等同的。经验与知识是人脑的“数据库”,文化,伦理和公理是人脑运行的判断与反馈路径。电脑完全的可以替换这个部分通过“回帖子测试”。

如果只是这样,小弟提出一个判断:假定一个人无法通过一些帖子(系列文章)来判断这是电脑写的还是人写的,我们是否可以认为电脑通过了“图灵测试”?或者这是一种无限逼近图灵测试的办法?这个系列要多长才具有意义?假定存在这个电脑,实际上“图灵测试”一个重要的问题就是要进行多久才算完成测试。直到出现错误?还是直到做出猜测?这个问题其实很难回答。如果一个人不知道他要做的是“挑出电脑写的帖子”,那么他可能过于快的做出判断:比如看了三四个帖子就判断是人写的。这样我们就可能过于轻率的得出了结论;如果他知道是要“挑出电脑写的帖子”,他也许最后无法决定是否还要继续看下去。这样我们就可能永远得不出最后结论:因为他知道里面有电脑的帖子,并且他会认为电脑明显的错误一定会出现在“未来”。实际上面的“回帖子检测”基本还是电脑传统的“形式逻辑”范围,其实还是一对一的“应激——反馈”。只要它是具备这样的运算能力与数据库就非常可能做到和人类回复帖子一样。事实是如果长时间进行这个检测,确实可能出现一些错误或者修辞上的僵硬。但是你还是无法通过这个系列帖子本身来确切的判断对面到底是个人的回帖还是电脑的:因为人的“书写体”(帖子)也可能在某些的时候有同样的错误或者类似的修辞。你只好不断的要求延长测试,结果系列帖子的“同形反复”将随着延时越来越多。因为人类的表达方式实在是不多的。真正的困难在于这些是回复帖子而不是及时而连续的对话。假定真的存在这样的“回复一个个单独或者系列帖子很像很像人”的电脑,那么可以认为它就是AI吗?!(其实这个“回帖子测试”已经非常非常接近“图灵测试”了,几乎可以说90%一样)

如果我们多想一点,引申一下“图灵测试”。如果AI的极限就是等同于一个独立意识。那么意识对于信息的处理有逻辑可以寻找吗?!

小弟认为人类测谎的某种研究就反应了大脑意识的某种逻辑。小弟认为测谎就是一个将“高维度”的思维活动转化为某种“二维”的信息,然后交给一台电脑或者“生物脑”做出价值判断(据说这个判断的准确率很高)。如果小弟这个描述是成立的,我们是不是也可以认为人脑也无法直接处理任何高于“三维”的信息,而必须将其转化为某种“低维度”信息才可以做出“有意识的判断”呢?!这个过程就是“高维”——“低维”——“高维”。在这个链条中,每经过一个转化都会带来信息的丢失与熵的增加。

那么声音与表情是“三维”的信息吗?小弟认为可以这样看。我们知道“三维”一定可以完美的反映“二维”可以表达的一切信息。人的思维本身一定可以完全知道自己意识的真实,进而“全知”自己意识“投影”下的“三(低)维信息”所表达的全部含义。尽管如此,人类的意识依然无法全知的理解自己之外的,人类意识所发出的“三(低)维信息”背后的全部真实(意识)。这表明人脑本身是无法直接理解任何大于“三维”的信息的。人脑对于“应激——反馈”的反应极限应该不高于“三维”(而且是有严格限制条件的)。任何高于“三维”的信息人类基本只能做出“概率猜测”。换言之,在同一思维维度里的生物是永远无法确切知道自己之外的其他同类的思维的。他们也必须将对方的思维通过某种转化变成某种“低维的存在”,然后通过这个“媒介”来理解。这就必然带来信息的丢失。一个二维虫是无法看到别一个二维虫的全貌的,他只能看到其在一维空间上反射出来的投影来“猜测”对方是个“长的虫”还是“短的虫”。

人类确实可以处理“三维”信息,电脑也可以。但是人的思维本身一定是高于“三维”的存在,AI是否也应该是如此呢?!古语云:画虎画皮难画骨,知人知面不知心。这个明确的反映了“低维的意识与信息”是无法完全反映“高维的意识与信息”的!声音与表情自然也无法完全反映思维的全部与真实。如果人也无法通过某种基于“三维”的测试完美的判断别外一个人类意识的“真实”。那么有理由相信对电脑AI也做不到。

那么基于上面对于AI的定义与信息在意识间传递的逻辑,人与电脑AI的“图灵测试”真的是严密与科学的吗?!这难道不是等同于两只二维虫利用“一维空间”的投影来猜测对方的形状吗?那么这将是一个或然率的判断而不是“YES OR NO”的判断。

小弟的这个逻辑推断是否可以得到这个结果:“图灵测试”作为判断电脑AI的最终检测实验是存在一些缺陷的。它并不足够严谨,人们还是最终无法结束这个测试,只能不断延长它,永不结束它...........因为人们不具备“决定性”的能力在“双盲的情况下”来判断别外的一个“意识”是否是真实存在的。而且基于意识对于信息的处理逻辑,信息熵的存在将使得“图灵测试”无法确保严密与可以重复(非常可能出现同样的材料,同一个人的两次判断结论不同;或者人们的判断差异过大而失去实验允许的误差率。这将带来无法检测的问题)。根据经典的“图灵测试”,如果人在一个测试中一直不能做出判断就意味着电脑是一个AI,那么这就等于AI是一个意识吗?——和人类一样的意识或者“生命”?!或者AI永远不能被叫做意识,那怕AI与我们最后看上去完全一样,无法分辨(有反馈与主动性,可以学习与思考)?!换言之,“图灵测试”也许是一个有关“AI与意识”的伪测试?!因为我们都是那个妄想在“一维空间里”看到对方“裸体”的“二维虫”?!呵呵。

小弟上面的描述最后可以变成一句话:人类永远无法确实的知道我们是否创造出了一个“真正的人工智能(意识)”!

悲剧啊.........人类做不成上帝,科学的边界再次化做“叹息之墙”耸立在人类可怜的理性面前,除非人类变得更加“高维”才可以切实的知道AI的真实面目。

好,本“鬼片”结尾最后再次声明一下:以上分析完全基于小弟一点点理性的推理与演绎,是胡思乱想与注定偏执的!呵呵,不能证明任何肯定的事情就一定是如此。

好了,本部“鬼片”放映结束......散场......观众请留下回复与推荐......排队出去......请关注胡思乱想系列下集的剧情。



( 心情隨筆男女話題 )
回應 推薦文章 列印 加入我的文摘
上一篇 回創作列表 下一篇

引用
引用網址:https://classic-blog.udn.com/article/trackback.jsp?uid=cool17909&aid=3543240

 回應文章

中州楚佩
等級:7
留言加入好友
刚才的回应有点词不达意
2009/12/02 08:41
确实如果一个基于数据库的非常机械的AI如果凭借对语言的超强把握,可以能回答诸如“我所认为的人生的意义”“我心中的个人价值”“梵高的艺术体验”这类问题,那么真实的人几乎没有可能不借助其他手段来判断他是否是AI。他的回答都是经过计算经过数据库来完成的,但人们就是不能判断。

这个事情的妙处就在于,如果人类找到这类机械AI与生物智慧明显的区分点,那就可以利用技术模拟这个点。

但是这类AI本身没有创造能力,所以人类还可以放下心来安居乐业。
我的家乡在远方

中州楚佩
等級:7
留言加入好友
原来是这样
2009/12/02 08:31
那没什么可说的,人们都会相信自己愿意相信的。人天生不愿意去做仔细的查证和艰苦的思辨

关于人机之恋,我觉得兄弟你保守了。用不着等到AI成熟的那一天,外形的仿生做到一定地步配合比较基本的AI,就足以迷惑大批宅男了
我的家乡在远方

中州楚佩
等級:7
留言加入好友
程序回帖容易
2009/11/30 00:01
难的是内容。那个数据库在我看来极难被设计出来,即使勉强制作这么一个数据库,也极难向里边填充有效地数据。即使有这么一个AI,与人的智慧还是有本质区别的。

实际上,人的思维貌似有逻辑有条理的,但这种调理似乎是基于巨大的混沌之上。目前人们还没办法深入理解这个机理,更谈不上制作软件模型了。
我的家乡在远方
紫气东来(cool17909) 於 2009-11-30 12:10 回覆:
小弟这个文章可以看做一个思维的体操。

小弟此文章的核心不在于单纯的探讨AI,也不会是探讨技术可行性与工程可行性,而是在检验哲学方法论的本身。

换言之,小弟的看法是“图灵检测”可能存在某种无法克服的逻辑困境。

也就是说,我确信大家说的电脑无法分泌荷尔蒙是千真万确的,问题是我们怎么在“图灵检测”下确认这点。

虽然情绪反应是意识的一部分,但是意识却不能看做情绪反应。假定存在一个这样“类智能”的电脑,如果是“双盲”的情况下,依据小弟主文的逻辑,那么“图灵 检测”将面对无法证实的问题。就像我说的:你无法判断对面的到底是不是个“意识”,是不是真的有“感情”。除非你确实的知道对面是“电脑”,或者你是创造 者。

在假定真的存在一个真正的AI意识,我的看法是我们也许无法确实的在“图灵测试”下知道科学含义上的“真实”。我们无法直接的“读”到意识,我们只能将意 识转化为某种逻辑才能理解。这样必然的带来失真。如果“图灵测试”不能确定结果,那么“双盲”下的人也不能确定。那么未来机器人扮演的人类可以蒙蔽过这个 世界上99.99%的人。AI完全可以看上去有“感情”且“善解人意”。人机之恋是可能的(突然想到《聊斋》里的人鬼之恋,这个可以非常形象的可以表明小 弟主文的含义)。

测谎的那些信息可以看做把意识转化为某种“语言”,然后我们的意识根据这个“语言”,再基于某种一一对应的逻辑,来做出对客体意识的判断。不管这个“语言”是文字还是心电图,只要他存在这个“意识——信息——意识”的转化就符合我主文提出的“意识认识的逻辑”。

因此,如果说你知道它是AI,那么你确实就“知道”;如果你不知道它是AI,你也许永远不能确定你是否“知道”。当然,我是说电脑真的可以有这样的运筹能力的情况下。

一句话,人们无法“
意识到意识(比如心电感应或者意识共振与融合)”的做出价值判断,一旦出现需要经过某种“媒介”来过度,那么就会带来“测不准”!这是我文章的主要介入点。