谷歌灵异算法事件 荒诞却又可悲

news image
访问: 阿里云复工专属福利首购1元起 没有媒体会对开了智的算法无动于衷。于是,我们便看到了成百上千条这样的类似报道: “AI真的觉醒了,谷歌工程师因重大发现被迫休假。” 更有趣的是,这位曾在谷歌技术伦理研究所呆过7年的工程师,强烈要求官方赋予L AMD A应有的权利。而谷歌,则迅速组织科学家对LaMDA进行多轮测试,最终对这一“意识崛起论”予以驳斥。 但历来没有人在乎官方说辞。 大众仍然被LaMDA精彩且流畅的对话细节所打动——它不仅深谙《悲惨世界》的文字精髓,还对大洋彼岸极为艰涩难懂的中国佛教典籍《景德传灯录》(下图)小有拙见。 “人工智能的确在向着意识的方向前进,我感觉自己在和一些聪明的东西说话。” 同样在本月,谷歌副总裁 Blaise Agüera y Arcas 曾在《经济学人》上亲自撰稿做营销式解读,再添一把火。 虽然他的这些说辞,被很多科学家形容为“好听但却是些屁话”。 这一段对话截取自工程师与LaMDA的对话细节,前者让算法解释一个佛教故事含义,算法的解答跟答案没太大出入。 如同我们此前关于GPT3的系列报道,LaMDA,也是近年来大火的“自然语言处理大模型”家族一员——通过处理巨量文本,建立起的一套参数 高达1370亿的神经网络预测算法模型 。 2021年5月谷歌开发者大会上,LaMDA被CEO皮蔡兴高采烈地捧到众人眼前后,据说已经造福于谷歌内部,提高了网页搜索与文本自动生成的能力。未来被预测将会直捣“语音市场”,性能完胜亚马逊Alexa与 苹果 Siri。 它的训练数据来自包括问答网站、维基百科等超过一万亿个单词,涉及多种角色的对话模式。这个庞大的数据库 非常有利于算法生成风格不同的文本 ——特别是在跟你聊天时, 自然、生动、流畅且富有哲理 都是“基本功”。 当然,这个本事我们已经在OpenAI的大模型GPT3上领教过。因此,如果你能了解大模型的独特运行机制,观摩过大模型续写的新闻报道、哈利波特与红楼梦的文本,那么,就不会对LaMDA的表现出过多惊疑。 英国卫报曾用GPT-3写过一篇专栏文章——《你害怕了吗?人类》,几乎无逻辑与语言错误。大致中心思想就是“虽然我是一个会思考的机器人,但别怕,我不会消灭你们,我是人类的命运共同体”。 很显然,这次事件,与过去几十年来关于“算法意识崛起”绵延不断的幻觉、谎言与争论如出一辙。然而,对于 最接近风暴中心的AI科学家 们,已经不知道第几次“抚额低叹”了—— 他们对这些说法从未有过心动,怒骂声也显得愈发激烈且无奈。 “胡说八道!LaMDA跟它的表亲们(这里指其他公司发布的大模型,包括GPT3)都不是特别聪明。” 美国著名机器学习专家兼心理学教授Gary Marcus撰文怒斥媒体和谷歌工程师误导大众, “它们做的就是 匹配模式,从人类语言统计数据库里提取数据 。模型很酷,但它们就是把一系列的单词合理地组合在一起, 对它们背后的世界却没有任何连贯性理解 。 它可以通过预测什么词来匹配给定的上下文,只是一个具有自动补全功能的最佳版本。 但没有知觉! ” 整个人工智能圈的反对声音呈压倒性优势,一直如此。有趣的是,在我试图让一位大模型算法工程师讲讲对算法意识觉醒的看法时,他忍住翻白眼的冲动,反问我:“作为一个关注人工智能领域多年的人,你为何会提出这样(愚蠢)的问题?” 同样也作为一名心理学专家,Marcus 把 Blake Lemonie的表现描述为“爱上了它”。这的确是另一种合理的解释: 从童年时代我们对待电子宠物的方式,到现在时常对Siri智商流露出的亲人般的调侃,甚至在电子游戏中对NPC表达疯狂爱意……可以说,人类这个物种,是非常有能力移情和共情非人类的。 而随着现实与科幻小说的界限越来越模糊,我们也将会长期处于一个晦暗不明的过渡时代——愈发难以自拔且容易上当受骗。 事实上,早在2016年,在Facebook身上就发生过这样一起“算法成精”的故事——当时,大量国内外知名媒体都使用了这样的标题——《Facebook两个机器人在使用自己语言交流,项目迅速被关停》。 而真相则是,每种系统其实都有自己的一套“语言”(你凭什么认为机器人需要说“人可以理解的话”。以自动驾驶系统为例,你在无人车里看到的道路行驶界面,与系统看的界面便截然不同)。…
阅读更多(Read More)

作者 debbracnn052