摘要: 5月30日,世界级红人埃隆·马斯克(Elon Musk)发了一条推文,称:2029年是关键的一年,如果那时候我们还没有实现通用人工智能(Artifical General Intelligence,AGI),我会觉得很奇怪。火星上的人们也一样(觉得奇怪)。 访问: 阿里云6月“云上特卖”活动上线 赢取最高500元代金券 5 月 30 日,世界级红人埃隆・马斯克(Elon Musk)发了一条推文,称: 2029 年是关键的一年,如果那时候我们还没有实现通用人工智能(Artifical General Intelligence,AGI),我会觉得很奇怪。火星上的人们也一样(觉得奇怪)。 马斯克发推不久,知名人工智能科学家、纽约大学心理系教授 Gary F. Marcus 立即写了一篇博文叫嚣马斯克,从五个方面向马斯克“科普”了通用人工智能的知识,提出自己认为 2029 年不可能实现 AGI 的原因。 对于 Gary Marcus 的叫板,马斯克还没回复。 圣达菲研究所的人工智能专家梅兰妮・米切尔(Melanie Mitchell)建议把赌注放在 longbets.org 网站上,Marcus 称,只要马斯克愿意打赌,自己就欣然赴约。 以下是 Gary Marcus 反驳马斯克的五个角度,AI 科技评论作了不改原意的整理如下: 马斯克是个“大话”预言家 第一,马斯克对时间的预测总是不太准确。 2015 年时,马斯克说距离真正的自动驾驶汽车出现还有两年时间;从那以后他每年都说同样的话,但真正的自动驾驶汽车到现在还没出现。 马斯克不关注边缘案例的挑战 其次,马斯克应该更多地关注边缘情况(也就是异常值,或不寻常的情况)的挑战,并思考这些异常值对预测可能意味着什么。 因为长尾问题,我们很容易认为 AI 问题比实际情况要简单得多。我们手上有大量的关于日常事务的数据,当前的技术很容易处理这些数据,这就会误导我们,给我们一种错误的印象;而对于罕见的事件,我们得到的数据非常少,且目前的技术很难去处理这些数据。 我们人类拥有大量的不完全信息推理的技巧,也许可以克服生活中的长尾问题。但对于目前流行的、更多依赖大数据而非推理的人工智能技术来说,长尾问题是一个非常严重的问题。 2016 年,在一篇题为“Is Big Data Taking…
阅读更多(Read More)