【新智元导读】跟着现在的干流大模型都能轻松经过图灵测验,这个继续了数十年的规范开端逐步过期。奥特曼和量子核算之父David Deutsch评论得出了一个新的图灵测验2.0规范,可以更好地衡量终究怎样AI才算具有真实的智能。
在曩昔的一年里,假如你还在用图灵测验来评判一款大模型是否聪明,那或许已有点跟不上节奏了。
从GPT-4、Claude 2、Gemini、LLaMA 3开端的这些模型,已能轻轻松松在图灵测验中拿到通行证。
在最近的Axel Springer颁奖典礼上,奥特曼和量子物理学家David Deutsch正面交锋,提出了一个新规范。
![]()
1950年,图灵在那篇闻名论文《核算机器与智能》(Computing Machinery and Intelligence)中想象:假如一台机器能经过文字沟通骗过人类评定,让人认为它是另一个人,那么它就具有了智能。
![]()
2023年末,UCSD的一项研讨找来500名受访者与大模型对线在假装成人类时胜率超越50%,而人类自身在这个测验中的识别率也不过如此。
Claude 2、LLaMA 3也都在相似试验中表现出色,顺畅蒙混过关。
也便是说,依照图灵的规范,它们已能被认为是「有智能」的了。但这真的够了吗?
在Axel Springer的颁奖典礼上,主持人说到奥特曼最喜欢的一本书是《无量的开端:国际前进的根源》,所以主办方搞了个「惊喜连线」——作者David Deutsch出现在大屏幕上。
Deutsch的中心观念是:真实的智能,应该可以发明新知识、提出新假定、处理新问题,乃至推翻旧认知。
假如某个模型哪天解出了量子引力的问题,并且能清楚地告知咱们它是怎么想的、为啥这么选,那这是不是就能算是真实的智能?
![]()
![]()
在《无量的开端:国际前进的根源》里,他提出一个观念:人类文明的前进,来自于不断发明好解说(good explanations)。
![]()
所以他在那场对谈中,不断着重「解说力」——不只要得到答案,还要能说清楚它为什么建立。不然只能算是黑箱,不算是真实的了解。
从一开端,图灵测验便是个假装游戏。检测的不是AI是否聪明,而是它能不能骗过人类。
而Deutsch和Altman所想象的版别,更像是一种「发明力测验」——模型是不是具有科学研讨的才能,是否能提出新理论,是否能自洽地解说自己的推理。
但它至少指向了一个方向:咱们真实关怀的,不只仅是机器能不能说得像人,而更重要的是它有没有或许在了解国际这件事上,是咱们的同伴。