能像人类一样“理解”事物!中国科学家首次证实→
创始人
2025-06-17 11:40:25
0

近日,中国科学院自动化研究所神经计算与脑机交互(NeuBCI)课题组与中国科学院脑科学与智能技术卓越创新中心的联合团队结合行为实验与神经影像分析,首次证实多模态大语言模型(MLLMs)能够自发形成与人类高度相似的物体概念表征系统。

科研人员证实,多模态大语言模型在训练过程中自己学会了“理解”事物,而且这种理解方式和人类非常类似。

这一发现为探索人工智能如何“思考”开辟了新路,也为未来打造像人类一样“理解”世界的人工智能系统打下了基础。相关研究成果在线发表于《自然·机器智能》杂志。

核心发现:AI的“心智维度”与人类殊途同归

传统人工智能研究聚焦于物体识别准确率,却鲜少探讨模型是否真正“理解”物体含义。“当前人工智能可以区分猫狗图片,但这种‘识别’与人类‘理解’猫狗有什么本质区别,仍有待揭示。”论文通讯作者、中国科学院自动化研究所研究员何晖光说。

在这项研究中,科研人员借鉴人脑认知的原理,设计了一个巧妙的实验:让大模型和人类玩“找不同”游戏。

研究人员从海量大模型行为数据中提取出66个“心智维度”,并为这些维度赋予了语义标签。研究发现,这些维度是高度可解释的,且与大脑类别选择区域(如处理面孔的FFA、处理场景的PPA、处理躯体的EBA)的神经活动模式显著相关。

研究还对比了多个模型在行为选择模式上与人类的一致性(Human consistency)。结果显示,多模态大模型(如 Gemini_Pro_Vision、Qwen2_VL)在一致性方面表现更优。此外,研究还揭示了人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。本研究表明大语言模型并非“随机鹦鹉”,其内部存在着类似人类对现实世界概念的理解。更重要的是,这些“理解”事物的关键角度,能同时看懂文字和图片的多模态模型,“思考”和做选择的方式比其他模型更接近人类。

综合来源:中国科学院自动化研究所、科技日报、新华网等

内容资源由项目单位提供

相关内容

热门资讯

植物气生根的“智能黏液”:自建... 科学家们揭开了藤蔓植物蔓性野牡丹气生根(暴露在空气中的根)上大量分泌黏液的秘密!这可不是普通的“鼻涕...
能像人类一样“理解”事物!中国... 近日,中国科学院自动化研究所神经计算与脑机交互(NeuBCI)课题组与中国科学院脑科学与智能技术卓越...
用意念玩游戏?我国首例侵入式脑... 近日,中国科学院脑科学与智能技术卓越创新中心联合复旦大学附属华山医院与相关企业,开展了侵入式脑机接口...
“铅变金”成真?科学家在对撞机... 在人类历史的长河中,无数炼金术士都曾痴迷于一个共同的梦想——将廉价的铅变成珍贵的黄金。他们夜以继日地...
“甜蜜”后的罢工?高果糖暴露会... 2025年6月,顶级学术期刊《自然》(Nature)发表了一项令人震惊的研究成果。来自纪念斯隆凯特琳...
高学历的夜猫子认知能力下降的风... 你是否常常在夜深人静时才感到精神焕发?当别人已经进入梦乡,你却在灯下处理工作、刷视频,或独自沉浸在兴...
不怕热,不怕磨,能自我“疗伤”... 出品:科普中国作者:李红斌 苏云峰(中国科学院兰州化学物理研究所)监制:中国科普博览日常生活中,我们...
施了隐身咒的网络身份证,里面有... 坐高铁飞机常见场景两手一摊“呀!我身份证忘带了!!!!”现在“忘带”星人的救星来了让我们一起振臂高呼...
AI界两大明星:一个“超级话痨... 你们有没有玩过那种特别聪明的聊天机器人?它不仅能陪你天南海北地聊天,还能帮你写作文、解数学题,甚至编...
AI是个“大胃王”:它为啥“吃... 每次你问手机里的语音助手问题,或看到机器人写诗画画时,可曾想过:这些聪明的AI背后,藏着个惊人的秘密...