找回密码
 立即注册
搜索

科学家证实大模型能像人类一样“理解”事物

[复制链接]
xinwen.mobi 发表于 2025-6-11 19:06:30 | 显示全部楼层 |阅读模式
科学家证实大模型能像人类一样“理解”事物,这一结论来自中国科学院自动化研究所等单位的科研人员的研究,相关成果在线发表于《自然·机器智能》杂志。具体情况如下:研究方法:科研人员借鉴人脑认知原理,让大模型和人类玩“找不同”游戏。实验人员从1854种常见物品中给出3个物品概念,要求选出最不搭的那个。通过分析高达470万次的判断数据,绘制出大模型的“思维导图”——“概念地图”。研究发现:    - 科研人员从海量实验数据里总结出66个代表人工智能如何“理解”事物的关键角度,这些角度容易解释清楚,且与人脑中负责物体加工区域的神经活动方式高度一致。    - 能同时看懂文字和图片的多模态模型,“思考”和做选择的方式比其他模型更接近人类。    - 人类做判断时,既会看东西的外观,也会考虑其含义或用途,但大模型更依赖给它贴上的“文字标签”和学到的抽象概念。不过,这也证明大模型内部确实发展出了一种类似人类理解世界的方式。此外,斯坦福大学的研究发现ChatGPT背后的GPT-3.5模型能解决93%的心智理论任务,心智相当于9岁儿童。谷歌的研究也表明,大模型的语言理解生成机制与人脑信号存在高度一致性。但也有研究指出,大模型在类比推理任务中表现出不如人类灵活,其推理更多是模式匹配,而非真正的深度理解。因此,对于大模型是否真的能像人类一样“理解”事物,还需要更多的研究和探讨。
回复

使用道具 举报

QQ|周边二手车|手机版|标签|xml|txt|新闻魔笔科技XinWen.MoBi - 海量语音新闻! ( 粤ICP备2024355322号-1|粤公网安备44090202001230号 )|网站地图

GMT+8, 2026-3-18 04:19 , Processed in 0.203415 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表