AI快讯苏晓 2026-03-30 10:26:25 来源:中房网
中房网讯 3月27日,据科技媒体The Decoder发布的博文称,Meta基础人工智能研究团队(FAIR)开源全新AI模型TRIBE v2,可精准预测人类大脑对图像、声音和文本的反应。
据悉,该模型最大的亮点,在于无需实际测量,即可精准预测人类大脑对视觉、听觉和语言刺激的反应,有望打破传统神经科学研究周期长、成本高的瓶颈。TRIBE v2核心逻辑在于“多模态融合”。模型接收视频、音频和文本后,分别通过 Video-JEPA-2、Wav2Vec-Bert-2.0和Llama 3.2这三个预训练大模型提取特征。随后,Transformer架构将这些信息整合,最终输出一张包含7万个“体素”(3D 像素)的高精度大脑活动图。