Meta Tribe v2: Grundlagenmodell für menschliche Gehirnreaktionen auf Klang, Bild und Sprache

Meta AI hat Tribe v2 veröffentlicht – ein Grundlagenmodell, das menschliche Gehirnreaktionen über Audio-, Bild- und Sprachmodalitäten hinweg in einer einheitlichen Repräsentation erfasst. Die Forschung ermöglicht In-silico-Neurowissenschaft: die Simulation, wie menschliche Gehirne auf Reize reagieren, ohne physische Experimente zu erfordern. Meta hat die Modellgewichte, das vollständige Forschungspapier und den Quellcode öffentlich freigegeben, begleitet von einem interaktiven mobilen Demo unter aidemos.atmeta.com/tribev2.

Warum das relevant ist

Ein öffentlich verfügbares Grundlagenmodell für Gehirnreaktionen über drei Modalitäten hinweg öffnet die Neurowissenschaftsforschung für Teams ohne fMRI-Zugang und stellt Metas bedeutendsten offenen neurowissenschaftlichen Beitrag dar – mit nachgelagerten Anwendungen im Brain-Computer-Interface-Design, in der Modellierung kognitiver Belastung und in der multimodalen KI-Evaluation.