論文の概要: Probing the Representational Geometry of Color Qualia: Dissociating Pure Perception from Task Demands in Brains and AI Models
- arxiv url: http://arxiv.org/abs/2510.22800v1
- Date: Sun, 26 Oct 2025 19:13:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.369439
- Title: Probing the Representational Geometry of Color Qualia: Dissociating Pure Perception from Task Demands in Brains and AI Models
- Title(参考訳): カラークアリアの表現幾何学:脳とAIモデルにおけるタスク要求からの純粋知覚の解離
- Authors: Jing Xu,
- Abstract要約: 我々は、最先端のAIモデルと人間の脳とのカラークエーリアの表現幾何学の厳密な比較を行う。
我々の研究は、Brain-Score互換フォーマットでパッケージされた、フィールドに色準位を付与するための新しいベンチマークタスクに貢献する。
- 参考スコア(独自算出の注目度): 6.165387850279033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Probing the computational underpinnings of subjective experience, or qualia, remains a central challenge in cognitive neuroscience. This project tackles this question by performing a rigorous comparison of the representational geometry of color qualia between state-of-the-art AI models and the human brain. Using a unique fMRI dataset with a "no-report" paradigm, we use Representational Similarity Analysis (RSA) to compare diverse vision models against neural activity under two conditions: pure perception ("no-report") and task-modulated perception ("report"). Our analysis yields three principal findings. First, nearly all models align better with neural representations of pure perception, suggesting that the cognitive processes involved in task execution are not captured by current feedforward architectures. Second, our analysis reveals a critical interaction between training paradigm and architecture, challenging the simple assumption that Contrastive Language-Image Pre-training(CLIP) training universally improves neural plausibility. In our direct comparison, this multi-modal training method enhanced brain-alignment for a vision transformer(ViT), yet had the opposite effect on a ConvNet. Our work contributes a new benchmark task for color qualia to the field, packaged in a Brain-Score compatible format. This benchmark reveals a fundamental divergence in the inductive biases of artificial and biological vision systems, offering clear guidance for developing more neurally plausible models.
- Abstract(参考訳): 主観的経験の計算基盤を探索することは認知神経科学における中心的な課題である。
このプロジェクトは、最先端のAIモデルと人間の脳との間の色定規の表現幾何学を厳密に比較することにより、この問題に対処する。
表現類似性分析(Representational similarity Analysis:RSA)は、純粋な知覚(no-report)とタスク変調された知覚(report)という2つの条件下での神経活動に対する多様な視覚モデルを比較する。
私たちの分析は3つの主要な結果をもたらす。
まず、ほぼすべてのモデルが純粋知覚の神経表現とよく一致しており、タスク実行に関わる認知プロセスが現在のフィードフォワードアーキテクチャによって捉えられていないことを示唆している。
第2に,学習パラダイムとアーキテクチャ間の重要な相互作用を明らかにし,コントラスト言語-画像事前学習(CLIP)トレーニングが神経可視性を普遍的に改善するという単純な仮定に挑戦する。
直接比較では、このマルチモーダルトレーニング手法は視覚変換器(ViT)の脳アライメントを強化したが、ConvNetではその逆の効果があった。
我々の研究は、Brain-Score互換フォーマットでパッケージされた、フィールドに色準位を付与するための新しいベンチマークタスクに貢献する。
このベンチマークは、人工的および生物学的視覚システムの誘導バイアスの根本的な相違を明らかにし、より神経的に可塑性なモデルを開発するための明確なガイダンスを提供する。
関連論文リスト
- Model-brain comparison using inter-animal transforms [2.272803181721709]
アニメーション間変換クラスに基づく比較手法を提案する。
我々はIATCを、ニューラルネットワークモデルのシミュレーションされた人口、マウスの個体数、ヒトの個体数という3つの設定で識別する。
IATCは神経活動の正確な予測を可能にすると同時に,メカニズム同定において高い特異性を実現する。
論文 参考訳(メタデータ) (2025-10-02T19:51:55Z) - Disentangling the Factors of Convergence between Brains and Computer Vision Models [11.560007214914465]
我々は、人間中心の画像で訓練された最大のDINOv3モデルが、最も高い脳相似性に達することを示した。
これらの発見は、人工ニューラルネットワークが世界をどのように人間として見るかという、アーキテクチャと経験の間の相互作用を歪めている。
論文 参考訳(メタデータ) (2025-08-25T17:23:27Z) - SynBrain: Enhancing Visual-to-fMRI Synthesis via Probabilistic Representation Learning [50.69448058071441]
視覚刺激が皮質反応にどのように変換されるかを理解することは、計算神経科学の基本的な課題である。
視覚的意味論から神経反応への変換をシミュレートする生成フレームワークであるSynBrainを提案する。
そこで本研究では,SynBrainが主観的視覚-fMRI符号化性能において最先端の手法を超越していることを示す。
論文 参考訳(メタデータ) (2025-08-14T03:01:05Z) - Neural Dynamics Model of Visual Decision-Making: Learning from Human Experts [28.340344705437758]
視覚入力から行動出力まで,包括的な視覚的意思決定モデルを実装した。
我々のモデルは人間の行動と密接に一致し、霊長類の神経活動を反映する。
ニューロイメージング・インフォームド・ファインチューニング手法を導入し、モデルに適用し、性能改善を実現した。
論文 参考訳(メタデータ) (2024-09-04T02:38:52Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Semantic Brain Decoding: from fMRI to conceptually similar image
reconstruction of visual stimuli [0.29005223064604074]
本稿では,意味的・文脈的類似性にも依存する脳復号法を提案する。
我々は、自然視のfMRIデータセットを使用し、人間の視覚におけるボトムアップとトップダウンの両方のプロセスの存在にインスパイアされたディープラーニングデコードパイプラインを作成します。
視覚刺激の再現は, それまでの文献において, 本来の内容とセマンティックレベルで非常によく一致し, 芸術の状態を超越している。
論文 参考訳(メタデータ) (2022-12-13T16:54:08Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。