論文の概要: TAVAE: A VAE with Adaptable Priors Explains Contextual Modulation in the Visual Cortex
- arxiv url: http://arxiv.org/abs/2602.11956v1
- Date: Thu, 12 Feb 2026 13:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.850808
- Title: TAVAE: A VAE with Adaptable Priors Explains Contextual Modulation in the Visual Cortex
- Title(参考訳): TAVAE: 視覚皮質における文脈変化を記述した適応型プライオリティ付きVAE
- Authors: Balázs Meszéna, Keith T. Murray, Julien Corbo, O. Batuhan Erkat, Márton A. Hajnal, Pierre-Olivier Polack, Gergő Orbán,
- Abstract要約: 視覚システムによって要求に応じてタスク固有のコンテキスト先行を学習できることが示される。
この結果から,視覚システムによる要求に応じて,柔軟なタスク固有のコンテキスト先行を学習できることが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The brain interprets visual information through learned regularities, a computation formalized as probabilistic inference under a prior. The visual cortex establishes priors for this inference, some delivered through established top-down connections that inform low-level cortices about statistics represented at higher levels in the cortical hierarchy. While evidence shows that adaptation leads to priors reflecting the structure of natural images, it remains unclear whether similar priors can be flexibly acquired when learning a specific task. To investigate this, we built a generative model of V1 optimized for a simple discrimination task and analyzed it together with large-scale recordings from mice performing an analogous task. In line with recent approaches, we assumed that neuronal activity in V1 corresponds to latent posteriors in the generative model, enabling investigation of task-related priors in neuronal responses. To obtain a flexible test bed, we extended the VAE formalism so that a task can be acquired efficiently by reusing previously learned representations. Task-specific priors learned by this Task-Amortized VAE were used to investigate biases in mice and model when presenting stimuli that violated trained task statistics. Mismatch between learned task statistics and incoming sensory evidence produced signatures of uncertainty in stimulus category in the TAVAE posterior, reflecting properties of bimodal response profiles in V1 recordings. The task-optimized generative model accounted for key characteristics of V1 population activity, including within-day updates to population responses. Our results confirm that flexible task-specific contextual priors can be learned on demand by the visual system and deployed as early as the entry level of visual cortex.
- Abstract(参考訳): 脳は学習された正規性を通して視覚情報を解釈する。
視覚野は、この推測の先行を定め、そのうちのいくつかは、大脳皮質階層の上位層で表される統計について低レベルの皮質に知らせる確立されたトップダウン接続を通して配信される。
適応が自然画像の構造を反映する先行性につながることを示す証拠はあるが、特定のタスクを学ぶ際に、類似した先行性が柔軟に取得できるかどうかは不明である。
そこで本研究では, 簡易識別タスクに最適化されたV1生成モデルを構築し, 類似タスクを行うマウスの大規模記録とともに解析した。
近年のアプローチでは、V1のニューロン活動は、生成モデルにおける潜在後部と一致し、ニューロン反応におけるタスク関連先行性を調べることができると仮定した。
フレキシブルなテストベッドを得るために,我々は,以前に学習した表現を再利用することで,タスクを効率的に取得できるように,VAE形式を拡張した。
このタスク改善型VAEによって学習されたタスク特異的前駆体は、訓練されたタスク統計に反する刺激を示すマウスやモデルにおけるバイアスを調査するために使用された。
学習課題統計と入ってくる感覚的証拠とのミスマッチは、V1記録におけるバイモーダル応答プロファイルの特性を反映したTAAVAE後部刺激カテゴリーの不確かさのサインを生み出した。
タスク最適化生成モデルは、V1集団活動の重要な特徴を考慮に入れた。
本研究は,視覚システムによる要求に応じて,柔軟タスク固有の文脈先行を学習し,早期に視覚野のエントリーレベルに展開できることを確認した。
関連論文リスト
- Think First, Assign Next (ThiFAN-VQA): A Two-stage Chain-of-Thought Framework for Post-Disaster Damage Assessment [0.0]
災害時における視覚的質問応答(VQA)のための2段階推論に基づくフレームワークであるThiFAN-VQAを提案する。
カスタム情報検索システム、ドメイン固有のプロンプト、推論誘導型回答選択を統合することで、ThiFAN-VQAはゼロショットと教師付きメソッドのギャップを埋める。
FloodNetとRescueNet-VQAの実験は、洪水やハリケーンに影響を受けた地域のUAVベースのデータセットで、ThiFAN-VQAがより優れた精度、解釈可能性、適応性を実現することを実証している。
論文 参考訳(メタデータ) (2025-11-24T14:32:07Z) - Which Direction to Choose? An Analysis on the Representation Power of Self-Supervised ViTs in Downstream Tasks [43.473390101413166]
視覚変換のための自己監督学習(ViTs)は、近年、様々なコンピュータビジョンタスクの事前学習戦略としてかなりの可能性を示している。
本研究の目的は,画像分類とセグメント化タスクにまたがる未修正特徴の使用を体系的に評価することで,ギャップを埋めることである。
論文 参考訳(メタデータ) (2025-09-18T11:46:07Z) - Two-Stage Representation Learning for Analyzing Movement Behavior Dynamics in People Living with Dementia [44.39545678576284]
本研究では,認知症高齢者の在宅活動データを,2段階の自己指導型学習アプローチによって分析する。
第1段階は、時系列アクティビティを事前訓練された言語モデルによって符号化されたテキストシーケンスに変換する。
このPageRankベクトルは遅延状態遷移をキャプチャし、複雑な振る舞いデータを簡潔な形式に効果的に圧縮する。
論文 参考訳(メタデータ) (2025-02-13T10:57:25Z) - Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control [0.0]
本稿では,Prompt-Tuningでよく見られる埋没崩壊現象が,モデルの最終性能に与える影響について検討する。
以上の結果から, 先行は調整した埋め込みの位置に強く影響し, モデルが活性化空間の異なる部分からの埋め込みを効果的に扱えることが示唆された。
論文 参考訳(メタデータ) (2024-12-24T18:18:52Z) - Generalization v.s. Memorization: Tracing Language Models' Capabilities Back to Pretraining Data [76.90128359866462]
本稿では,出力確率と事前学習データ頻度の相関を計測する,記憶化,分布記憶化という拡張概念を導入する。
本研究は, より単純で知識集約的なタスクにおいて, 記憶がより大きな役割を担い, 一般化が, より困難で推論に基づくタスクの鍵であることを示す。
論文 参考訳(メタデータ) (2024-07-20T21:24:40Z) - Task Residual for Tuning Vision-Language Models [69.22958802711017]
タスク残差調整(TaskRes)と呼ばれる視覚言語モデル(VLM)のための新しい効率的なチューニング手法を提案する。
TaskResは、トレーニング済みモデルの事前知識とターゲットタスクに関する新たな知識を明示的に分離する。
提案されたTaskResは単純だが有効であり、11のベンチマークデータセットで以前のメソッドよりも大幅に上回っている。
論文 参考訳(メタデータ) (2022-11-18T15:09:03Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Top-down inference in an early visual cortex inspired hierarchical
Variational Autoencoder [0.0]
我々は変分オートエンコーダの進歩を利用して、自然画像に基づいて訓練された疎い符号化階層型VAEを用いて、初期視覚野を調査する。
一次および二次視覚皮質に見られるものと類似した表現は、軽度の誘導バイアスの下で自然に現れる。
生成モデルを用いた2つの計算のシグネチャに対して,ニューロサイエンスに着想を得た認識モデルの選択が重要であることを示す。
論文 参考訳(メタデータ) (2022-06-01T12:21:58Z) - Why Do Pretrained Language Models Help in Downstream Tasks? An Analysis
of Head and Prompt Tuning [66.44344616836158]
本稿では,事前学習タスクと下流タスクをテキストの潜在変数生成モデルに関連付ける分析フレームワークを提案する。
HMMの特定の非退化条件下では、単純な分類ヘッドがダウンストリームタスクを解くことができ、また、迅速なチューニングにより、より弱い非退化条件で下流の保証を得ることができ、さらに、メモリ拡張HMMの回復保証がバニラHMMよりも強いことを示す。
論文 参考訳(メタデータ) (2021-06-17T03:31:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。