論文の概要: BRAIN: Bias-Mitigation Continual Learning Approach to Vision-Brain Understanding
- arxiv url: http://arxiv.org/abs/2508.18187v1
- Date: Mon, 25 Aug 2025 16:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.869622
- Title: BRAIN: Bias-Mitigation Continual Learning Approach to Vision-Brain Understanding
- Title(参考訳): BRAIN: 視覚脳理解のためのバイアス緩和型継続的学習アプローチ
- Authors: Xuan-Bac Nguyen, Thanh-Dat Truong, Pawan Sinha, Khoa Luu,
- Abstract要約: 記憶崩壊は、人間の脳が視覚的物体を認識して詳細を保持するのを難しくする。
本稿では,この問題に対処する最初のビジョン学習手法の1つについて述べる。
- 参考スコア(独自算出の注目度): 21.00150005409026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory decay makes it harder for the human brain to recognize visual objects and retain details. Consequently, recorded brain signals become weaker, uncertain, and contain poor visual context over time. This paper presents one of the first vision-learning approaches to address this problem. First, we statistically and experimentally demonstrate the existence of inconsistency in brain signals and its impact on the Vision-Brain Understanding (VBU) model. Our findings show that brain signal representations shift over recording sessions, leading to compounding bias, which poses challenges for model learning and degrades performance. Then, we propose a new Bias-Mitigation Continual Learning (BRAIN) approach to address these limitations. In this approach, the model is trained in a continual learning setup and mitigates the growing bias from each learning step. A new loss function named De-bias Contrastive Learning is also introduced to address the bias problem. In addition, to prevent catastrophic forgetting, where the model loses knowledge from previous sessions, the new Angular-based Forgetting Mitigation approach is introduced to preserve learned knowledge in the model. Finally, the empirical experiments demonstrate that our approach achieves State-of-the-Art (SOTA) performance across various benchmarks, surpassing prior and non-continual learning methods.
- Abstract(参考訳): 記憶崩壊は、人間の脳が視覚的物体を認識して詳細を保持するのを難しくする。
その結果、記録された脳信号は弱く、不確実になり、時間とともに視覚的コンテキストが低下する。
本稿では,この問題に対処する最初のビジョン学習手法の1つについて述べる。
まず,脳信号における不整合の存在とその視覚脳理解(VBU)モデルへの影響を統計的,実験的に実証した。
以上の結果から,脳信号の表現は記録セッションよりも変化し,複合バイアスが生じ,モデル学習の課題となり,性能が低下することが明らかとなった。
そこで我々は,これらの制約に対処する新しいバイアス緩和継続学習(BRAIN)手法を提案する。
このアプローチでは、モデルは連続的な学習設定でトレーニングされ、各学習ステップからのバイアスの増大を軽減します。
バイアス問題に対処するために、De-bias Contrastive Learningという新しい損失関数も導入された。
さらに、モデルが以前のセッションから知識を失う破滅的な忘れを防止するために、モデルの学習知識を保存するために、新しいAngularベースのForgetting Mitigationアプローチが導入されている。
最後に,本手法が先行学習法や非連続学習法を超越して,様々なベンチマークにおいてSOTA(State-of-the-Art)性能を実現することを示す。
関連論文リスト
- Weight Factorization and Centralization for Continual Learning in Speech Recognition [55.63455095283984]
リハーサルのない多言語、言語に依存しない状態でモデルを継続的に訓練することは、破滅的な忘れを招きかねない。
人間の脳が覚醒サイクルを通じて知識を学習・統合する能力に着想を得て,継続的な学習手法を提案する。
論文 参考訳(メタデータ) (2025-06-19T19:59:24Z) - Quantifying Cross-Modality Memorization in Vision-Language Models [86.82366725590508]
モーダリティ記憶のユニークな特徴について検討し,視覚言語モデルを中心とした体系的な研究を行う。
以上の結果から,一方のモダリティが他方のモダリティに伝達されることが判明したが,情報源の情報と対象のモダリティの間には大きなギャップがあることがわかった。
論文 参考訳(メタデータ) (2025-06-05T16:10:47Z) - Partitioned Memory Storage Inspired Few-Shot Class-Incremental learning [2.9845592719739127]
FSCIL(Few-Shot Class-Incremental Learning)は、古い知識を忘れずに限られたサンプルを持つ新しいカテゴリの継続的な学習に焦点を当てている。
本稿では,各セッションの独立モデルを学習する手法を開発し,破滅的な忘れを本質的に防止する。
提案手法は, CIFAR-100 および mini-ImageNet データセット上での最先端性能を示すとともに, FSCIL の新たな視点を提供する。
論文 参考訳(メタデータ) (2025-04-29T14:11:06Z) - Advancing Brain Imaging Analysis Step-by-step via Progressive Self-paced Learning [0.5840945370755134]
適応型・進行型ペーシング・蒸留機構を応用したPSPD(Progressive Self-Paced Distillation)フレームワークを提案する。
我々は、アルツハイマー病神経画像イニシアチブ(ADNI)データセットを用いて、様々な畳み込みニューラルネットワークにおけるPSPDの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2024-07-23T02:26:04Z) - Overcoming Generic Knowledge Loss with Selective Parameter Update [48.240683797965005]
基礎モデルを継続的に更新する新しい手法を提案する。
すべてのパラメータを均等に更新する代わりに、学習しているタスクに関連するパラメータのスパースセットにアップデートをローカライズします。
提案手法は,学習済みのタスクの精度を最大7%向上すると同時に,学習前知識を0.9%減少させることなく,代表制御セットの精度を低下させる。
論文 参考訳(メタデータ) (2023-08-23T22:55:45Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - Continual Learning by Modeling Intra-Class Variation [33.30614232534283]
データやタスクがシーケンシャルに提示された場合、ニューラルネットワークはパフォーマンスが悪くなっていることが観察されている。
人間とは異なり、ニューラルネットワークは破滅的な忘れ込みに悩まされており、生涯学習することは不可能である。
本稿では,記憶に基づく連続学習について検討し,大惨な忘れ込みを避けるためには,表現空間の大規模な変動が不可欠であることを確認した。
論文 参考訳(メタデータ) (2022-10-11T12:17:43Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Imitating, Fast and Slow: Robust learning from demonstrations via
decision-time planning [96.72185761508668]
テストタイムでの計画(IMPLANT)は、模倣学習のための新しいメタアルゴリズムである。
IMPLANTは,標準制御環境において,ベンチマーク模倣学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T17:16:52Z) - Mixture-of-Variational-Experts for Continual Learning [0.0]
学習と忘れのトレードオフを促進する最適原理を提案する。
我々はMixture-of-Variational-Experts (MoVE)と呼ばれる連続学習のためのニューラルネットワーク層を提案する。
MNISTおよびCIFAR10データセットの変種に関する実験は、MoVE層の競合性能を示す。
論文 参考訳(メタデータ) (2021-10-25T06:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。