論文の概要: Forgetting to Remember: A Scalable Incremental Learning Framework for
Cross-Task Blind Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2209.07126v1
- Date: Thu, 15 Sep 2022 08:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:29:26.591475
- Title: Forgetting to Remember: A Scalable Incremental Learning Framework for
Cross-Task Blind Image Quality Assessment
- Title(参考訳): forgetting to remember: クロスタスクブラインド画像品質評価のためのスケーラブルなインクリメンタル学習フレームワーク
- Authors: Rui Ma, Qingbo Wu, King N. Ngan, Hongliang Li, Fanman Meng, Linfeng Xu
- Abstract要約: 本稿では,メモリ容量に制限のある複数の評価タスクに対して,ブラインド画像品質評価(BIQA)を順次実施可能な拡張段階学習フレームワーク(SILF)を提案する。
逐次学習におけるメモリ容量の非制限拡大を抑制するため,未重要ニューロンをパラメータサブセットから徐々に選択的に抽出し,スケーラブルなメモリユニットを開発する。
- 参考スコア(独自算出の注目度): 25.67247922033185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the great success of blind image quality
assessment (BIQA) in various task-specific scenarios, which present invariable
distortion types and evaluation criteria. However, due to the rigid structure
and learning framework, they cannot apply to the cross-task BIQA scenario,
where the distortion types and evaluation criteria keep changing in practical
applications. This paper proposes a scalable incremental learning framework
(SILF) that could sequentially conduct BIQA across multiple evaluation tasks
with limited memory capacity. More specifically, we develop a dynamic parameter
isolation strategy to sequentially update the task-specific parameter subsets,
which are non-overlapped with each other. Each parameter subset is temporarily
settled to Remember one evaluation preference toward its corresponding task,
and the previously settled parameter subsets can be adaptively reused in the
following BIQA to achieve better performance based on the task relevance. To
suppress the unrestrained expansion of memory capacity in sequential tasks
learning, we develop a scalable memory unit by gradually and selectively
pruning unimportant neurons from previously settled parameter subsets, which
enable us to Forget part of previous experiences and free the limited memory
capacity for adapting to the emerging new tasks. Extensive experiments on
eleven IQA datasets demonstrate that our proposed method significantly
outperforms the other state-of-the-art methods in cross-task BIQA.
- Abstract(参考訳): 近年、様々なタスク固有のシナリオにおいて視覚画像品質評価(BIQA)が大成功し、様々な歪みタイプと評価基準が提示されている。
しかし、厳密な構造と学習フレームワークのため、実際の応用において歪みタイプと評価基準が変化し続けるクロスタスクなBIQAシナリオには適用できない。
本稿では,メモリ容量を制限した複数の評価タスクでbiqaを順次実行するスケーラブルなインクリメンタル学習フレームワーク(silf)を提案する。
より具体的には、タスク固有のパラメータサブセットを順次更新するための動的パラメータ分離戦略を開発する。
各パラメータサブセットは一時的に解決され、対応するタスクに対する1つの評価優先度を記憶し、予め設定されたパラメータサブセットを次のBIQAで適応的に再利用してタスク関連性に基づいてより良いパフォーマンスを達成する。
逐次的タスク学習におけるメモリ容量の無制約拡大を抑制するため,既存のパラメータサブセットから重要でないニューロンを段階的かつ選択的に切り離し,それまでの経験の一部を忘れることができ,新たなタスクに適応するための限られたメモリ容量を解放することで,スケーラブルなメモリユニットを開発する。
11個のIQAデータセットに対する大規模な実験により,提案手法はBIQAの他手法よりも有意に優れていた。
関連論文リスト
- Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection [25.224930928724326]
本研究では、画像分類のための漸進的な学習に焦点を当て、記憶やプライバシーの制約により古いデータへのアクセスが制限された場合、すべての学習知識の破滅的な忘れ込みを減らす方法について検討する。
漸進的な学習の課題は、可塑性、新しい知識を学ぶ能力、安定性、古い知識を維持する能力の最適なバランスを達成することである。
論文 参考訳(メタデータ) (2024-11-01T07:54:29Z) - Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - MCF-VC: Mitigate Catastrophic Forgetting in Class-Incremental Learning
for Multimodal Video Captioning [10.95493493610559]
マルチモーダルビデオキャプション(MCF-VC)のためのクラス増分学習におけるカタストロフィックフォーミングの軽減手法を提案する。
特徴レベルでの旧タスクと新タスクの知識特性をよりよく制約するために,2段階知識蒸留(TsKD)を作成した。
公開データセットMSR-VTTを用いた実験により,提案手法は古いサンプルを再生することなく過去のタスクを忘れることに対して著しく抵抗し,新しいタスクでうまく機能することを示した。
論文 参考訳(メタデータ) (2024-02-27T16:54:08Z) - Continual Action Assessment via Task-Consistent Score-Discriminative Feature Distribution Modeling [31.696222064667243]
アクション品質アセスメント(AQA)は、アクションがどれだけうまく実行されるかに答えようとするタスクである。
既存のAQAの作業は、トレーニングデータはすべて一度にトレーニング用に見えるが、継続的な学習はできないと仮定している。
本稿では,AQAタスクを忘れずに逐次学習するための統一モデルを提案する。
論文 参考訳(メタデータ) (2023-09-29T10:06:28Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。