論文の概要: Memory-Modular Classification: Learning to Generalize with Memory Replacement
- arxiv url: http://arxiv.org/abs/2504.06021v1
- Date: Tue, 08 Apr 2025 13:26:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:39.479562
- Title: Memory-Modular Classification: Learning to Generalize with Memory Replacement
- Title(参考訳): メモリモジュール分類: メモリ置換による一般化を学ぶ
- Authors: Dahyun Kang, Ahmet Iscen, Eunchan Jo, Sua Choi, Minsu Cho, Cordelia Schmid,
- Abstract要約: 本稿では,知識記憶と推論を分離した画像分類のためのメモリモジュール学習手法を提案する。
我々のモデルは、メモリ内容を置き換えるだけで、新しいクラスを効果的に一般化することができる。
実験の結果,提案手法の有望な性能と汎用性を示した。
- 参考スコア(独自算出の注目度): 79.772454831493
- License:
- Abstract: We propose a novel memory-modular learner for image classification that separates knowledge memorization from reasoning. Our model enables effective generalization to new classes by simply replacing the memory contents, without the need for model retraining. Unlike traditional models that encode both world knowledge and task-specific skills into their weights during training, our model stores knowledge in the external memory of web-crawled image and text data. At inference time, the model dynamically selects relevant content from the memory based on the input image, allowing it to adapt to arbitrary classes by simply replacing the memory contents. The key differentiator that our learner meta-learns to perform classification tasks with noisy web data from unseen classes, resulting in robust performance across various classification scenarios. Experimental results demonstrate the promising performance and versatility of our approach in handling diverse classification tasks, including zero-shot/few-shot classification of unseen classes, fine-grained classification, and class-incremental classification.
- Abstract(参考訳): 本稿では,知識記憶と推論を分離した画像分類のための新しいメモリモジュール学習手法を提案する。
本モデルは,モデル再学習を必要とせず,単にメモリ内容を置き換えることで,新しいクラスを効果的に一般化することを可能にする。
トレーニング中に世界的知識とタスク固有のスキルの両方を重みにエンコードする従来のモデルとは異なり、我々のモデルはウェブに蓄積された画像とテキストデータの外部記憶に知識を格納する。
推論時に、モデルは入力画像に基づいてメモリから関連するコンテンツを動的に選択し、メモリ内容を置き換えるだけで任意のクラスに適応できる。
学習者のメタ学習者が、目に見えないクラスからのノイズの多いWebデータを用いて分類タスクを実行するための重要な差別化要因は、様々な分類シナリオにおいて堅牢なパフォーマンスをもたらす。
実験結果から,未確認クラスのゼロショット/ファウショット分類,きめ細かい分類,クラスインクリメンタル分類など,多様な分類タスクの処理における提案手法の有望な性能と汎用性を示す。
関連論文リスト
- Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Hierarchical Variational Memory for Few-shot Learning Across Domains [120.87679627651153]
本稿では,プロトタイプの各レベルが階層メモリから対応する情報を取得する階層型プロトタイプモデルを提案する。
このモデルには、ドメインシフトの状況が要求される場合、異なるセマンティックレベルの機能を柔軟に依存する能力が備わっている。
モデルにおける各コンポーネントの有効性を示すために、徹底的なアブレーション研究を行っている。
論文 参考訳(メタデータ) (2021-12-15T15:01:29Z) - Memory Wrap: a Data-Efficient and Interpretable Extension to Image
Classification Models [9.848884631714451]
Memory Wrapは、任意の画像分類モデルのプラグアンドプレイ拡張である。
データ効率性とモデル解釈性の両方を改善し、コンテンツアテンションメカニズムを採用する。
メモリラップは,限られたデータ集合から学習すると,標準的な分類器よりも優れることを示す。
論文 参考訳(メタデータ) (2021-06-01T07:24:19Z) - Fine-grained Classification via Categorical Memory Networks [42.413523046712896]
きめ細かい機能学習のためのクラス固有のメモリモジュールを提示する。
メモリモジュールは、各カテゴリの原型的特徴表現を移動平均として格納する。
クラス固有のメモリモジュールを標準畳み込みニューラルネットワークに統合し、カテゴリメモリネットワークを生成します。
論文 参考訳(メタデータ) (2020-12-12T11:50:13Z) - Learning to Learn Variational Semantic Memory [132.39737669936125]
我々はメタラーニングに変分セマンティックメモリを導入し、数ショットラーニングのための長期的知識を得る。
セマンティックメモリはスクラッチから成長し、経験したタスクから情報を吸収することで徐々に統合される。
アドレスコンテンツから潜在記憶変数の変動推論としてメモリリコールを定式化する。
論文 参考訳(メタデータ) (2020-10-20T15:05:26Z) - Memory-Efficient Incremental Learning Through Feature Adaptation [71.1449769528535]
本稿では,以前学習したクラスから,画像の特徴記述子を保存するインクリメンタルラーニングのアプローチを提案する。
画像のより低次元の機能埋め込みを維持することで、メモリフットプリントが大幅に削減される。
実験の結果,インクリメンタルラーニングベンチマークにおいて,最先端の分類精度が得られた。
論文 参考訳(メタデータ) (2020-04-01T21:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。