論文の概要: Memory Wrap: a Data-Efficient and Interpretable Extension to Image
Classification Models
- arxiv url: http://arxiv.org/abs/2106.01440v1
- Date: Tue, 1 Jun 2021 07:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:05:28.298818
- Title: Memory Wrap: a Data-Efficient and Interpretable Extension to Image
Classification Models
- Title(参考訳): memory wrap: 画像分類モデルへのデータ効率と解釈可能な拡張
- Authors: Biagio La Rosa, Roberto Capobianco and Daniele Nardi
- Abstract要約: Memory Wrapは、任意の画像分類モデルのプラグアンドプレイ拡張である。
データ効率性とモデル解釈性の両方を改善し、コンテンツアテンションメカニズムを採用する。
メモリラップは,限られたデータ集合から学習すると,標準的な分類器よりも優れることを示す。
- 参考スコア(独自算出の注目度): 9.848884631714451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their black-box and data-hungry nature, deep learning techniques are
not yet widely adopted for real-world applications in critical domains, like
healthcare and justice. This paper presents Memory Wrap, a plug-and-play
extension to any image classification model. Memory Wrap improves both
data-efficiency and model interpretability, adopting a content-attention
mechanism between the input and some memories of past training samples. We show
that Memory Wrap outperforms standard classifiers when it learns from a limited
set of data, and it reaches comparable performance when it learns from the full
dataset. We discuss how its structure and content-attention mechanisms make
predictions interpretable, compared to standard classifiers. To this end, we
both show a method to build explanations by examples and counterfactuals, based
on the memory content, and how to exploit them to get insights about its
decision process. We test our approach on image classification tasks using
several architectures on three different datasets, namely CIFAR10, SVHN, and
CINIC10.
- Abstract(参考訳): ブラックボックスとデータ処理の性質のため、ディープラーニング技術は医療や司法といった重要な分野における現実世界の応用にはまだ広く採用されていない。
本稿では,任意の画像分類モデルのプラグアンドプレイ拡張であるMemory Wrapを提案する。
メモリラップはデータ効率とモデル解釈性の両方を改善し、過去のトレーニングサンプルのメモリと入力の間にコンテントアテンション機構を採用する。
メモリラップは、限られたデータ集合から学習すると標準的な分類器よりも優れており、完全なデータセットから学習すると同等のパフォーマンスに達することを示す。
本稿では,その構造と内容認識機構が,標準分類器と比較して解釈可能かを論じる。
この目的のために,記憶内容に基づいて実例と実例による説明を構築する手法と,その意思決定プロセスに関する洞察を得るためにそれらを活用する方法を示す。
我々は,CIFAR10,SVHN,CINIC10という3つの異なるデータセット上で,複数のアーキテクチャを用いて画像分類タスクをテストする。
関連論文リスト
- Black-box Unsupervised Domain Adaptation with Bi-directional
Atkinson-Shiffrin Memory [59.51934126717572]
Black-box Unsupervised Domain adaptation (UDA)は、トレーニング中にソースデータまたはソースモデルにアクセスすることなく、ターゲットデータのソース予測で学習する。
両方向の記憶機構であるBiMemを提案する。
BiMemは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、さまざまな視覚的タスクに一貫して優れたドメイン適応性能を実現する。
論文 参考訳(メタデータ) (2023-08-25T08:06:48Z) - Domain-Agnostic Neural Architecture for Class Incremental Continual
Learning in Document Processing Platform [3.630365560970225]
学習勾配を持つ最近の手法は、そのような設定に苦しむか、メモリバッファのような制限があることが示されている。
本稿では,各クラスからサンプルを別々に提示した場合に,高性能な分類器の訓練を可能にする,Mixture of Expertsモデルに基づく完全微分可能なアーキテクチャを提案する。
各種ドメインに適用可能であること,実運用環境でオンライン学習できることを実証する徹底的な実験を行った。
論文 参考訳(メタデータ) (2023-07-11T16:01:44Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Memory Classifiers: Two-stage Classification for Robustness in Machine
Learning [19.450529711560964]
本稿では,分散シフトに対するロバスト性を改善する新しい分類法を提案する。
データの高レベル構造に関する専門知識を標準分類器と組み合わせる。
標準データ拡張技術を超える改善を示す。
論文 参考訳(メタデータ) (2022-06-10T18:44:45Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Hierarchical Variational Memory for Few-shot Learning Across Domains [120.87679627651153]
本稿では,プロトタイプの各レベルが階層メモリから対応する情報を取得する階層型プロトタイプモデルを提案する。
このモデルには、ドメインシフトの状況が要求される場合、異なるセマンティックレベルの機能を柔軟に依存する能力が備わっている。
モデルにおける各コンポーネントの有効性を示すために、徹底的なアブレーション研究を行っている。
論文 参考訳(メタデータ) (2021-12-15T15:01:29Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Rainbow Memory: Continual Learning with a Memory of Diverse Samples [14.520337285540148]
エピソード記憶におけるサンプルの多様性の重要性を論じる。
サンプル毎の分類不確実性およびデータ拡張に基づく新しいメモリ管理戦略を提案する。
提案手法は,ぼやけた連続学習装置の精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-03-31T17:28:29Z) - Memory-based Jitter: Improving Visual Recognition on Long-tailed Data
with Diversity In Memory [39.56214005885884]
メモリベースジッター(MBJ)と呼ばれるシンプルで信頼性の高い手法を導入する。
MBJは2つの基本的な視覚認識タスク、すなわち深部画像分類と深部メートル法学習に適用できる。
5つの長い尾の分類ベンチマークと2つの深いメートル法学習ベンチマークの実験は、大幅な改善を示している。
論文 参考訳(メタデータ) (2020-08-22T11:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。