論文の概要: Multi-Class Explainable Unlearning for Image Classification via Weight
Filtering
- arxiv url: http://arxiv.org/abs/2304.02049v1
- Date: Tue, 4 Apr 2023 18:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 14:23:35.200039
- Title: Multi-Class Explainable Unlearning for Image Classification via Weight
Filtering
- Title(参考訳): 重みフィルタリングによる画像分類のためのマルチクラス説明不能学習
- Authors: Samuele Poppi, Sara Sarto, Marcella Cornia, Lorenzo Baraldi, Rita
Cucchiara
- Abstract要約: 画像分類ネットワークのすべてのクラスを1ラウンドの未学習ラウンドで解放できるフレームワークを考案する。
私たちの研究は、アンラーニングのための説明可能なソリューションの開発に関する興味深い洞察を提供し、他のビジョンタスクにも容易に拡張できます。
- 参考スコア(独自算出の注目度): 48.72194573786612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Unlearning has recently been emerging as a paradigm for selectively
removing the impact of training datapoints from a network. While existing
approaches have focused on unlearning either a small subset of the training
data or a single class, in this paper we take a different path and devise a
framework that can unlearn all classes of an image classification network in a
single untraining round. Our proposed technique learns to modulate the inner
components of an image classification network through memory matrices so that,
after training, the same network can selectively exhibit an unlearning behavior
over any of the classes. By discovering weights which are specific to each of
the classes, our approach also recovers a representation of the classes which
is explainable by-design. We test the proposed framework, which we name Weight
Filtering network (WF-Net), on small-scale and medium-scale image
classification datasets, with both CNN and Transformer-based backbones. Our
work provides interesting insights in the development of explainable solutions
for unlearning and could be easily extended to other vision tasks.
- Abstract(参考訳): Machine Unlearningは、ネットワークからトレーニングデータポイントの影響を選択的に除去するパラダイムとして最近登場した。
既存のアプローチでは、トレーニングデータの小さなサブセットまたは単一クラスをアンラーニングすることに重点を置いているが、この論文では異なる経路を採り、単一の未学習ラウンドで画像分類ネットワークの全クラスをアンラーニングできるフレームワークを考案する。
提案手法は,画像分類ネットワークの内部成分をメモリ行列で変調することにより,学習後の任意のクラスに対して,同じネットワークが学習しない動作を選択的に表示できるようにする。
各クラスに固有の重みの発見によって、このアプローチは、設計によって説明可能なクラスの表現を復元する。
本研究では,cnnとtransformerベースのバックボーンを用いて,小規模および中規模の画像分類データセット上で,重みフィルタリングネットワーク(wf-net)と命名するフレームワークをテストした。
私たちの研究は、アンラーニングのための説明可能なソリューションの開発に関する興味深い洞察を提供し、他のビジョンタスクにも容易に拡張できます。
関連論文リスト
- Genetic Programming-Based Evolutionary Deep Learning for Data-Efficient
Image Classification [3.9310727060473476]
本稿では,データ効率のよい画像分類のための遺伝的プログラミングに基づく進化的深層学習手法を提案する。
この新しいアプローチは、画像領域と分類領域の両方から多くの重要な演算子を使用して、変数長モデルを自動的に進化させることができる。
フレキシブルな多層表現により、新しいアプローチは、タスクごとに浅いモデルや深いモデルやツリーを自動的に構築できる。
論文 参考訳(メタデータ) (2022-09-27T08:10:16Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - UnseenNet: Fast Training Detector for Any Unseen Concept [6.802401545890963]
「見知らぬクラス検出器」は、競合精度でボックスをバウンディングすることなく、可能な限り見つからないクラスに対して、非常に短時間で訓練することができる。
我々のモデル(UnseenNet)は、未確認クラスのImageNet分類データセットに基づいて訓練され、オブジェクト検出データセット(Open Images)上でテストされる。
論文 参考訳(メタデータ) (2022-03-16T17:17:10Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Simpler is Better: Few-shot Semantic Segmentation with Classifier Weight
Transformer [112.95747173442754]
数ショットのセマンティックセグメンテーションモデルは典型的にはCNNエンコーダ、CNNデコーダ、単純な分類器から構成される。
既存のほとんどのメソッドは、新しいクラスに迅速に適応するために、3つのモデルコンポーネント全てをメタ学習する。
本稿では,最も単純なコンポーネントである分類器にのみ焦点をあてて,メタ学習タスクの簡略化を提案する。
論文 参考訳(メタデータ) (2021-08-06T10:20:08Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - ResMLP: Feedforward networks for image classification with
data-efficient training [73.26364887378597]
画像分類のための多層パーセプトロン上に構築されたアーキテクチャであるResMLPを提案する。
Timmライブラリと事前トレーニングされたモデルに基づいたコードを共有します。
論文 参考訳(メタデータ) (2021-05-07T17:31:44Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。