論文の概要: Explaining Cross-Domain Recognition with Interpretable Deep Classifier
- arxiv url: http://arxiv.org/abs/2211.08249v1
- Date: Tue, 15 Nov 2022 15:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:11:16.895428
- Title: Explaining Cross-Domain Recognition with Interpretable Deep Classifier
- Title(参考訳): 解釈可能な深分類器によるクロスドメイン認識の説明
- Authors: Yiheng Zhang and Ting Yao and Zhaofan Qiu and Tao Mei
- Abstract要約: 解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
- 参考スコア(独自算出の注目度): 100.63114424262234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advances in deep learning predominantly construct models in their
internal representations, and it is opaque to explain the rationale behind and
decisions to human users. Such explainability is especially essential for
domain adaptation, whose challenges require developing more adaptive models
across different domains. In this paper, we ask the question: how much each
sample in source domain contributes to the network's prediction on the samples
from target domain. To address this, we devise a novel Interpretable Deep
Classifier (IDC) that learns the nearest source samples of a target sample as
evidence upon which the classifier makes the decision. Technically, IDC
maintains a differentiable memory bank for each category and the memory slot
derives a form of key-value pair. The key records the features of
discriminative source samples and the value stores the corresponding
properties, e.g., representative scores of the features for describing the
category. IDC computes the loss between the output of IDC and the labels of
source samples to back-propagate to adjust the representative scores and update
the memory banks. Extensive experiments on Office-Home and VisDA-2017 datasets
demonstrate that our IDC leads to a more explainable model with almost no
accuracy degradation and effectively calibrates classification for optimum
reject options. More remarkably, when taking IDC as a prior interpreter,
capitalizing on 0.1% source training data selected by IDC still yields superior
results than that uses full training set on VisDA-2017 for unsupervised domain
adaptation.
- Abstract(参考訳): ディープラーニングの最近の進歩は、主に内部表現でモデルを構築しており、背後にある理論的根拠と決定を人間ユーザーに説明するのは不透明である。
このような説明責任はドメイン適応に特に不可欠であり、異なるドメインにまたがってより適応的なモデルを開発する必要がある。
本稿では、ソースドメインの各サンプルが、ターゲットドメインからのサンプルに対するネットワークの予測にどの程度貢献しているか、という質問を投げかける。
そこで我々は,対象サンプルの最も近いソースサンプルを,分類者が決定を下す証拠として学習する新しい解釈可能な深層分類器(IDC)を考案した。
技術的には、IDCはカテゴリ毎に微分可能なメモリバンクを保持し、メモリスロットはキーと値のペアの形式を導出する。
キーは、識別可能なソースサンプルの特徴を記録し、その値は、カテゴリを記述するための特徴の代表的なスコアなど、対応するプロパティを格納する。
IDCは、IDCの出力とソースサンプルのラベルの間の損失を計算し、バックプロパゲートして代表スコアを調整し、メモリバンクを更新する。
Office-HomeとVisDA-2017データセットの大規模な実験により、私たちのIDCは、ほぼ精度の劣化のないより説明可能なモデルをもたらし、最適な拒絶オプションの分類を効果的に調整することを示した。
さらに驚くべきことに、IDCを前回インタプリタとして使う場合、IDCが選択した0.1%のソーストレーニングデータを利用すると、教師なしドメイン適応のためのVisDA-2017のフルトレーニングセットよりも優れた結果が得られる。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Multiple-Source Domain Adaptation via Coordinated Domain Encoders and
Paired Classifiers [1.52292571922932]
ドメインシフトの下でのテキスト分類の新しいモデルを提案する。
更新表現を利用して、ドメインエンコーダを動的に統合する。
また、ターゲットドメインのエラー率を推測するために確率モデルも採用している。
論文 参考訳(メタデータ) (2022-01-28T00:50:01Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。