論文の概要: Label-Free Explainability for Unsupervised Models
- arxiv url: http://arxiv.org/abs/2203.01928v1
- Date: Thu, 3 Mar 2022 18:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 15:13:53.475156
- Title: Label-Free Explainability for Unsupervised Models
- Title(参考訳): 教師なしモデルのラベルフリー説明可能性
- Authors: Jonathan Crabb\'e and Mihaela van der Schaar
- Abstract要約: 教師なしのブラックボックスモデルは解釈が難しい。
既存の説明可能性の方法の多くは、ブラックボックスの出力のどのコンポーネントを解釈するかをラベルで選択する必要がある。
本稿では,1)ラベルフリーな特徴重要度と(2)ラベルフリーな例重要度という,ポストホックな説明技法の2つの重要な拡張点を紹介する。
- 参考スコア(独自算出の注目度): 95.94432031144716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised black-box models are challenging to interpret. Indeed, most
existing explainability methods require labels to select which component(s) of
the black-box's output to interpret. In the absence of labels, black-box
outputs often are representation vectors whose components do not correspond to
any meaningful quantity. Hence, choosing which component(s) to interpret in a
label-free unsupervised/self-supervised setting is an important, yet unsolved
problem. To bridge this gap in the literature, we introduce two crucial
extensions of post-hoc explanation techniques: (1) label-free feature
importance and (2) label-free example importance that respectively highlight
influential features and training examples for a black-box to construct
representations at inference time. We demonstrate that our extensions can be
successfully implemented as simple wrappers around many existing feature and
example importance methods. We illustrate the utility of our label-free
explainability paradigm through a qualitative and quantitative comparison of
representation spaces learned by various autoencoders trained on distinct
unsupervised tasks.
- Abstract(参考訳): 教師なしのブラックボックスモデルは解釈が難しい。
実際、既存の説明可能性メソッドのほとんどは、ブラックボックスの出力のどのコンポーネントを解釈するかをラベルで選択する必要がある。
ラベルがない場合、ブラックボックス出力は、コンポーネントが意味のある量に対応しない表現ベクトルであることが多い。
したがって、ラベルなしの教師なし/自己教師付き設定で解釈するコンポーネントを選択することは重要だが未解決の問題である。
このギャップを埋めるために,(1)ラベルフリーな特徴量,(2)ラベルフリーな例量,(2)ブラックボックスが推論時に表現を構築するためのトレーニング例,という,ポストホックな説明技術の2つの重要な拡張を導入する。
既存の機能やサンプル重要メソッドを取り囲む単純なラッパーとして、私たちの拡張をうまく実装できることを実証します。
我々は、異なる教師なしタスクで訓練された様々なオートエンコーダによって学習された表現空間の質的かつ定量的比較を通して、ラベルのない説明可能性パラダイムの有用性を示す。
関連論文リスト
- Class-aware and Augmentation-free Contrastive Learning from Label Proportion [19.41511190742059]
Label Proportion(LLP)からの学習(Learning from Label Proportion)は、トレーニングデータを事前定義されたインスタンスのバッグに整理する、弱教師付き学習シナリオである。
本稿では,インスタンスレベルでのクラス認識管理を導入した拡張フリーコントラストフレームワークTabLLP-BDCを提案する。
我々のソリューションは、2段階のBag Different Contrastive(BDC)学習機構を備えており、堅牢なクラス認識インスタンスレベルの監視を確立する。
論文 参考訳(メタデータ) (2024-08-13T09:04:47Z) - A Unified Label-Aware Contrastive Learning Framework for Few-Shot Named Entity Recognition [6.468625143772815]
ラベル認識型トークンレベルのコントラスト学習フレームワークを提案する。
提案手法は,ラベルのセマンティクスを接尾辞のプロンプトとして活用することでコンテキストを豊かにする。
コンテキストネイティブとコンテキストラベルの対比学習目標を同時に最適化する。
論文 参考訳(メタデータ) (2024-04-26T06:19:21Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - An interpretable semi-supervised classifier using two different
strategies for amended self-labeling [0.0]
半教師付き分類技術は、学習期間中にラベル付きデータとラベルなしデータを組み合わせる。
ブラックボックスを用いて,不足するクラスラベルとホワイトボックスを推定し,最終的な予測を説明する,解釈可能な自己ラベル付きグレーボックス分類器を提案する。
論文 参考訳(メタデータ) (2020-01-26T19:37:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。