論文の概要: Learning from Exemplary Explanations
- arxiv url: http://arxiv.org/abs/2307.06026v1
- Date: Wed, 12 Jul 2023 09:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 13:39:11.638808
- Title: Learning from Exemplary Explanations
- Title(参考訳): 模範的説明から学ぶ
- Authors: Misgina Tsighe Hagos, Kathleen M. Curran, Brian Mac Namee
- Abstract要約: XBLはインタラクティブ機械学習(Interactive Machine Learning, IML)の一種で、モデル説明に基づいて収集されたユーザフィードバックを通じてモデル精錬アプローチを提供する。
我々は2つの入力インスタンスとそれに対応するGradCAMモデルの説明を、XBLを実装するための模範的な説明として利用する新しいアプローチを導入する。
医用画像分類タスクを用いて、人間の入力を最小限に抑えることで説明能力(+0.02,+3%)が向上し、対話を伴わないモデルと比較した場合の分類性能(-0.04,4%)が低下することが実証された。
- 参考スコア(独自算出の注目度): 4.039245878626345
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: eXplanation Based Learning (XBL) is a form of Interactive Machine Learning
(IML) that provides a model refining approach via user feedback collected on
model explanations. Although the interactivity of XBL promotes model
transparency, XBL requires a huge amount of user interaction and can become
expensive as feedback is in the form of detailed annotation rather than simple
category labelling which is more common in IML. This expense is exacerbated in
high stakes domains such as medical image classification. To reduce the effort
and expense of XBL we introduce a new approach that uses two input instances
and their corresponding Gradient Weighted Class Activation Mapping (GradCAM)
model explanations as exemplary explanations to implement XBL. Using a medical
image classification task, we demonstrate that, using minimal human input, our
approach produces improved explanations (+0.02, +3%) and achieves reduced
classification performance (-0.04, -4%) when compared against a model trained
without interactions.
- Abstract(参考訳): eXplanation Based Learning (XBL) はインタラクティブ機械学習(Interactive Machine Learning, IML)の一種で、モデル説明に基づいて収集されたユーザフィードバックを通じてモデル精製アプローチを提供する。
XBLの相互作用性はモデルの透明性を促進するが、XBLは膨大な量のユーザインタラクションを必要とし、IMLでより一般的な単純なカテゴリラベリングではなく、詳細なアノテーションの形でフィードバックされるため、コストがかかる可能性がある。
この費用は医用画像分類のような高利害率領域で悪化する。
2つの入力インスタンスとそれに対応するGradCAM(Gradient Weighted Class Activation Mapping)モデルの説明を、XBLを実装するための模範的な説明として利用する新しいアプローチを導入する。
医用画像分類タスクを用いて、人間の入力を最小限に抑えることで説明能力(+0.02,+3%)が向上し、相互作用のないモデルと比較した場合の分類性能(-0.04,-4%)が低下することを示した。
関連論文リスト
- Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Improving Input-label Mapping with Demonstration Replay for In-context
Learning [67.57288926736923]
In-context Learning (ICL)は、大規模な自己回帰言語モデルの出現する能力である。
Sliding Causal Attention (RdSca) と呼ばれる新しいICL法を提案する。
ICL実験において,本手法は入力ラベルマッピングを大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-10-30T14:29:41Z) - Multi-Semantic Fusion Model for Generalized Zero-Shot Skeleton-Based
Action Recognition [32.291333054680855]
一般化ゼロショットスケルトンに基づく行動認識(GZSSAR)は、コンピュータビジョンコミュニティにおいて新たな課題である。
GZSSARの性能向上のためのマルチセマンティック・フュージョン(MSF)モデルを提案する。
論文 参考訳(メタデータ) (2023-09-18T09:00:25Z) - Distance-Aware eXplanation Based Learning [5.578004730855819]
本稿では,学習者が学習データセットの重要な領域に集中するように指導するカテゴリー的損失に対して,距離認識による説明損失を追加する手法を提案する。
既存のメトリクスを用いたモデルの評価に加えて,視覚的特徴量に基づくモデル説明を評価するための解釈可能性指標を提案する。
論文 参考訳(メタデータ) (2023-09-11T15:33:00Z) - Unlearning Spurious Correlations in Chest X-ray Classification [4.039245878626345]
我々は、Covid-19胸部X線データセットを用いてディープラーニングモデルをトレーニングする。
このデータセットが、意図しない境界領域によって、どのようにして急激な相関をもたらすかを示す。
XBLは、モデル説明を利用して、対話的に引き起こされる突発的相関を利用して、解釈可能性を超えたディープラーニングアプローチである。
論文 参考訳(メタデータ) (2023-08-02T12:59:10Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Momentum Pseudo-Labeling for Semi-Supervised Speech Recognition [55.362258027878966]
本稿では,半教師付き音声認識のための簡易かつ効果的な手法として,モーメント擬似ラベル(MPL)を提案する。
MPLは、平均的な教師メソッドにインスパイアされて、相互に相互作用し、学習するオンラインとオフラインの2つのモデルで構成されている。
実験の結果,MPLはベースモデルよりも効果的に改善され,様々な半教師付きシナリオに拡張可能であることが示された。
論文 参考訳(メタデータ) (2021-06-16T16:24:55Z) - Learning Slice-Aware Representations with Mixture of Attentions [38.74444452556773]
この研究は、最近のスライスベース学習(SBL)トポチェン2019スライスを拡張し、注意(MoA)を混合してスライス対応の注意的二重表現を学習する。
2つの自然言語理解タスクを持つ監視されたスライスに対して,MoAアプローチがベースライン手法と元のSBLアプローチより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-04T09:22:24Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。