論文の概要: LIMEcraft: Handcrafted superpixel selection and inspection for Visual
eXplanations
- arxiv url: http://arxiv.org/abs/2111.08094v1
- Date: Mon, 15 Nov 2021 21:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 14:08:42.569833
- Title: LIMEcraft: Handcrafted superpixel selection and inspection for Visual
eXplanations
- Title(参考訳): LIMEcraft: Visual eXplanationsのための手作りスーパーピクセル選択と検査
- Authors: Weronika Hryniewska, Adrianna Grudzie\'n, Przemys{\l}aw Biecek
- Abstract要約: LIMEcraftは、ユーザがインタラクティブにセマンティックに一貫性のある領域を選択し、イメージインスタンスの予測を徹底的に検証することを可能にする。
本手法は,モデルバイアスを示す画像のモデルフェアネスを検査することにより,モデルの安全性を向上させる。
- 参考スコア(独自算出の注目度): 3.0036519884678894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increased interest in deep learning applications, and their
hard-to-detect biases result in the need to validate and explain complex
models. However, current explanation methods are limited as far as both the
explanation of the reasoning process and prediction results are concerned. They
usually only show the location in the image that was important for model
prediction. The lack of possibility to interact with explanations makes it
difficult to verify and understand exactly how the model works. This creates a
significant risk when using the model. It is compounded by the fact that
explanations do not take into account the semantic meaning of the explained
objects. To escape from the trap of static explanations, we propose an approach
called LIMEcraft that allows a user to interactively select semantically
consistent areas and thoroughly examine the prediction for the image instance
in case of many image features. Experiments on several models showed that our
method improves model safety by inspecting model fairness for image pieces that
may indicate model bias. The code is available at:
http://github.com/MI2DataLab/LIMEcraft
- Abstract(参考訳): ディープラーニングアプリケーションへの関心が高まり、その検出の難しいバイアスにより、複雑なモデルの検証と説明が必要になる。
しかし、現在の説明方法は、推論過程の説明と予測結果の両方に関して限定されている。
それらは通常、モデル予測に重要な画像の場所のみを表示する。
説明と対話する可能性の欠如は、モデルがどのように機能するかを正確に検証し理解することを難しくする。
これにより、モデルを使用する場合、大きなリスクが生じる。
説明が説明対象の意味的意味を考慮しないという事実によって複合化される。
静的な説明の罠から逃れるために,ユーザが対話的に意味的に一貫した領域を選択できるlimecraftという手法を提案し,多数の画像特徴の場合には画像インスタンスの予測を徹底的に検討する。
複数のモデルを用いた実験により,モデルバイアスを示唆する画像片のフェアネスを検査することにより,モデル安全性が向上した。
コードは、http://github.com/MI2DataLab/LIMEcraftで入手できる。
関連論文リスト
- OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - SLISEMAP: Explainable Dimensionality Reduction [0.0]
ブラックボックス制御学習モデルの既存の説明方法は、一般に、特定のデータ項目のモデル動作を説明するローカルモデルを構築することで機能する。
本研究では,すべてのデータ項目の局所的な説明を探索し,モデル空間を二次元的に可視化する新しい多様体可視化手法であるSLISEMAPを提案する。
SLISEMAPはブラックボックスの回帰モデルや分類モデルの説明や理解に使用できる高速で安定した可視化を提供する。
論文 参考訳(メタデータ) (2022-01-12T13:06:21Z) - Global explainability in aligned image modalities [0.0]
本研究では,各画素位置が画像オブジェクト上の類似相対位置を表すように,自然に整列する画像モダリティに着目した。
本稿では,ラベルやグローバルな説明を得るための簡単な方法として,画像に関する説明の画素単位での集約を提案する。
そして、これらの手法を、自然に整列した超広視野網膜画像に適用する。
論文 参考訳(メタデータ) (2021-12-17T16:05:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Towards Visually Explaining Similarity Models [29.704524987493766]
本稿では,画像類似度予測のための勾配に基づく視覚的注意を生成する手法を提案する。
学習した機能の埋め込みにのみ依存することにより、我々のアプローチがCNNベースの類似性アーキテクチャのあらゆる種類に適用可能であることを示す。
得られたアテンションマップは、単に解釈可能性だけでなく、新たなトレーニング可能な制約でモデル学習プロセス自体に注入可能であることを示す。
論文 参考訳(メタデータ) (2020-08-13T17:47:41Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。