論文の概要: Evaluating the Faithfulness of Saliency-based Explanations for Deep
Learning Models for Temporal Colour Constancy
- arxiv url: http://arxiv.org/abs/2211.07982v1
- Date: Tue, 15 Nov 2022 08:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 13:51:23.094861
- Title: Evaluating the Faithfulness of Saliency-based Explanations for Deep
Learning Models for Temporal Colour Constancy
- Title(参考訳): 時間的カラー一貫性のための深層学習モデルにおけるサリエンシに基づく説明の忠実度の評価
- Authors: Matteo Rizzo, Cristina Conati, Daesik Jang, Hui Hu
- Abstract要約: 注意力など、塩分ベースの戦略による深層モデルの拡大は、ブラックボックスモデルの意思決定プロセスの理解を深める助けになると主張されている。
注意が忠実さを達成できない一方で、特定のモデル内視覚的サリエンシである信頼が成功することを示す。
- 参考スコア(独自算出の注目度): 2.4087148947930634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The opacity of deep learning models constrains their debugging and
improvement. Augmenting deep models with saliency-based strategies, such as
attention, has been claimed to help get a better understanding of the
decision-making process of black-box models. However, some recent works
challenged saliency's faithfulness in the field of Natural Language Processing
(NLP), questioning attention weights' adherence to the true decision-making
process of the model. We add to this discussion by evaluating the faithfulness
of in-model saliency applied to a video processing task for the first time,
namely, temporal colour constancy. We perform the evaluation by adapting to our
target task two tests for faithfulness from recent NLP literature, whose
methodology we refine as part of our contributions. We show that attention
fails to achieve faithfulness, while confidence, a particular type of in-model
visual saliency, succeeds.
- Abstract(参考訳): ディープラーニングモデルの不透明さは、デバッグと改善を制限する。
ブラックボックスモデルの意思決定プロセスの理解を深める上で、注意力などのサリエンシーに基づく戦略による深層モデルの拡張が有効であると主張されている。
しかし、近年のいくつかの研究は、自然言語処理(NLP)分野におけるサリエンシの忠実さに異議を唱え、モデルの真の意思決定プロセスへの注意重みの固執を疑問視している。
本議論は,映像処理タスクに適用されるモデル内サリエンシーの忠実性,すなわち時間的色彩コンテンシを初めて評価することによる。
対象とする課題に適応して評価を行い,最近のNLP文献からの忠実度を2つのテストで評価する。
注意が忠実さを達成できない一方で、特定のモデル内視覚的サリエンシである信頼が成功することを示す。
関連論文リスト
- Counterfactuals As a Means for Evaluating Faithfulness of Attribution Methods in Autoregressive Language Models [6.394084132117747]
本稿では,自己回帰型言語モデルに対する帰属手法の忠実度を評価するために,反事実生成を利用する手法を提案する。
提案手法は, 流動性, 分散性, 分散性, 分散性, 評価プロトコルの信頼性を向上する。
論文 参考訳(メタデータ) (2024-08-21T00:17:59Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
本稿では,ステア画像生成のための情報理論アライメント尺度を用いた新しい手法を提案する。
提案手法は最先端の手法よりも優れているが,MIを推定するためには事前学習されたデノナイジングネットワークを必要としない。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Expedited Training of Visual Conditioned Language Generation via
Redundancy Reduction [61.16125290912494]
$textEVL_textGen$は、視覚条件付き言語生成モデルの事前トレーニング用に設計されたフレームワークである。
提案手法は,視覚言語モデルの学習を5倍に加速させるが,全体的な性能に顕著な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-10-05T03:40:06Z) - Zero-shot Visual Question Answering with Language Model Feedback [83.65140324876536]
知識に基づく視覚的質問応答(VQA)のための言語モデル指導型キャプションアプローチ LAMOC を提案する。
提案手法では,予備学習言語モデル (PLM) である回答予測モデルの文脈として,キャプションモデルによって生成されたキャプションを用いる。
論文 参考訳(メタデータ) (2023-05-26T15:04:20Z) - Should We Attend More or Less? Modulating Attention for Fairness [11.91250446389124]
社会的バイアスの伝播において,現在最先端のNLPモデルにおいて広く用いられている手法である注意の役割について検討する。
トレーニング後のモデルフェアネスを改善するために,注目度を変調する新しい手法を提案する。
本結果から,テキスト分類や生成タスクにおいて,公平性の増加と性能損失の最小化が示唆された。
論文 参考訳(メタデータ) (2023-05-22T14:54:21Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。