論文の概要: Beyond Faithfulness: A Framework to Characterize and Compare Saliency
Methods
- arxiv url: http://arxiv.org/abs/2206.02958v1
- Date: Tue, 7 Jun 2022 01:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:43:40.153274
- Title: Beyond Faithfulness: A Framework to Characterize and Compare Saliency
Methods
- Title(参考訳): 誠実性を超えて: 敬礼法を特徴付けて比較する枠組み
- Authors: Angie Boggust, Harini Suresh, Hendrik Strobelt, John V. Guttag, Arvind
Satyanarayan
- Abstract要約: 正当性法は、各入力機能が機械学習モデルの予測にどれほど重要かを計算する。
本研究では,9次元の枠組みを記述し,サリエンシ法の特性を特徴付け比較する。
これらの次元は、サリエンシ法を記述し比較するための粒度の語彙を与えてくれる。
- 参考スコア(独自算出の注目度): 34.38335172204263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency methods calculate how important each input feature is to a machine
learning model's prediction, and are commonly used to understand model
reasoning. "Faithfulness", or how fully and accurately the saliency output
reflects the underlying model, is an oft-cited desideratum for these methods.
However, explanation methods must necessarily sacrifice certain information in
service of user-oriented goals such as simplicity. To that end, and akin to
performance metrics, we frame saliency methods as abstractions: individual
tools that provide insight into specific aspects of model behavior and entail
tradeoffs. Using this framing, we describe a framework of nine dimensions to
characterize and compare the properties of saliency methods. We group these
dimensions into three categories that map to different phases of the
interpretation process: methodology, or how the saliency is calculated;
sensitivity, or relationships between the saliency result and the underlying
model or input; and, perceptibility, or how a user interprets the result. As we
show, these dimensions give us a granular vocabulary for describing and
comparing saliency methods -- for instance, allowing us to develop "saliency
cards" as a form of documentation, or helping downstream users understand
tradeoffs and choose a method for a particular use case. Moreover, by situating
existing saliency methods within this framework, we identify opportunities for
future work, including filling gaps in the landscape and developing new
evaluation metrics.
- Abstract(参考訳): saliencyメソッドは、各入力機能が機械学習モデルの予測にどれほど重要であるかを計算し、一般的にモデルの推論を理解するために使用される。
正当性(Faithfulness)とは、これらの方法において、正当性出力が基礎となるモデルをどのように完全に正確に反映するかである。
しかし、説明手法は必ずしも単純さなどのユーザー指向の目的のために特定の情報を犠牲にしなければならない。
その目的のために、私たちは、パフォーマンスメトリクスと同様に、サラレンシーメソッドを抽象化として、モデル行動の特定の側面に関する洞察を提供し、トレードオフを伴います。
このフレーミングを用いて、サリエンシ法の特性を特徴づけ、比較する9次元の枠組みを記述する。
これらの次元を、解釈過程の異なるフェーズにマッピングする3つのカテゴリに分類する。方法論、または、サリエンシの計算方法、感度、サリエンシの結果と基礎となるモデルまたは入力の関係、そして、ユーザがその結果をどのように解釈するか。
例えば、ドキュメンテーションの形式として"saliency card"を開発することや、下流のユーザがトレードオフを理解し、特定のユースケースのためにメソッドを選択するのを支援することです。
さらに,このフレームワークにおける既存のサリエンシー手法の活用によって,景観のギャップを埋めることや,新たな評価指標の開発など,今後の作業の機会を見出した。
関連論文リスト
- Identifying Reasons for Bias: An Argumentation-Based Approach [2.9465623430708905]
そこで本研究では, 類似した個人と比較して, 個人が別々に分類される理由を決定するための, モデルに依存しない議論に基づく新しい手法を提案する。
フェアネス文献でよく用いられる2つのデータセットを用いて本手法の評価を行い,バイアスの同定に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-25T09:47:15Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Reinforced Labels: Multi-Agent Deep Reinforcement Learning for
Point-Feature Label Placement [0.0]
データビジュアライゼーションにおける複雑なタスクである配置のラベル付けにReinforcement Learning(RL)を導入する。
提案手法は,多エージェント深層強化学習を用いてラベル配置戦略を学習する。
提案手法により訓練された戦略は,未学習エージェントのランダムな戦略よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-02T16:18:00Z) - Using Active Learning Methods to Strategically Select Essays for
Automated Scoring [0.0]
本研究の目的は,3つのアクティブラーニング手法を記述し,評価することである。
3つのアクティブな学習方法は不確実性に基づく、トポロジに基づく、ハイブリッドな方法である。
これら3つの手法はいずれも強い結果をもたらし、トポロジカルな手法は最も効率的な分類を生み出した。
論文 参考訳(メタデータ) (2023-01-02T12:46:10Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z) - PONE: A Novel Automatic Evaluation Metric for Open-Domain Generative
Dialogue Systems [48.99561874529323]
オープンドメイン生成対話システムの評価には3つの方法がある。
体系的な比較が欠如しているため、どの指標がより効果的であるかは明らかでない。
本稿では,人間の判断との相関性を大幅に改善できる,新しい,実現可能な学習基準を提案する。
論文 参考訳(メタデータ) (2020-04-06T04:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。