論文の概要: Valid Explanations for Learning to Rank Models
- arxiv url: http://arxiv.org/abs/2004.13972v3
- Date: Sun, 17 May 2020 15:46:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:16:54.433033
- Title: Valid Explanations for Learning to Rank Models
- Title(参考訳): ランキングモデル学習のための妥当性説明
- Authors: Jaspreet Singh, Zhenye Wang, Megha Khosla, and Avishek Anand
- Abstract要約: 本稿では,入力特徴の少数のサブセットをランキング決定の理由として同定するモデルに依存しない局所的説明法を提案する。
我々は,選択された特徴の有無に基づいて,ランク付けに特化して説明の妥当性と完全性という新たな概念を導入する。
- 参考スコア(独自算出の注目度): 5.320400771224103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-to-rank (LTR) is a class of supervised learning techniques that
apply to ranking problems dealing with a large number of features.
The popularity and widespread application of LTR models in prioritizing
information in a variety of domains makes their scrutability vital in today's
landscape of fair and transparent learning systems. However, limited work
exists that deals with interpreting the decisions of learning systems that
output rankings. In this paper we propose a model agnostic local explanation
method that seeks to identify a small subset of input features as explanation
to a ranking decision. We introduce new notions of validity and completeness of
explanations specifically for rankings, based on the presence or absence of
selected features, as a way of measuring goodness. We devise a novel
optimization problem to maximize validity directly and propose greedy
algorithms as solutions. In extensive quantitative experiments we show that our
approach outperforms other model agnostic explanation approaches across
pointwise, pairwise and listwise LTR models in validity while not compromising
on completeness.
- Abstract(参考訳): learning-to-rank(ltr)は、多数の機能を扱う問題をランク付けするための教師付き学習テクニックのクラスである。
様々な分野の情報優先順位付けにおけるltrモデルの人気と普及は、今日の公正で透明な学習システムの展望において、その精査性が不可欠である。
しかし、ランキングを出力する学習システムの判断を解釈する限定的な作業が存在する。
本稿では,入力特徴の少数のサブセットをランキング決定の理由として同定するモデル非依存的局所的説明法を提案する。
評価方法として,選択された特徴の有無に基づいて,ランク付け専用の説明の妥当性と完全性の新たな概念を導入する。
妥当性を直接最大化するための新しい最適化問題を考案し,解としてグリードアルゴリズムを提案する。
広範に定量的な実験を行った結果,本手法は完全性を損なうことなく,ポイントワイド,ペアワイド,リストワイドのLTRモデルにまたがる他のモデル非依存的説明手法よりも優れていることがわかった。
関連論文リスト
- Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Rank-LIME: Local Model-Agnostic Feature Attribution for Learning to Rank [16.780058676633914]
Rank-LIMEは、モデルに依存しない局所的、ポストホック的特徴属性法である。
我々は,新しい相関に基づく摂動,微分可能なランキング損失関数を導入し,ランキングに基づく付加的特徴帰属モデルを評価するための新しい指標を導入する。
論文 参考訳(メタデータ) (2022-12-24T12:14:32Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Evaluating Local Model-Agnostic Explanations of Learning to Rank Models
with Decision Paths [0.0]
学習からランクまでのモデルの局所的な説明は、モデルによって予測される1つのデータポイントのランキングに寄与する最も重要な特徴を抽出すると考えられている。
いずれの手法も、選択された類似度指標がAUCスコアまたはスピアマンのランク相関である場合に、許容できる説明精度を達成できないことを示す。
論文 参考訳(メタデータ) (2022-03-04T13:11:31Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。