論文の概要: Interpretable Learning-to-Rank with Generalized Additive Models
- arxiv url: http://arxiv.org/abs/2005.02553v2
- Date: Thu, 14 May 2020 18:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:14:58.897697
- Title: Interpretable Learning-to-Rank with Generalized Additive Models
- Title(参考訳): 一般化加法モデルを用いた解釈可能な学習モデル
- Authors: Honglei Zhuang, Xuanhui Wang, Michael Bendersky, Alexander Grushetsky,
Yonghui Wu, Petr Mitrichev, Ethan Sterling, Nathan Bell, Walker Ravina, Hai
Qian
- Abstract要約: ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
- 参考スコア(独自算出の注目度): 78.42800966500374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability of learning-to-rank models is a crucial yet relatively
under-examined research area. Recent progress on interpretable ranking models
largely focuses on generating post-hoc explanations for existing black-box
ranking models, whereas the alternative option of building an intrinsically
interpretable ranking model with transparent and self-explainable structure
remains unexplored. Developing fully-understandable ranking models is necessary
in some scenarios (e.g., due to legal or policy constraints) where post-hoc
methods cannot provide sufficiently accurate explanations. In this paper, we
lay the groundwork for intrinsically interpretable learning-to-rank by
introducing generalized additive models (GAMs) into ranking tasks. Generalized
additive models (GAMs) are intrinsically interpretable machine learning models
and have been extensively studied on regression and classification tasks. We
study how to extend GAMs into ranking models which can handle both item-level
and list-level features and propose a novel formulation of ranking GAMs. To
instantiate ranking GAMs, we employ neural networks instead of traditional
splines or regression trees. We also show that our neural ranking GAMs can be
distilled into a set of simple and compact piece-wise linear functions that are
much more efficient to evaluate with little accuracy loss. We conduct
experiments on three data sets and show that our proposed neural ranking GAMs
can achieve significantly better performance than other traditional GAM
baselines while maintaining similar interpretability.
- Abstract(参考訳): 学習からランクへのモデルの解釈性は重要な研究分野であるが、比較的控えめな研究領域である。
解釈可能なランキングモデルに関する最近の進歩は、既存のブラックボックスランキングモデルに対するポストホックな説明の生成に重点を置いているが、透明で自己説明可能な構造を持つ内在的に解釈可能なランキングモデルを構築する別の選択肢は、まだ探究されていない。
完全な理解可能なランキングモデルの開発は、ポストホックな方法が十分に正確な説明を提供しないいくつかのシナリオ(例えば、法律や政策上の制約)において必要である。
本稿では,一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を定めている。
一般化加法モデル(GAM)は本質的に解釈可能な機械学習モデルであり、回帰および分類タスクについて広く研究されている。
項目レベルとリストレベルの両方の特徴を扱えるランキングモデルにGAMを拡張する方法について検討し、ランキングモデルの新しい定式化を提案する。
ランキングガンをインスタンス化するために、従来のスプラインや回帰木の代わりにニューラルネットワークを使用します。
また, ニューラルネットワークによるGAMを, 精度損失が少なく, より効率的に評価できる, 単純かつコンパクトな線形関数の集合に抽出できることも示している。
3つのデータセットについて実験を行い,提案するニューラルランキングガンマは,類似の解釈性を維持しつつ,従来のガンマベースラインよりも有意に優れた性能が得られることを示した。
関連論文リスト
- GAMformer: In-Context Learning for Generalized Additive Models [53.08263343627232]
本稿では,1つの前方パスにおけるGAMの形状関数を推定するために,文脈内学習を利用した最初の手法であるGAMformerを紹介する。
実験の結果,GAMformerは様々な分類ベンチマークにおいて,他の主要なGAMと同等に動作することがわかった。
論文 参考訳(メタデータ) (2024-10-06T17:28:20Z) - Towards interpretable-by-design deep learning algorithms [11.154826546951414]
I という名前のフレームワークは、標準教師付き分類問題をトレーニングデータから派生したプロトタイプのセットに類似した関数に再キャストする。
本稿では,そのようなDLモデルを概念的にシンプルで説明可能なプロトタイプモデルにすることができることを示す。
論文 参考訳(メタデータ) (2023-11-19T18:40:49Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Rank-LIME: Local Model-Agnostic Feature Attribution for Learning to Rank [16.780058676633914]
Rank-LIMEは、モデルに依存しない局所的、ポストホック的特徴属性法である。
我々は,新しい相関に基づく摂動,微分可能なランキング損失関数を導入し,ランキングに基づく付加的特徴帰属モデルを評価するための新しい指標を導入する。
論文 参考訳(メタデータ) (2022-12-24T12:14:32Z) - Rethinking Log Odds: Linear Probability Modelling and Expert Advice in
Interpretable Machine Learning [8.831954614241234]
線形化付加モデル(LAM)とSubscaleHedgeの2つの拡張を含む、解釈可能な機械学習モデルのファミリーを紹介する。
LAMは、GAM(General Additive Models)におけるユビキタスなロジスティックリンク関数を置き換えるものであり、SubscaleHedgeはサブスケールと呼ばれる機能のサブセットでトレーニングされたベースモデルを組み合わせるためのエキスパートアドバイスアルゴリズムである。
論文 参考訳(メタデータ) (2022-11-11T17:21:57Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Scalable Rule-Based Representation Learning for Interpretable
Classification [12.736847587988853]
ルールベースのLearner Representation (RRL)は、データ表現と分類のための解釈可能な非ファジィ規則を学習する。
RRLは容易に調整でき、異なるシナリオの分類精度とモデルの複雑さのトレードオフを得ることができる。
論文 参考訳(メタデータ) (2021-09-30T13:07:42Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。