論文の概要: An Interpretable Loan Credit Evaluation Method Based on Rule
Representation Learner
- arxiv url: http://arxiv.org/abs/2304.00731v1
- Date: Mon, 3 Apr 2023 05:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:35:23.495698
- Title: An Interpretable Loan Credit Evaluation Method Based on Rule
Representation Learner
- Title(参考訳): 規則表現学習者に基づく解釈可能なローン債権評価方法
- Authors: Zihao Chen, Xiaomeng Wang, Yuanjiang Huang, Tao Jia
- Abstract要約: 我々は、Lending ClubデータセットのRRL(Rule Representation)に基づいて、本質的に解釈可能なモデルを設計する。
トレーニング中、私たちは以前の研究から、バイナリウェイトを効果的にトレーニングするためのトリックを学びました。
本モデルは,ポストホック法により生成された説明の正当性を検証するために用いられる。
- 参考スコア(独自算出の注目度): 8.08640000394814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interpretability of model has become one of the obstacles to its wide
application in the high-stake fields. The usual way to obtain interpretability
is to build a black-box first and then explain it using the post-hoc methods.
However, the explanations provided by the post-hoc method are not always
reliable. Instead, we design an intrinsically interpretable model based on
RRL(Rule Representation Learner) for the Lending Club dataset. Specifically,
features can be divided into three categories according to their
characteristics of themselves and build three sub-networks respectively, each
of which is similar to a neural network with a single hidden layer but can be
equivalently converted into a set of rules. During the training, we learned
tricks from previous research to effectively train binary weights. Finally, our
model is compared with the tree-based model. The results show that our model is
much better than the interpretable decision tree in performance and close to
other black-box, which is of practical significance to both financial
institutions and borrowers. More importantly, our model is used to test the
correctness of the explanations generated by the post-hoc method, the results
show that the post-hoc method is not always reliable.
- Abstract(参考訳): モデルの解釈性は、ハイステイクフィールドにおける幅広い応用の障害の1つとなっている。
解釈可能性を得る一般的な方法は、まずブラックボックスを構築し、次にポストホックメソッドを使って説明することである。
しかし,ポストホック法による説明は必ずしも信頼できない。
代わりに、レンディングクラブデータセットのためのrrl(rule representation learner)に基づいた本質的な解釈可能なモデルを設計する。
具体的には、特徴はそれぞれの特性に応じて3つのカテゴリに分けられ、それぞれ3つのサブネットワークを構築することができ、それぞれが単一の隠蔽層を持つニューラルネットワークに似ているが、等価にルールのセットに変換できる。
トレーニング中、私たちは以前の研究からバイナリ重みを効果的にトレーニングするためのトリックを学びました。
最後に,本モデルと木モデルを比較した。
その結果, 金融機関と借入業者の両方にとって実用上重要なブラックボックスに近い, 性能上, 解釈可能な決定木よりも, はるかに優れたモデルが得られた。
さらに,本モデルはポストホック法で生成された説明の正確性をテストするために用いられ,ポストホック法が必ずしも信頼できるとは限らないことを示す。
関連論文リスト
- Inherently Interpretable Tree Ensemble Learning [7.868733904112288]
浅い決定木をベース学習として使用すると、アンサンブル学習アルゴリズムが本質的に解釈可能であることを示す。
木アンサンブルを固有の解釈可能性を持つ機能的ANOVA表現に変換する解釈アルゴリズムを開発した。
シミュレーションと実世界のデータセットを用いた実験により,提案手法はモデル解釈と予測性能のトレードオフを良くすることを示した。
論文 参考訳(メタデータ) (2024-10-24T18:58:41Z) - RewardBench: Evaluating Reward Models for Language Modeling [100.28366840977966]
本稿では,報酬モデル評価のためのベンチマークデータセットとコードベースであるRewardBenchを紹介する。
データセットは、チャット、推論、安全性にまたがる、プロンプト・チョーゼン・リジェクトされたトリオのコレクションである。
RewardBenchのリーダーボードでは、様々な方法で訓練された報酬モデルを評価する。
論文 参考訳(メタデータ) (2024-03-20T17:49:54Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Using Decision Tree as Local Interpretable Model in Autoencoder-based
LIME [0.76146285961466]
本稿では、ALIMEと呼ばれる局所的解釈可能性のためのオートエンコーダに基づくアプローチの修正版を提案する。
本稿では,線形モデルの代わりに決定木を解釈可能なモデルとして用いた新しい手法を提案する。
ALIMEと比較して、実験は安定性と局所忠実度に有意な結果を示し、解釈可能性にも改善された。
論文 参考訳(メタデータ) (2022-04-07T09:39:02Z) - Consistent Explanations by Contrastive Learning [15.80891456718324]
Grad-CAMのようなポストホック評価技術により、人間は特定のネットワーク決定に責任のある空間領域を検査することができる。
より一貫した説明を生み出すためにモデルをトレーニングするための新しいトレーニング手法を提案する。
提案手法であるContrastive Grad-CAM Consistency (CGC) は,人間のアノテーションと一致したGrad-CAM解釈熱マップを生成する。
論文 参考訳(メタデータ) (2021-10-01T16:49:16Z) - Thought Flow Nets: From Single Predictions to Trains of Model Thought [39.619001911390804]
人間が複雑な問題を解くと、すぐに決定が下されることはめったにない。
その代わり、彼らは直感的な決定から始まり、間違いを見つけ、矛盾を解決し、異なる仮説の間を飛び交う。
論文 参考訳(メタデータ) (2021-07-26T13:56:37Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。