論文の概要: RuDi: Explaining Behavior Sequence Models by Automatic Statistics
Generation and Rule Distillation
- arxiv url: http://arxiv.org/abs/2208.07211v2
- Date: Tue, 16 Aug 2022 12:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 10:24:04.594995
- Title: RuDi: Explaining Behavior Sequence Models by Automatic Statistics
Generation and Rule Distillation
- Title(参考訳): RuDi: 自動統計生成と規則蒸留による行動系列モデルの説明
- Authors: Yao Zhang, Yun Xiong, Yiheng Sun, Caihua Shan, Tian Lu, Hui Song,
Yangyong Zhu
- Abstract要約: 有効だがブラックボックスモデルと透明なルールモデルとのギャップを埋める。
ブラックボックス教師モデルの知識をルールベースの学生モデルに抽出する2段階の方法であるRuDiを提案する。
- 参考スコア(独自算出の注目度): 18.913947750449115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk scoring systems have been widely deployed in many applications, which
assign risk scores to users according to their behavior sequences. Though many
deep learning methods with sophisticated designs have achieved promising
results, the black-box nature hinders their applications due to fairness,
explainability, and compliance consideration. Rule-based systems are considered
reliable in these sensitive scenarios. However, building a rule system is
labor-intensive. Experts need to find informative statistics from user behavior
sequences, design rules based on statistics and assign weights to each rule. In
this paper, we bridge the gap between effective but black-box models and
transparent rule models. We propose a two-stage method, RuDi, that distills the
knowledge of black-box teacher models into rule-based student models. We design
a Monte Carlo tree search-based statistics generation method that can provide a
set of informative statistics in the first stage. Then statistics are composed
into logical rules with our proposed neural logical networks by mimicking the
outputs of teacher models. We evaluate RuDi on three real-world public datasets
and an industrial dataset to demonstrate its effectiveness.
- Abstract(参考訳): リスクスコアシステムは、多くのアプリケーションに広くデプロイされており、ユーザの行動シーケンスに応じてリスクスコアを割り当てている。
高度な設計を持つ多くのディープラーニング手法は有望な成果を上げているが、ブラックボックスの性質は、公正性、説明可能性、コンプライアンスの考慮により、それらの応用を妨げる。
ルールベースのシステムは、これらのセンシティブなシナリオでは信頼できると考えられている。
しかし、ルールシステムの構築は労働集約的です。
専門家は、ユーザの行動シーケンス、統計に基づくルールの設計、各ルールへの重み付けから有益な統計を見つける必要がある。
本稿では,効率的なブラックボックスモデルと透過的ルールモデルとのギャップを橋渡しする。
そこで本研究では,黒箱教師モデルの知識をルールベース学習モデルに融合する二段階法rudiを提案する。
モンテカルロ木探索に基づく統計生成手法を試作し,第1段階において情報的統計値のセットを提供する。
次に,教師モデルの出力を模倣して,提案するニューラル論理ネットワークを用いた論理規則を構成する。
rudiを実世界の3つのデータセットと産業用データセットで評価し,その効果を実証した。
関連論文リスト
- Inference-Time Rule Eraser: Fair Recognition via Distilling and Removing Biased Rules [16.85221824455542]
機械学習モデルは、しばしば性別、人種、その他の社会的属性などのバイアスのある特徴に基づいて予測を行う。
この問題に対処する従来のアプローチは、公正さを意識した最適化目標を持つニューラルネットワークの再トレーニングや微調整を含む。
フェアネス問題に対処する新しい手法である推論時ルール消去器(Eraser)を紹介する。
論文 参考訳(メタデータ) (2024-04-07T05:47:41Z) - Manipulating and Mitigating Generative Model Biases without Retraining [49.60774626839712]
モデル再学習を伴わないリッチ言語埋め込み空間を利用して,T2Iモデルバイアスの動的かつ効率的な操作を提案する。
基礎ベクトル代数を利用することで、T2Iモデルの出力をシフトさせる言語モデルの埋め込みを便利に制御できることを示す。
副産物として、この制御は正確なプロンプト工学の一形態として機能し、通常のテキストプロンプトを使って一般的には理解できない画像を生成する。
論文 参考訳(メタデータ) (2024-04-03T07:33:30Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models [58.78043959556283]
本研究は,Low-Rank Adaptation (LoRA)ファインチューニング手法を含む,異なる微調整手法によるモデルの挙動について検討する。
解析の結果、LoRAファインチューニングは様々なシナリオにおけるフルファインチューニングよりも、OODの一般化性能が大幅に向上していることが判明した。
論文 参考訳(メタデータ) (2022-10-10T16:07:24Z) - MPLR: a novel model for multi-target learning of logical rules for
knowledge graph reasoning [5.499688003232003]
本研究では,知識グラフに基づく推論のための論理規則の学習問題について検討する。
本稿では,学習データを完全に活用するために既存のモデルを改善するMPLRと呼ばれるモデルを提案する。
実験結果は,MPLRモデルが5つのベンチマークデータセット上で最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-12-12T09:16:00Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - The Reasonable Crowd: Towards evidence-based and interpretable models of
driving behavior [5.112205222746637]
データは92のトラフィックシナリオで構成され、複数のシナリオをトラバースする。
データセットとは独立して慎重に手作りされたルールブックのインスタンスを比較するために、データを使用しました。
このルールブックは性能を過度に犠牲にすることなく高い解釈性を提供することがわかった。
論文 参考訳(メタデータ) (2021-07-28T17:26:31Z) - A Hybrid Model for Learning Embeddings and Logical Rules Simultaneously
from Knowledge Graphs [20.438750956142638]
高品質なルールと埋め込みを同時に学習するハイブリッドモデルを開発した。
提案手法は相互フィードバックのパラダイムを用いて,ルールマイニングシステムの探索と新たな事実の推測を行うための埋め込みモデルを用いている。
論文 参考訳(メタデータ) (2020-09-22T20:29:27Z) - Fairness-Aware Online Personalization [16.320648868892526]
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。