論文の概要: Model Learning with Personalized Interpretability Estimation (ML-PIE)
- arxiv url: http://arxiv.org/abs/2104.06060v2
- Date: Wed, 14 Apr 2021 10:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 10:57:51.160120
- Title: Model Learning with Personalized Interpretability Estimation (ML-PIE)
- Title(参考訳): パーソナライズされた解釈可能性推定(ML-PIE)を用いたモデル学習
- Authors: Marco Virgolin, Andrea De Lorenzo, Francesca Randone, Eric Medvet,
Mattias Wahde
- Abstract要約: ハイステークアプリケーションは、AI生成モデルを解釈可能にする必要がある。
解釈可能なモデルの合成のための現在のアルゴリズムは、目的や正規化項に依存する。
本稿では,ユーザ向けにカスタマイズされたモデルの合成手法を提案する。
- 参考スコア(独自算出の注目度): 2.862606936691229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-stakes applications require AI-generated models to be interpretable.
Current algorithms for the synthesis of potentially interpretable models rely
on objectives or regularization terms that represent interpretability only
coarsely (e.g., model size) and are not designed for a specific user. Yet,
interpretability is intrinsically subjective. In this paper, we propose an
approach for the synthesis of models that are tailored to the user by enabling
the user to steer the model synthesis process according to her or his
preferences. We use a bi-objective evolutionary algorithm to synthesize models
with trade-offs between accuracy and a user-specific notion of
interpretability. The latter is estimated by a neural network that is trained
concurrently to the evolution using the feedback of the user, which is
collected using uncertainty-based active learning. To maximize usability, the
user is only asked to tell, given two models at the time, which one is less
complex. With experiments on two real-world datasets involving 61 participants,
we find that our approach is capable of learning estimations of
interpretability that can be very different for different users. Moreover, the
users tend to prefer models found using the proposed approach over models found
using non-personalized interpretability indices.
- Abstract(参考訳): ハイテイクアプリケーションは、AI生成したモデルを解釈する必要がある。
現在の解釈可能なモデルの合成アルゴリズムは、解釈可能性を表す目的語や正規化語(例えばモデルサイズ)に依存しており、特定のユーザ向けには設計されていない。
しかし、解釈性は本質的に主観的である。
本稿では,ユーザの好みに応じてモデル合成プロセスのステアリングを可能にすることによって,ユーザに適したモデル合成手法を提案する。
二目的進化アルゴリズムを用いて、精度とユーザ固有の解釈可能性のトレードオフを持つモデルを合成する。
後者は、不確実性に基づくアクティブラーニングを用いて収集されたユーザのフィードバックを用いて、進化に並行して訓練されたニューラルネットワークによって推定される。
ユーザビリティを最大化するために、ユーザは、一度に2つのモデルが与えられた場合、どれがより複雑かのみを指示される。
61人の参加者を巻き込んだ実世界の2つのデータセットの実験により、我々のアプローチは異なるユーザにとって非常に異なる解釈可能性の推定を学習できることがわかった。
さらに,非個人化解釈可能性指標を用いたモデルよりも,提案手法を用いたモデルの方が好まれる。
関連論文リスト
- HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks [62.48782506095565]
深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
論文 参考訳(メタデータ) (2022-02-10T20:11:21Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - The Definitions of Interpretability and Learning of Interpretable Models [42.22982369082474]
人間の解釈可能なモデルに対する数学的定義を提案する。
予測モデルが人間の認識システムによって解釈される場合、予測モデルは完全な人間解釈モデルとして定義される。
論文 参考訳(メタデータ) (2021-05-29T01:44:12Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z) - Evaluating the Interpretability of Generative Models by Interactive
Reconstruction [30.441247705313575]
生成モデル表現の人間解釈可能性の定量化を課題とする。
このタスクのパフォーマンスは、ベースラインアプローチよりも、絡み合ったモデルと絡み合ったモデルをはるかに確実に区別する。
論文 参考訳(メタデータ) (2021-02-02T02:38:14Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Human-interpretable model explainability on high-dimensional data [8.574682463936007]
2つのモジュールからなる高次元データに対する人間解釈可能な説明可能性のためのフレームワークを提案する。
まず、データの生の次元性を減らし、人間の解釈可能性を確保するために、意味的に意味のある潜在表現を適用する。
第2に、モデルに依存しないこれらの潜在的特徴を扱うために、Shapleyパラダイムを適用し、理論的に制御され、計算的に抽出可能なモデル説明をもたらす。
論文 参考訳(メタデータ) (2020-10-14T20:06:28Z) - Towards Open-World Recommendation: An Inductive Model-based
Collaborative Filtering Approach [115.76667128325361]
推奨モデルは、基礎となるユーザの関心を効果的に見積もり、将来の行動を予測することができる。
2つの表現モデルを含む帰納的協調フィルタリングフレームワークを提案する。
本モデルでは,限られたトレーニングレーティングと新規の未確認ユーザを対象に,数ショットのユーザに対して有望なレコメンデーションを行う。
論文 参考訳(メタデータ) (2020-07-09T14:31:25Z) - Learning a Formula of Interpretability to Learn Interpretable Formulas [1.7616042687330642]
人間の解釈可能性の非対象プロキシのMLモデルが人間のフィードバックから学習可能であることを示す。
進化的シンボリック回帰について示す。
我々のアプローチは、次世代の解釈可能な(進化的な)MLアルゴリズムの設計のための重要なステップストーンである。
論文 参考訳(メタデータ) (2020-04-23T13:59:49Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。