論文の概要: Interpretable Differencing of Machine Learning Models
- arxiv url: http://arxiv.org/abs/2306.06473v1
- Date: Sat, 10 Jun 2023 16:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:56:53.689547
- Title: Interpretable Differencing of Machine Learning Models
- Title(参考訳): 機械学習モデルの解釈可能な差異
- Authors: Swagatam Haldar, Diptikalyan Saha, Dennis Wei, Rahul Nair, Elizabeth
M. Daly
- Abstract要約: 本稿では、2つのMLモデルの出力の相似性関数の予測の1つとしてモデル強調の問題を定式化する。
emphJoint Surrogate Tree (JST) は、この2つのモデルのための2つの共役決定木からなる。
JSTは違いを直感的に表現し、モデル決定ロジックのコンテキストに変化を配置します。
- 参考スコア(独自算出の注目度): 20.99877540751412
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the differences between machine learning (ML) models is of
interest in scenarios ranging from choosing amongst a set of competing models,
to updating a deployed model with new training data. In these cases, we wish to
go beyond differences in overall metrics such as accuracy to identify
\emph{where} in the feature space do the differences occur. We formalize this
problem of model \emph{differencing} as one of predicting a dissimilarity
function of two ML models' outputs, subject to the representation of the
differences being human-interpretable. Our solution is to learn a \emph{Joint
Surrogate Tree} (JST), which is composed of two conjoined decision tree
surrogates for the two models. A JST provides an intuitive representation of
differences and places the changes in the context of the models' decision
logic. Context is important as it helps users to map differences to an
underlying mental model of an AI system. We also propose a refinement procedure
to increase the precision of a JST. We demonstrate, through an empirical
evaluation, that such contextual differencing is concise and can be achieved
with no loss in fidelity over naive approaches.
- Abstract(参考訳): 機械学習(ML)モデルの違いを理解することは、競合するモデルのセットを選択することから、新しいトレーニングデータでデプロイされたモデルを更新することまで、シナリオに関心がある。
このような場合、私たちは、特徴空間における \emph{where} を特定する精度など、全体的な指標の違いを超えて、違いが生じることを望んでいます。
本稿では,2つのMLモデルの出力の相似性関数の予測の1つとして,その差分を人間解釈可能とするモデル \emph{difference} の問題を定式化する。
我々の解は、2つのモデルのための2つの連結決定木サロゲートからなる \emph{joint surrogate tree} (jst) を学ぶことである。
jstは、違いの直感的な表現を提供し、モデルの決定ロジックのコンテキストに変化を配置します。
コンテキストは、aiシステムの基盤となるメンタルモデルに差異をマップするのに役立つため、重要である。
また,JSTの精度を高めるための改良手法を提案する。
経験的評価を通じて,このような文脈的差異は簡潔であり,単純アプローチよりも忠実さを損なうことなく達成できることを実証する。
関連論文リスト
- Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Dynamic Interpretability for Model Comparison via Decision Rules [0.8099700053397276]
本稿では,機械学習モデルの違いを理解し説明することの課題に対処する。
ルールベースの説明を生成するモデルに依存しないDeltaXplainerを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:42:49Z) - ModelDiff: A Framework for Comparing Learning Algorithms [86.19580801269036]
そこでは,2つの異なる学習アルゴリズムを用いて学習したモデルの違いを見つけることを目的とする。
トレーニングデータの使用方法に基づいて学習アルゴリズムを比較するために,データモデルフレームワークを利用するModelDiffを提案する。
論文 参考訳(メタデータ) (2022-11-22T18:56:52Z) - Statistical Aspects of SHAP: Functional ANOVA for Model Interpretation [0.456877715768796]
SHAP近似の課題は、特徴分布の選択と推定されるANOVAの2ドル$ANOVAの項数に大きく関係していることが示される。
機械学習の説明可能性と感度分析の関連性は、このケースでは明らかにされているが、実際的な結果は明らかではない。
論文 参考訳(メタデータ) (2022-08-21T21:46:15Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Learning Invariances for Interpretability using Supervised VAE [0.0]
我々はモデルを解釈する手段としてモデル不変性を学習する。
可変オートエンコーダ(VAE)の教師型形式を提案する。
我々は、我々のモデルと特徴属性の手法を組み合わせることで、モデルの意思決定プロセスについてよりきめ細やかな理解を得られることを示す。
論文 参考訳(メタデータ) (2020-07-15T10:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。