論文の概要: Consistent Explanations in the Face of Model Indeterminacy via
Ensembling
- arxiv url: http://arxiv.org/abs/2306.06193v1
- Date: Fri, 9 Jun 2023 18:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 20:30:54.967371
- Title: Consistent Explanations in the Face of Model Indeterminacy via
Ensembling
- Title(参考訳): 組立によるモデル不確定性の面の一貫性説明
- Authors: Dan Ley, Leonard Tang, Matthew Nazari, Hongjin Lin, Suraj Srinivas,
Himabindu Lakkaraju
- Abstract要約: この研究は、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供することの課題に対処する。
これらのシナリオで提供される説明の一貫性を高めるためのアンサンブル手法を導入する。
本研究は,説明文の解釈において,モデル不確定性を考慮することの重要性を強調した。
- 参考スコア(独自算出の注目度): 12.661530681518899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work addresses the challenge of providing consistent explanations for
predictive models in the presence of model indeterminacy, which arises due to
the existence of multiple (nearly) equally well-performing models for a given
dataset and task. Despite their similar performance, such models often exhibit
inconsistent or even contradictory explanations for their predictions, posing
challenges to end users who rely on these models to make critical decisions.
Recognizing this issue, we introduce ensemble methods as an approach to enhance
the consistency of the explanations provided in these scenarios. Leveraging
insights from recent work on neural network loss landscapes and mode
connectivity, we devise ensemble strategies to efficiently explore the
$\textit{underspecification set}$ -- the set of models with performance
variations resulting solely from changes in the random seed during training.
Experiments on five benchmark financial datasets reveal that ensembling can
yield significant improvements when it comes to explanation similarity, and
demonstrate the potential of existing ensemble methods to explore the
underspecification set efficiently. Our findings highlight the importance of
considering model indeterminacy when interpreting explanations and showcase the
effectiveness of ensembles in enhancing the reliability of explanations in
machine learning.
- Abstract(参考訳): 本研究は、与えられたデータセットとタスクに対して、複数の(ほぼ)均質なモデルが存在するために生じる、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供するという課題に対処する。
類似した性能にもかかわらず、これらのモデルは予測に矛盾する、あるいは矛盾する説明をしばしば示し、批判的な決定を下すためにこれらのモデルに依存するエンドユーザーに課題を提起する。
この問題を認識し,これらのシナリオで提供される説明の一貫性を高めるアプローチとして,アンサンブル手法を導入する。
ニューラルネットワークのロスランドスケープとモードコネクティビティに関する最近の研究から得た洞察を活かし、トレーニング中のランダムシードの変更のみによって生じるパフォーマンスの変動のあるモデルセットである$\textit{underspecification set}$を効率的に探索するためのアンサンブル戦略を考案する。
5つのベンチマークファイナンシャルデータセットの実験では、アンサンブルは類似性を説明する上で大きな改善をもたらすことが示され、アンサンブル法がアンサンブル法を効果的に探索する可能性を示している。
本研究は,説明を解釈する際にモデル不確定性を考慮することの重要性を浮き彫りにし,機械学習における説明の信頼性向上におけるアンサンブルの有効性を示す。
関連論文リスト
- Pattern based learning and optimisation through pricing for bin packing problem [50.83768979636913]
確率変数の分布のような問題条件が変化すると、以前の状況でうまく機能するパターンはより効果的になるかもしれないと論じる。
本研究では,パターンを効率的に同定し,各条件に対する値の動的定量化を行う新しい手法を提案する。
本手法は,制約を満たす能力と目的値に対する影響に基づいて,パターンの値の定量化を行う。
論文 参考訳(メタデータ) (2024-08-27T17:03:48Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Capsule Networks -- A Probabilistic Perspective [42.187785678596384]
カプセル」モデルはオブジェクトのポーズを明示的に表現し、オブジェクトのポーズと構成部品のリニアな関係を強制しようとする。
本稿では,このようなカプセル仮定を符号化した確率的生成モデルについて述べる。
統合された目的の応用性を実験的に実証し、我々のモデルにおける償却推論に固有の問題を解決するためのテスト時間最適化の活用を実証する。
論文 参考訳(メタデータ) (2020-04-07T17:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。