論文の概要: Why are there many equally good models? An Anatomy of the Rashomon Effect
- arxiv url: http://arxiv.org/abs/2601.06730v1
- Date: Sun, 11 Jan 2026 00:48:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.958196
- Title: Why are there many equally good models? An Anatomy of the Rashomon Effect
- Title(参考訳): なぜ等しく良いモデルがたくさんあるのか? 羅生門効果の解剖学
- Authors: Harsh Parikh,
- Abstract要約: ほぼ同等のパフォーマンスを達成する複数の異なるモデルの存在である羅生門効果は、統計学と統計学の基本的な現象として現れている。
- 参考スコア(独自算出の注目度): 6.093395016605313
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Rashomon effect -- the existence of multiple, distinct models that achieve nearly equivalent predictive performance -- has emerged as a fundamental phenomenon in modern machine learning and statistics. In this paper, we explore the causes underlying the Rashomon effect, organizing them into three categories: statistical sources arising from finite samples and noise in the data-generating process; structural sources arising from non-convexity of optimization objectives and unobserved variables that create fundamental non-identifiability; and procedural sources arising from limitations of optimization algorithms and deliberate restrictions to suboptimal model classes. We synthesize insights from machine learning, statistics, and optimization literature to provide a unified framework for understanding why the multiplicity of good models arises. A key distinction emerges: statistical multiplicity diminishes with more data, structural multiplicity persists asymptotically and cannot be resolved without different data or additional assumptions, and procedural multiplicity reflects choices made by practitioners. Beyond characterizing causes, we discuss both the challenges and opportunities presented by the Rashomon effect, including implications for inference, interpretability, fairness, and decision-making under uncertainty.
- Abstract(参考訳): ほぼ同等の予測性能を達成する複数の異なるモデルが存在するという、Rashomon効果は、現代の機械学習と統計学の基本的な現象として現れている。
本稿では,データ生成過程における有限サンプルとノイズから生じる統計源,最適化対象の非凸性から生じる構造源,基本的不特定性を生み出す未観測変数,最適化アルゴリズムの限界から生じる手続き的情報源,最適モデルクラスに対する意図的制約という3つのカテゴリに分類して,ラショウモン効果の背景となる要因を考察する。
我々は、機械学習、統計学、最適化文学からの洞察を合成し、なぜ良いモデルの多重性が生じるのかを理解するための統一されたフレームワークを提供する。
統計的多重度はより多くのデータで減少し、構造的多重度は漸近的に持続し、異なるデータや追加の仮定なしでは解決できず、手続き的多重度は実践者の選択を反映する。
原因の特定以外にも、不確実性の下での推論、解釈可能性、公平性、意思決定など、羅生門効果によってもたらされる課題と機会について論じる。
関連論文リスト
- Learning Structural Causal Models from Ordering: Identifiable Flow Models [19.99352354910655]
本稿では,変数の可逆変換を部品的に再現するフローモデルを提案する。
本稿では,すべての因果メカニズムの同時学習を可能にする設計改善を提案する。
本手法は,既存の拡散法に比べて計算時間を大幅に短縮する。
論文 参考訳(メタデータ) (2024-12-13T04:25:56Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - A prediction and behavioural analysis of machine learning methods for
modelling travel mode choice [0.26249027950824505]
我々は、モデル選択に影響を及ぼす可能性のある重要な要因の観点から、複数のモデリング問題に対して異なるモデリングアプローチを体系的に比較する。
その結果,非凝集性予測性能が最も高いモデルでは,行動指標やアグリゲーションモードのシェアが低下することが示唆された。
MNLモデルは様々な状況において堅牢に機能するが、ML手法はWillingness to Payのような行動指標の推定を改善することができる。
論文 参考訳(メタデータ) (2023-01-11T11:10:32Z) - Stochastic Causal Programming for Bounding Treatment Effects [8.879868078611443]
因果効果の推定は自然科学や社会科学における多くの課題において重要である。
我々はフレキシブルな学習アルゴリズムとモンテカルロ法を用いて、因果プログラミングという名のソリューション群を実装している。
論文 参考訳(メタデータ) (2022-02-22T10:55:24Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。