論文の概要: Amazing Things Come From Having Many Good Models
- arxiv url: http://arxiv.org/abs/2407.04846v1
- Date: Fri, 5 Jul 2024 20:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 22:16:57.744769
- Title: Amazing Things Come From Having Many Good Models
- Title(参考訳): 素晴らしいモデルがたくさんあることによる驚くべきこと
- Authors: Cynthia Rudin, Chudi Zhong, Lesia Semenova, Margo Seltzer, Ronald Parr, Jiachang Liu, Srikar Katta, Jon Donnelly, Harry Chen, Zachery Boner,
- Abstract要約: 羅生門効果は、同じデータセットに対して等しく良い予測モデルが存在するという現象を記述している。
このパースペクティブは、機械学習に対する考え方を変えることを提案する。
私たちのゴールは、Rashomon効果が社会の複雑な問題に対する機械学習の利用に大きな影響を与えるかを説明することです。
- 参考スコア(独自算出の注目度): 15.832860655980918
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Rashomon Effect, coined by Leo Breiman, describes the phenomenon that there exist many equally good predictive models for the same dataset. This phenomenon happens for many real datasets and when it does, it sparks both magic and consternation, but mostly magic. In light of the Rashomon Effect, this perspective piece proposes reshaping the way we think about machine learning, particularly for tabular data problems in the nondeterministic (noisy) setting. We address how the Rashomon Effect impacts (1) the existence of simple-yet-accurate models, (2) flexibility to address user preferences, such as fairness and monotonicity, without losing performance, (3) uncertainty in predictions, fairness, and explanations, (4) reliable variable importance, (5) algorithm choice, specifically, providing advanced knowledge of which algorithms might be suitable for a given problem, and (6) public policy. We also discuss a theory of when the Rashomon Effect occurs and why. Our goal is to illustrate how the Rashomon Effect can have a massive impact on the use of machine learning for complex problems in society.
- Abstract(参考訳): レオ・ブレイマン(Leo Breiman)が提唱したラショウモン効果は、同じデータセットに対して同様に良い予測モデルが存在するという現象を記述している。
この現象は多くの実際のデータセットで発生し、その場合マジックとスターネーションの両方を引き起こすが、ほとんどが魔法である。
羅生門効果に着目して、この視点は、特に非決定論的(ノイズの多い)セッティングにおける表型データ問題に対して、機械学習に対する考え方を変えることを提案する。
本稿は,(1)単純かつ高精度なモデルの存在,(2)公正性や単調性といったユーザの好みに対処する柔軟性,(3)予測の不確実性,公平性,説明,(4)信頼性のある変数の重要度,(5)アルゴリズムの選択,特に,与えられた問題に適したアルゴリズムの高度な知識の提供,(6)公共政策について論じる。
また、羅生門効果の発生時期と理由についても論じる。
私たちのゴールは、Rashomon効果が社会の複雑な問題に対する機械学習の利用に大きな影響を与えるかを説明することです。
関連論文リスト
- A Path to Simpler Models Starts With Noise [17.36067410506525]
羅生門集合は、与えられたデータセット上でほぼ等しく機能するモデルの集合である。
オープンな疑問は、なぜラショモン比が大きくなるのかである。
よりノイズの多いデータセットは、実践者がモデルをトレーニングする方法を通じて、より大きなRashomon比につながることを示す。
論文 参考訳(メタデータ) (2023-10-30T16:52:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - An Empirical Evaluation of the Rashomon Effect in Explainable Machine
Learning [2.60815298676312]
与えられたデータセットには、同等に優れたパフォーマンスを持つが、異なるソリューション戦略を持つモデルが多数存在する可能性がある。
3つの異なる比較シナリオについて統一されたビューを提供し、異なるデータセット、モデル、属性メソッド、メトリクスにわたって定量的評価を行います。
論文 参考訳(メタデータ) (2023-06-27T20:32:07Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Stop ordering machine learning algorithms by their explainability! A
user-centered investigation of performance and explainability [0.0]
機械学習アルゴリズムのモデル性能と説明可能性のトレードオフについて検討する。
エンドユーザの認識では、トレードオフは徐々に減少しています。
第2の実験の結果、説明可能な人工知能の強化は説明可能性を高めるのに有効であるが、このタイプの説明はエンドユーザの知覚に不可欠な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2022-06-20T08:32:38Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - A Reflection on Learning from Data: Epistemology Issues and Limitations [1.8047694351309205]
本稿では,データから得られた知識の問題点と限界について考察する。
この論文は、一般的な数学的理論を用いてプロセスを記述する際の欠点について、いくつかの光を当てている。
さらに、データから学ぶことに特化した理論の必要性を強調している。
論文 参考訳(メタデータ) (2021-07-28T11:05:34Z) - Revisiting Rashomon: A Comment on "The Two Cultures" [95.81740983484471]
Breiman氏は「Rashomon Effect」と呼び、予測精度基準を等しく満たす多くのモデルが存在するが、情報を実質的に異なる方法で処理する状況について説明した。
この現象は、データに適合するモデルに基づいて結論を導き出すか、意思決定を自動化することを困難にします。
私は、この問題の意義を探求する機械学習文学における最近の研究と関係しています。
論文 参考訳(メタデータ) (2021-04-05T20:51:58Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。