論文の概要: "A 6 or a 9?": Ensemble Learning Through the Multiplicity of Performant Models and Explanations
- arxiv url: http://arxiv.org/abs/2509.09073v1
- Date: Thu, 11 Sep 2025 00:30:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.184812
- Title: "A 6 or a 9?": Ensemble Learning Through the Multiplicity of Performant Models and Explanations
- Title(参考訳): 「A6・A9?」:パフォーマンスモデルと説明の多重性を通しての学習をまとめる
- Authors: Gianlucca Zuin, Adriano Veloso,
- Abstract要約: 羅生門効果(らしょうもんエフェクト)とは、複数のモデルが与えられた学習問題に対して同様に機能するケースを指す。
本稿では,これらの多種多様なハイパフォーマンスソリューションからモデルを戦略的に選択し,一般化を改善する手法であるRashomon Ensembleを提案する。
オープンおよびプロプライエタリな協調的実世界のデータセットに対する我々のアプローチを検証し、Rashomon比が大きいシナリオで最大0.20AUROCの改善を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating models from past observations and ensuring their effectiveness on new data is the essence of machine learning. However, selecting models that generalize well remains a challenging task. Related to this topic, the Rashomon Effect refers to cases where multiple models perform similarly well for a given learning problem. This often occurs in real-world scenarios, like the manufacturing process or medical diagnosis, where diverse patterns in data lead to multiple high-performing solutions. We propose the Rashomon Ensemble, a method that strategically selects models from these diverse high-performing solutions to improve generalization. By grouping models based on both their performance and explanations, we construct ensembles that maximize diversity while maintaining predictive accuracy. This selection ensures that each model covers a distinct region of the solution space, making the ensemble more robust to distribution shifts and variations in unseen data. We validate our approach on both open and proprietary collaborative real-world datasets, demonstrating up to 0.20+ AUROC improvements in scenarios where the Rashomon ratio is large. Additionally, we demonstrate tangible benefits for businesses in various real-world applications, highlighting the robustness, practicality, and effectiveness of our approach.
- Abstract(参考訳): 過去の観測からモデルを作成し、新しいデータの有効性を保証することが、機械学習の本質である。
しかし、よく一般化するモデルを選択することは難しい課題である。
この話題に関連して、羅生門効果(らしょうもんエフェクト)とは、与えられた学習問題に対して複数のモデルが同様に機能するケースを指す。
これは、製造プロセスや医療診断のような現実世界のシナリオでしばしば起こり、データの多様なパターンが複数のハイパフォーマンスなソリューションに繋がる。
本稿では,これらの多種多様なハイパフォーマンスソリューションからモデルを戦略的に選択し,一般化を改善する手法であるRashomon Ensembleを提案する。
それらの性能と説明の両方に基づいてモデルをグループ化することにより、予測精度を維持しながら多様性を最大化するアンサンブルを構築する。
この選択により、各モデルが解空間の異なる領域をカバーすることが保証され、アンサンブルは目に見えないデータの分布シフトや変動に対してより堅牢になる。
オープンおよびプロプライエタリな協調的実世界のデータセットに対する我々のアプローチを検証し、Rashomon比が大きいシナリオで最大0.20AUROCの改善を実証する。
さらに、さまざまな実世界のアプリケーションにおけるビジネスにとって有意義なメリットを示し、このアプローチの堅牢性、実用性、有効性を強調します。
関連論文リスト
- Multiagent Finetuning: Self Improvement with Diverse Reasoning Chains [114.76612918465948]
大規模言語モデル(LLM)は近年顕著なパフォーマンスを達成しているが、基礎となるトレーニングデータによって根本的に制限されている。
本稿では,言語モデルのマルチエージェント社会にファインタニングを適用した自己改善への補完的アプローチを提案する。
論文 参考訳(メタデータ) (2025-01-10T04:35:46Z) - A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - $\textbf{Only-IF}$:Revealing the Decisive Effect of Instruction Diversity on Generalization [1.6958018695660049]
トレーニングデータがセマンティックドメインで十分に分散されている場合、textbfonlyが$であることを示す。
例えば$textit$textbfspecialist$$と$textit$textbf generalist$$$モデルの微調整などです。
論文 参考訳(メタデータ) (2024-10-07T03:15:11Z) - Data-Free Diversity-Based Ensemble Selection For One-Shot Federated
Learning in Machine Learning Model Market [2.9046424358155236]
単発フェデレーション学習によって生成されるモデルのアンサンブル選択問題に対処するため,DeDESと呼ばれるデータ自由多様性に基づく新しい手法を提案する。
提案手法は、5つのデータセットと4つの異なるモデル構造よりも優れた性能と高い効率を実現することができる。
論文 参考訳(メタデータ) (2023-02-23T02:36:27Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。