論文の概要: DIVERSE: Disagreement-Inducing Vector Evolution for Rashomon Set Exploration
- arxiv url: http://arxiv.org/abs/2601.20627v1
- Date: Wed, 28 Jan 2026 14:02:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.962166
- Title: DIVERSE: Disagreement-Inducing Vector Evolution for Rashomon Set Exploration
- Title(参考訳): DIVERSE:ラショーモン・セット探査のための分解誘導ベクトル進化
- Authors: Gilles Eerlings, Brent Zoomers, Jori Liesenborgs, Gustavo Rovelo Ruiz, Kris Luyten,
- Abstract要約: DIVERSEは、ディープニューラルネットワークのRashomonセットを探索するためのフレームワークである。
我々の実験は、DIVERSEがラショウモン集合の競合的で効率的な探索を提供することを示している。
- 参考スコア(独自算出の注目度): 0.434964016971127
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose DIVERSE, a framework for systematically exploring the Rashomon set of deep neural networks, the collection of models that match a reference model's accuracy while differing in their predictive behavior. DIVERSE augments a pretrained model with Feature-wise Linear Modulation (FiLM) layers and uses Covariance Matrix Adaptation Evolution Strategy (CMA-ES) to search a latent modulation space, generating diverse model variants without retraining or gradient access. Across MNIST, PneumoniaMNIST, and CIFAR-10, DIVERSE uncovers multiple high-performing yet functionally distinct models. Our experiments show that DIVERSE offers a competitive and efficient exploration of the Rashomon set, making it feasible to construct diverse sets that maintain robustness and performance while supporting well-balanced model multiplicity. While retraining remains the baseline to generate Rashomon sets, DIVERSE achieves comparable diversity at reduced computational cost.
- Abstract(参考訳): 提案するDIVERSEは,参照モデルの精度に適合するモデルの集合である深層ニューラルネットワークのラショウモン集合を系統的に探索するフレームワークである。
DIVERSEは、FiLM(Feature-wise Linear Modulation)レイヤで事前トレーニングされたモデルを拡張し、Covariance Matrix Adaptation Evolution Strategy (CMA-ES)を使用して遅延変調空間を探索し、再トレーニングや勾配アクセスなしに多様なモデル変異を生成する。
MNIST、PneumoniaMNIST、CIFAR-10の他、DIVERSEは高性能だが機能的に異なる複数のモデルを明らかにしている。
実験の結果、DIVERSEはラショウモン集合の競合的かつ効率的な探索を提供し、バランスの取れたモデル乗法をサポートしながら、堅牢性と性能を維持できる多様な集合を構築することができることがわかった。
リトレーニングはRashomon集合を生成するためのベースラインであり続けているが、DIVERSEは計算コストの削減で同等の多様性を達成している。
関連論文リスト
- An Integrated Fusion Framework for Ensemble Learning Leveraging Gradient Boosting and Fuzzy Rule-Based Models [59.13182819190547]
ファジィ規則に基づくモデルは解釈可能性に優れ、様々な分野に広く応用されている。
複雑な設計仕様や大規模データセットのスケーラビリティといった課題に直面している。
本稿では,モデル性能と解釈可能性を高めるために,両パラダイムの強みを融合した統合統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T10:28:23Z) - Kolmogorov-Arnold Energy Models: Fast and Interpretable Generative Modeling [0.0]
構造的および帰納的バイアスを利用するために,Kolmogorov-Arnold Energy Model (KAEM)を導入する。
KAEMは一般的な生成モデリングトレードオフのバランスをとり、高速な推論、解釈可能性、安定したトレーニングを提供する。
論文 参考訳(メタデータ) (2025-06-17T04:07:32Z) - Revisit Mixture Models for Multi-Agent Simulation: Experimental Study within a Unified Framework [19.558523263211942]
マルチエージェントシミュレーションでは、行動多様性や閉ループ分布シフトが主な課題である。
本研究では,マルチモーダルエージェントの挙動を生成するための混合モデルを再検討し,本研究の主流となる手法について述べる。
本研究では,混合モデルに適したクローズドループサンプル生成手法を導入し,分散シフトを緩和する。
論文 参考訳(メタデータ) (2025-01-28T15:26:25Z) - Learning Joint Latent Space EBM Prior Model for Multi-layer Generator [44.4434704520236]
多層ジェネレータモデルの学習における基礎的問題について検討する。
本稿では,全層にまたがる待ち行列空間上のエネルギーモデル (EBM) を提案する。
実験により、学習したモデルが高品質な画像を生成する際に表現できることが実証された。
論文 参考訳(メタデータ) (2023-06-10T00:27:37Z) - Language as a Latent Sequence: deep latent variable models for
semi-supervised paraphrase generation [47.33223015862104]
本稿では,観測されたテキストから遅延シーケンス推論を行うVSARという新しい教師なしモデルを提案する。
また、テキストペアからの情報を活用するために、提案したVSARモデルと統合するために設計されたDDLと呼ばれる新しい教師付きモデルを導入する。
実験により, このモデルを組み合わせることで, 完全データに基づく最先端の教師付きベースラインに対して, 競争性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-01-05T19:35:30Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Model Agnostic Combination for Ensemble Learning [0.0]
本稿では,モデルを組み合わせるための最適関数を見つけるために,MACという新しいアンサンブル手法を提案する。
サブモデルの数に依存しないため、デプロイ後もサブモデルの追加と置き換えが可能である。
論文 参考訳(メタデータ) (2020-06-16T09:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。