論文の概要: Many Ways to be Right: Rashomon Sets for Concept-Based Neural Networks
- arxiv url: http://arxiv.org/abs/2511.19636v1
- Date: Mon, 24 Nov 2025 19:12:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.125769
- Title: Many Ways to be Right: Rashomon Sets for Concept-Based Neural Networks
- Title(参考訳): さまざまな方法で正しい:概念ベースニューラルネットワークのためのRashomonのセット
- Authors: Shihan Feng, Cheng Zhang, Michael Xi, Ethan Hsu, Lesia Semenova, Chudi Zhong,
- Abstract要約: Rashomon Concept Bottleneck Modelsは、複数のニューラルネットワークを学習するフレームワークである。
我々のフレームワークは、深層モデルにおけるデータ駆動推論の多様性の体系的な探索を可能にし、等しく正確な解に対する監査、比較、アライメントのための新しいメカニズムを提供する。
- 参考スコア(独自算出の注目度): 8.246247589019953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern neural networks rarely have a single way to be right. For many tasks, multiple models can achieve identical performance while relying on different features or reasoning patterns, a property known as the Rashomon Effect. However, uncovering this diversity in deep architectures is challenging as their continuous parameter spaces contain countless near-optimal solutions that are numerically distinct but often behaviorally similar. We introduce Rashomon Concept Bottleneck Models, a framework that learns multiple neural networks which are all accurate yet reason through distinct human-understandable concepts. By combining lightweight adapter modules with a diversity-regularized training objective, our method constructs a diverse set of deep concept-based models efficiently without retraining from scratch. The resulting networks provide fundamentally different reasoning processes for the same predictions, revealing how concept reliance and decision making vary across equally performing solutions. Our framework enables systematic exploration of data-driven reasoning diversity in deep models, offering a new mechanism for auditing, comparison, and alignment across equally accurate solutions.
- Abstract(参考訳): 現代のニューラルネットワークには、正しい方法が1つしかないことはめったにない。
多くのタスクにおいて、複数のモデルは異なる特徴や推論パターンに依存しながら、同じパフォーマンスを達成することができる。
しかし、この多様性を深層アーキテクチャで明らかにすることは、その連続パラメータ空間には数値的に異なるが、しばしば振舞いに類似する、数え切れないほど近い最適解が含まれているため、困難である。
複数のニューラルネットワークを学習するフレームワークであるRashomon Concept Bottleneck Modelsを紹介する。
本手法は,軽量なアダプタモジュールと多様性を調整した学習目標を組み合わせることで,スクラッチから再学習することなく,多種多様な概念ベースモデルを効率的に構築する。
結果として得られるネットワークは、同じ予測に対して根本的に異なる推論プロセスを提供し、概念依存と意思決定が同等に実行されるソリューション間でどのように異なるかを明らかにする。
我々のフレームワークは、深層モデルにおけるデータ駆動推論の多様性の体系的な探索を可能にし、等しく正確な解に対する監査、比較、アライメントのための新しいメカニズムを提供する。
関連論文リスト
- Combining Causal Models for More Accurate Abstractions of Neural Networks [10.115827125021438]
因果抽象化は、ネットワークがアルゴリズムを実装した際の正確な概念を提供する。
現実的な設定における典型的な問題は、アルゴリズムがネットワークを完全に忠実に抽象化していないことである。
我々は,より忠実なネットワーク表現を生成するために,異なる単純な高レベルモデルを組み合わせるソリューションを提案する。
論文 参考訳(メタデータ) (2025-03-14T14:14:43Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Federated Variational Inference Methods for Structured Latent Variable
Models [1.0312968200748118]
フェデレートされた学習方法は、データが元の場所を離れることなく、分散データソースをまたいだモデルトレーニングを可能にする。
本稿では,ベイズ機械学習において広く用いられている構造的変分推論に基づく汎用的でエレガントな解を提案する。
また、標準FedAvgアルゴリズムに類似した通信効率のよい変種も提供する。
論文 参考訳(メタデータ) (2023-02-07T08:35:04Z) - Split personalities in Bayesian Neural Networks: the case for full
marginalisation [0.0]
ベイズニューラルネットワークの真の後部分布は、非常に多様であることを示す。
ネットワークの分割されたパーソナリティをキャプチャできる適切なベイズサンプリングツールを使用して、すべての後部モードを完全に切り離すだけでよい。
論文 参考訳(メタデータ) (2022-05-23T09:24:37Z) - Multiblock-Networks: A Neural Network Analog to Component Based Methods
for Multi-Source Data [0.0]
本稿では,コンポーネントベース統計モデルの概念をニューラルネットワークアーキテクチャに転送する手法を提案する。
これにより、ニューラルネットワークの柔軟性と、マルチブロック手法におけるブロック関連性を解釈する概念を組み合わせる。
この結果から,通常のフィードフォワードニューラルネットワークの性能に適合しながら,マルチブロックネットワークが基本モデル解釈を可能にしたことが示唆された。
論文 参考訳(メタデータ) (2021-09-21T16:00:15Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z) - Monotone operator equilibrium networks [97.86610752856987]
我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。