論文の概要: The Double-Edged Nature of the Rashomon Set for Trustworthy Machine Learning
- arxiv url: http://arxiv.org/abs/2511.21799v1
- Date: Wed, 26 Nov 2025 17:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.244247
- Title: The Double-Edged Nature of the Rashomon Set for Trustworthy Machine Learning
- Title(参考訳): 信頼できる機械学習のための羅生門セットの二重エッジ性
- Authors: Ethan Hsu, Harry Chen, Chudi Zhong, Lesia Semenova,
- Abstract要約: 現実世界の機械学習(ML)パイプラインが単一のモデルを生成することはめったにない。
代わりに、多種多種多種多種多種多種多種多様の羅生門を生産する。
この多重性は、信頼性の重要な側面を再認識する。
- 参考スコア(独自算出の注目度): 6.797248285551603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world machine learning (ML) pipelines rarely produce a single model; instead, they produce a Rashomon set of many near-optimal ones. We show that this multiplicity reshapes key aspects of trustworthiness. At the individual-model level, sparse interpretable models tend to preserve privacy but are fragile to adversarial attacks. In contrast, the diversity within a large Rashomon set enables reactive robustness: even when an attack breaks one model, others often remain accurate. Rashomon sets are also stable under small distribution shifts. However, this same diversity increases information leakage, as disclosing more near-optimal models provides an attacker with progressively richer views of the training data. Through theoretical analysis and empirical studies of sparse decision trees and linear models, we characterize this robustness-privacy trade-off and highlight the dual role of Rashomon sets as both a resource and a risk for trustworthy ML.
- Abstract(参考訳): 現実世界の機械学習(ML)パイプラインは単一のモデルを生成することは滅多にない。
この多重性は、信頼性の重要な側面を再認識する。
個々のモデルレベルでは、スパース解釈可能なモデルはプライバシを保存する傾向があるが、敵の攻撃に対して脆弱である。
対照的に、大きな羅生門集合内の多様性は、ある攻撃が1つのモデルを破ったとしても、他の攻撃はしばしば正確である。
ラショモン集合は、小さな分布シフトの下でも安定である。
しかし、この多様性が情報漏洩を増大させるのは、より近い最適モデルを公開することで、攻撃者がトレーニングデータのよりリッチなビューを提供するためである。
スパース決定木と線形モデルの理論的解析と実証研究を通じて、このロバスト性-プライバシートレードオフを特徴付けるとともに、ラショモン集合の二重の役割を、信頼できるMLの資源とリスクの両方として強調する。
関連論文リスト
- Unique Rashomon Sets for Robust Active Learning [0.0]
Unique Rashomon Ensembled Active Learning (UNREAL)を紹介する。
UNREALは、ほぼ最適なモデルの集合である羅生門集合からモデルを選択的にアンサンブルする。
我々はUNREALが従来のアクティブラーニング手法よりも高速な理論収束率を実現することを示す。
論文 参考訳(メタデータ) (2025-03-09T20:50:34Z) - Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - Rethinking Robustness of Model Attributions [24.317595434521504]
多くの属性手法は脆弱であり,これらの手法やモデルトレーニングの改良が提案されている。
まず、ロバスト性に関する既存の指標は、アトリビューションにおける合理的な局所的なシフトを過度に負担する。
本稿では,ロバストネス指標における画素の局所性と属性における画素位置の多様性を組み込んだ既存メトリクスと属性手法の簡易な強化手法を提案する。
論文 参考訳(メタデータ) (2023-12-16T20:20:38Z) - Evaluating Concurrent Robustness of Language Models Across Diverse Challenge Sets [46.19529338280716]
言語モデルはブラックボックスの性質が特徴で、しばしば幻覚を呈し、入力の摂動に敏感である。
入力摂動が言語モデルにどう影響するかを,様々な尺度で検討する手法を提案する。
複数の摂動に対するロバスト性に対処するための3つの異なる微調整戦略を提案する。
論文 参考訳(メタデータ) (2023-11-15T02:59:10Z) - A Path to Simpler Models Starts With Noise [17.36067410506525]
羅生門集合は、与えられたデータセット上でほぼ等しく機能するモデルの集合である。
オープンな疑問は、なぜラショモン比が大きくなるのかである。
よりノイズの多いデータセットは、実践者がモデルをトレーニングする方法を通じて、より大きなRashomon比につながることを示す。
論文 参考訳(メタデータ) (2023-10-30T16:52:57Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。