論文の概要: Mixtures of Transparent Local Models
- arxiv url: http://arxiv.org/abs/2601.10541v1
- Date: Thu, 15 Jan 2026 16:05:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.210769
- Title: Mixtures of Transparent Local Models
- Title(参考訳): 透明局所モデルの混合
- Authors: Niffa Cheick Oumar Diaby, Thierry Duchesne, Mario Marchand,
- Abstract要約: 解釈可能な(あるいは透過的な)モデルを設計するための代替ソリューションとして,透過的な局所モデルの混合を提案する。
線形分類問題や線形回帰問題に対して厳密なPAC-ベイズリスク境界を確立する。
- 参考スコア(独自算出の注目度): 2.3215806943173676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The predominance of machine learning models in many spheres of human activity has led to a growing demand for their transparency. The transparency of models makes it possible to discern some factors, such as security or non-discrimination. In this paper, we propose a mixture of transparent local models as an alternative solution for designing interpretable (or transparent) models. Our approach is designed for the situations where a simple and transparent function is suitable for modeling the label of instances in some localities/regions of the input space, but may change abruptly as we move from one locality to another. Consequently, the proposed algorithm is to learn both the transparent labeling function and the locality of the input space where the labeling function achieves a small risk in its assigned locality. By using a new multi-predictor (and multi-locality) loss function, we established rigorous PAC-Bayesian risk bounds for the case of binary linear classification problem and that of linear regression. In both cases, synthetic data sets were used to illustrate how the learning algorithms work. The results obtained from real data sets highlight the competitiveness of our approach compared to other existing methods as well as certain opaque models. Keywords: PAC-Bayes, risk bounds, local models, transparent models, mixtures of local transparent models.
- Abstract(参考訳): 人間の活動の多くの領域における機械学習モデルの優位性は、その透明性に対する需要の増加につながっている。
モデルの透明性は、セキュリティや非差別など、いくつかの要因を識別可能にする。
本稿では,解釈可能な(あるいは透過的な)モデルを設計するための代替ソリューションとして,透過的局所モデルの混合を提案する。
提案手法は,入力空間のいくつかの局所性/領域におけるインスタンスのラベルをモデル化するのに,単純で透過的な関数が適しているが,ある局所性から別の領域へ移動すると,突然変化する可能性がある状況に対して設計されている。
提案アルゴリズムは,ラベリング関数が割り当てられた局所性において小さなリスクを負うような入力空間の局所性と透過的なラベリング関数の双方を学習する。
新たな多重予測器(および多局所性)損失関数を用いることで、二元線形分類問題や線形回帰の場合の厳密なPAC-ベイズリスク境界を確立した。
どちらの場合も、学習アルゴリズムの動作を示すために合成データセットが使用された。
実際のデータセットから得られた結果は、既存の手法や不透明なモデルと比較して、我々のアプローチの競争力を強調している。
キーワード: PAC-Bayes、リスクバウンド、ローカルモデル、透明モデル、ローカル透明モデルの混合。
関連論文リスト
- Modest-Align: Data-Efficient Alignment for Vision-Language Models [67.48633659305592]
クロスモーダルアライメントモデルは、リソース制約のある環境での運用において、過信と劣化したパフォーマンスに悩まされることが多い。
我々は,ロバスト性と効率性に配慮した軽量アライメントフレームワークであるModest-Alignを提案する。
本手法は,実世界の低リソースシナリオにおけるクロスモーダルアライメントを実現するための,実用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-10-24T16:11:10Z) - ITL-LIME: Instance-Based Transfer Learning for Enhancing Local Explanations in Low-Resource Data Settings [9.48243749038739]
LIME(Local Interpretable Model-Agnostic Explanations)は、ブラックボックス機械学習モデルの解釈可能性を向上させる。
LIMEの摂動とサンプリングにおける固有のランダム性は、局所性と不安定性の問題を引き起こす。
本稿では,データ制約環境における説明の忠実さと安定性を高めるための新しいインスタンスベーストランスファーラーニングLIMEフレームワーク(ITL-LIME)を提案する。
論文 参考訳(メタデータ) (2025-08-19T09:18:20Z) - Optimal Classification under Performative Distribution Shift [13.508249764979075]
本稿では,動作効果をプッシュフォワード尺度としてモデル化した新しい視点を提案する。
我々は、新しい仮定のセットの下で、パフォーマンスリスクの凸性を証明する。
また, 性能リスクの最小化を min-max 変動問題として再定義することにより, 逆向きの頑健な分類との関係を確立する。
論文 参考訳(メタデータ) (2024-11-04T12:20:13Z) - Cross-Domain Transfer Learning with CoRTe: Consistent and Reliable
Transfer from Black-Box to Lightweight Segmentation Model [25.3403116022412]
CoRTeは、ブラックボックスソースモデルから信頼できる知識を抽出する擬似ラベリング関数である。
我々は,2つの合成から現実の環境でCoRTeをベンチマークし,ブラックボックスモデルを用いて目標データ分布の軽量モデルにおける知識を伝達する際,顕著な結果を示した。
論文 参考訳(メタデータ) (2024-02-20T16:35:14Z) - EASTER: Embedding Aggregation-based Heterogeneous Models Training in Vertical Federated Learning [50.30581967024277]
本稿では,複数の異種モデル(VFedMH)を学習するための垂直フェデレーション学習という新しい手法を提案する。
被験者の局所的な埋め込み値を保護するために,軽量なブラインド・ファクターに基づく埋め込み保護手法を提案する。
実験により、VFedMHは、不均一な最適化で複数の異種モデルを同時に訓練し、モデル性能の最近の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-10-20T09:22:51Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Approximate Regions of Attraction in Learning with Decision-Dependent
Distributions [11.304363655760513]
我々は、繰り返しリスク最小化を、実行リスク最小化の勾配流の軌跡として分析する。
この設定において、様々な平衡に対するアトラクションの領域を特徴付ける条件を提供する。
本稿では、繰り返しリスク最小化の収束に関する幾何学的条件を提供する性能的アライメントの概念を、性能的リスク最小化に導入する。
論文 参考訳(メタデータ) (2021-06-30T18:38:08Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。