論文の概要: Distributionally Robust Feature Selection
- arxiv url: http://arxiv.org/abs/2510.21113v1
- Date: Fri, 24 Oct 2025 03:03:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.375093
- Title: Distributionally Robust Feature Selection
- Title(参考訳): 分布ロバストな特徴選択
- Authors: Maitreyi Swaroop, Tamar Krishnamurti, Bryan Wilder,
- Abstract要約: 本研究では,複数のサブポピュレーションにまたがって,訓練されたモデルが同時に動作するように,限られた特徴を選択するという課題について検討する。
提案手法は,ノイズ発生機構を用いて従来の変数選択を連続的に緩和する手法である。
我々は、下流予測の全体的性能を集団間でバランスさせるモデルに依存しない枠組みを開発する。
- 参考スコア(独自算出の注目度): 14.493253907785473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of selecting limited features to observe such that models trained on them can perform well simultaneously across multiple subpopulations. This problem has applications in settings where collecting each feature is costly, e.g. requiring adding survey questions or physical sensors, and we must be able to use the selected features to create high-quality downstream models for different populations. Our method frames the problem as a continuous relaxation of traditional variable selection using a noising mechanism, without requiring backpropagation through model training processes. By optimizing over the variance of a Bayes-optimal predictor, we develop a model-agnostic framework that balances overall performance of downstream prediction across populations. We validate our approach through experiments on both synthetic datasets and real-world data.
- Abstract(参考訳): 本研究では,複数のサブポピュレーションにまたがって,訓練されたモデルが同時に動作するように,限られた特徴を選択するという課題について検討する。
この問題は、例えば、調査質問や物理的なセンサーを追加するなど、各機能収集にコストがかかるような状況において応用され、選択した機能を使用して、異なる人口を対象とした高品質な下流モデルを作成する必要がある。
本手法は, モデル学習プロセスによる逆伝播を必要とせず, ノイズ発生機構を用いて従来の変数選択を連続的に緩和する手法である。
ベイズ最適予測器のばらつきを最適化することにより、人口間の下流予測の全体的な性能を均衡させるモデル非依存の枠組みを開発する。
我々は、合成データセットと実世界のデータの両方の実験を通して、我々のアプローチを検証する。
関連論文リスト
- Heterogeneous Self-Supervised Acoustic Pre-Training with Local Constraints [64.15709757611369]
異種データを扱うための自己教師付き事前学習手法を提案する。
提案手法は、下流の教師付き微調整タスクに対する自己教師付き事前訓練モデルの適応性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2025-08-27T15:48:50Z) - Diffusion-Driven High-Dimensional Variable Selection [6.993247097440294]
本稿では,高忠実度合成データを生成する拡散モデルの能力を生かした再サンプル集約フレームワークを提案する。
提案手法は軽微な仮定の下で一貫した選択であることを示す。
本手法は,変数選択手法を改良し,統計的に厳密な解析を行うためのツールキットを拡充する。
論文 参考訳(メタデータ) (2025-08-19T14:54:20Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Diffusion Models as Constrained Samplers for Optimization with Unknown Constraints [55.39203337683045]
拡散モデルを用いてデータ多様体内で最適化を行う。
目的関数の微分可能性に応じて,2つの異なるサンプリング手法を提案する。
提案手法は,従来の最先端のベースラインよりも優れた,あるいは同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-28T03:09:12Z) - Model Assessment and Selection under Temporal Distribution Shift [1.024113475677323]
我々は,与えられたモデルの一般化誤差を推定する適応型ローリングウインドウ手法を開発した。
また、ペアワイズ比較を単一消去トーナメントに統合し、候補の集合から最適に近いモデル選択を行う。
論文 参考訳(メタデータ) (2024-02-13T18:54:08Z) - Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
Problem [8.281391209717105]
本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:52:26Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Model Selection for Bayesian Autoencoders [25.619565817793422]
本稿では,オートエンコーダの出力と経験的データ分布との分散スライス-ワッサーシュタイン距離を最適化することを提案する。
我々のBAEは、フレキシブルなディリクレ混合モデルを潜在空間に適合させることにより、生成モデルに変換する。
我々は,教師なしの学習課題に対する膨大な実験的キャンペーンを質的かつ定量的に評価し,先行研究が重要となる小規模データ体制において,我々のアプローチが最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-06-11T08:55:00Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Reinforced Data Sampling for Model Diversification [15.547681142342846]
本稿では,データを適切にサンプリングする方法を学ぶための新しいReinforced Data Smpling (RDS)法を提案する。
モデルダイバーシフィケーションの最適化問題である$delta-div$をデータサンプリングで定式化し,モデルダイバーシフィケーションを注入することで学習ポテンシャルと最適アロケーションを最大化する。
モデル多様化のためのトレーニング可能なサンプリングは,各種機械学習タスクの潜在能力を追求する競技組織,研究者,さらには開始者にとって有用であることが示唆された。
論文 参考訳(メタデータ) (2020-06-12T11:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。