論文の概要: Safe Distributionally Robust Feature Selection under Covariate Shift
- arxiv url: http://arxiv.org/abs/2603.16062v1
- Date: Tue, 17 Mar 2026 02:11:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.069734
- Title: Safe Distributionally Robust Feature Selection under Covariate Shift
- Title(参考訳): 共変量シフト下における安全な分布ロバストな特徴選択
- Authors: Hiroyuki Hanada, Satoshi Akahane, Noriaki Hashimoto, Shion Takeno, Ichiro Takeuchi,
- Abstract要約: 分布ロバストな特徴選択(DRFS)の問題について検討する。
提案手法は,入力分布シフトの特定の範囲で最適な全てのサブセットを含む特徴サブセットを同定する。
- 参考スコア(独自算出の注目度): 15.038259509609611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In practical machine learning, the environments encountered during the model development and deployment phases often differ, especially when a model is used by many users in diverse settings. Learning models that maintain reliable performance across plausible deployment environments is known as distributionally robust (DR) learning. In this work, we study the problem of distributionally robust feature selection (DRFS), with a particular focus on sparse sensing applications motivated by industrial needs. In practical multi-sensor systems, a shared subset of sensors is typically selected prior to deployment based on performance evaluations using many available sensors. At deployment, individual users may further adapt or fine-tune models to their specific environments. When deployment environments differ from those anticipated during development, this strategy can result in systems lacking sensors required for optimal performance. To address this issue, we propose safe-DRFS, a novel approach that extends safe screening from conventional sparse modeling settings to a DR setting under covariate shift. Our method identifies a feature subset that encompasses all subsets that may become optimal across a specified range of input distribution shifts, with finite-sample theoretical guarantees of no false feature elimination.
- Abstract(参考訳): 実践的な機械学習では、モデルの開発とデプロイフェーズで遭遇する環境は、特に多くのユーザがさまざまな設定でモデルを使用している場合、しばしば異なる。
デプロイ環境全体にわたって信頼性の高いパフォーマンスを維持する学習モデルは、分散ロバスト(DR)学習として知られている。
本研究では,産業ニーズに動機づけられたスパースセンシングアプリケーションに着目し,分散ロバストな特徴選択(DRFS)の問題について検討する。
実用的なマルチセンサーシステムでは、多くの利用可能なセンサを用いた性能評価に基づいて、デプロイ前に共有センサーのサブセットが選択されるのが一般的である。
デプロイ時には、個々のユーザが特定の環境にさらに適応したり、微調整したりすることができる。
デプロイメント環境が開発中に予想されるものと異なる場合、この戦略は最適なパフォーマンスに必要なセンサーが欠如するシステムをもたらす可能性がある。
この問題に対処するため,従来のスパースモデリング設定から,共変量シフトの下でのDR設定まで,安全なスクリーニングを拡張する新しいアプローチであるSafe-DRFSを提案する。
提案手法は,入力分布シフトの特定の範囲で最適となる全ての部分集合を包含する特徴部分集合を,有限サンプル理論的保証により同定する。
関連論文リスト
- Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios [54.58186816693791]
環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
論文 参考訳(メタデータ) (2025-06-30T17:14:12Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - Adaptive Attention-Based Model for 5G Radio-based Outdoor Localization [9.780910116255486]
マルチパス干渉と閉塞は、局所化の精度に影響を与える様々なレベルの複雑さをもたらす。
我々は,浅い注意に基づくモデルと単一層パーセプトロンに基づくルータ/スイッチング機構を組み合わせた適応的ローカライゼーションフレームワークを開発した。
論文 参考訳(メタデータ) (2025-03-31T07:44:14Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - CAFuser: Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、コンディショントークンを生成する。
我々のモデルは、特に悪条件シナリオにおいて、ロバスト性と精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - Distribution-Dependent Rates for Multi-Distribution Learning [26.38831409926518]
最近のマルチディストリビューション学習フレームワークは、環境との動的相互作用において、この目的に対処する。
我々は, MDL体制における分布依存性の保証を行い, 最適値以下の差でスケールし, その結果, 試料サイズへの依存度が向上することを示した。
適応型楽観的アルゴリズム LCB-DR を考案し,マルチアームバンディット文学における均一性と楽観的アロケーションのコントラストを反映した。
論文 参考訳(メタデータ) (2023-12-20T15:50:16Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Sensor Control for Information Gain in Dynamic, Sparse and Partially
Observed Environments [1.5402666674186938]
本研究では,部分観測可能,動的,疎密なサンプル環境下での情報収集のための自律型センサ制御手法を提案する。
本研究は,(1)新しい情報獲得報酬を用いて,未開の非定常環境における探索を改善することで,DAN強化学習フレームワークを拡張した。
また、目的のRFスペクトル/フィールドからのサンプリングが限定された状況にまで拡張し、制限されたフィールドサンプリングから反復的に改善されたモデルを介してコントローラを微調整するオリジナルのRLアルゴリズムのモデルベースバージョンを提案する。
論文 参考訳(メタデータ) (2022-11-03T00:03:14Z) - Balancing Fairness and Robustness via Partial Invariance [17.291131923335918]
不変リスク最小化(IRM)は、アウト・オブ・ディストリビューション(OOD)問題を解決するための環境セットから不変機能を学ぶことを目的としている。
障害ケースを軽減するために、部分的な不変性フレームワークを議論する。
本研究は, 一定の条件下での公正性とリスクのトレードオフを軽減するため, 部分的不変リスク最小化が可能であることを示す。
論文 参考訳(メタデータ) (2021-12-17T06:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。