論文の概要: Distributionally Robust Safe Screening
- arxiv url: http://arxiv.org/abs/2404.16328v1
- Date: Thu, 25 Apr 2024 04:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 14:48:28.156433
- Title: Distributionally Robust Safe Screening
- Title(参考訳): 配電用ロバストセーフスクリーニング
- Authors: Hiroyuki Hanada, Satoshi Akahane, Tatsuya Aoyama, Tomonari Tanaka, Yoshito Okura, Yu Inatsu, Noriaki Hashimoto, Taro Murayama, Lee Hanju, Shinya Kojima, Ichiro Takeuchi,
- Abstract要約: 本稿では,不必要なサンプルや特徴を特定するために,分散ロバストセーフスクリーニング(DRSS)手法を提案する。
DRSS法を理論的に保証し、合成および実世界のデータセットの数値実験によりその性能を検証する。
- 参考スコア(独自算出の注目度): 14.973247943788234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we propose a method Distributionally Robust Safe Screening (DRSS), for identifying unnecessary samples and features within a DR covariate shift setting. This method effectively combines DR learning, a paradigm aimed at enhancing model robustness against variations in data distribution, with safe screening (SS), a sparse optimization technique designed to identify irrelevant samples and features prior to model training. The core concept of the DRSS method involves reformulating the DR covariate-shift problem as a weighted empirical risk minimization problem, where the weights are subject to uncertainty within a predetermined range. By extending the SS technique to accommodate this weight uncertainty, the DRSS method is capable of reliably identifying unnecessary samples and features under any future distribution within a specified range. We provide a theoretical guarantee of the DRSS method and validate its performance through numerical experiments on both synthetic and real-world datasets.
- Abstract(参考訳): 本研究では,DR共変量シフト設定における不必要なサンプルや特徴を特定するために,分散ロバストセーフスクリーニング(DRSS)を提案する。
本手法は,データ分散の変動に対するモデルロバスト性向上を目的としたDR学習と,モデルトレーニングに先立って無関係なサンプルや特徴を特定するために設計されたスパース最適化手法であるセーフスクリーニング(SS)を効果的に組み合わせたものである。
DRSS法の中核的な概念は、DR共変量シフト問題(DR covariate-shift problem)を、所定の範囲内で重みが不確実な重み付き経験的リスク最小化問題として再構成することである。
この重みの不確実性に対応するためにSS手法を拡張することで、DRSS法は、指定された範囲内での将来の分布において、不要なサンプルや特徴を確実に識別することができる。
DRSS法を理論的に保証し、合成および実世界のデータセットの数値実験によりその性能を検証する。
関連論文リスト
- Distributionally Robust Safe Sample Screening [15.791952053731448]
分散ロバストセーフサンプルスクリーニング(DRSSS)と呼ばれる機械学習手法を提案する。
DRSSSは、将来トレーニングサンプルの分布が変化しても、不要なトレーニングサンプルを特定することを目的としている。
我々は、DRSSS法の理論的保証と、合成データセットと実世界のデータセットの数値実験による性能評価を行う。
論文 参考訳(メタデータ) (2024-06-10T01:46:42Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - [Re] Double Sampling Randomized Smoothing [2.6763498831034043]
本稿では,ニューラルネットワーク(NN)の対向的摂動に対する堅牢性を証明することの課題に,機械学習の分野における課題の1つとして論じる。
提案したDouble Smpling Randomized Smoothing (DSRS) フレームワークは、スムーズな分布を追加してロバスト性認証を改善することで、既存のメソッドの制限を克服する。
論文 参考訳(メタデータ) (2023-06-27T05:46:18Z) - SafeDiffuser: Safe Planning with Diffusion Probabilistic Models [97.80042457099718]
拡散モデルに基づくアプローチは、データ駆動計画において有望であるが、安全保証はない。
我々は,拡散確率モデルが仕様を満たすことを保証するために,SafeDiffuserと呼ばれる新しい手法を提案する。
提案手法は,迷路経路の生成,足歩行ロボットの移動,空間操作など,安全な計画作業の一連のテストを行う。
論文 参考訳(メタデータ) (2023-05-31T19:38:12Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - Adaptive novelty detection with false discovery rate guarantee [1.8249324194382757]
有限標本における検出された新規性に対する偽発見率(FDR)を柔軟に制御する手法を提案する。
複数のテスト文献に触発されて、nullの割合に適応するAdaDetectの変種を提案する。
これらの手法は、天体物理学の応用を含む、合成データセットと実世界のデータセットに説明される。
論文 参考訳(メタデータ) (2022-08-13T17:14:55Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Residuals-based distributionally robust optimization with covariate
information [0.0]
我々は、分散ロバスト最適化(DRO)における機械学習予測モデルを統合するデータ駆動アプローチを検討する。
私たちのフレームワークは、さまざまな学習設定やDROあいまいさセットに対応できるという意味で柔軟です。
論文 参考訳(メタデータ) (2020-12-02T11:21:34Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。