論文の概要: Dual feature reduction for the sparse-group lasso and its adaptive variant
- arxiv url: http://arxiv.org/abs/2405.17094v1
- Date: Mon, 27 May 2024 12:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 15:32:42.541784
- Title: Dual feature reduction for the sparse-group lasso and its adaptive variant
- Title(参考訳): スパース群ラッソの二重特徴量減少とその適応的変異
- Authors: Fabio Feser, Marina Evangelou,
- Abstract要約: スパース群ラッソは、変数選択とグループ選択の両方を行い、ラッソとグループラッソの強度を同時に利用する。
遺伝子学の分野では、スパース集団のペナルティが原因で、高次元データの分析を常用する分野として広く用いられている。
スパース群ラッソと適応スパース群ラッソの強いスクリーニング規則を用いて、最適化前の入力空間を減少させる新しい二重特徴量削減法であるデュアル特徴量削減法(DFR)を提案する。
- 参考スコア(独自算出の注目度): 0.49109372384514843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sparse-group lasso performs both variable and group selection, making simultaneous use of the strengths of the lasso and group lasso. It has found widespread use in genetics, a field that regularly involves the analysis of high-dimensional data, due to its sparse-group penalty, which allows it to utilize grouping information. However, the sparse-group lasso can be computationally more expensive than both the lasso and group lasso, due to the added shrinkage complexity, and its additional hyper-parameter that needs tuning. In this paper a novel dual feature reduction method, Dual Feature Reduction (DFR), is presented that uses strong screening rules for the sparse-group lasso and the adaptive sparse-group lasso to reduce their input space before optimization. DFR applies two layers of screening and is based on the dual norms of the sparse-group lasso and adaptive sparse-group lasso. Through synthetic and real numerical studies, it is shown that the proposed feature reduction approach is able to drastically reduce the computational cost in many different scenarios.
- Abstract(参考訳): スパース群ラッソは、変数選択とグループ選択の両方を行い、ラッソとグループラッソの強度を同時に利用する。
遺伝子学で広く使われるようになったが、これは集団情報の利用を可能にするスパース集団のペナルティのため、高次元データの分析を常用する分野である。
しかしながら、スパース群ラッソは、縮小複雑性の追加とチューニングを必要とするハイパーパラメータの追加により、ラッソとグループラッソの両方よりも計算上より高価である。
本稿では、スパース群ラッソと適応スパース群ラッソの強いスクリーニング規則を用いて、最適化前の入力空間を縮小する新しい二重特徴量削減法であるデュアル特徴量削減法(DFR)を提案する。
DFRは2層のスクリーニングを施し、スパース群ラッソとアダプティブスパース群ラッソの双対ノルムに基づいている。
合成および実数値的な研究を通じて,提案手法により,様々なシナリオにおける計算コストを大幅に削減できることが示されている。
関連論文リスト
- Using Constraints to Discover Sparse and Alternative Subgroup Descriptions [0.0]
サブグループ発見法により、ユーザはデータセットで興味深い領域の簡単な記述を取得できる。
まず、サブグループ記述で使用される機能の数を制限し、後者はスパース化します。
第二に、与えられたサブグループと類似したデータオブジェクトの集合をカバーするが、異なる特徴を持つ代替サブグループ記述を見つけるための新しい最適化問題を提案する。
論文 参考訳(メタデータ) (2024-06-03T15:10:01Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Sparsity via Sparse Group $k$-max Regularization [22.05774771336432]
本稿では,新規かつ簡潔な正規化,すなわちスパース群$k$-max正規化を提案する。
提案手法の有効性と柔軟性を,合成データセットと実世界のデータセットの数値実験により検証する。
論文 参考訳(メタデータ) (2024-02-13T14:41:28Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - The non-overlapping statistical approximation to overlapping group lasso [4.197110761923662]
重なり合う群ラスソペナルティの近似として分離可能なペナルティを提案する。
この分離性により, ペナルティに基づく正規化の計算は, 重なり合う群ラッソの計算よりもかなり高速である。
提案した分離性ペナルティに基づく推定値は,重なり合うグループラッソペナルティに基づく推定値と統計的に等価であることを示す。
論文 参考訳(メタデータ) (2022-11-16T21:21:41Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Exclusive Group Lasso for Structured Variable Selection [10.86544864007391]
構造化変数選択問題を考える。
合成ノルムは、そのような排他的グループ空間パターンを促進するために適切に設計することができる。
構造原子を推定された支持体に含めて解を構築する能動集合アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-08-23T16:55:13Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Feature Grouping and Sparse Principal Component Analysis [23.657672812296518]
Grouping and Sparse principal Analysis (SPCA) はデータ処理次元の削減に広く利用されている。
FGSPCAは、荷重が不均一な同種群に属することを許容し、空間性は特別な場合である。
論文 参考訳(メタデータ) (2021-06-25T15:08:39Z) - Robust Recursive Partitioning for Heterogeneous Treatment Effects with
Uncertainty Quantification [84.53697297858146]
治療効果のサブグループ分析は、医療から公共政策、レコメンデーターシステムへの応用において重要な役割を担っている。
サブグループ分析の現在の手法のほとんどは、個別化処理効果(ITE)を推定するための特定のアルゴリズムから始まる。
本稿では、これらの弱点に対処する新しい部分群解析法R2Pを開発する。
論文 参考訳(メタデータ) (2020-06-14T14:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。