論文の概要: Dual Feature Reduction for the Sparse-group Lasso and its Adaptive Variant
- arxiv url: http://arxiv.org/abs/2405.17094v2
- Date: Wed, 17 Sep 2025 08:31:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.498977
- Title: Dual Feature Reduction for the Sparse-group Lasso and its Adaptive Variant
- Title(参考訳): Sparse-group Lasso と Adaptive Variant の 2 つの特徴について
- Authors: Fabio Feser, Marina Evangelou,
- Abstract要約: スパース群ラッソは、ラッソと群ラッソの強さを同時に利用して、変数と群選択の両方を実行する。
遺伝子学の分野では、スパース集団のペナルティが原因で、高次元データの分析を常用する分野として広く用いられている。
本稿では、スパース群ラッソと適応スパース群ラッソの強いスクリーニング規則を用いて、最適化前の入力空間を縮小する特徴量削減手法であるデュアル特徴量削減法(DFR)を提案する。
- 参考スコア(独自算出の注目度): 1.6615337656760856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sparse-group lasso performs both variable and group selection, simultaneously using the strengths of the lasso and group lasso. It has found widespread use in genetics, a field that regularly involves the analysis of high-dimensional data, due to its sparse-group penalty, which allows it to utilize grouping information. However, the sparse-group lasso can be computationally expensive, due to the added shrinkage complexity, and its additional hyperparameter that needs tuning. This paper presents a novel feature reduction method, Dual Feature Reduction (DFR), that uses strong screening rules for the sparse-group lasso and the adaptive sparse-group lasso to reduce their input space before optimization, without affecting solution optimality. DFR applies two layers of screening through the application of dual norms and subdifferentials. Through synthetic and real data studies, it is shown that DFR drastically reduces the computational cost under many different scenarios.
- Abstract(参考訳): スパース群ラッソは、ラッソと群ラッソの強さを同時に利用して、変数と群選択の両方を実行する。
遺伝子学で広く使われるようになったが、これは集団情報の活用を可能にするスパース・グループ・ペナルティのため、高次元データの分析を常用する分野である。
しかし、スパース群のラッソは、縮小の複雑さとチューニングを必要とする追加のハイパーパラメータのため、計算コストがかかる可能性がある。
本稿では,スパース群ラッソと適応スパース群ラッソの強いスクリーニング規則を用いて,解の最適性に影響を与えることなく,最適化前の入力空間を縮小する特徴量削減手法であるデュアル特徴量削減法(DFR)を提案する。
DFRは双対ノルムと部分微分の応用を通して2つの層をスクリーニングする。
合成および実データ研究を通じて、DFRは様々なシナリオにおいて計算コストを大幅に削減することを示した。
関連論文リスト
- Generate Aligned Anomaly: Region-Guided Few-Shot Anomaly Image-Mask Pair Synthesis for Industrial Inspection [53.137651284042434]
異常検査は製造業において重要な役割を担っているが、異常サンプルの不足は既存の方法の有効性を制限している。
本稿では,GAA (Generate grained Anomaly) を提案する。
GAAは少数のサンプルのみを用いて現実的で多様で意味的に整合した異常を発生させる。
論文 参考訳(メタデータ) (2025-07-13T12:56:59Z) - Bridging Jensen Gap for Max-Min Group Fairness Optimization in Recommendation [63.66719748453878]
グループ・マックスミン・フェアネス(MMF)は、最適化の目的として、フェアネス・アウェア・レコメンダシステム(RS)で一般的に使用される。
本稿では,Jensenギャップを最小化するために2つの最適化手法を利用するFairDualというアルゴリズムを提案する。
理論的解析により、FairDualは、大域的最適解に対するサブ線形収束率を達成できることが示されている。
論文 参考訳(メタデータ) (2025-02-13T13:33:45Z) - Towards a Fairer Non-negative Matrix Factorization [6.069820038869034]
非負行列因子化(NMF)がデータ群の表現に偏りをもたらすかを検討する。
異なるグループに対する最大再構成損失を最小化するFairer-NMFという手法を提案する。
論文 参考訳(メタデータ) (2024-11-14T23:34:38Z) - Using Constraints to Discover Sparse and Alternative Subgroup Descriptions [0.0]
サブグループ発見法により、ユーザはデータセットで興味深い領域の簡単な記述を取得できる。
まず、サブグループ記述で使用される機能の数を制限し、後者はスパース化します。
第二に、与えられたサブグループと類似したデータオブジェクトの集合をカバーするが、異なる特徴を持つ代替サブグループ記述を見つけるための新しい最適化問題を提案する。
論文 参考訳(メタデータ) (2024-06-03T15:10:01Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Sparsity via Sparse Group $k$-max Regularization [22.05774771336432]
本稿では,新規かつ簡潔な正規化,すなわちスパース群$k$-max正規化を提案する。
提案手法の有効性と柔軟性を,合成データセットと実世界のデータセットの数値実験により検証する。
論文 参考訳(メタデータ) (2024-02-13T14:41:28Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - The non-overlapping statistical approximation to overlapping group lasso [4.197110761923662]
重なり合う群ラスソペナルティの近似として分離可能なペナルティを提案する。
この分離性により, ペナルティに基づく正規化の計算は, 重なり合う群ラッソの計算よりもかなり高速である。
提案した分離性ペナルティに基づく推定値は,重なり合うグループラッソペナルティに基づく推定値と統計的に等価であることを示す。
論文 参考訳(メタデータ) (2022-11-16T21:21:41Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Just Train Twice: Improving Group Robustness without Training Group
Information [101.84574184298006]
経験的リスク最小化による標準トレーニングは、特定のグループにおける平均的かつ低い精度で高い精度を達成するモデルを生成することができる。
群分布的ロバストな最適化 (group DRO) のような、最悪のグループ精度を達成する以前のアプローチでは、トレーニングポイントごとに高価なグループアノテーションが必要である。
本稿では,複数のエポックに対して標準的なERMモデルを訓練し,第1モデルが誤分類したトレーニング例を重み付けする第2モデルを訓練する,単純な2段階のアプローチであるJTTを提案する。
論文 参考訳(メタデータ) (2021-07-19T17:52:32Z) - Feature Grouping and Sparse Principal Component Analysis [23.657672812296518]
Grouping and Sparse principal Analysis (SPCA) はデータ処理次元の削減に広く利用されている。
FGSPCAは、荷重が不均一な同種群に属することを許容し、空間性は特別な場合である。
論文 参考訳(メタデータ) (2021-06-25T15:08:39Z) - Robust Recursive Partitioning for Heterogeneous Treatment Effects with
Uncertainty Quantification [84.53697297858146]
治療効果のサブグループ分析は、医療から公共政策、レコメンデーターシステムへの応用において重要な役割を担っている。
サブグループ分析の現在の手法のほとんどは、個別化処理効果(ITE)を推定するための特定のアルゴリズムから始まる。
本稿では、これらの弱点に対処する新しい部分群解析法R2Pを開発する。
論文 参考訳(メタデータ) (2020-06-14T14:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。