論文の概要: ShakyPrepend: A Multi-Group Learner with Improved Sample Complexity
- arxiv url: http://arxiv.org/abs/2603.07319v1
- Date: Sat, 07 Mar 2026 19:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.291298
- Title: ShakyPrepend: A Multi-Group Learner with Improved Sample Complexity
- Title(参考訳): ShakyPrepend: サンプルの複雑さを改善したマルチグループの学習者
- Authors: Lujing Zhang, Daniel Hsu, Sivaraman Balakrishnan,
- Abstract要約: マルチグループ学習は、特定のサブグループに対する予測者の条件付き損失を制御することに焦点を当てた学習課題である。
本稿では,差分プライバシにインスパイアされたツールを活用し,既存のアプローチに対する理論的保証を改善する方法であるShakyPrependを提案する。
- 参考スコア(独自算出の注目度): 12.314183184367996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-group learning is a learning task that focuses on controlling predictors' conditional losses over specified subgroups. We propose ShakyPrepend, a method that leverages tools inspired by differential privacy to obtain improved theoretical guarantees over existing approaches. Through numerical experiments, we demonstrate that ShakyPrepend adapts to both group structure and spatial heterogeneity. We provide practical guidance for deploying multi-group learning algorithms in real-world settings.
- Abstract(参考訳): マルチグループ学習は、特定のサブグループに対する予測者の条件付き損失を制御することに焦点を当てた学習課題である。
本稿では,差分プライバシにインスパイアされたツールを活用し,既存のアプローチに対する理論的保証を改善する方法であるShakyPrependを提案する。
数値実験により、ShakyPrependは群構造と空間的不均一性の両方に適応することを示した。
マルチグループ学習アルゴリズムを実環境に展開するための実践的ガイダンスを提供する。
関連論文リスト
- GroupCoOp: Group-robust Fine-tuning via Group Prompt Learning [57.888537648437115]
Group Context Optimization (GroupCoOp) は、単純で効果的な微調整アルゴリズムである。
微調整視覚言語モデル(VLM)の群ロバスト性を高める
GroupCoOpは、5つのCLIPアーキテクチャにわたる5つのベンチマークで最高の結果を得た。
論文 参考訳(メタデータ) (2025-09-28T09:54:30Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Multi-group Learning for Hierarchical Groups [12.473780585666768]
我々は、多群学習の研究を、群が階層的に構造化される自然の場合にまで拡張する。
そこで我々は,ほぼ最適なサンプル量を持つ解釈可能かつ決定論的決定木予測器を出力するアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-01T01:06:32Z) - Group conditional validity via multi-group learning [5.797821810358083]
本研究では,分布自由な共形予測の問題と群条件妥当性の基準について考察する。
既存の方法は、制限的群化構造または分布的仮定の下でそのような保証を達成する。
マルチグループ学習と呼ばれる問題に対して,アルゴリズムを活用することにより,個人集団に対する妥当性保証を実現する問題に対する簡易な削減を提案する。
論文 参考訳(メタデータ) (2023-03-07T15:51:03Z) - A Unifying Perspective on Multi-Calibration: Game Dynamics for
Multi-Objective Learning [63.20009081099896]
マルチキャリブレーション予測器の設計と解析のための統一フレームワークを提供する。
ゲームダイナミクスとの接続を利用して,多様なマルチ校正学習問題に対する最先端の保証を実現する。
論文 参考訳(メタデータ) (2023-02-21T18:24:17Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Simple and near-optimal algorithms for hidden stratification and multi-group learning [13.337579367787253]
本稿では,多群学習問題に対する解の構造について考察する。
学習問題に対して単純でほぼ最適のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-12-22T19:16:24Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。