論文の概要: Group-realizable multi-group learning by minimizing empirical risk
- arxiv url: http://arxiv.org/abs/2601.16922v1
- Date: Fri, 23 Jan 2026 17:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.78265
- Title: Group-realizable multi-group learning by minimizing empirical risk
- Title(参考訳): 経験的リスクを最小化するグループ実現型多群学習
- Authors: Navid Ardeshir, Samuel Deng, Daniel Hsu, Jingwen Liu,
- Abstract要約: マルチグループ学習のサンプル複雑性は、非依存的な設定よりもグループ実現可能な設定を改善することが示されている。
改良されたサンプル複雑性は、グループ実現可能な概念のクラスに対する経験的リスク最小化によって得られる。
- 参考スコア(独自算出の注目度): 10.563254213583622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sample complexity of multi-group learning is shown to improve in the group-realizable setting over the agnostic setting, even when the family of groups is infinite so long as it has finite VC dimension. The improved sample complexity is obtained by empirical risk minimization over the class of group-realizable concepts, which itself could have infinite VC dimension. Implementing this approach is also shown to be computationally intractable, and an alternative approach is suggested based on improper learning.
- Abstract(参考訳): 多群学習のサンプル複雑性は、群族が有限VC次元である限り無限である場合でも、非依存的な設定よりもグループ実現可能な設定を改善することが示されている。
改良されたサンプル複雑性は、グループ実現可能な概念のクラスに対する経験的リスク最小化によって得られる。
このアプローチの実装は計算的に難解であることが示され、不適切な学習に基づく別のアプローチが提案される。
関連論文リスト
- GroupCoOp: Group-robust Fine-tuning via Group Prompt Learning [57.888537648437115]
Group Context Optimization (GroupCoOp) は、単純で効果的な微調整アルゴリズムである。
微調整視覚言語モデル(VLM)の群ロバスト性を高める
GroupCoOpは、5つのCLIPアーキテクチャにわたる5つのベンチマークで最高の結果を得た。
論文 参考訳(メタデータ) (2025-09-28T09:54:30Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Self-Learning Symmetric Multi-view Probabilistic Clustering [35.96327818838784]
マルチビュークラスタリング(MVC)は、複数の視点から知識を学ぶための多くの取り組みによって、大きな進歩を遂げている。
既存のほとんどのメソッドは適用できないか、あるいは不完全なMVCに追加の手順を必要とする。
自己学習対称多視点確率クラスタリングという,不完全かつ完全なMVCのための新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-12T08:27:03Z) - Distributionally Robust Optimization with Probabilistic Group [24.22720998340643]
分散ロバストな最適化のための新しいフレームワークPG-DROを提案する。
私たちのフレームワークの鍵は、ハードグループアノテーションではなく、ソフトグループメンバシップです。
本フレームワークは,グループメンバシップの曖昧さに対処し,従来の技術よりも柔軟性と汎用性を提供する。
論文 参考訳(メタデータ) (2023-03-10T09:31:44Z) - Group conditional validity via multi-group learning [5.797821810358083]
本研究では,分布自由な共形予測の問題と群条件妥当性の基準について考察する。
既存の方法は、制限的群化構造または分布的仮定の下でそのような保証を達成する。
マルチグループ学習と呼ばれる問題に対して,アルゴリズムを活用することにより,個人集団に対する妥当性保証を実現する問題に対する簡易な削減を提案する。
論文 参考訳(メタデータ) (2023-03-07T15:51:03Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Simple and near-optimal algorithms for hidden stratification and multi-group learning [13.337579367787253]
本稿では,多群学習問題に対する解の構造について考察する。
学習問題に対して単純でほぼ最適のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-12-22T19:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。