論文の概要: On the sample complexity of semi-supervised multi-objective learning
- arxiv url: http://arxiv.org/abs/2508.17152v1
- Date: Sat, 23 Aug 2025 22:15:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.36966
- Title: On the sample complexity of semi-supervised multi-objective learning
- Title(参考訳): 半教師付き多目的学習の複雑さについて
- Authors: Tobias Wegel, Geelon So, Junhyung Park, Fanny Yang,
- Abstract要約: 多目的学習では、競合する可能性のある予測タスクを1つのモデルで共同で解決する必要がある。
Bregman の損失で定義された目的に対して、$mathcalG$ の複雑さはラベルのないデータでのみ有効であることが証明される。
これらのレートは擬似ラベルによる単純な半教師付きアルゴリズムによって達成される。
- 参考スコア(独自算出の注目度): 17.947890912560162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In multi-objective learning (MOL), several possibly competing prediction tasks must be solved jointly by a single model. Achieving good trade-offs may require a model class $\mathcal{G}$ with larger capacity than what is necessary for solving the individual tasks. This, in turn, increases the statistical cost, as reflected in known MOL bounds that depend on the complexity of $\mathcal{G}$. We show that this cost is unavoidable for some losses, even in an idealized semi-supervised setting, where the learner has access to the Bayes-optimal solutions for the individual tasks as well as the marginal distributions over the covariates. On the other hand, for objectives defined with Bregman losses, we prove that the complexity of $\mathcal{G}$ may come into play only in terms of unlabeled data. Concretely, we establish sample complexity upper bounds, showing precisely when and how unlabeled data can significantly alleviate the need for labeled data. These rates are achieved by a simple, semi-supervised algorithm via pseudo-labeling.
- Abstract(参考訳): 多目的学習(MOL)では、競合する可能性のある予測タスクを1つのモデルで共同で解決する必要がある。
良いトレードオフを達成するには、個々のタスクを解くのに必要なものよりも大きなキャパシティを持つモデルクラス$\mathcal{G}$が必要である。
これは、$\mathcal{G}$ の複雑さに依存する既知の MOL 境界に反映されるように、統計的コストを増大させる。
このコストは、学習者が個々のタスクに対するベイズ最適解や、共変量上の限界分布にアクセスできる理想化された半教師付きセッティングであっても、ある程度の損失に対して避けられないことを示す。
一方、ブレグマンの損失で定義された目的に対して、$\mathcal{G}$の複雑さはラベルなしのデータでのみ有効であることが証明される。
具体的には,ラベルのないデータがラベル付きデータの必要性を大幅に軽減できる時期と方法を示す。
これらのレートは擬似ラベルによる単純な半教師付きアルゴリズムによって達成される。
関連論文リスト
- Out-Of-Domain Unlabeled Data Improves Generalization [0.7589678255312519]
本稿では,ラベルなしデータを半教師付き分類問題に組み込む新しい枠組みを提案する。
ラベルのないサンプルは一般化ギャップを狭めるために利用できることを示す。
我々は、さまざまな合成および実世界のデータセットで実施された実験を通じて、我々の主張を検証する。
論文 参考訳(メタデータ) (2023-09-29T02:00:03Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Robust Meta-learning for Mixed Linear Regression with Small Batches [34.94138630547603]
大量の小データタスクは、ビッグデータタスクの欠如を補うことができるか?
既存のアプローチでは、そのようなトレードオフは効率よく達成でき、それぞれ$Omega(k1/2)$の例を持つ中規模のタスクの助けを借りることができる。
両シナリオで同時に堅牢なスペクトルアプローチを導入する。
論文 参考訳(メタデータ) (2020-06-17T07:59:05Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。