論文の概要: Semi-supervised Vector-valued Learning: Improved Bounds and Algorithms
- arxiv url: http://arxiv.org/abs/1909.04883v4
- Date: Tue, 29 Aug 2023 03:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 19:36:53.817415
- Title: Semi-supervised Vector-valued Learning: Improved Bounds and Algorithms
- Title(参考訳): 半教師付きベクトル値学習:境界とアルゴリズムの改善
- Authors: Jian Li, Yong Liu, and Weiping Wang
- Abstract要約: カーネルの観点と線形視点の両方から一般ベクトル値学習のための新しい半教師付き過剰リスク境界を導出する。
理論解析により,ベクトル値関数を効率的に学習するための一般半教師付きアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 20.53130700587322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vector-valued learning, where the output space admits a vector-valued
structure, is an important problem that covers a broad family of important
domains, e.g. multi-task learning and transfer learning. Using local Rademacher
complexity and unlabeled data, we derive novel semi-supervised excess risk
bounds for general vector-valued learning from both kernel perspective and
linear perspective. The derived bounds are much sharper than existing ones and
the convergence rates are improved from the square root of labeled sample size
to the square root of total sample size or directly dependent on labeled sample
size. Motivated by our theoretical analysis, we propose a general
semi-supervised algorithm for efficiently learning vector-valued functions,
incorporating both local Rademacher complexity and Laplacian regularization.
Extensive experimental results illustrate the proposed algorithm significantly
outperforms the compared methods, which coincides with our theoretical
findings.
- Abstract(参考訳): ベクトル値学習(ベクトル値学習、英: Vector-valued learning)は、多タスク学習や伝達学習など、重要な領域の幅広いファミリーをカバーする重要な問題である。
局所ラデマッハ複雑性とラベルなしデータを用いて,カーネル視点と線形視点の両方から一般ベクトル値学習のための,新しい半教師あり超過リスク境界を導出する。
得られたバウンダリは, 既存のバウンダリよりもはるかに鋭く, ラベル付きサンプルサイズの正方根から全サンプルサイズの正方根へ, あるいはラベル付きサンプルサイズに直接依存して収束率を向上する。
理論解析により,局所ラデマッハ複雑性とラプラシアン正規化の両方を取り入れ,ベクトル値関数を効率的に学習する一般半教師付きアルゴリズムを提案する。
実験結果から,提案アルゴリズムは理論的な結果と一致する比較手法を著しく上回る結果を得た。
関連論文リスト
- Optimal Rates for Vector-Valued Spectral Regularization Learning Algorithms [28.046728466038022]
ベクトル値出力を持つ多種多様な正規化アルゴリズムの理論的特性について検討する。
ベクトル値出力によるリッジ回帰に対するいわゆる飽和効果を厳密に検証する。
有限サンプルリスク一般ベクトル値スペクトルアルゴリズムの上限について述べる。
論文 参考訳(メタデータ) (2024-05-23T16:45:52Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Fine-grained Generalization Analysis of Vector-valued Learning [28.722350261462463]
正規化ベクトル値学習アルゴリズムの一般化解析を,出力次元に軽度依存する境界とサンプルサイズに高速速度を提示することで開始する。
最適化と学習の相互作用を理解するために、結果を使用して、ベクトル値関数による降下の最初の境界を導出します。
副生成物として、一般凸函数の項で定義される損失関数クラスに対してラデマッハ複雑性を導出する。
論文 参考訳(メタデータ) (2021-04-29T07:57:34Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - Information-theoretic analysis for transfer learning [5.081241420920605]
本稿では,一般化誤差と転帰学習アルゴリズムの過大なリスクに関する情報理論解析を行う。
我々の結果は、おそらく予想通り、Kulback-Leiblerの発散$D(mu||mu')$が一般化誤差を特徴づける重要な役割を果たすことを示唆している。
論文 参考訳(メタデータ) (2020-05-18T13:23:20Z) - A Theory of the Risk for Optimization with Relaxation and its
Application to Support Vector Machines [3.045851438458641]
データ駆動設計に不可欠なパラダイムである緩和による最適化について検討する。
このアプローチは以前、ガラッティとカンピのこの作品の同じ著者によって検討された。
論文 参考訳(メタデータ) (2020-04-13T09:38:25Z) - Provably Efficient Exploration for Reinforcement Learning Using
Unsupervised Learning [96.78504087416654]
強化学習(RL)問題における効率的な探索に教師なし学習を用い,本パラダイムが有効であるかどうかを考察する。
本稿では,教師なし学習アルゴリズムと非線形表RLアルゴリズムという,2つのコンポーネント上に構築された汎用的なアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T19:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。