論文の概要: PCA-based Multi Task Learning: a Random Matrix Approach
- arxiv url: http://arxiv.org/abs/2111.00924v1
- Date: Mon, 1 Nov 2021 13:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 22:38:56.167754
- Title: PCA-based Multi Task Learning: a Random Matrix Approach
- Title(参考訳): pcaに基づくマルチタスク学習:ランダムマトリクスによるアプローチ
- Authors: Malik Tiomoko, Romain Couillet and Fr\'ed\'eric Pascal
- Abstract要約: 本稿では,一般的な主成分分析 (PCA) に基づく教師付き学習手法であるcitebarshan 2011supervised,bair2006prediction の,計算効率のよいマルチタスク学習 (MTL) 拡張を提案し,理論的に分析する。
- 参考スコア(独自算出の注目度): 40.49988553835459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The article proposes and theoretically analyses a \emph{computationally
efficient} multi-task learning (MTL) extension of popular principal component
analysis (PCA)-based supervised learning schemes
\cite{barshan2011supervised,bair2006prediction}. The analysis reveals that (i)
by default learning may dramatically fail by suffering from \emph{negative
transfer}, but that (ii) simple counter-measures on data labels avert negative
transfer and necessarily result in improved performances.
Supporting experiments on synthetic and real data benchmarks show that the
proposed method achieves comparable performance with state-of-the-art MTL
methods but at a \emph{significantly reduced computational cost}.
- Abstract(参考訳): 本稿では,人気主成分分析(PCA)に基づく教師付き学習スキーム \cite{barshan 2011supervised,bair2006prediction} における,emph{computationally efficient} multi-task learning (MTL)拡張の提案と理論的解析を行う。
その分析が明らかにする
(i) デフォルト学習は,emph{ negative transfer} に苦しむことによって劇的に失敗することがあるが,
(ii)データラベルの単純なカウンタ測定は負の転送を回避し、必ずしも性能の向上をもたらす。
合成および実データベンチマーク実験の支援により,提案手法は最先端のMTL法と同等の性能を示すが,計算コストは大幅に削減された。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Robust Principal Component Analysis: A Median of Means Approach [17.446104539598895]
主成分分析(main Component Analysis)は、データビジュアライゼーション、デノイング、次元削減のためのツールである。
最近の教師付き学習手法は、外見的な観察を扱う上で大きな成功を収めている。
本稿では,MoM原理に基づくPCA手法を提案する。
論文 参考訳(メタデータ) (2021-02-05T19:59:05Z) - Robust and flexible learning of a high-dimensional classification rule
using auxiliary outcomes [2.92281985958308]
我々は,高次元線形決定ルールを補助的な結果の存在下で推定する伝達学習手法を開発した。
最終推定器は,1つの利害関係のみを用いた推定よりも低い推定誤差が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T01:14:33Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Large Dimensional Analysis and Improvement of Multi Task Learning [38.86699890656948]
マルチタスク学習(MTL)は、複数の関連するタスクに含まれる有用な情報を利用して、全てのタスクの一般化性能を向上させる。
本稿では,MLLのLast Square Support Vector Machine (LSSVM) バージョンについて,簡単な解析を行うが,注意深い調整を行うと極めて強力である。
論文 参考訳(メタデータ) (2020-09-03T11:40:14Z) - Modal Principal Component Analysis [3.050919759387985]
平均推定の代わりにモード推定を用いて,多くの統計的手法のロバスト性を向上できることが示されている。
本研究では,モード推定に基づく頑健なPCA手法であるMPCAを提案する。
論文 参考訳(メタデータ) (2020-08-07T23:59:05Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。