論文の概要: Multi-Model Least Squares-Based Recomputation Framework for Large Data
Analysis
- arxiv url: http://arxiv.org/abs/2101.01271v4
- Date: Wed, 3 Mar 2021 16:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:53:31.831329
- Title: Multi-Model Least Squares-Based Recomputation Framework for Large Data
Analysis
- Title(参考訳): 大規模データ解析のための多モデル最小二乗計算フレームワーク
- Authors: Wandong Zhang (1 and 2), QM Jonathan Wu (1), Yimin Yang (2 and 3), WG
Will Zhao (2 and 4), Tianlei Wang (5), and Hui Zhang (6) ((1) University of
Windsor, (2) Lakehead University, (3) Vector Institute for Artificial
Intelligence, (4) CEGEP de Ste Foy, (5) Hangzhou Dianzi University, (6) Hunan
University)
- Abstract要約: ImageNetデータセットの処理などの複雑なタスクでは、直接エンコードできる手がかりが頻繁にあります。
これは、教師なし学習がまだ学んでいないヒントを学ぶために潜在空間表現を再訓練する動機となる。
本稿では,MP逆(RML-MP)を用いた再計算に基づく多層ネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most multilayer least squares (LS)-based neural networks are structured with
two separate stages: unsupervised feature encoding and supervised pattern
classification. Once the unsupervised learning is finished, the latent encoding
would be fixed without supervised fine-tuning. However, in complex tasks such
as handling the ImageNet dataset, there are often many more clues that can be
directly encoded, while the unsupervised learning, by definition cannot know
exactly what is useful for a certain task. This serves as the motivation to
retrain the latent space representations to learn some clues that unsupervised
learning has not yet learned. In particular, the error matrix from the output
layer is pulled back to each hidden layer, and the parameters of the hidden
layer are recalculated with Moore-Penrose (MP) inverse for more generalized
representations. In this paper, a recomputation-based multilayer network using
MP inverse (RML-MP) is developed. A sparse RML-MP (SRML-MP) model to boost the
performance of RML-MP is then proposed. The experimental results with varying
training samples (from 3 K to 1.8 M) show that the proposed models provide
better generalization performance than most representation learning algorithms.
- Abstract(参考訳): ほとんどの多層最小二乗ニューラルネットワークは、教師なし特徴符号化と教師付きパターン分類の2つのステージで構成されている。
教師なし学習が終了すると、潜在符号化は教師なしの微調整なしで修正される。
しかし、ImageNetデータセットの処理のような複雑なタスクでは、直接コード化できる多くの手がかりがあるが、教師なし学習では、特定のタスクに何が役に立つのか正確には理解できない。
これは、教師なし学習がまだ学んでいないヒントを学ぶために潜在空間表現を再訓練する動機となる。
特に、出力層からの誤差行列は各隠蔽層に引き戻され、隠蔽層のパラメータはより一般化された表現のためにムーア・ペンローズ(MP)逆数で再計算される。
本稿では,MP逆(RML-MP)を用いた再計算に基づく多層ネットワークを提案する。
次に、RML-MPの性能を高めるためのスパースRML-MP(SRML-MP)モデルを提案する。
3Kから1.8Mまでの様々なトレーニングサンプルによる実験結果から,提案モデルでは,ほとんどの表現学習アルゴリズムよりも優れた一般化性能が得られた。
関連論文リスト
- Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Automated Sizing and Training of Efficient Deep Autoencoders using
Second Order Algorithms [0.46040036610482665]
一般化線形分類器の多段階学習法を提案する。
検証エラーは不要な入力のプルーニングによって最小化される。
所望の出力は、Ho-Kashyapルールに似た方法で改善される。
論文 参考訳(メタデータ) (2023-08-11T16:48:31Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Masked Image Modeling with Local Multi-Scale Reconstruction [54.91442074100597]
Masked Image Modeling (MIM) は自己教師付き表現学習において顕著な成功を収めている。
既存のMIMモデルはエンコーダの最上層でのみ再構成タスクを実行する。
そこで我々は,下層と上層がそれぞれ微細かつ粗大な監視信号を再構成する局所的マルチスケール再構成を設計する。
論文 参考訳(メタデータ) (2023-03-09T13:42:04Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Evolving Losses for Unsupervised Video Representation Learning [91.2683362199263]
大規模未ラベル映像データから映像表現を学習する新しい手法を提案する。
提案した教師なし表現学習では,単一のRGBネットワークが実現し,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-02-26T16:56:07Z) - Inference in Multi-Layer Networks with Matrix-Valued Unknowns [32.635971570510755]
出力の観測から多層ニューラルネットワークの入力変数と隠れ変数を推定する問題を考察する。
MAPおよびMMSE推論のための統一近似アルゴリズムを提案する。
提案したMulti-Layer Matrix VAMP (ML-Mat-VAMP) アルゴリズムの性能は, あるランダムな大システム制限下で正確に予測できることが示されている。
論文 参考訳(メタデータ) (2020-01-26T04:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。