論文の概要: Epoch-evolving Gaussian Process Guided Learning
- arxiv url: http://arxiv.org/abs/2006.14347v1
- Date: Thu, 25 Jun 2020 12:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 02:46:23.721081
- Title: Epoch-evolving Gaussian Process Guided Learning
- Title(参考訳): エポック進化型ガウス過程指導学習
- Authors: Jiabao Cui, Xuewei Li, Bin Li, Hanbin Zhao, Bourahla Omar, and Xi Li
- Abstract要約: GPGL(Epoch-evolving Gaussian Process Guided Learning)は,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とする。
文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することで、より効率的な最適化を提供する。
我々のGPGLスキームはより一般化され、現在のディープモデルに自然に適用でき、主要なデータセット上で既存のバッチベースの最先端モデルよりも優れている。
- 参考スコア(独自算出の注目度): 16.834048435448278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel learning scheme called epoch-evolving
Gaussian Process Guided Learning (GPGL), which aims at characterizing the
correlation information between the batch-level distribution and the global
data distribution. Such correlation information is encoded as context labels
and needs renewal every epoch. With the guidance of the context label and
ground truth label, GPGL scheme provides a more efficient optimization through
updating the model parameters with a triangle consistency loss. Furthermore,
our GPGL scheme can be further generalized and naturally applied to the current
deep models, outperforming the existing batch-based state-of-the-art models on
mainstream datasets (CIFAR-10, CIFAR-100, and Tiny-ImageNet) remarkably.
- Abstract(参考訳): 本稿では,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とした,エポック進化型ガウスプロセスガイド学習(GPGL)と呼ばれる新しい学習手法を提案する。
このような相関情報はコンテキストラベルとしてエンコードされ、エポックごとに更新する必要がある。
文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することでより効率的な最適化を提供する。
さらに,既存のバッチベースの最先端モデル(cifar-10,cifar-100,tiny-imagenet)を著しく上回って,gpglスキームをさらに一般化し,現在の深層モデルに適用することができる。
関連論文リスト
- ZeroG: Investigating Cross-dataset Zero-shot Transferability in Graphs [39.4270450766651]
ZeroGは、クロスデータセットの一般化を可能にするために設計された新しいフレームワークである。
本稿では,抽出したサブグラフの意味情報と構造情報を豊かにするための,プロンプトベースのサブグラフサンプリングモジュールを提案する。
その結果, モデルの有効性は, クロスデータセットのゼロショット転送性に有意であることがわかった。
論文 参考訳(メタデータ) (2024-02-17T09:52:43Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Streaming Generalized Canonical Polyadic Tensor Decompositions [0.0]
我々は、ストリーミングデータの一般化正準ポリアディックテンソル分解を計算するために、オンラインGCPと呼ぶ方法を開発した。
ストリーミングの場合、テンソルデータは時間とともに徐々に観察され、アルゴリズムは事前データへの限られたアクセスでGCPの分解を漸進的に更新する必要がある。
論文 参考訳(メタデータ) (2021-10-27T15:26:24Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Cyclic Label Propagation for Graph Semi-supervised Learning [52.102251202186025]
本稿では,CycPropと呼ばれるグラフ半教師付き学習のための新しいフレームワークを提案する。
CycPropはGNNを周期的かつ相互に強化された方法でラベル伝播の過程に統合する。
特に,提案するCycPropでは,GNNモジュールが学習したノード埋め込みをラベル伝搬による拡張情報で更新する。
論文 参考訳(メタデータ) (2020-11-24T02:55:40Z) - Scalable Gaussian Process Variational Autoencoders [17.345687261000045]
本稿では,実行時およびメモリフットプリントの観点から既存手法より優れた拡張性を持つGP-VAEモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T10:26:02Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Deep Latent-Variable Kernel Learning [25.356503463916816]
本稿では,潜在変数が正規化表現の符号化を行う完全潜時可変カーネル学習(DLVKL)モデルを提案する。
実験により、DLVKL-NSDEは、小さなデータセット上でよく校正されたGPと同様に動作し、大きなデータセット上で既存のディープGPより優れていることが示された。
論文 参考訳(メタデータ) (2020-05-18T05:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。