論文の概要: Epoch-evolving Gaussian Process Guided Learning
- arxiv url: http://arxiv.org/abs/2006.14347v1
- Date: Thu, 25 Jun 2020 12:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 02:46:23.721081
- Title: Epoch-evolving Gaussian Process Guided Learning
- Title(参考訳): エポック進化型ガウス過程指導学習
- Authors: Jiabao Cui, Xuewei Li, Bin Li, Hanbin Zhao, Bourahla Omar, and Xi Li
- Abstract要約: GPGL(Epoch-evolving Gaussian Process Guided Learning)は,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とする。
文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することで、より効率的な最適化を提供する。
我々のGPGLスキームはより一般化され、現在のディープモデルに自然に適用でき、主要なデータセット上で既存のバッチベースの最先端モデルよりも優れている。
- 参考スコア(独自算出の注目度): 16.834048435448278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel learning scheme called epoch-evolving
Gaussian Process Guided Learning (GPGL), which aims at characterizing the
correlation information between the batch-level distribution and the global
data distribution. Such correlation information is encoded as context labels
and needs renewal every epoch. With the guidance of the context label and
ground truth label, GPGL scheme provides a more efficient optimization through
updating the model parameters with a triangle consistency loss. Furthermore,
our GPGL scheme can be further generalized and naturally applied to the current
deep models, outperforming the existing batch-based state-of-the-art models on
mainstream datasets (CIFAR-10, CIFAR-100, and Tiny-ImageNet) remarkably.
- Abstract(参考訳): 本稿では,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とした,エポック進化型ガウスプロセスガイド学習(GPGL)と呼ばれる新しい学習手法を提案する。
このような相関情報はコンテキストラベルとしてエンコードされ、エポックごとに更新する必要がある。
文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することでより効率的な最適化を提供する。
さらに,既存のバッチベースの最先端モデル(cifar-10,cifar-100,tiny-imagenet)を著しく上回って,gpglスキームをさらに一般化し,現在の深層モデルに適用することができる。
関連論文リスト
- Recursive Gaussian Process State Space Model [4.572915072234487]
動作領域とGPハイパーパラメータの両方に適応可能な新しいオンラインGPSSM法を提案する。
ポイントを誘導するオンライン選択アルゴリズムは、情報的基準に基づいて開発され、軽量な学習を実現する。
合成データセットと実世界のデータセットの総合的な評価は,提案手法の精度,計算効率,適応性を示す。
論文 参考訳(メタデータ) (2024-11-22T02:22:59Z) - Graph Neural Networks and Differential Equations: A hybrid approach for data assimilation of fluid flows [0.0]
本研究では,グラフニューラルネットワーク(GNN)とReynolds-Averaged Navier Stokes(RANS)方程式を組み合わせた新しいハイブリッド手法を提案する。
その結果, 純粋なデータ駆動モデルと比較して, 再構成平均流の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - ZeroG: Investigating Cross-dataset Zero-shot Transferability in Graphs [36.749959232724514]
ZeroGは、クロスデータセットの一般化を可能にするために設計された新しいフレームワークである。
特徴の不整合、ラベル空間の整合、負の移動といった、固有の課題に対処する。
本稿では,抽出したサブグラフの意味情報と構造情報を豊かにするための,プロンプトベースのサブグラフサンプリングモジュールを提案する。
論文 参考訳(メタデータ) (2024-02-17T09:52:43Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Cyclic Label Propagation for Graph Semi-supervised Learning [52.102251202186025]
本稿では,CycPropと呼ばれるグラフ半教師付き学習のための新しいフレームワークを提案する。
CycPropはGNNを周期的かつ相互に強化された方法でラベル伝播の過程に統合する。
特に,提案するCycPropでは,GNNモジュールが学習したノード埋め込みをラベル伝搬による拡張情報で更新する。
論文 参考訳(メタデータ) (2020-11-24T02:55:40Z) - Scalable Gaussian Process Variational Autoencoders [17.345687261000045]
本稿では,実行時およびメモリフットプリントの観点から既存手法より優れた拡張性を持つGP-VAEモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T10:26:02Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。