論文の概要: Gromov-Wasserstein Autoencoders
- arxiv url: http://arxiv.org/abs/2209.07007v1
- Date: Thu, 15 Sep 2022 02:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:15:50.622486
- Title: Gromov-Wasserstein Autoencoders
- Title(参考訳): Gromov-Wassersteinオートエンコーダ
- Authors: Nao Nakagawa, Ren Togo, Takahiro Ogawa, Miki Haseyama
- Abstract要約: 我々はGromov-Wasserstein Autoencoders(GWAE)という新しい表現学習手法を提案する。
可能性に基づく目的ではなく、GWAEモデルはGromov-Wasserstein (GW) 計量を最小化することによって、事前最適化可能なトレーニングが可能となる。
トレーニング可能な事前のファミリーを制限することで、下流タスクの潜在表現を制御するメタプライアを導入することができる。
- 参考スコア(独自算出の注目度): 36.656435006076975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning concise data representations without supervisory signals is a
fundamental challenge in machine learning. A prominent approach to this goal is
likelihood-based models such as variational autoencoders (VAE) to learn latent
representations based on a meta-prior, which is a general premise assumed
beneficial for downstream tasks (e.g., disentanglement). However, such
approaches often deviate from the original likelihood architecture to apply the
introduced meta-prior, causing undesirable changes in their training. In this
paper, we propose a novel representation learning method, Gromov-Wasserstein
Autoencoders (GWAE), which directly matches the latent and data distributions.
Instead of a likelihood-based objective, GWAE models have a trainable prior
optimized by minimizing the Gromov-Wasserstein (GW) metric. The GW metric
measures the distance structure-oriented discrepancy between distributions
supported on incomparable spaces, e.g., with different dimensionalities. By
restricting the family of the trainable prior, we can introduce meta-priors to
control latent representations for downstream tasks. The empirical comparison
with the existing VAE-based methods shows that GWAE models can learn
representations based on meta-priors by changing the prior family without
further modifying the GW objective.
- Abstract(参考訳): 監視信号のない簡潔なデータ表現の学習は、機械学習の基本的な課題である。
この目標に対する顕著なアプローチは、変分オートエンコーダ(英語版)(vae)のような確率に基づくモデルで、メタプライアーに基づいて潜在表現を学習する。
しかしながら、そのようなアプローチは多くの場合、導入されたメタプライオリティを適用するために元々のラバースアーキテクチャから逸脱し、彼らのトレーニングに望ましくない変化を引き起こす。
本稿では,新しい表現学習手法であるGromov-Wasserstein Autoencoders (GWAE)を提案する。
可能性に基づく目的ではなく、GWAEモデルはGromov-Wasserstein (GW) 計量を最小化することによって、事前最適化可能なトレーニングが可能となる。
GW計量は、例えば異なる次元の非可換空間上で支えられる分布間の距離構造指向の差を測定する。
トレーニング可能な事前のファミリーを制限することで、下流タスクの潜在表現を制御するメタプライアを導入することができる。
既存のVAE法との比較実験により,GWAEモデルでは,GWの目的をさらに変更することなく,前科を変更することで,メタプライヤに基づく表現を学習できることが示されている。
関連論文リスト
- CMVAE: Causal Meta VAE for Unsupervised Meta-Learning [3.0839245814393728]
教師なしメタ学習は、ラベルのないデータからメタ知識を学習し、新しいタスクに迅速に適応することを目的としている。
既存のアプローチは、トレーニングデータからコンテキストバイアスに誤解される可能性がある。
因果空間の潜伏符号に先行情報をエンコードし,それらの関係を同時に学習し,下流の複数ショット画像分類タスクを実現するための因果メタVAE(CMVAE)を提案する。
論文 参考訳(メタデータ) (2023-02-20T02:49:35Z) - Outlier-Robust Gromov-Wasserstein for Graph Data [31.895380224961464]
我々は、Gromov-Wasserstein (GW) 距離のRGWと呼ばれる新しい頑健なバージョンを導入する。
RGWは、クルバック・リーバーの発散に基づくあいまいさ集合の中で楽観的に摂動する限界制約を特徴とする。
サブグラフマッチングや部分形状対応などの実世界のグラフ学習におけるRGWの有効性を示す。
論文 参考訳(メタデータ) (2023-02-09T12:57:29Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - A Sparsity-promoting Dictionary Model for Variational Autoencoders [16.61511959679188]
深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:13:11Z) - Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains [3.358838755118655]
本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-17T19:07:27Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Variational Mutual Information Maximization Framework for VAE Latent
Codes with Continuous and Discrete Priors [5.317548969642376]
変分オートエンコーダ(VAE)は、複雑なデータの有向潜在変数モデルを学習するためのスケーラブルな方法である。
本稿では,VAEのための変分相互情報最大化フレームワークを提案し,この問題に対処する。
論文 参考訳(メタデータ) (2020-06-02T09:05:51Z) - Learning Meta Face Recognition in Unseen Domains [74.69681594452125]
メタ顔認識(MFR)というメタラーニングを用いた新しい顔認識手法を提案する。
MFRは、メタ最適化目標を用いてソース/ターゲットドメインシフトを合成する。
一般化顔認識評価のためのベンチマークを2つ提案する。
論文 参考訳(メタデータ) (2020-03-17T14:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。