論文の概要: Semi-supervised Learning by Latent Space Energy-Based Model of
Symbol-Vector Coupling
- arxiv url: http://arxiv.org/abs/2010.09359v1
- Date: Mon, 19 Oct 2020 09:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:34:29.136577
- Title: Semi-supervised Learning by Latent Space Energy-Based Model of
Symbol-Vector Coupling
- Title(参考訳): 記号-ベクトル結合の潜在空間エネルギーに基づくモデルによる半教師あり学習
- Authors: Bo Pang, Erik Nijkamp, Jiali Cui, Tian Han, Ying Nian Wu
- Abstract要約: 半教師付き学習のための潜在宇宙エネルギーに基づく事前モデルを提案する。
本手法は,半教師付き学習タスクにおいてよく機能することを示す。
- 参考スコア(独自算出の注目度): 55.866810975092115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a latent space energy-based prior model for
semi-supervised learning. The model stands on a generator network that maps a
latent vector to the observed example. The energy term of the prior model
couples the latent vector and a symbolic one-hot vector, so that classification
can be based on the latent vector inferred from the observed example. In our
learning method, the symbol-vector coupling, the generator network and the
inference network are learned jointly. Our method is applicable to
semi-supervised learning in various data domains such as image, text, and
tabular data. Our experiments demonstrate that our method performs well on
semi-supervised learning tasks.
- Abstract(参考訳): 本稿では,半教師付き学習のための潜在空間エネルギーに基づく事前モデルを提案する。
このモデルは、潜在ベクトルを観測例にマッピングするジェネレータネットワーク上に立っている。
先行モデルのエネルギー項は潜時ベクトルとシンボリック・ワンホットベクトルを結合し、観測された例から推測された潜時ベクトルに基づいて分類することができる。
本手法では,シンボルベクトル結合,ジェネレータネットワーク,推論ネットワークを共同で学習する。
本手法は,画像,テキスト,表データなどの様々なデータ領域における半教師付き学習に適用できる。
実験により,本手法が半教師付き学習タスクに有効であることを実証した。
関連論文リスト
- An Intrinsic Vector Heat Network [64.55434397799728]
本稿では,3次元に埋め込まれた接ベクトル場を学習するためのニューラルネットワークアーキテクチャを提案する。
本研究では, ベクトル値の特徴データを空間的に伝播させるために, トレーニング可能なベクトル熱拡散モジュールを提案する。
また,四面体メッシュ生成の産業的有用性に対する本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-14T00:40:31Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Learning Sparse Latent Representations for Generator Model [7.467412443287767]
そこで本研究では,ジェネレータモデルの潜在空間に空間空間を強制する教師なし学習手法を提案する。
我々のモデルは1つのトップダウンジェネレータネットワークから成り、潜在変数を観測データにマッピングする。
論文 参考訳(メタデータ) (2022-09-20T18:58:24Z) - Latent Space Energy-Based Model of Symbol-Vector Coupling for Text
Generation and Classification [42.5461221309397]
本稿では,テキスト生成と分類のための遅延空間エネルギーに基づく先行モデルを提案する。
モデルは、連続した潜伏ベクトルに基づいてテキストシーケンスを生成するジェネレータネットワークの上に立つ。
実験により,提案モデルが十分に構造化された有意義な潜在空間を学習できることが実証された。
論文 参考訳(メタデータ) (2021-08-26T02:31:18Z) - Asymptotics of Network Embeddings Learned via Subsampling [4.23373349945751]
本研究では,ノード2vecのようなサブサンプリング手法を用いて,単一の統一フレームワークへの表現手法について検討する。
これは、埋め込みベクトルが何を表現し、これらのメソッドが下流のタスクでいかにうまく機能するかを理解するための理論的基盤を提供する。
特に、一般的に使用される損失関数は、Fisher整合性の欠如などの欠点を引き起こす可能性があることを観察する。
論文 参考訳(メタデータ) (2021-07-06T02:54:53Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - word2vec, node2vec, graph2vec, X2vec: Towards a Theory of Vector
Embeddings of Structured Data [2.63067287928779]
ベクトル埋め込みの基礎を理解するための2つの理論的アプローチを提案する。
我々は,様々なアプローチのつながりを描き,今後の研究の方向性を提案する。
論文 参考訳(メタデータ) (2020-03-27T18:23:55Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。