論文の概要: Semi-supervised Learning by Latent Space Energy-Based Model of
Symbol-Vector Coupling
- arxiv url: http://arxiv.org/abs/2010.09359v1
- Date: Mon, 19 Oct 2020 09:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:34:29.136577
- Title: Semi-supervised Learning by Latent Space Energy-Based Model of
Symbol-Vector Coupling
- Title(参考訳): 記号-ベクトル結合の潜在空間エネルギーに基づくモデルによる半教師あり学習
- Authors: Bo Pang, Erik Nijkamp, Jiali Cui, Tian Han, Ying Nian Wu
- Abstract要約: 半教師付き学習のための潜在宇宙エネルギーに基づく事前モデルを提案する。
本手法は,半教師付き学習タスクにおいてよく機能することを示す。
- 参考スコア(独自算出の注目度): 55.866810975092115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a latent space energy-based prior model for
semi-supervised learning. The model stands on a generator network that maps a
latent vector to the observed example. The energy term of the prior model
couples the latent vector and a symbolic one-hot vector, so that classification
can be based on the latent vector inferred from the observed example. In our
learning method, the symbol-vector coupling, the generator network and the
inference network are learned jointly. Our method is applicable to
semi-supervised learning in various data domains such as image, text, and
tabular data. Our experiments demonstrate that our method performs well on
semi-supervised learning tasks.
- Abstract(参考訳): 本稿では,半教師付き学習のための潜在空間エネルギーに基づく事前モデルを提案する。
このモデルは、潜在ベクトルを観測例にマッピングするジェネレータネットワーク上に立っている。
先行モデルのエネルギー項は潜時ベクトルとシンボリック・ワンホットベクトルを結合し、観測された例から推測された潜時ベクトルに基づいて分類することができる。
本手法では,シンボルベクトル結合,ジェネレータネットワーク,推論ネットワークを共同で学習する。
本手法は,画像,テキスト,表データなどの様々なデータ領域における半教師付き学習に適用できる。
実験により,本手法が半教師付き学習タスクに有効であることを実証した。
関連論文リスト
- A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Learning Sparse Latent Representations for Generator Model [7.467412443287767]
そこで本研究では,ジェネレータモデルの潜在空間に空間空間を強制する教師なし学習手法を提案する。
我々のモデルは1つのトップダウンジェネレータネットワークから成り、潜在変数を観測データにマッピングする。
論文 参考訳(メタデータ) (2022-09-20T18:58:24Z) - Latent Space Energy-Based Model of Symbol-Vector Coupling for Text
Generation and Classification [42.5461221309397]
本稿では,テキスト生成と分類のための遅延空間エネルギーに基づく先行モデルを提案する。
モデルは、連続した潜伏ベクトルに基づいてテキストシーケンスを生成するジェネレータネットワークの上に立つ。
実験により,提案モデルが十分に構造化された有意義な潜在空間を学習できることが実証された。
論文 参考訳(メタデータ) (2021-08-26T02:31:18Z) - Asymptotics of Network Embeddings Learned via Subsampling [4.23373349945751]
本研究では,ノード2vecのようなサブサンプリング手法を用いて,単一の統一フレームワークへの表現手法について検討する。
これは、埋め込みベクトルが何を表現し、これらのメソッドが下流のタスクでいかにうまく機能するかを理解するための理論的基盤を提供する。
特に、一般的に使用される損失関数は、Fisher整合性の欠如などの欠点を引き起こす可能性があることを観察する。
論文 参考訳(メタデータ) (2021-07-06T02:54:53Z) - Conditional Neural Relational Inference for Interacting Systems [58.141087282927415]
我々は、類似しているが異なる相互作用するオブジェクトのグループのダイナミクスをモデル化することを学ぶ。
ベクトル記述から任意の群から条件生成が可能なモデルを開発する。
我々は,ヒト歩行のモデル化と,特に病理的ヒト歩行のモデル化におけるモデルの評価を行った。
論文 参考訳(メタデータ) (2021-06-21T13:05:48Z) - Transfer Learning for Node Regression Applied to Spreading Prediction [0.0]
特定のノードから拡散する効果を評価するために使用すると、最先端のノード表現学習者の有用性を検討します。
多くの実生活ネットワークはトポロジカルに類似しているため、学習したモデルが以前見つからなかったネットワークに一般化するかどうかを体系的に調査する。
これはノード回帰タスクにおけるゼロショット転送の有用性を評価する最初の試みの1つである。
論文 参考訳(メタデータ) (2021-03-31T20:09:09Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - word2vec, node2vec, graph2vec, X2vec: Towards a Theory of Vector
Embeddings of Structured Data [2.63067287928779]
ベクトル埋め込みの基礎を理解するための2つの理論的アプローチを提案する。
我々は,様々なアプローチのつながりを描き,今後の研究の方向性を提案する。
論文 参考訳(メタデータ) (2020-03-27T18:23:55Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。