論文の概要: Recursive Tree Grammar Autoencoders
- arxiv url: http://arxiv.org/abs/2012.02097v2
- Date: Tue, 15 Dec 2020 13:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:40:46.968233
- Title: Recursive Tree Grammar Autoencoders
- Title(参考訳): 再帰木文法オートエンコーダ
- Authors: Benjamin Paassen, Irena Koprinska, Kalina Yacef
- Abstract要約: 本稿では,木をボトムアップ文法で符号化し,木を木文法で復号する,新しいオートエンコーダ手法を提案する。
提案手法は, 4つのベンチマークデータセットにおいて, 自動符号化誤差, トレーニング時間, 最適化スコアを改善することを実験的に示す。
- 参考スコア(独自算出の注目度): 3.791857415239352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning on tree data has been mostly focused on trees as input. Much
less research has investigates trees as output, like in molecule optimization
for drug discovery or hint generation for intelligent tutoring systems. In this
work, we propose a novel autoencoder approach, called recursive tree grammar
autoencoder (RTG-AE), which encodes trees via a bottom-up parser and decodes
trees via a tree grammar, both controlled by neural networks that minimize the
variational autoencoder loss. The resulting encoding and decoding functions can
then be employed in subsequent tasks, such as optimization and time series
prediction. RTG-AE combines variational autoencoders, grammatical knowledge,
and recursive processing. Our key message is that this combination improves
performance compared to only combining two of these three components. In
particular, we show experimentally that our proposed method improves the
autoencoding error, training time, and optimization score on four benchmark
datasets compared to baselines from the literature.
- Abstract(参考訳): ツリーデータの機械学習は、主にインプットとして木に焦点が当てられている。
薬物発見のための分子最適化やインテリジェントチューターシステムのためのヒント生成など、出力として木を研究する研究ははるかに少ない。
本研究では,再帰的木文法オートエンコーダ(RTG-AE)と呼ばれる新しいオートエンコーダ手法を提案し,ボトムアップパーサを介して木を符号化し,ツリー文法を介して木をデコードする。
結果として得られるエンコーディングとデコード関数は、最適化や時系列予測のような後続のタスクに利用することができる。
RTG-AEは変分オートエンコーダ、文法知識、再帰処理を組み合わせる。
私たちの重要なメッセージは、この組み合わせは、これら3つのコンポーネントのうち2つだけを組み合わせるよりもパフォーマンスが向上するということです。
特に,提案手法は,文献のベースラインと比較して,4つのベンチマークデータセットのオートエンコーディング誤差,トレーニング時間,最適化スコアを改善することを実験的に示す。
関連論文リスト
- Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - TreePiece: Faster Semantic Parsing via Tree Tokenization [2.1685554819849613]
TreePieceはパースツリーをサブツリーにトークン化し、デコードステップ毎に1つのサブツリーを生成する。
TopV2ベンチマークでは、TreePieceは標準的なARの4.6倍のデコード速度を示している。
論文 参考訳(メタデータ) (2023-03-30T05:44:44Z) - Structure-Unified M-Tree Coding Solver for MathWord Problem [57.825176412485504]
従来,数式表現の2次木構造を考慮に入れたモデルでは,性能が向上した。
本稿では、出力構造を統一するために、任意のM枝(M-tree)を持つ木を適用した構造統一M-Tree符号化(S-UMCr)を提案する。
広く使われているMAWPSとMath23Kデータセットの実験結果は、SUMC-rが複数の最先端モデルを上回るだけでなく、低リソース条件下でもはるかに優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-10-22T12:20:36Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Structural Optimization Makes Graph Classification Simpler and Better [5.770986723520119]
モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
本稿では,木カーネルと畳み込みネットワークにこのスキームを実装し,グラフ分類を行う。
論文 参考訳(メタデータ) (2021-09-05T08:54:38Z) - Autoencoders as Tools for Program Synthesis [0.43012765978447565]
本稿では,業界グレードプログラミング言語のプログラム合成のための変分オートエンコーダモデルを提案する。
本モデルでは,ソースコードの内部階層構造を組み込んで解析木で動作する。
論文 参考訳(メタデータ) (2021-08-16T14:51:11Z) - Recursive Top-Down Production for Sentence Generation with Latent Trees [77.56794870399288]
自然および合成言語に対する文脈自由文法の生成特性をモデル化する。
潜伏二分木構造にN$の葉を持つ動的プログラミングアルゴリズムを提案する。
また,Multi30kデータセットを用いたドイツ語と英語の翻訳実験を行った。
論文 参考訳(メタデータ) (2020-10-09T17:47:16Z) - Transformer-Based Neural Text Generation with Syntactic Guidance [0.0]
テキスト生成の統語指導として(部分的)選挙区構文解析木を用いた場合の問題点について検討する。
提案手法は,まず部分的テンプレート構文解析木を入力元テキストに適した完全分岐構文解析木に拡張する。
本手法は意味論的・統語論的にSOTAモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-05T01:33:58Z) - Tree Echo State Autoencoders with Grammars [3.7280152311394827]
木の非ベクトル的かつ離散的な性質は、木形式の出力を持つ関数を構築するのを難しくする。
既存のオートエンコーディングアプローチは、ツリードメインの特定の文法構造を考慮に入れない。
本研究では,木文法でガイドされる木エコー状態オートエンコーダ(TES-AE)を提案する。
論文 参考訳(メタデータ) (2020-04-19T18:04:33Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。