論文の概要: A Framework for End-to-End Learning on Semantic Tree-Structured Data
- arxiv url: http://arxiv.org/abs/2002.05707v1
- Date: Thu, 13 Feb 2020 18:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 10:02:15.130176
- Title: A Framework for End-to-End Learning on Semantic Tree-Structured Data
- Title(参考訳): 意味的木構造データに基づくエンドツーエンド学習フレームワーク
- Authors: William Woof and Ke Chen
- Abstract要約: 構造化データの一般的な形態は、私たちが「セマンティックツリー構造」と呼ぶものである。
汎用意味木構造データに基づくエンドツーエンド学習のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.241801379755808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While learning models are typically studied for inputs in the form of a fixed
dimensional feature vector, real world data is rarely found in this form. In
order to meet the basic requirement of traditional learning models, structural
data generally have to be converted into fix-length vectors in a handcrafted
manner, which is tedious and may even incur information loss. A common form of
structured data is what we term "semantic tree-structures", corresponding to
data where rich semantic information is encoded in a compositional manner, such
as those expressed in JavaScript Object Notation (JSON) and eXtensible Markup
Language (XML). For tree-structured data, several learning models have been
studied to allow for working directly on raw tree-structure data, However such
learning models are limited to either a specific tree-topology or a specific
tree-structured data format, e.g., synthetic parse trees. In this paper, we
propose a novel framework for end-to-end learning on generic semantic
tree-structured data of arbitrary topology and heterogeneous data types, such
as data expressed in JSON, XML and so on. Motivated by the works in recursive
and recurrent neural networks, we develop exemplar neural implementations of
our framework for the JSON format. We evaluate our approach on several UCI
benchmark datasets, including ablation and data-efficiency studies, and on a
toy reinforcement learning task. Experimental results suggest that our
framework yields comparable performance to use of standard models with
dedicated feature-vectors in general, and even exceeds baseline performance in
cases where compositional nature of the data is particularly important.
The source code for a JSON-based implementation of our framework along with
experiments can be downloaded at https://github.com/EndingCredits/json2vec.
- Abstract(参考訳): 学習モデルは通常、固定次元特徴ベクトルの形で入力について研究されるが、実世界のデータは、この形式ではまれである。
従来の学習モデルの基本的な要件を満たすためには、構造データは一般に、手作りの方法で固定長ベクトルに変換する必要がある。
構造化データの一般的な形式は、JavaScript Object Notation (JSON) や eXtensible Markup Language (XML) で表されるような、リッチなセマンティック情報が構成的にエンコードされるデータに対応する「意味木構造」と呼ばれるものである。
木構造データについては、生の木構造データを直接扱えるようにいくつかの学習モデルが研究されているが、そのような学習モデルは特定の木トポロジーまたは特定の木構造データフォーマット、例えば合成構文木に限られている。
本稿では,JSON や XML などで表現されたデータなど,任意のトポロジや異種データ型の汎用的意味木構造データに対するエンドツーエンド学習のための新しいフレームワークを提案する。
再帰的および再帰的ニューラルネットワークの研究に触発され、JSONフォーマットのためのフレームワークの典型的なニューラル実装を開発しました。
筆者らは, アブレーションやデータ効率の研究を含むいくつかのUCIベンチマークデータセットと, おもちゃの強化学習タスクに対するアプローチを評価した。
実験結果から,本フレームワークは,特定の特徴ベクトルを持つ標準モデルに匹敵する性能を示し,データの構成特性が特に重要である場合に,ベースライン性能を超えていることがわかった。
フレームワークのJSONベースの実装と実験のソースコードはhttps://github.com/EndingCredits/json2vec.comからダウンロードできる。
関連論文リスト
- Dissecting embedding method: learning higher-order structures from data [0.0]
データ学習のための幾何学的深層学習法は、しばしば特徴空間の幾何学に関する仮定のセットを含む。
これらの仮定と、データが離散的で有限であるという仮定は、いくつかの一般化を引き起こし、データとモデルの出力の間違った解釈を生み出す可能性がある。
論文 参考訳(メタデータ) (2024-10-14T08:19:39Z) - Tree-based variational inference for Poisson log-normal models [47.82745603191512]
階層木は、しばしば近接基準に基づいてエンティティを組織するために使用される。
現在のカウントデータモデルは、この構造化情報を利用していない。
本稿では,PLNモデルの拡張としてPLN-Treeモデルを導入し,階層的カウントデータをモデル化する。
論文 参考訳(メタデータ) (2024-06-25T08:24:35Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Faithful Low-Resource Data-to-Text Generation through Cycle Training [14.375070014155817]
近年,構造化データからテキストを生成する手法が大幅に進歩している。
サイクルトレーニングでは、互いに逆転する2つのモデルを使用する。
サイクルトレーニングが完全に教師付きアプローチとほぼ同等のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-05-24T06:44:42Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Learning to Synthesize Data for Semantic Parsing [57.190817162674875]
本稿では,プログラムの構成をモデル化し,プログラムを発話にマップする生成モデルを提案する。
PCFGと事前学習されたBARTの簡易性により,既存のデータから効率的に生成モデルを学習することができる。
GeoQuery と Spider の標準ベンチマークで解析する text-to-Query の in-domain と out-of-domain の両方で、この手法を評価します。
論文 参考訳(メタデータ) (2021-04-12T21:24:02Z) - Structural Adapters in Pretrained Language Models for AMR-to-text
Generation [59.50420985074769]
グラフ構造データからのテキスト生成に関するこれまでの研究は、事前学習言語モデル(plm)に依存している。
グラフ構造をPLMにエンコードするアダプタ法であるStructAdaptを提案する。
論文 参考訳(メタデータ) (2021-03-16T15:06:50Z) - Deep Graph Matching and Searching for Semantic Code Retrieval [76.51445515611469]
本稿では,グラフニューラルネットワークに基づくエンドツーエンドのディープグラフマッチングと探索モデルを提案する。
まず、自然言語クエリテキストとプログラミング言語のコードスニペットをグラフ構造化データで表現する。
特に、DGMSは、個々のクエリテキストやコードスニペットのより構造的な情報をキャプチャするだけでなく、それらの微妙な類似性も学習する。
論文 参考訳(メタデータ) (2020-10-24T14:16:50Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - Stochastic Natural Language Generation Using Dependency Information [0.7995360025953929]
本稿では,自然言語テキストを生成するコーパスベースモデルを提案する。
我々のモデルは、特徴集合を通じてトレーニングデータから依存関係を符号化し、与えられた意味表現のための新しい依存木を生成する。
本モデルでは, 品質だけでなく, 情報性, 自然性といった面においても, 高品質な発話を生成できることが示されている。
論文 参考訳(メタデータ) (2020-01-12T09:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。