論文の概要: Forming Trees with Treeformers
- arxiv url: http://arxiv.org/abs/2207.06960v1
- Date: Thu, 14 Jul 2022 14:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 12:29:48.087348
- Title: Forming Trees with Treeformers
- Title(参考訳): ツリーフォーマーによる木の形成
- Authors: Nilay Patel and Jeffrey Flanigan
- Abstract要約: CKYアルゴリズムとTransformerにインスパイアされたアーキテクチャであるTreeformerを紹介する。
Treeformerは、句や文の階層的なエンコーディングを構築するために、合成演算子とプール機能を学ぶ。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Popular models such as Transformers and LSTMs use tokens as its unit of
information. That is, each token is encoded into a vector representation, and
those vectors are used directly in a computation. However, humans frequently
consider spans of tokens (i.e., phrases) instead of their constituent tokens.
In this paper we introduce Treeformer, an architecture inspired by the CKY
algorithm and Transformer which learns a composition operator and pooling
function in order to construct hierarchical encodings for phrases and
sentences. Our extensive experiments demonstrate the benefits of incorporating
a hierarchical structure into the Transformer, and show significant
improvements compared to a baseline Transformer in machine translation,
abstractive summarization, and various natural language understanding tasks.
- Abstract(参考訳): トランスフォーマーやlstmのような一般的なモデルはトークンを情報単位として使用する。
すなわち、各トークンはベクトル表現に符号化され、それらのベクトルは直接計算に使用される。
しかし、人間はしばしば構成要素のトークンではなくトークンのスパン(つまりフレーズ)を考える。
本稿では、CKYアルゴリズムとTransformerにインスパイアされたアーキテクチャであるTreeformerを紹介し、合成演算子とプール関数を学習し、句や文の階層的エンコーディングを構築する。
本研究では, 機械翻訳, 抽象要約, 各種自然言語理解タスクにおいて, 階層構造をトランスフォーマーに組み込むことの利点を実証し, ベースライントランスフォーマーに比べ, 大幅な改善を示した。
関連論文リスト
- Learning Syntax Without Planting Trees: Understanding When and Why Transformers Generalize Hierarchically [74.96551626420188]
自然言語データに基づいて訓練されたトランスフォーマーは、その階層構造を学習し、目に見えない構文構造を持つ文に一般化することが示されている。
本研究では,変圧器モデルにおける帰納バイアスの発生源と,そのような一般化行動を引き起こす可能性のあるトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-04-25T07:10:29Z) - Inducing Systematicity in Transformers by Attending to Structurally
Quantized Embeddings [60.698130703909804]
トランスフォーマーは、複雑なデータセットでトレーニングされた後、構造と実体の新規な構成に一般化する。
本稿では,SQ-Transformerを提案する。
SQ-Transformerは,複数の低複雑さ意味解析および機械翻訳データセット上で,バニラ変換器よりも強い構成一般化を実現することを示す。
論文 参考訳(メタデータ) (2024-02-09T15:53:15Z) - Grokking of Hierarchical Structure in Vanilla Transformers [72.45375959893218]
トランスフォーマー言語モデルでは,極端に長い訓練期間を経て階層的に一般化できることが示される。
中間深度モデルは、非常に深い変圧器と非常に浅い変圧器の両方よりも良く一般化される。
論文 参考訳(メタデータ) (2023-05-30T04:34:13Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z) - Systematic Generalization and Emergent Structures in Transformers
Trained on Structured Tasks [6.525090891505941]
我々は、因果変換器が、コピー、ソート、階層的な構成を含む一連のアルゴリズムタスクを実行する方法を示す。
両層変換器は多層問題に対する一般化可能な解法を学習し,系統的タスク分解の兆候を現示する。
これらの結果は、トランスフォーマーモデルが複雑な決定を再利用可能なマルチレベルポリシーに分解する方法について、重要な洞察を与えてくれる。
論文 参考訳(メタデータ) (2022-10-02T00:46:36Z) - Hierarchical Poset Decoding for Compositional Generalization in Language [52.13611501363484]
出力が部分的に順序付けられた集合(命題)である構造化予測タスクとして人間の言語理解を形式化する。
現在のエンコーダ・デコーダアーキテクチャは意味論のポーズ構造を適切に考慮していない。
本稿では,言語における合成一般化のための新しい階層型ポーズデコーディングパラダイムを提案する。
論文 参考訳(メタデータ) (2020-10-15T14:34:26Z) - Tree-structured Attention with Hierarchical Accumulation [103.47584968330325]
階層的累積」は解析木構造を一定時間複雑度で自己注意に符号化する。
提案手法は,4つの IWSLT 翻訳タスクと WMT'14 翻訳タスクにおいて,SOTA 法より優れている。
論文 参考訳(メタデータ) (2020-02-19T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。