論文の概要: Systematic Generalization with Edge Transformers
- arxiv url: http://arxiv.org/abs/2112.00578v1
- Date: Wed, 1 Dec 2021 15:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 13:54:13.403144
- Title: Systematic Generalization with Edge Transformers
- Title(参考訳): エッジトランスを用いたシステム一般化
- Authors: Leon Bergen, Timothy J. O'Donnell, Dzmitry Bahdanau
- Abstract要約: We propose Edge Transformer, a new model that inspired from Transformer and rule-based symbolic AI。
Edge Transformerの最初の鍵となるアイデアは、Transformerモデルで行われているように、ベクトル状態とすべてのエッジ、すなわち入力ノードのすべてのペアを、すべてのノードとは対照的に関連付けることである。
関係推論,セマンティック解析,依存性解析において,合成一般化ベンチマークを用いたエッジトランスフォーマーの評価を行った。
- 参考スコア(独自算出の注目度): 13.455047232624857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research suggests that systematic generalization in natural language
understanding remains a challenge for state-of-the-art neural models such as
Transformers and Graph Neural Networks. To tackle this challenge, we propose
Edge Transformer, a new model that combines inspiration from Transformers and
rule-based symbolic AI. The first key idea in Edge Transformers is to associate
vector states with every edge, that is, with every pair of input nodes -- as
opposed to just every node, as it is done in the Transformer model. The second
major innovation is a triangular attention mechanism that updates edge
representations in a way that is inspired by unification from logic
programming. We evaluate Edge Transformer on compositional generalization
benchmarks in relational reasoning, semantic parsing, and dependency parsing.
In all three settings, the Edge Transformer outperforms Relation-aware,
Universal and classical Transformer baselines.
- Abstract(参考訳): 近年の研究では、自然言語理解における体系的な一般化は、トランスフォーマーやグラフニューラルネットワークのような最先端のニューラルネットワークモデルの課題であり続けていることが示唆されている。
この課題に対処するために、TransformerからインスピレーションとルールベースのシンボルAIを組み合わせた新しいモデルであるEdge Transformerを提案する。
Edge Transformerの最初の鍵となるアイデアは、Transformerモデルで行われているように、ベクトル状態とすべてのエッジ、すなわち入力ノードのすべてのペアを、すべてのノードに対して関連付けることである。
2つ目の大きな革新は、論理プログラミングの統一にインスパイアされたエッジ表現を更新する三角形のアテンションメカニズムである。
関係推論,セマンティック解析,依存性解析において,構成一般化ベンチマーク上でEdge Transformerを評価する。
3つの設定で、Edge TransformerはRelation-aware、Universal、Classic Transformerのベースラインを上回っている。
関連論文リスト
- Transformers meet Neural Algorithmic Reasoners [16.5785372289558]
我々は、トランスフォーマー言語理解とグラフニューラルネットワーク(GNN)に基づくニューラルネットワーク推論(NAR)の堅牢性を組み合わせた新しいアプローチを提案する。
CLRS-30ベンチマークのテキストベースバージョンであるCLRS-Text上で得られたTransNARモデルを評価し,アルゴリズム推論のためのTransformerのみのモデルよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-06-13T16:42:06Z) - On the Convergence of Encoder-only Shallow Transformers [62.639819460956176]
エンコーダのみの浅部変圧器のグローバル収束理論を現実的な条件下で構築する。
我々の結果は、現代のトランスフォーマー、特にトレーニング力学の理解を深める道を開くことができる。
論文 参考訳(メタデータ) (2023-11-02T20:03:05Z) - The Expressive Power of Transformers with Chain of Thought [29.839710738657203]
実際には、トランスフォーマーは「思考の連鎖」や「スクラッチパッド」を使用することで改善できる。
答えはYESであるが、増加量は中間生成量に大きく依存する。
また, 線形ステップでは, コンテクストに敏感な言語に変換器デコーダを配置することが示唆された。
論文 参考訳(メタデータ) (2023-10-11T22:35:18Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Towards Lightweight Transformer via Group-wise Transformation for
Vision-and-Language Tasks [126.33843752332139]
本稿では,LW-Transformerと呼ばれる視覚・言語タスクのための,普遍的で軽量なトランスフォーマーに対するグループワイズ変換を提案する。
LW-Transformerを一組のTransformerベースのネットワークに適用し、3つの視覚・言語タスクと6つのベンチマークデータセットで定量的に測定する。
実験の結果,LW-Transformerは多数のパラメータや計算を節約しながら,視覚・言語タスクのためのトランスフォーマーネットワークと非常に競合する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-04-16T11:30:26Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - Glance-and-Gaze Vision Transformer [13.77016463781053]
我々は Glance-and-Gaze Transformer (GG-Transformer) という新しい視覚変換器を提案する。
自然の場面で物体を認識するとき、人間のGlance and Gazeの行動によって動機付けられている。
提案手法は,従来の最先端変圧器よりも一貫した性能を実現することを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-04T06:13:47Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Relation Transformer Network [25.141472361426818]
本稿では,シーングラフ生成と関係予測のためのトランスフォーメーションを提案する。
我々はトランスのエンコーダ・デコーダアーキテクチャを利用して,ノードとエッジのリッチな機能埋め込みを行う。
我々の関係予測モジュールは学習ノードとエッジ埋め込みから有向関係を分類する。
論文 参考訳(メタデータ) (2020-04-13T20:47:01Z) - Variational Transformers for Diverse Response Generation [71.53159402053392]
変分変換器(VT)は、変分自己注意フィードフォワードシーケンスモデルである。
VTはトランスフォーマーの並列化性と大域的受容場計算とCVAEの変動特性を組み合わせる。
本稿では,1)大域潜伏変数を用いた談話レベルの多様性のモデル化,2)細粒潜伏変数の列によるトランスフォーマーデコーダの拡張,の2種類のVTについて検討する。
論文 参考訳(メタデータ) (2020-03-28T07:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。