論文の概要: T-T: Table Transformer for Tagging-based Aspect Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2505.05271v1
- Date: Thu, 08 May 2025 14:17:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.913865
- Title: T-T: Table Transformer for Tagging-based Aspect Sentiment Triplet Extraction
- Title(参考訳): T-T:Tgging-based Aspect Sentiment Triplet extractのためのテーブル変換器
- Authors: Kun Peng, Chaodong Tong, Cong Cao, Hao Peng, Qian Li, Guanlin Wu, Lei Jiang, Yanbing Liu, Philip S. Yu,
- Abstract要約: アスペクト感情三重項抽出は、与えられた文からアスペクト項、意見項、感情極性からなる三重項を抽出することを目的としている。
テーブルタグ法はこのタスクに対処するための一般的な手法であり、文を2次元のテーブルにエンコードする。
タグ付け型ASTE法のためのテーブル変換器(T-T)を提案する。
- 参考スコア(独自算出の注目度): 46.34692204029611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect sentiment triplet extraction (ASTE) aims to extract triplets composed of aspect terms, opinion terms, and sentiment polarities from given sentences. The table tagging method is a popular approach to addressing this task, which encodes a sentence into a 2-dimensional table, allowing for the tagging of relations between any two words. Previous efforts have focused on designing various downstream relation learning modules to better capture interactions between tokens in the table, revealing that a stronger capability to capture relations can lead to greater improvements in the model. Motivated by this, we attempt to directly utilize transformer layers as downstream relation learning modules. Due to the powerful semantic modeling capability of transformers, it is foreseeable that this will lead to excellent improvement. However, owing to the quadratic relation between the length of the table and the length of the input sentence sequence, using transformers directly faces two challenges: overly long table sequences and unfair local attention interaction. To address these challenges, we propose a novel Table-Transformer (T-T) for the tagging-based ASTE method. Specifically, we introduce a stripe attention mechanism with a loop-shift strategy to tackle these challenges. The former modifies the global attention mechanism to only attend to a 2-dimensional local attention window, while the latter facilitates interaction between different attention windows. Extensive and comprehensive experiments demonstrate that the T-T, as a downstream relation learning module, achieves state-of-the-art performance with lower computational costs.
- Abstract(参考訳): アスペクト感情三重項抽出(ASTE)は、ある文からアスペクト項、意見項、感情極性からなる三重項を抽出することを目的としている。
テーブルタギング法は、このタスクに対処するための一般的なアプローチであり、文を2次元のテーブルにエンコードし、任意の2つの単語間の関係のタグ付けを可能にする。
従来の取り組みでは、テーブル内のトークン間の相互作用をよりよく捉えるために、さまざまなダウンストリーム関係学習モジュールの設計に重点を置いてきた。
そこで我々は,変圧器層を直接下流関係学習モジュールとして利用しようと試みた。
トランスの強力なセマンティックモデリング能力のため、これが優れた改善につながることは予測できる。
しかしながら、テーブルの長さと入力文列の長さの2次関係により、トランスフォーマーの使用は、過度に長いテーブルシーケンスと不公平なローカルアテンション相互作用の2つの課題に直面する。
これらの課題に対処するため,タグ付け型ASTE法のためのテーブル変換器(T-T)を提案する。
具体的には、これらの課題に対処するためのループシフト戦略を備えたストライプアテンション機構を導入する。
前者はグローバルアテンション機構を変更して2次元の局所アテンションウィンドウにのみ対応し、後者は異なるアテンションウィンドウ間のインタラクションを容易にする。
広範かつ包括的な実験により、T-Tは、下流関係学習モジュールとして、計算コストを下げて最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Comateformer: Combined Attention Transformer for Semantic Sentence Matching [11.746010399185437]
本稿では,トランスフォーマーモデルに基づくコンバインド・アテンション・ネットワークという新しい意味文マッチングモデルを提案する。
Comateformer モデルでは,構成特性を持つ新しい変圧器を用いた準アテンション機構を設計する。
提案手法は,双対親和性スコアを計算する際の類似性と相似性(負親和性)の直感に基づく。
論文 参考訳(メタデータ) (2024-12-10T06:18:07Z) - BCTR: Bidirectional Conditioning Transformer for Scene Graph Generation [4.977568882858193]
シーングラフ生成(SGG)のためのセマンティックアライメント空間における新しい双方向コンディショニング因数分解法を提案する。
本稿では,双方向コンディショニングトランス (BCTR) を用いたエンド・ツー・エンドシーングラフ生成モデルを提案する。
BCTRは2つの重要なモジュールから構成されている。まず、双方向条件生成装置(BCG)は、エンティティと述語の間で多段階の対話的特徴拡張を行い、これらの予測間の相互強化を可能にする。
第二に、Random Feature Alignment(RFA)は、事前訓練されたモデルからマルチモーダルな知識を蒸留することによって特徴空間を正規化するために存在する。
論文 参考訳(メタデータ) (2024-07-26T13:02:48Z) - An Effective-Efficient Approach for Dense Multi-Label Action Detection [23.100602876056165]
i)時間的依存関係と(ii)共起行動関係を同時に学習する必要がある。
近年のアプローチは階層型トランスフォーマーネットワークによるマルチスケール特徴抽出による時間情報のモデル化である。
我々はこれを階層設計における複数のサブサンプリングプロセスと組み合わせることで、位置情報のさらなる喪失につながると論じている。
論文 参考訳(メタデータ) (2024-06-10T11:33:34Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Prompt Based Tri-Channel Graph Convolution Neural Network for Aspect
Sentiment Triplet Extraction [63.0205418944714]
Aspect Sentiment Triplet extract (ASTE)は、ある文の三つ子を抽出する新しいタスクである。
近年の研究では、単語関係を二次元テーブルにエンコードするテーブル充填パラダイムを用いてこの問題に対処する傾向にある。
本稿では, 関係表をグラフに変換し, より包括的な関係情報を探索する, Prompt-based Tri-Channel Graph Convolution Neural Network (PT-GCN) と呼ばれるASTEタスクの新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-12-18T12:46:09Z) - Progressively Guide to Attend: An Iterative Alignment Framework for
Temporal Sentence Grounding [53.377028000325424]
時間的文接地作業のための反復アライメントネットワーク(IA-Net)を提案する。
学習可能なパラメータを持つマルチモーダル特徴をパットすることで、非整合フレームワードペアの非整合問題を軽減する。
また、アライメントの知識を洗練させるために、各アライメントモジュールに従ってキャリブレーションモジュールを考案する。
論文 参考訳(メタデータ) (2021-09-14T02:08:23Z) - RatE: Relation-Adaptive Translating Embedding for Knowledge Graph
Completion [51.64061146389754]
複素空間における新たな重み付き積の上に構築された関係適応変換関数を提案する。
次に、関係適応型翻訳埋め込み(RatE)アプローチを示し、各グラフを3倍にスコアする。
論文 参考訳(メタデータ) (2020-10-10T01:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。