論文の概要: Pretrained Language Encoders are Natural Tagging Frameworks for Aspect
Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2208.09617v1
- Date: Sat, 20 Aug 2022 06:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 12:59:30.240980
- Title: Pretrained Language Encoders are Natural Tagging Frameworks for Aspect
Sentiment Triplet Extraction
- Title(参考訳): 事前学習された言語エンコーダはアスペクト感情三重項抽出のための自然なタグ付けフレームワークである
- Authors: Yanjie Gou, Yinjie Lei, Lingqiao Liu, Yong Dai, Chunxu Shen, Yongqi
Tong
- Abstract要約: 我々は、ASTEの帰納バイアスを捉えるモジュールをさらに設計する代わりに、PLE自体が1Dと2Dのタグ付けのための"十分な"機能を含んでいると主張している。
PLEは自然なタグ付けフレームワークであり、幅広い実験と深い分析によって検証される新しい最先端技術を実現することができる。
- 参考スコア(独自算出の注目度): 26.422549424151153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect Sentiment Triplet Extraction (ASTE) aims to extract the spans of
aspect, opinion, and their sentiment relations as sentiment triplets. Existing
works usually formulate the span detection as a 1D token tagging problem, and
model the sentiment recognition with a 2D tagging matrix of token pairs.
Moreover, by leveraging the token representation of Pretrained Language
Encoders (PLEs) like BERT, they can achieve better performance. However, they
simply leverage PLEs as feature extractors to build their modules but never
have a deep look at what specific knowledge does PLEs contain. In this paper,
we argue that instead of further designing modules to capture the inductive
bias of ASTE, PLEs themselves contain "enough" features for 1D and 2D tagging:
(1) The token representation contains the contextualized meaning of token
itself, so this level feature carries necessary information for 1D tagging. (2)
The attention matrix of different PLE layers can further capture multi-level
linguistic knowledge existing in token pairs, which benefits 2D tagging. (3)
Furthermore, with simple transformations, these two features can also be easily
converted to the 2D tagging matrix and 1D tagging sequence, respectively. That
will further boost the tagging results. By doing so, PLEs can be natural
tagging frameworks and achieve a new state of the art, which is verified by
extensive experiments and deep analyses.
- Abstract(参考訳): Aspect Sentiment Triplet extract (ASTE)は、アスペクト、意見、感情関係を感情三重項として抽出することを目的としている。
既存の作品は通常、スパン検出を1dトークンタグ付け問題として定式化し、トークンペアの2dタグ付きマトリックスで感情認識をモデル化する。
さらに、bertのようなプリトレーニングされた言語エンコーダ(ple)のトークン表現を利用することで、パフォーマンスが向上する。
しかし、単にpleを機能抽出器として利用してモジュールを構築するだけで、pleが持つ特定の知識を深く理解することはできない。
本稿では,ASTEの帰納バイアスを捉えるモジュールをさらに設計する代わりに,ple自体に1Dと2Dのタグ付けのための"粗い"特徴が含まれていることを論じる。
2) 異なる PLE 層の注意行列は,トークンペアに存在する多段階の言語知識をさらに捉えることができる。
(3) 単純な変換では, これら2つの特徴は, それぞれ2次元タグ付け行列と1次元タグ付けシーケンスに容易に変換できる。
これによりタグ付け結果はさらに向上する。
そうすることで、PLEは自然なタグ付けフレームワークとなり、幅広い実験と深い分析によって検証される新しい最先端技術を達成することができる。
関連論文リスト
- PosFormer: Recognizing Complex Handwritten Mathematical Expression with Position Forest Transformer [51.260384040953326]
手書き数学的表現認識(HMER)は、人間と機械の相互作用シナリオに広く応用されている。
本稿では,HMERのための位置フォレスト変換器(PosFormer)を提案する。
PosFormerは、最先端のメソッドである2.03%/1.22%/2、1.83%、および4.62%を一貫して上回っている。
論文 参考訳(メタデータ) (2024-07-10T15:42:58Z) - Object Discovery from Motion-Guided Tokens [50.988525184497334]
自動エンコーダ表現学習フレームワークを、モーションガイダンスと中間レベルの特徴トークン化により強化する。
我々のアプローチは、解釈可能なオブジェクト固有の中間レベルの特徴の出現を可能にする。
論文 参考訳(メタデータ) (2023-03-27T19:14:00Z) - TaCo: Textual Attribute Recognition via Contrastive Learning [9.042957048594825]
TaCoは、最も一般的な文書シーンに適したテキスト属性認識のための対照的なフレームワークである。
1)属性ビューの生成,2)微妙だが重要な詳細の抽出,3)学習のための価値あるビューペアの利用,の3つの視点から学習パラダイムを設計する。
実験によると、TaCoは監督対象を超越し、複数の属性認識タスクにおいて最先端の技術を著しく向上している。
論文 参考訳(メタデータ) (2022-08-22T09:45:34Z) - VEM$^2$L: A Plug-and-play Framework for Fusing Text and Structure
Knowledge on Sparse Knowledge Graph Completion [14.537509860565706]
本稿では,テキストから抽出した知識と構造化メッセージから抽出した知識を統一化するための,スパース知識グラフ上のプラグイン・アンド・プレイ・フレームワーク VEM2L を提案する。
具体的には、モデルによって得られた知識を2つの非重複部分に分割する。
また、モデルの一般化能力を融合させるために、変分EMアルゴリズムによって証明された新しい融合戦略を提案する。
論文 参考訳(メタデータ) (2022-07-04T15:50:21Z) - A Transformer-Based Contrastive Learning Approach for Few-Shot Sign
Language Recognition [0.0]
本稿では,ボディキー点列からリッチな表現を学習するContrastive Transformerベースのモデルを提案する。
実験により、モデルは十分に一般化でき、トレーニングプロセスで見られない手話のクラスに対して、競争的な結果を得ることができた。
論文 参考訳(メタデータ) (2022-04-05T11:42:55Z) - MORE: Multi-Order RElation Mining for Dense Captioning in 3D Scenes [89.75025195440287]
既存の手法では、対象の特徴学習の副産物のような関係を、特にそれを符号化することなく扱うことができる。
より記述的で包括的なキャプションを生成するためのマルチオーダーリレーションマイニングモデルMOREを提案する。
我々のMOREは、複雑な関係を限られた数の基本関係から導出できるため、進行的にオブジェクト関係を符号化する。
論文 参考訳(メタデータ) (2022-03-10T07:26:15Z) - X-Trans2Cap: Cross-Modal Knowledge Transfer using Transformer for 3D
Dense Captioning [71.36623596807122]
3D高密度キャプションは、通常3DシーンをRGB-Dスキャンまたはポイントクラウドとして表現する3Dシーンにおいて、自然言語で個々のオブジェクトを記述することを目的としている。
本研究では,トランスフォーマーを用いた3次元高密度キャプション用X-Trans2Capを用いたクロスモーダルな知識伝達について検討し,シングルモーダル3Dキャプションの性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-03-02T03:35:37Z) - Vectorization and Rasterization: Self-Supervised Learning for Sketch and
Handwriting [168.91748514706995]
自己監督型機能学習のための2つの新しいクロスモーダル翻訳プリテキストタスクを提案する:ベクトル化とラスタリゼーション。
当社の学習したエンコーダモジュールは、手書きデータを分析するために、ベースとベクターの両方のダウンストリームアプローチに役立ちます。
論文 参考訳(メタデータ) (2021-03-25T09:47:18Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。