論文の概要: Improving Aspect Sentiment Quad Prediction via Template-Order Data
Augmentation
- arxiv url: http://arxiv.org/abs/2210.10291v1
- Date: Wed, 19 Oct 2022 04:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:00:34.341083
- Title: Improving Aspect Sentiment Quad Prediction via Template-Order Data
Augmentation
- Title(参考訳): テンプレート順序データ拡張によるアスペクト感情クワッド予測の改善
- Authors: Mengting Hu, Yike Wu, Hang Gao, Yinhao Bai, Shiwan Zhao
- Abstract要約: アスペクトレベルの感情分析の分野では,アスペクト感情クワッド予測(ASQP)が一般的な課題となっている。
以前の作業では、定義済みのテンプレートを使用して、元の文を構造的ターゲットシーケンスに言い換える。
テンプレートオーダの効果について検討し,いくつかのオーダが生成モデルの性能向上に有効であることを示す。
- 参考スコア(独自算出の注目度): 14.962445913454747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, aspect sentiment quad prediction (ASQP) has become a popular task
in the field of aspect-level sentiment analysis. Previous work utilizes a
predefined template to paraphrase the original sentence into a structure target
sequence, which can be easily decoded as quadruplets of the form (aspect
category, aspect term, opinion term, sentiment polarity). The template involves
the four elements in a fixed order. However, we observe that this solution
contradicts with the order-free property of the ASQP task, since there is no
need to fix the template order as long as the quadruplet is extracted
correctly. Inspired by the observation, we study the effects of template orders
and find that some orders help the generative model achieve better performance.
It is hypothesized that different orders provide various views of the
quadruplet. Therefore, we propose a simple but effective method to identify the
most proper orders, and further combine multiple proper templates as data
augmentation to improve the ASQP task. Specifically, we use the pre-trained
language model to select the orders with minimal entropy. By fine-tuning the
pre-trained language model with these template orders, our approach improves
the performance of quad prediction, and outperforms state-of-the-art methods
significantly in low-resource settings.
- Abstract(参考訳): 近年,アスペクトレベルの感情分析において,アスペクト感情クワッド予測(ASQP)が一般的な課題となっている。
以前の作業では、定義済みのテンプレートを使用して、元の文を構造的ターゲットシーケンスに表現し、フォームの四重項(カテゴリー、アスペクト項、意見項、感情極性)として容易に復号できる。
テンプレートは、固定順序の4つの要素を含む。
しかし、この解は、クワッドラップレットが正しく抽出されている限り、テンプレート順序を修正する必要がないため、asqpタスクのオーダーフリーな性質と矛盾する。
本研究は, テンプレートオーダの効果について考察し, 生成モデルの性能向上に寄与するオーダについて考察する。
異なる順序が四重項の様々な見方を与えると仮定される。
そこで本研究では,複数の適切なテンプレートをデータ拡張として組み合わせてASQPタスクを改良する,シンプルだが効果的な手法を提案する。
具体的には、事前訓練された言語モデルを用いて、最小エントロピーで注文を選択する。
このようなテンプレート順序で事前学習した言語モデルを微調整することで、クワッド予測の性能が向上し、低リソース設定では最先端のメソッドを大幅に上回る。
関連論文リスト
- BvSP: Broad-view Soft Prompting for Few-Shot Aspect Sentiment Quad Prediction [10.313467662221319]
アスペクト感情クワッド予測(ASQP)は、アスペクト項、意見項、アスペクトカテゴリー、感情極性を含む4つのアスペクトベースの要素を予測することを目的としている。
この研究はASQPを数ショットのシナリオに定式化し、実際のアプリケーションで高速に適応することを目的としている。
論文 参考訳(メタデータ) (2024-06-11T15:32:32Z) - Mind Your Format: Towards Consistent Evaluation of In-Context Learning Improvements [10.687101698324897]
大規模な言語モデルは、いくつかの例から新しいタスクを解くための驚くべき能力を示している。
プロンプトテンプレート、あるいはインプット例をフォーマットしてプロンプトを取得する方法は、コンテキスト内学習の重要な側面であるが、見過ごされがちである。
テンプレートの貧弱な選択は、最強モデルと推論手法の性能をランダムな推測レベルに低下させることができることを示す。
論文 参考訳(メタデータ) (2024-01-12T18:58:26Z) - Prompt Algebra for Task Composition [131.97623832435812]
素早いチューニングを伴うビジュアル言語モデルを基本分類器として検討する。
合成分類器の性能向上のための制約付きプロンプトチューニングを提案する。
UTZapposでは、最高のベースモデルに対する分類精度を平均8.45%向上させる。
論文 参考訳(メタデータ) (2023-06-01T03:20:54Z) - Conditional set generation using Seq2seq models [52.516563721766445]
条件セット生成は、トークンの入力シーケンスからセットへのマッピングを学習する。
シーケンス・ツー・シーケンス(Seq2seq)モデルは、モデルセット生成において一般的な選択である。
本稿では,ラベル順序空間上の情報的順序を効果的に抽出する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-25T04:17:50Z) - Learning and Analyzing Generation Order for Undirected Sequence Models [86.10875837475783]
我々は、強化学習を通して、事前訓練された非直接翻訳モデルの生成順序を学習する政策を訓練する。
学習順序による翻訳は,マンシモフらの学習順序によって左から右へ復号された出力や復号された出力よりも高いBLEUスコアが得られることを示す。
我々の発見は、非方向性生成モデルのメカニズムに関するさらなる洞察を与え、この方向のさらなる研究を奨励する可能性がある。
論文 参考訳(メタデータ) (2021-12-16T18:29:07Z) - The Power of Prompt Tuning for Low-Resource Semantic Parsing [10.37371743879877]
意味解析のためのプロンプトチューニングについて検討する。
大規模なT5モデルの場合(つまり、チューニングの速さが低いデータ構造において微調整を著しく上回っている)。
この最後の結果は、大きなT5モデルが事前学習された分布から遠く離れた配列を生成するように変調できることを示唆している。
論文 参考訳(メタデータ) (2021-10-16T09:33:09Z) - Improving Graph-based Sentence Ordering with Iteratively Predicted
Pairwise Orderings [38.91604447717656]
本稿では,2つの分類器を導入し,グラフに基づく文順序付けのためのペア順序付けを効果的に活用する新しい文順序付けフレームワークを提案する。
本モデルは,BERTとFHDecoderを搭載した場合の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-13T02:18:16Z) - Template-free Prompt Tuning for Few-shot NER [46.59447116255979]
テンプレートを使わずにNERタスクをLM問題として再構成するよりエレガントな手法を提案する。
具体的には,事前学習モデルの単語予測パラダイムを維持しながらテンプレート構築プロセスを捨てる。
実験により, バート・タガー法およびテンプレートベース法に対して, 数ショット設定で提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-09-28T07:19:24Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。