論文の概要: Training Entire-Space Models for Target-oriented Opinion Words
Extraction
- arxiv url: http://arxiv.org/abs/2204.07337v1
- Date: Fri, 15 Apr 2022 05:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 15:27:41.801981
- Title: Training Entire-Space Models for Target-oriented Opinion Words
Extraction
- Title(参考訳): 対象指向の意見単語抽出のための全空間モデルの訓練
- Authors: Yuncong Li, Fang Wang, Sheng-Hua Zhong
- Abstract要約: ターゲット指向の意見単語抽出(TOWE)はアスペクトベース感情分析(ABSA)のサブタスクである
TOWEには2種類のインスタンスがある:第1の型ではアスペクト項は少なくとも1つの意見語に関連付けられ、第2の型ではアスペクト項は対応する意見語を持たない。
サンプル選択バイアス問題を検証するため、少なくとも1つの意見語に関連するアスペクト項のみを含む4つのTOWEデータセットを拡張した。
- 参考スコア(独自算出の注目度): 11.130281161776653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Target-oriented opinion words extraction (TOWE) is a subtask of aspect-based
sentiment analysis (ABSA). Given a sentence and an aspect term occurring in the
sentence, TOWE extracts the corresponding opinion words for the aspect term.
TOWE has two types of instance. In the first type, aspect terms are associated
with at least one opinion word, while in the second type, aspect terms do not
have corresponding opinion words. However, previous researches trained and
evaluated their models with only the first type of instance, resulting in a
sample selection bias problem. Specifically, TOWE models were trained with only
the first type of instance, while these models would be utilized to make
inference on the entire space with both the first type of instance and the
second type of instance. Thus, the generalization performance will be hurt.
Moreover, the performance of these models on the first type of instance cannot
reflect their performance on entire space. To validate the sample selection
bias problem, four popular TOWE datasets containing only aspect terms
associated with at least one opinion word are extended and additionally include
aspect terms without corresponding opinion words. Experimental results on these
datasets show that training TOWE models on entire space will significantly
improve model performance and evaluating TOWE models only on the first type of
instance will overestimate model performance.
- Abstract(参考訳): ターゲット指向の意見単語抽出(TOWE)はアスペクトベース感情分析(ABSA)のサブタスクである。
文中に発生する文とアスペクト項が与えられたら、TOWEはアスペクト項に対応する意見語を抽出する。
TOWEには2種類のインスタンスがある。
第1の型ではアスペクト項は少なくとも1つの意見語に関連付けられ、第2の型ではアスペクト項は対応する意見語を持たない。
しかし、以前の研究では、最初のタイプのインスタンスのみを用いてモデルをトレーニングし、評価し、サンプル選択バイアス問題を引き起こした。
具体的には、toweモデルは第1のインスタンスタイプのみでトレーニングされ、これらのモデルは第1のインスタンスタイプと第2のインスタンスタイプの両方でスペース全体の推論に使用される。
したがって、一般化性能が損なわれる。
さらに、最初のタイプのインスタンスにおけるこれらのモデルの性能は、空間全体のパフォーマンスを反映できない。
サンプル選択バイアス問題を検証するために、少なくとも1つの意見語に関連するアスペクト語のみを含む4つの人気のTOWEデータセットを拡張し、対応する意見語を含まないアスペクト語を含む。
これらのデータセットを用いた実験結果から,TOWEモデルを全空間でトレーニングすることでモデル性能が大幅に向上し,モデル性能を過大評価する。
関連論文リスト
- Few-shot Fine-tuning vs. In-context Learning: A Fair Comparison and
Evaluation [35.72916406365469]
数ショットの微調整とコンテキスト内学習の一般化と,データセットへの挑戦を比較した。
この結果から,微調整言語モデルがドメイン外をうまく一般化できることが示唆された。
論文 参考訳(メタデータ) (2023-05-26T13:55:17Z) - PAMI: partition input and aggregate outputs for model interpretation [69.42924964776766]
本研究では、深層学習モデルが局所的な特徴を集約してモデル予測を行うという観察に基づいて、PAMIと呼ばれるシンプルで効果的な可視化フレームワークを提案する。
基本的な考え方は、入力の大多数を隠蔽し、元のモデル予測に対する保存された入力部の相対的な寄与として対応するモデル出力を使用することである。
複数のタスクに対する大規模な実験により,提案手法は,クラス固有の入力領域をより正確に見つけるために,既存の可視化手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-02-07T08:48:34Z) - Training Trajectories of Language Models Across Scales [99.38721327771208]
言語モデルのスケールアップは、前例のないパフォーマンス向上につながった。
異なるサイズの言語モデルは事前学習中にどのように学習するか?
より大きな言語モデルはなぜ望ましい振る舞いを示すのか?
論文 参考訳(メタデータ) (2022-12-19T19:16:29Z) - Does Your Model Classify Entities Reasonably? Diagnosing and Mitigating
Spurious Correlations in Entity Typing [29.820473012776283]
既存のエンティティ型付けモデルは、素早い相関の問題に直面している。
既存のモデルバイアスには、参照コンテキストバイアス、語彙オーバーラップバイアス、名前付きエンティティバイアス、代名詞バイアス、依存性バイアス、一般化バイアスの6種類がある。
オリジナルのトレーニングセットをバイアスなしのトレーニングセットで強化することで、モデルは文を完全に理解せざるを得なくなる。
論文 参考訳(メタデータ) (2022-05-25T10:34:22Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - A Gating Model for Bias Calibration in Generalized Zero-shot Learning [18.32369721322249]
汎用ゼロショット学習(GZSL)は,補助情報のみを用いることで,見つからないクラスデータに一般化できるモデルを訓練することを目的とする。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
GZSLのための2ストリームオートエンコーダに基づくゲーティングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T16:41:06Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Exploring Lexical Irregularities in Hypothesis-Only Models of Natural
Language Inference [5.283529004179579]
自然言語推論(NLI)またはテキスト関連認識(RTE)は、文のペア間の関係を予測するタスクです。
包含を理解するモデルは前提と仮説の両方をエンコードするべきである。
Poliakらによる実験。
仮説でのみ観察されたパターンに対するこれらのモデルの強い好みを明らかにした。
論文 参考訳(メタデータ) (2021-01-19T01:08:06Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Latent Opinions Transfer Network for Target-Oriented Opinion Words
Extraction [63.70885228396077]
資源豊富なレビュー評価分類データセットから低リソースタスクTOWEへ意見知識を伝達する新しいモデルを提案する。
我々のモデルは、他の最先端手法よりも優れた性能を達成し、意見の知識を伝達することなく、ベースモデルを大幅に上回る。
論文 参考訳(メタデータ) (2020-01-07T11:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。