論文の概要: Exploiting Position Bias for Robust Aspect Sentiment Classification
- arxiv url: http://arxiv.org/abs/2105.14210v1
- Date: Sat, 29 May 2021 04:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:45:10.417501
- Title: Exploiting Position Bias for Robust Aspect Sentiment Classification
- Title(参考訳): ロバストなアスペクト感情分類のための位置バイアスの利用
- Authors: Fang Ma, Chen Zhang, Dawei Song
- Abstract要約: 本稿では,位置バイアス,すなわち位置バイアスの重み付けと位置バイアスの落差を捉えるための2つのメカニズムを提案する。
提案手法は,現行モデルのロバスト性と有効性を大幅に改善する。
- 参考スコア(独自算出の注目度): 10.846244829247716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect sentiment classification (ASC) aims at determining sentiments
expressed towards different aspects in a sentence. While state-of-the-art ASC
models have achieved remarkable performance, they are recently shown to suffer
from the issue of robustness. Particularly in two common scenarios: when
domains of test and training data are different (out-of-domain scenario) or
test data is adversarially perturbed (adversarial scenario), ASC models may
attend to irrelevant words and neglect opinion expressions that truly describe
diverse aspects. To tackle the challenge, in this paper, we hypothesize that
position bias (i.e., the words closer to a concerning aspect would carry a
higher degree of importance) is crucial for building more robust ASC models by
reducing the probability of mis-attending. Accordingly, we propose two
mechanisms for capturing position bias, namely position-biased weight and
position-biased dropout, which can be flexibly injected into existing models to
enhance representations for classification. Experiments conducted on
out-of-domain and adversarial datasets demonstrate that our proposed approaches
largely improve the robustness and effectiveness of current models.
- Abstract(参考訳): アスペクト感情分類(ASC)は、文中の異なる側面に表される感情を決定することを目的としている。
最先端のASCモデルは目覚ましい性能を達成したが、最近は堅牢性の問題に悩まされている。
特に2つの一般的なシナリオでは、テストデータとトレーニングデータのドメインが異なる場合(ドメイン外のシナリオ)、あるいはテストデータが反対に乱れてしまう場合(逆シナリオ)、ASCモデルは、さまざまな側面を真に記述する無関係な単語や意見表現を無視する。
この課題に取り組むために,本論文では,位置バイアス(つまり,関係する側面に近い単語の方が重要度が高い)が,誤ったアプローチの可能性を減らすことによって,より堅牢なascモデルを構築する上で重要であると仮定する。
そこで本研究では,既存のモデルに柔軟に注入可能な位置バイアス,すなわち位置バイアス量と位置バイアス降下率の2つのメカニズムを提案する。
ドメイン外のデータセットと敵対的なデータセットで行った実験により、提案手法は現在のモデルの堅牢性と有効性を大幅に改善することを示した。
関連論文リスト
- SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - HANS, are you clever? Clever Hans Effect Analysis of Neural Systems [1.6267479602370545]
大規模言語モデル(It-LLM)は、認知状態、意図、そしてすべての人々の反応を推論する優れた能力を示しており、人間は日々の社会的相互作用を効果的にガイドし理解することができる。
モデル能力の確固たる評価を構築するために、MCQ(Multiple-choice Question)ベンチマークがいくつか提案されている。
しかし、初期の研究は、I-LLMに固有の「順序バイアス」があることを示しており、適切な評価に挑戦している。
論文 参考訳(メタデータ) (2023-09-21T20:52:18Z) - Context De-confounded Emotion Recognition [12.037240778629346]
コンテキストアウェア感情認識(CAER)は、対象者の感情状態を文脈情報で知覚することを目的としている。
長年見過ごされてきた問題は、既存のデータセットのコンテキストバイアスが感情状態のかなり不均衡な分布をもたらすことである。
本稿では、そのようなバイアスの影響からモデルを切り離し、CAERタスクにおける変数間の因果関係を定式化する因果関係に基づく視点を提供する。
論文 参考訳(メタデータ) (2023-03-21T15:12:20Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Unifying Model Explainability and Robustness for Joint Text
Classification and Rationale Extraction [11.878012909876713]
そこで我々は,AT-BMCという共同分類と合理的抽出モデルを提案する。
混合逆行訓練(AT)は、モデルの堅牢性を改善するために離散的および埋め込み空間における様々な摂動を利用するように設計されており、境界マッチング制約(BMC)は境界情報のガイダンスによりより正確に有理性を見つけるのに役立つ。
ベンチマークデータセットのパフォーマンスは、提案されたAT-BMCが、大きなマージンによる分類と合理性抽出の両方のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-20T09:48:32Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。