論文の概要: Reducing Spurious Correlations for Aspect-Based Sentiment Analysis with
Variational Information Bottleneck and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2303.02846v1
- Date: Mon, 6 Mar 2023 02:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:30:46.940919
- Title: Reducing Spurious Correlations for Aspect-Based Sentiment Analysis with
Variational Information Bottleneck and Contrastive Learning
- Title(参考訳): 変動情報ボトルネックとコントラスト学習を用いたアスペクトベース感情分析のためのスプリアス相関の低減
- Authors: Mingshan Chang, Min Yang, Qingshan Jiang, and Ruifeng Xu
- Abstract要約: 本稿では,感情分析の素早い相関を抑えるために,CVIB(Contrastive Variational Information Bottleneck)フレームワークを提案する。
CVIB法は, 全体的な予測性能, 堅牢性, 一般化の点で, 強力な競合相手よりも優れた性能を実現する。
- 参考スコア(独自算出の注目度): 26.81550988672256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The literature on aspect-based sentiment analysis (ABSA) has been overwhelmed
by deep neural networks, yielding state-of-the-art results for ABSA. However,
these deep models are susceptible to learning spurious correlations between
input features and output labels, which in general suffer from poor robustness
and generalization. In this paper, we propose a novel Contrastive Variational
Information Bottleneck framework (called CVIB) to reduce spurious correlations
for ABSA. The proposed CVIB framework is composed of an original network and a
self-pruned network, and these two networks are optimized simultaneously via
contrastive learning. Concretely, we employ the Variational Information
Bottleneck (VIB) principle to learn an informative and compressed network
(self-pruned network) from the original network, which discards the superfluous
patterns or spurious correlations between input features and prediction labels.
Then, self-pruning contrastive learning is devised to pull together
semantically similar positive pairs and push away dissimilar pairs, where the
representations of the anchor learned by the original and self-pruned networks
respectively are regarded as a positive pair while the representations of two
different sentences within a mini-batch are treated as a negative pair.
Extensive experiments on five benchmark ABSA datasets demonstrate that our CVIB
method achieves better performance than the strong competitors in terms of
overall prediction performance, robustness, and generalization.
- Abstract(参考訳): アスペクトベースの感情分析(ABSA)に関する文献は、深層ニューラルネットワークに圧倒され、ABSAの最先端の結果が得られた。
しかし、これらの深層モデルは入力特徴と出力ラベルの間の急激な相関を学習し、一般には頑健さや一般化に悩まされる。
本稿では,ABSAの相関関係を緩和するために,CVIB(Contrastive Variational Information Bottleneck)フレームワークを提案する。
提案するCVIBフレームワークは,元のネットワークと自走ネットワークで構成され,これら2つのネットワークは,コントラスト学習によって同時に最適化される。
具体的には,入力特徴と予測ラベル間の過剰なパターンや急激な相関を排除した情報圧縮ネットワーク(自己表現型ネットワーク)を元のネットワークから学習するために,変分情報ボトルネック(VIB)の原理を用いる。
次に、意味的に類似する正の対を引き合いに出し、類似の対を押し出すために、自己相関学習を考案し、元のネットワークで学習されたアンカーの表現をそれぞれ正のペアとし、ミニバッチ内の2つの異なる文の表現を負のペアとして扱う。
5つのベンチマークABSAデータセットの大規模な実験により、CVIB法は、全体的な予測性能、堅牢性、一般化の点で、強力な競合相手よりも優れた性能を達成することが示された。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - DIVE: Subgraph Disagreement for Graph Out-of-Distribution Generalization [44.291382840373]
本稿では,グラフ機械学習におけるアウト・オブ・ディストリビューションの一般化の課題に対処する。
従来のグラフ学習アルゴリズムは、この仮定が失敗する現実世界のシナリオで失敗する。
この準最適性能に寄与する主な要因は、ニューラルネットワークの本質的な単純さバイアスである。
論文 参考訳(メタデータ) (2024-08-08T12:08:55Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Cell Variational Information Bottleneck Network [6.164295534465283]
本稿では,最新のフィードフォワードネットワークアーキテクチャと組み合わせることができる情報ボトルネック機構を用いた畳み込みニューラルネットワークを提案する。
セル変動情報ボトルネックネットワークは、不確実性のある特徴マップを生成するVIBセルを積み重ねて構築される。
より複雑な表現学習タスクである顔認識では、ネットワーク構造も非常に競争力のある結果を得た。
論文 参考訳(メタデータ) (2024-03-22T10:06:31Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。