論文の概要: A Transformer and Prototype-based Interpretable Model for Contextual Sarcasm Detection
- arxiv url: http://arxiv.org/abs/2503.11838v1
- Date: Fri, 14 Mar 2025 19:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:15.071257
- Title: A Transformer and Prototype-based Interpretable Model for Contextual Sarcasm Detection
- Title(参考訳): コンテクストサーカスム検出のためのトランスフォーマとプロトタイプベース解釈モデル
- Authors: Ximing Wen, Rezvaneh Rezapour,
- Abstract要約: サルカスムの検出は、その比喩的な性質をもって、感情分析を行うように設計された感情システムに固有の課題を提起する。
本稿では,感情埋め込みによって強化されたLMとプロトタイプベースのネットワークを活用して,解釈可能な皮肉検出を行う手法を提案する。
我々のアプローチは本質的に、余分なポストホック解釈のテクニックを使わずに解釈可能である。
- 参考スコア(独自算出の注目度): 2.415131843893681
- License:
- Abstract: Sarcasm detection, with its figurative nature, poses unique challenges for affective systems designed to perform sentiment analysis. While these systems typically perform well at identifying direct expressions of emotion, they struggle with sarcasm's inherent contradiction between literal and intended sentiment. Since transformer-based language models (LMs) are known for their efficient ability to capture contextual meanings, we propose a method that leverages LMs and prototype-based networks, enhanced by sentiment embeddings to conduct interpretable sarcasm detection. Our approach is intrinsically interpretable without extra post-hoc interpretability techniques. We test our model on three public benchmark datasets and show that our model outperforms the current state-of-the-art. At the same time, the prototypical layer enhances the model's inherent interpretability by generating explanations through similar examples in the reference time. Furthermore, we demonstrate the effectiveness of incongruity loss in the ablation study, which we construct using sentiment prototypes.
- Abstract(参考訳): サルカスムの検出は、その比喩的な性質をもって、感情分析を行うように設計された感情システムに固有の課題を提起する。
これらのシステムは通常、感情の直接的表現を特定するのにうまく機能するが、リテラルと意図された感情の間のサルカズムの本質的な矛盾に苦しむ。
トランスフォーマーベース言語モデル (LM) は, 文脈的意味を捕捉する効率的な能力で知られているため, 感情埋め込みによって拡張されたLMとプロトタイプベースネットワークを活用して, 解釈可能な皮肉検出を行う手法を提案する。
我々のアプローチは本質的に、余分なポストホック解釈のテクニックを使わずに解釈可能である。
我々は、我々のモデルを3つの公開ベンチマークデータセットでテストし、我々のモデルは現在の最先端よりも優れていることを示す。
同時に、原型層は参照時間に類似した例を通して説明を生成することにより、モデル固有の解釈可能性を高める。
さらに,感情プロトタイプを用いて構築したアブレーション研究において,不一致損失の有効性を示す。
関連論文リスト
- Detecting Emotional Incongruity of Sarcasm by Commonsense Reasoning [32.5690489394632]
本論文は, 語義的意味に反する批判, モック, その他の否定的な感情を伝えるか否かを識別することを目的とした, 皮肉検出に焦点を当てた。
既存のメソッドは、複雑な現実世界のシナリオに直面した時に、常識的な推論能力に欠けており、不満足なパフォーマンスをもたらします。
本研究では,EICR と呼ばれるコモンセンス拡張に基づく不整合推論を行うサルカズム検出のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T11:25:55Z) - Language Model Meets Prototypes: Towards Interpretable Text Classification Models through Prototypical Networks [1.1711824752079485]
論文は、LMをエンコーダとして使用する際に本質的に解釈可能なモデルを開発することに焦点を当てている。
ホワイトボックスのマルチヘッドグラフアテンションに基づくプロトタイプネットワークを開発した。
私は、解釈可能なグラフニューラルネットワークを再設計するために、コントラスト学習による注意ベースのプロトタイプネットワークの拡張に取り組んでいます。
論文 参考訳(メタデータ) (2024-12-04T22:59:35Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - ContraFeat: Contrasting Deep Features for Semantic Discovery [102.4163768995288]
StyleGANは、アンタングル化セマンティックコントロールの強い可能性を示している。
StyleGANの既存の意味発見手法は、修正された潜在層を手作業で選択することで、良好な操作結果が得られる。
本稿では,このプロセスを自動化し,最先端のセマンティック発見性能を実現するモデルを提案する。
論文 参考訳(メタデータ) (2022-12-14T15:22:13Z) - Beyond Model Interpretability: On the Faithfulness and Adversarial
Robustness of Contrastive Textual Explanations [2.543865489517869]
本研究は、説明の忠実さに触発された新たな評価手法の基盤を築き、テキストの反事実を動機づけるものである。
感情分析データを用いた実験では, 両モデルとも, 対物関係の関連性は明らかでないことがわかった。
論文 参考訳(メタデータ) (2022-10-17T09:50:02Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - "Let's Eat Grandma": When Punctuation Matters in Sentence Representation
for Sentiment Analysis [13.873803872380229]
我々は、句読点が感情分析において重要な役割を果たすと論じ、構文的および文脈的パフォーマンスを改善するための新しい表現モデルを提案する。
公開データセットの実験を行い、モデルが他の最先端のベースラインメソッドよりも正確に感情を識別することができることを確認します。
論文 参考訳(メタデータ) (2020-12-10T19:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。