論文の概要: When Do "More Contexts" Help with Sarcasm Recognition?
- arxiv url: http://arxiv.org/abs/2403.12469v1
- Date: Tue, 19 Mar 2024 06:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 15:12:20.557515
- Title: When Do "More Contexts" Help with Sarcasm Recognition?
- Title(参考訳): サルカズム認識に「意味」はいつ役立つのか?
- Authors: Ojas Nimase, Sanghyun Hong,
- Abstract要約: 我々は、モデルにより多くのコンテキストを組み込むことによって、既存のメソッドがもたらす改善について検討する。
3つのサルカズム認識ベンチマークに対する4つのアプローチによる評価では、既存の最先端性能を実現する。
我々は、より多くのコンテキストを使用することの固有の欠点を特定し、モデルが社会的バイアスを採用する必要があることを強調した。
- 参考スコア(独自算出の注目度): 4.2868755041098705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sarcasm recognition is challenging because it needs an understanding of the true intention, which is opposite to or different from the literal meaning of the words. Prior work has addressed this challenge by developing a series of methods that provide richer $contexts$, e.g., sentiment or cultural nuances, to models. While shown to be effective individually, no study has systematically evaluated their collective effectiveness. As a result, it remains unclear to what extent additional contexts can improve sarcasm recognition. In this work, we explore the improvements that existing methods bring by incorporating more contexts into a model. To this end, we develop a framework where we can integrate multiple contextual cues and test different approaches. In evaluation with four approaches on three sarcasm recognition benchmarks, we achieve existing state-of-the-art performances and also demonstrate the benefits of sequentially adding more contexts. We also identify inherent drawbacks of using more contexts, highlighting that in the pursuit of even better results, the model may need to adopt societal biases.
- Abstract(参考訳): サルカズムの認識は、単語の文字通りの意味とは正反対、あるいは異なる真の意図を理解する必要があるため、困難である。
これまでの研究は、モデルによりリッチな$contexts$、例えば、感情や文化的ニュアンスを提供する一連のメソッドを開発することで、この問題に対処してきた。
個別に有効であることが示されているが、その集団的効果を体系的に評価する研究は行われていない。
結果として、追加の文脈が皮肉認識をどの程度改善できるかは、まだ不明である。
本研究では、モデルにより多くのコンテキストを組み込むことによって、既存のメソッドがもたらす改善について検討する。
この目的のために、複数のコンテキストキューを統合し、異なるアプローチをテストするためのフレームワークを開発する。
3つのサルカズム認識ベンチマークに対する4つのアプローチによる評価では、既存の最先端性能を実現し、さらにコンテキストを逐次追加する利点を示す。
さらに、より優れた結果の追求において、モデルが社会的バイアスを採用する必要があることを強調して、より多くのコンテキストを使用することの固有の欠点を特定します。
関連論文リスト
- Debiasing Multimodal Sarcasm Detection with Contrastive Learning [5.43710908542843]
コントラスト学習を伴うマルチモーダルサルカズム検出フレームワークを提案する。
特に,非類似な単語バイアスを持つ正のサンプルを構築するために,まず反実データ拡張を設計する。
我々は、モデルが堅牢なタスク関連特徴を学習できるようにするために、適応型偏りの対照的な学習メカニズムを考案する。
論文 参考訳(メタデータ) (2023-12-16T16:14:50Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Diversifying Joint Vision-Language Tokenization Learning [51.82353485389527]
画像とテキスト間で共同表現を構築することは、ビジュアル質問回答やビデオ質問回答といったタスクにとって重要なステップである。
トークン化学習プロセスの多様化による共同視覚言語表現学習を提案する。
論文 参考訳(メタデータ) (2023-06-06T05:41:42Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Towards Multi-Modal Sarcasm Detection via Hierarchical Congruity
Modeling with Knowledge Enhancement [31.97249246223621]
サルカスム(Sarcasm)は、文字通りの意味と暗示意図の相違を示す言語現象である。
既存の技術のほとんどは、テキスト入力と付随する画像の間の原子レベルの不整合をモデル化しただけだった。
本稿では,マルチヘッドのクロスアテンション機構に基づく原子レベルの合同性と,グラフニューラルネットワークに基づく合成レベルの合同性の両方を探索し,サルカズム検出のための新しい階層的枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-07T12:44:33Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - Contrast and Generation Make BART a Good Dialogue Emotion Recognizer [38.18867570050835]
対話型感情認識において、話者依存との長期的文脈的感情関係が重要な役割を担っている。
教師付きコントラスト学習を用いて、異なる感情を相互に排他的に区別し、類似した感情をよりよく識別する。
我々は、文脈情報を扱うモデルの能力を高めるために補助応答生成タスクを利用する。
論文 参考訳(メタデータ) (2021-12-21T13:38:00Z) - Interpretable Multi-Head Self-Attention model for Sarcasm Detection in
social media [0.0]
sarcastic expressionの曖昧さは、sarcasmの発見を非常に困難にしている。
マルチヘッドセルフアテンションとゲートリカレントユニットを用いた解釈可能なディープラーニングモデルを開発する。
本稿では,複数のデータセットで最新の結果を得る手法の有効性を示す。
論文 参考訳(メタデータ) (2021-01-14T21:39:35Z) - On Vocabulary Reliance in Scene Text Recognition [79.21737876442253]
ボキャブラリ内の単語を持つ画像に対して、手法は良好に機能するが、ボキャブラリ外の単語を持つ画像にはあまり一般化しない。
私たちはこの現象を「語彙依存」と呼んでいる。
本研究では,2家族のモデルが協調的に学習できるようにするための,シンプルで効果的な相互学習戦略を提案する。
論文 参考訳(メタデータ) (2020-05-08T11:16:58Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。