論文の概要: Augmenting emotion features in irony detection with Large language modeling
- arxiv url: http://arxiv.org/abs/2404.12291v1
- Date: Thu, 18 Apr 2024 16:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 18:52:16.624039
- Title: Augmenting emotion features in irony detection with Large language modeling
- Title(参考訳): 大規模言語モデリングによる皮肉検出における感情特徴の増強
- Authors: Yucheng Lin, Yuhan Xia, Yunfei Long,
- Abstract要約: 本研究では,感情中心のテキスト強化を促進するために,大規模言語モデル(LLM)を即時学習で適用する,新たな皮肉検出手法を提案する。
- 参考スコア(独自算出の注目度): 6.341895849094371
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study introduces a novel method for irony detection, applying Large Language Models (LLMs) with prompt-based learning to facilitate emotion-centric text augmentation. Traditional irony detection techniques typically fall short due to their reliance on static linguistic features and predefined knowledge bases, often overlooking the nuanced emotional dimensions integral to irony. In contrast, our methodology augments the detection process by integrating subtle emotional cues, augmented through LLMs, into three benchmark pre-trained NLP models - BERT, T5, and GPT-2 - which are widely recognized as foundational in irony detection. We assessed our method using the SemEval-2018 Task 3 dataset and observed substantial enhancements in irony detection capabilities.
- Abstract(参考訳): そこで本研究では,感情中心のテキスト強化を促進するために,大規模言語モデル(LLM)を即時学習で適用する,新たな皮肉検出手法を提案する。
伝統的な皮肉検出技術は、静的言語的特徴や事前定義された知識ベースに依存しているため、しばしば、皮肉に不可欠な微妙な感情的な次元を見落としているため、一般的には不足している。
対照的に,本手法は,LLMを通した微妙な感情的手がかりを,皮肉検出の基礎として広く認識されている3つのベンチマークNLPモデル(BERT,T5,GPT-2)に統合することにより,検出プロセスを増強する。
本手法をSemEval-2018 Task 3データセットを用いて評価し,皮肉検出能力の大幅な向上について検討した。
関連論文リスト
- Irony Detection, Reasoning and Understanding in Zero-shot Learning [0.5755004576310334]
Ironyはソーシャルメディア上の強力なフィギュラティブ言語(FL)であり、様々なNLPタスクを誤解させる可能性がある。
ChatGPTのような大規模な言語モデルでは、暗黙的および文脈的な情報をキャプチャできるようになっている。
本稿では,Irony 検出精度の向上,Irony の理解の向上,より効果的な説明を実現するために,迅速なエンジニアリング設計フレームワーク IDADP を提案する。
論文 参考訳(メタデータ) (2025-01-28T12:13:07Z) - Leveraging Cross-Attention Transformer and Multi-Feature Fusion for Cross-Linguistic Speech Emotion Recognition [60.58049741496505]
音声感情認識(SER)は、人間とコンピュータの相互作用を強化する上で重要な役割を担っている。
本稿では,HuBERT,MFCC,および韻律特性を組み合わせたHuMP-CATを提案する。
HMP-CATは、ターゲットデータセットから少量の音声でソースモデルを微調整することにより、平均78.75%の精度が得られることを示す。
論文 参考訳(メタデータ) (2025-01-06T14:31:25Z) - Detecting Memorization in Large Language Models [0.0]
大規模言語モデル(LLM)は自然言語処理において驚くべき結果を得たが、トレーニングデータの一部を記憶する傾向にある。
従来の暗記検出方法は出力確率や損失関数に依存している。
LLM内のニューロンの活性化を調べることによって,記憶を正確に検出する解析手法を提案する。
論文 参考訳(メタデータ) (2024-12-02T00:17:43Z) - IAE: Irony-based Adversarial Examples for Sentiment Analysis Systems [4.118390893942461]
我々は,単純な文を皮肉文に変換する手法であるIrony-based Adversarial Examples (IAE)を提案する。
IAEはIronyの修辞的な装置を利用しており、意図された意味は文字通りの解釈とは反対である。
IAE攻撃を受けると、感情分析タスクにおける最先端のディープラーニングモデルの性能が著しく低下することが実証された。
論文 参考訳(メタデータ) (2024-11-12T15:01:47Z) - Exploring Energy-Based Models for Out-of-Distribution Detection in Dialect Identification [11.437264025117083]
本研究は, 方言のOOD検出に特化して, 新たなマージン強化ジョイントエネルギーモデル(MEJEM)を提案する。
生成モデルとエネルギーマージン損失を統合することにより,方言識別システムの堅牢性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-06-26T04:52:48Z) - DetCLIPv3: Towards Versatile Generative Open-vocabulary Object Detection [111.68263493302499]
DetCLIPv3は、オープンボキャブラリオブジェクト検出と階層ラベルの両方で優れた高性能検出器である。
DetCLIPv3は,1)Versatileモデルアーキテクチャ,2)高情報密度データ,3)効率的なトレーニング戦略の3つのコア設計によって特徴付けられる。
DetCLIPv3は、GLIPv2, GroundingDINO, DetCLIPv2をそれぞれ18.0/19.6/6 APで上回り、優れたオープン語彙検出性能を示す。
論文 参考訳(メタデータ) (2024-04-14T11:01:44Z) - Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection [73.31406286956535]
姿勢検出タスクにLadder-of-Thought(LoT)を導入する。
LoTは、小さなLMに高品質な外部知識を同化させ、生成した中間的論理を精査するように指示する。
実験では, 姿勢検出タスクにおけるCoTのGPT-3.5よりも16%改善し, 10%向上した。
論文 参考訳(メタデータ) (2023-08-31T14:31:48Z) - Sample Efficient Approaches for Idiomaticity Detection [6.481818246474555]
本研究は, 慣用性検出の効率的な手法を探索する。
特に,いくつかの分類法であるPET(Pattern Exploit Training)と,文脈埋め込みの効率的な方法であるBERTRAM(BERTRAM)の影響について検討した。
実験の結果,PETは英語のパフォーマンスを向上するが,ポルトガル語やガリシア語では効果が低下し,バニラmBERTと同程度の総合的な性能が得られた。
論文 参考訳(メタデータ) (2022-05-23T13:46:35Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。