論文の概要: Context-Aware Pragmatic Metacognitive Prompting for Sarcasm Detection
- arxiv url: http://arxiv.org/abs/2511.21066v1
- Date: Wed, 26 Nov 2025 05:19:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.97564
- Title: Context-Aware Pragmatic Metacognitive Prompting for Sarcasm Detection
- Title(参考訳): サルカズム検出のための文脈認識的メタ認知プロンプト
- Authors: Michael Iskandardinata, William Christian, Derwin Suhartono,
- Abstract要約: 現在、事前訓練された言語モデル(PLM)とLarge Language Model(LLM)がサルカズム検出の好ましいアプローチである。
対象テキスト毎に検索したコンテキスト情報を組み込んだ検索対応手法を提案する。
非パラメトリック検索により、オリジナルのPMP法と比較して9.87%のマクロF1がTwitter Indonesia Sarcasticで改善された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Detecting sarcasm remains a challenging task in the areas of Natural Language Processing (NLP) despite recent advances in neural network approaches. Currently, Pre-trained Language Models (PLMs) and Large Language Models (LLMs) are the preferred approach for sarcasm detection. However, the complexity of sarcastic text, combined with linguistic diversity and cultural variation across communities, has made the task more difficult even for PLMs and LLMs. Beyond that, those models also exhibit unreliable detection of words or tokens that require extra grounding for analysis. Building on a state-of-the-art prompting method in LLMs for sarcasm detection called Pragmatic Metacognitive Prompting (PMP), we introduce a retrieval-aware approach that incorporates retrieved contextual information for each target text. Our pipeline explores two complementary ways to provide context: adding non-parametric knowledge using web-based retrieval when the model lacks necessary background, and eliciting the model's own internal knowledge for a self-knowledge awareness strategy. We evaluated our approach with three datasets, such as Twitter Indonesia Sarcastic, SemEval-2018 Task 3, and MUStARD. Non-parametric retrieval resulted in a significant 9.87% macro-F1 improvement on Twitter Indonesia Sarcastic compared to the original PMP method. Self-knowledge retrieval improves macro-F1 by 3.29% on Semeval and by 4.08% on MUStARD. These findings highlight the importance of context in enhancing LLMs performance in sarcasm detection task, particularly the involvement of culturally specific slang, references, or unknown terms to the LLMs. Future work will focus on optimizing the retrieval of relevant contextual information and examining how retrieval quality affects performance. The experiment code is available at: https://github.com/wllchrst/sarcasm-detection_pmp_knowledge-base.
- Abstract(参考訳): ニューラルネットワークアプローチの最近の進歩にもかかわらず、自然言語処理(NLP)の領域では、サルカズムの検出は依然として難しい課題である。
現在、事前訓練された言語モデル(PLM)とLarge Language Model(LLM)がサルカズム検出の好ましいアプローチである。
しかし,Sarcastic テキストの複雑さと言語的多様性とコミュニティ間の文化的多様性が組み合わさって,PLM や LLM においても作業が困難になっている。
さらにこれらのモデルには、分析に余分な根拠を必要とする単語やトークンの信頼性の低い検出も表示される。
PMP (Pragmatic Metacognitive Prompting) と呼ばれる, サルカズム検出のためのLLMにおける最先端のプロンプト法に基づいて, 対象テキスト毎に検索した文脈情報を組み込んだ検索対応手法を提案する。
我々のパイプラインは、モデルに必要な背景が欠けている場合、Webベースの検索を用いた非パラメトリック知識の追加と、自己認識型認識戦略のためのモデルの内部知識の抽出という、コンテキストを提供する2つの補完的な方法を模索している。
Twitter Indonesia Sarcastic, SemEval-2018 Task 3, MUStARD の3つのデータセットでアプローチを評価した。
非パラメトリック検索により、オリジナルのPMP法と比較して9.87%のマクロF1がTwitter Indonesia Sarcasticで改善された。
自己知識検索はマクロF1をSemevalで3.29%、MUStARDで4.08%改善する。
これらの知見は,肉腫検出タスクにおけるLLMのパフォーマンス向上における文脈の重要性,特に文化的に特異的なスラング,参照,未知用語の関与を浮き彫りにした。
今後の研究は、関連するコンテキスト情報の検索を最適化し、検索品質がパフォーマンスに与える影響を調べることに集中する。
実験コードは、https://github.com/wllchrst/sarcasm-detection_pmp_knowledge-baseで公開されている。
関連論文リスト
- How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - "Lost-in-the-Later": Framework for Quantifying Contextual Grounding in Large Language Models [4.712325494028972]
モデルと言語間の文脈的知識を測定する新しい評価フレームワークであるCoPEを紹介する。
大規模言語モデルがどのようにコンテキストを統合し、情報を優先順位付けし、PKをオープンな質問応答に組み込むかを分析する。
推論モデルと、チェーン・オブ・シント(CoT)によって引き起こされた非推論モデルが、CoTのない非推論モデルよりもコンテキストを使用し、失われた後の効果を軽減できないことがわかった。
論文 参考訳(メタデータ) (2025-07-07T19:13:20Z) - Multi-task Learning with Active Learning for Arabic Offensive Speech Detection [1.534667887016089]
本稿では,多タスク学習(MTL)とアクティブラーニングを統合し,アラビアメディアテキストにおける攻撃的音声検出を強化する新しいフレームワークを提案する。
本手法は,トレーニング中のタスクの重み付けを動的に調整し,各タスクのコントリビューションのバランスをとり,性能を最適化する。
OSACT2022データセットの実験結果は、提案されたフレームワークが85.42%の最先端のマクロF1スコアを達成したことを示している。
論文 参考訳(メタデータ) (2025-06-03T11:17:03Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Enhancing Contextual Understanding in Large Language Models through Contrastive Decoding [9.2433070542025]
大規模言語モデル(LLM)は、テキスト生成時に入力コンテキストを不適切に統合する傾向がある。
本稿では, 逆無関係なパスを負のサンプルとして, コントラストデコーディングを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T20:38:41Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - REALM: Retrieval-Augmented Language Model Pre-Training [37.3178586179607]
言語モデルの事前学習を潜伏知識検索システムで強化し,ウィキペディアのような大規模コーパスから文書を検索し,出席できるようにする。
本研究では,このような知識検索を教師なしで事前学習する方法を初めて示す。
オープンドメイン質問回答(Open-QA)の課題を微調整し,検索型言語モデル事前学習(REALM)の有効性を実証する。
論文 参考訳(メタデータ) (2020-02-10T18:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。