論文の概要: World model inspired sarcasm reasoning with large language model agents
- arxiv url: http://arxiv.org/abs/2512.24329v1
- Date: Tue, 30 Dec 2025 16:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.428905
- Title: World model inspired sarcasm reasoning with large language model agents
- Title(参考訳): 世界モデルによる大言語モデルエージェントによる皮肉推論
- Authors: Keito Inoshita, Shinnosuke Mizuno,
- Abstract要約: サーカスム理解は自然言語処理において難しい問題である。
既存のアプローチの多くは、単一モデルのブラックボックス予測に依存している。
We propose World Model inspired SArcasm Reasoning (WM-SAR)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sarcasm understanding is a challenging problem in natural language processing, as it requires capturing the discrepancy between the surface meaning of an utterance and the speaker's intentions as well as the surrounding social context. Although recent advances in deep learning and Large Language Models (LLMs) have substantially improved performance, most existing approaches still rely on black-box predictions of a single model, making it difficult to structurally explain the cognitive factors underlying sarcasm. Moreover, while sarcasm often emerges as a mismatch between semantic evaluation and normative expectations or intentions, frameworks that explicitly decompose and model these components remain limited. In this work, we reformulate sarcasm understanding as a world model inspired reasoning process and propose World Model inspired SArcasm Reasoning (WM-SAR), which decomposes literal meaning, context, normative expectation, and intention into specialized LLM-based agents. The discrepancy between literal evaluation and normative expectation is explicitly quantified as a deterministic inconsistency score, and together with an intention score, these signals are integrated by a lightweight Logistic Regression model to infer the final sarcasm probability. This design leverages the reasoning capability of LLMs while maintaining an interpretable numerical decision structure. Experiments on representative sarcasm detection benchmarks show that WM-SAR consistently outperforms existing deep learning and LLM-based methods. Ablation studies and case analyses further demonstrate that integrating semantic inconsistency and intention reasoning is essential for effective sarcasm detection, achieving both strong performance and high interpretability.
- Abstract(参考訳): サルカズム理解は自然言語処理において難しい問題であり、発話の表面の意味と話者の意図と周囲の社会的文脈との相違を捉える必要がある。
近年のディープラーニングとLarge Language Models (LLMs) の進歩により性能は大幅に向上したが、既存のアプローチは依然として単一モデルのブラックボックス予測に依存しており、皮肉の根底にある認知的要因を構造的に説明することは困難である。
さらに、sarcasmは意味評価と規範的な期待や意図のミスマッチとして現れることが多いが、これらのコンポーネントを明示的に分解しモデル化するフレームワークは限定的のままである。
本研究では,世界モデルにインスパイアされた推論プロセスとして皮肉理解を再構築し,意味,文脈,規範的期待,意図を特殊なLLMエージェントに分解する世界モデルにインスパイアされたSArcasm Reasoning(WM-SAR)を提案する。
リテラル評価と規範的予測の相違は、決定論的不整合スコアとして明確に定量化され、意図的なスコアとともに、これらの信号は軽量なロジスティック回帰モデルによって統合され、最終的な皮肉確率を推測する。
この設計は、解釈可能な数値決定構造を維持しながら、LLMの推論能力を活用する。
代表的なサルカズム検出ベンチマークの実験では、WM-SARは既存のディープラーニングやLLMベースの手法よりも一貫して優れていた。
アブレーション研究とケース分析により、意味的不整合と意図的推論の統合は、強力な性能と高い解釈可能性の両方を達成し、効果的な皮肉検出に不可欠であることが示された。
関連論文リスト
- How and Why LLMs Generalize: A Fine-Grained Analysis of LLM Reasoning from Cognitive Behaviors to Low-Level Patterns [51.02752099869218]
大きな言語モデル(LLM)は、非常に異なる一般化の振る舞いを示す。
推論を原子核スキルに分解する新しいベンチマークを導入する。
SFTモデルはよりシャープなドリフトと表面パターンへの過度な適合を示すのに対し、RL型モデルはより安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗することを示す。
論文 参考訳(メタデータ) (2025-12-30T08:16:20Z) - Towards Transparent Stance Detection: A Zero-Shot Approach Using Implicit and Explicit Interpretability [12.794773087413256]
Zero-Shot Stance Detection (ZSSD) は、見当たらないターゲットに対するポストの姿勢を特定する。
IRISは、姿勢検出を情報検索ランキングタスクとみなしている。
コミュニケーション的特徴に基づく明確な合理性は、姿勢の感情的・認知的次元を解読するのに役立つ。
論文 参考訳(メタデータ) (2025-11-05T16:54:10Z) - Making Machines Sound Sarcastic: LLM-Enhanced and Retrieval-Guided Sarcastic Speech Synthesis [19.632399543819382]
サルカズム(Sarcasm)は、非リテラル言語の微妙な形式であり、音声合成において重要な課題を提起する。
本稿では,文字認識音声合成のためのLarge Language Model (LLM)拡張検索フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-08T14:53:48Z) - mSCoRe: a $M$ultilingual and Scalable Benchmark for $S$kill-based $Co$mmonsense $Re$asoning [74.97363626515236]
textbfSkill ベースの textbfCommonsense textbfReasoning (textbfmSCoRe) のための textbfMultilingual と Scalable Benchmark を提案する。
本ベンチマークでは,LLMの推論能力を体系的に評価するための3つの重要な要素を取り入れた。
本研究は,多言語多言語一般と文化的共通点に直面する場合,そのような推論強化モデルの限界を明らかにするものである。
論文 参考訳(メタデータ) (2025-08-13T18:59:02Z) - A Controllable Examination for Long-Context Language Models [62.845852724511964]
本研究では,長文言語モデルを評価するベンチマークである$textbfLongBioBenchを紹介する。
その結果,ほとんどのモデルでは,検索結果に対する意味的理解や基礎的推論が不足していることが判明した。
我々のさらなる分析は、文脈的非コヒーレンスなど、既存の合成ベンチマークで採用されているいくつかの設計選択を示している。
論文 参考訳(メタデータ) (2025-06-03T14:23:06Z) - Detecting Emotional Incongruity of Sarcasm by Commonsense Reasoning [32.5690489394632]
本論文は, 語義的意味に反する批判, モック, その他の否定的な感情を伝えるか否かを識別することを目的とした, 皮肉検出に焦点を当てた。
既存のメソッドは、複雑な現実世界のシナリオに直面した時に、常識的な推論能力に欠けており、不満足なパフォーマンスをもたらします。
本研究では,EICR と呼ばれるコモンセンス拡張に基づく不整合推論を行うサルカズム検出のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T11:25:55Z) - CofiPara: A Coarse-to-fine Paradigm for Multimodal Sarcasm Target Identification with Large Multimodal Models [14.453131020178564]
本稿では,大きめのパラダイムを持つ多目的MSTIフレームワークを提案する。
マルチモーダル推論におけるLMM(Large Multimodal Models)の強力な能力に着想を得て、まずLMMに取り組み、マルチモーダルサルカズム検出における小言語モデルの粗粒化事前学習のための競合する有理性を生成する。
そこで本稿では,LMM に内在する潜在的なノイズによる負の影響を緩和し,より微細な目標同定モデルを提案する。
論文 参考訳(メタデータ) (2024-05-01T08:44:44Z) - Uncertainty Quantification for In-Context Learning of Large Language Models [52.891205009620364]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。