論文の概要: Pragmatic Theories Enhance Understanding of Implied Meanings in LLMs
- arxiv url: http://arxiv.org/abs/2510.26253v1
- Date: Thu, 30 Oct 2025 08:35:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.712498
- Title: Pragmatic Theories Enhance Understanding of Implied Meanings in LLMs
- Title(参考訳): LLMにおけるインプリッドな意味の理解を促すプラグマティック理論
- Authors: Takuma Sato, Seiya Kawano, Koichiro Yoshino,
- Abstract要約: 暗黙の意味を正確に解釈する能力は、人間のコミュニケーションや言語利用において重要な役割を担っている。
本研究は,言語モデルにプロンプトとして実用的理論を提供することが,文脈内学習の効果的な方法であることを示す。
- 参考スコア(独自算出の注目度): 8.05894553698894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to accurately interpret implied meanings plays a crucial role in human communication and language use, and language models are also expected to possess this capability. This study demonstrates that providing language models with pragmatic theories as prompts is an effective in-context learning approach for tasks to understand implied meanings. Specifically, we propose an approach in which an overview of pragmatic theories, such as Gricean pragmatics and Relevance Theory, is presented as a prompt to the language model, guiding it through a step-by-step reasoning process to derive a final interpretation. Experimental results showed that, compared to the baseline, which prompts intermediate reasoning without presenting pragmatic theories (0-shot Chain-of-Thought), our methods enabled language models to achieve up to 9.6\% higher scores on pragmatic reasoning tasks. Furthermore, we show that even without explaining the details of pragmatic theories, merely mentioning their names in the prompt leads to a certain performance improvement (around 1-3%) in larger models compared to the baseline.
- Abstract(参考訳): インプリケートされた意味を正確に解釈する能力は、人間のコミュニケーションや言語使用において重要な役割を担い、言語モデルにもこの能力を持つことが期待されている。
本研究は,言語モデルにプロンプトとして実用的理論を提供することが,意味の理解に有効な文脈内学習手法であることを実証する。
具体的には, Gricean pragmatics や Relevance Theory などの実用的理論の概要を言語モデルへのプロンプトとして提示し, 最終解釈を導出するためのステップバイステップ推論プロセスを通じて導出する手法を提案する。
実験結果から,本手法は,実用理論を提示せずに中間推論を促進させるベースライン(0-shot Chain-of-Thought,0-shot Chain-of-Thought,0-shot Chain-of-Thought,0-shot Chain-Thought,0-shot Chain-of-Thought,0-shot Chain-Thought,0-shot Chain-Thought,0-shot Chain-of-Thought,0-shot Chain-Thought)と比較して,言語モデルが実用的推論タスクにおいて最大9.6\%高いスコアを達成できることが示唆された。
さらに, 実用的理論の詳細を説明せずにも, プロンプトで名前に言及するだけで, ベースラインと比較して, 一定の性能向上(約1~3%)が達成できることを示した。
関連論文リスト
- On the Same Wavelength? Evaluating Pragmatic Reasoning in Language Models across Broad Concepts [69.69818198773244]
本研究では,言語理解と言語生産の両面で,多種多様なLMについて検討する。
最先端のLMは小さくはないが,言語理解において高い性能を発揮する。
論文 参考訳(メタデータ) (2025-09-08T17:59:32Z) - Understand the Implication: Learning to Think for Pragmatic Understanding [34.34828731466766]
プラグマティクス(英: Pragmatics)とは、文字通りの解釈を超えて意味を推測する能力である。
既存の手法は注釈付きラベルに依存しているが、人間が暗黙の意味を解釈するために自然に使用する推論プロセスを見落としている。
我々は、正しい解釈と誤解釈の両方に対して明確な推論(思考)を含む、新しい実用的データセット、ImpliedPreferenceを導入する。
論文 参考訳(メタデータ) (2025-06-16T14:45:08Z) - The Pragmatic Mind of Machines: Tracing the Emergence of Pragmatic Competence in Large Language Models [6.187227278086245]
大規模言語モデル(LLM)は、不規則な解決や推論の理論を含む社会的知性に新たな能力を示す。
本研究では,異なる学習段階におけるLLMが話者意図を正確に推測できるかどうかを評価する。
プレトレーニング後, 教師付き微調整(SFT), 選好最適化の3段階にわたる22個のLDMを系統的に評価した。
論文 参考訳(メタデータ) (2025-05-24T04:24:59Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Regularized Conventions: Equilibrium Computation as a Model of Pragmatic
Reasoning [72.21876989058858]
本稿では,信号ゲームの正規化平衡を探索することにより,発話を生成・理解する実用的な言語理解のモデルを提案する。
このモデルでは、話者とリスナーは文脈的に適切な発話を探索し、ゲーム理論の最適規則に近づき、共有された'デフォルト'セマンティクスに近い意味のマッピングを意味づける。
論文 参考訳(メタデータ) (2023-11-16T09:42:36Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - The Goldilocks of Pragmatic Understanding: Fine-Tuning Strategy Matters
for Implicature Resolution by LLMs [26.118193748582197]
我々は、広く使われている最先端モデルの4つのカテゴリを評価する。
2進推論を必要とする発話のみを評価するにもかかわらず、3つのカテゴリのモデルはランダムに近い性能を示す。
これらの結果は、特定の微調整戦略がモデルにおける実用的理解を誘導する上ではるかに優れていることを示唆している。
論文 参考訳(メタデータ) (2022-10-26T19:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。