論文の概要: Implicature in Interaction: Understanding Implicature Improves Alignment in Human-LLM Interaction
- arxiv url: http://arxiv.org/abs/2510.25426v1
- Date: Wed, 29 Oct 2025 11:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.490814
- Title: Implicature in Interaction: Understanding Implicature Improves Alignment in Human-LLM Interaction
- Title(参考訳): インプリケーションにおけるインプリケーション:インプリケーションの理解は人間とLLMのインタラクションにおけるアライメントを改善する
- Authors: Asutosh Hota, Jussi P. P. Jokinen,
- Abstract要約: インプリケーション(英: Implicature)は、人間とAIのアライメントに不可欠である。
本研究では,コンテキスト駆動型プロンプトに埋め込まれたユーザ意図を推論する大規模言語モデルを提案する。
その結果、より大きなモデルは人間の解釈をより緊密に近似し、小さなモデルは不規則な推論に苦しむことが明らかとなった。
- 参考スコア(独自算出の注目度): 8.735329612895578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of Large Language Models (LLMs) is positioning language at the core of human-computer interaction (HCI). We argue that advancing HCI requires attention to the linguistic foundations of interaction, particularly implicature (meaning conveyed beyond explicit statements through shared context) which is essential for human-AI (HAI) alignment. This study examines LLMs' ability to infer user intent embedded in context-driven prompts and whether understanding implicature improves response generation. Results show that larger models approximate human interpretations more closely, while smaller models struggle with implicature inference. Furthermore, implicature-based prompts significantly enhance the perceived relevance and quality of responses across models, with notable gains in smaller models. Overall, 67.6% of participants preferred responses with implicature-embedded prompts to literal ones, highlighting a clear preference for contextually nuanced communication. Our work contributes to understanding how linguistic theory can be used to address the alignment problem by making HAI interaction more natural and contextually grounded.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩は、ヒューマン・コンピュータ・インタラクション(HCI)の中核に言語を配置することである。
我々は,HCIの進展には言語的な相互作用の基礎,特に人間-AI(HAI)のアライメントに不可欠な不合理性(共有文脈を通じて明示的な言明を超えて伝達される)に注意が必要であると論じている。
本研究では,LLMがコンテキスト駆動型プロンプトに埋め込まれたユーザ意図を推測する能力と,不適応な理解が応答生成を改善するかどうかを検討する。
その結果、より大きなモデルは人間の解釈をより緊密に近似し、小さなモデルは不規則な推論に苦しむことが明らかとなった。
さらに、インシキュアベースのプロンプトにより、モデル間の応答の関連性や品質が著しく向上し、より小さなモデルでは顕著に向上した。
参加者の67.6%は、不規則なエンベッドドプロンプトによる応答をリテラルに好んでおり、文脈的にニュアンスなコミュニケーションの明確な嗜好を強調している。
我々の研究は、HAIの相互作用をより自然で文脈的に基礎づけることによって、アライメント問題に言語学がどう対処できるかを理解することに寄与する。
関連論文リスト
- Semantic Mastery: Enhancing LLMs with Advanced Natural Language Understanding [0.0]
本稿では,より高度なNLU技術を用いて,大規模言語モデル(LLM)を進化させる最先端の方法論について論じる。
我々は、構造化知識グラフ、検索強化生成(RAG)、および人間レベルの理解とモデルにマッチする微調整戦略の利用を分析する。
論文 参考訳(メタデータ) (2025-04-01T04:12:04Z) - VAGUE: Visual Contexts Clarify Ambiguous Expressions [26.190504250419547]
VAGUEは、意図の視覚的コンテキストを統合するマルチモーダルAIシステムの能力を評価するベンチマークである。
我々の実験によると、既存のマルチモーダルAIモデルは話者の真の意図を推測するのに苦労している。
失敗事例の分析は、現在のモデルが視覚的なシーンにおける表面的相関と真の意図を区別できないことを示す。
論文 参考訳(メタデータ) (2024-11-21T14:01:42Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Detecting Any Human-Object Interaction Relationship: Universal HOI
Detector with Spatial Prompt Learning on Foundation Models [55.20626448358655]
本研究では,ビジョン・ランゲージ(VL)基礎モデルと大規模言語モデル(LLM)を用いて,オープンワールド環境におけるユニバーサルインタラクション認識について検討する。
我々の設計にはHO Prompt-guided Decoder (HOPD) が含まれており、基礎モデルにおける高次関係表現と画像内の様々なHOペアとの結合を容易にする。
オープンカテゴリの対話認識では,対話文と解釈文の2つのタイプがサポートされている。
論文 参考訳(メタデータ) (2023-11-07T08:27:32Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Weakly-Supervised HOI Detection from Interaction Labels Only and
Language/Vision-Language Priors [36.75629570208193]
人-物相互作用検出(Human-object Interaction, HOI)は、人-物対とその相互作用カテゴリを、与えられた自然な画像から抽出することを目的としている。
本稿では,画像レベルのインタラクションラベルのみを用いて,文献における最も弱い監視設定によるHOI検出に取り組む。
まず,非相互作用型人間とオブジェクトの提案を駆使して,バッグ内の正の対の質を高める手法を提案する。
第2に、大きな言語モデルを使用して、人間とオブジェクトのカテゴリ間の相互作用を問合せし、モデルを強調しないよう強制する。
論文 参考訳(メタデータ) (2023-03-09T19:08:02Z) - Interpretable Artificial Intelligence through the Lens of Feature
Interaction [11.217688723644454]
この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2021-03-01T23:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。