論文の概要: Gricean Norms as a Basis for Effective Collaboration
- arxiv url: http://arxiv.org/abs/2503.14484v1
- Date: Tue, 18 Mar 2025 17:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:17:31.336236
- Title: Gricean Norms as a Basis for Effective Collaboration
- Title(参考訳): 効果的なコラボレーションの基盤としてのGricean Norms
- Authors: Fardin Saad, Pradeep K. Murukannaiah, Munindar P. Singh,
- Abstract要約: 本稿では,Griceanノルムと認知フレームワークを大規模言語モデル(LLM)ベースのエージェントに統合する規範的フレームワークを提案する。
本フレームワークでは,人間とのコラボレーションを目的としたGPT-4エージェントであるLamoidsを紹介する。
- 参考スコア(独自算出の注目度): 12.92528740921513
- License:
- Abstract: Effective human-AI collaboration hinges not only on the AI agent's ability to follow explicit instructions but also on its capacity to navigate ambiguity, incompleteness, invalidity, and irrelevance in communication. Gricean conversational and inference norms facilitate collaboration by aligning unclear instructions with cooperative principles. We propose a normative framework that integrates Gricean norms and cognitive frameworks -- common ground, relevance theory, and theory of mind -- into large language model (LLM) based agents. The normative framework adopts the Gricean maxims of quantity, quality, relation, and manner, along with inference, as Gricean norms to interpret unclear instructions, which are: ambiguous, incomplete, invalid, or irrelevant. Within this framework, we introduce Lamoids, GPT-4 powered agents designed to collaborate with humans. To assess the influence of Gricean norms in human-AI collaboration, we evaluate two versions of a Lamoid: one with norms and one without. In our experiments, a Lamoid collaborates with a human to achieve shared goals in a grid world (Doors, Keys, and Gems) by interpreting both clear and unclear natural language instructions. Our results reveal that the Lamoid with Gricean norms achieves higher task accuracy and generates clearer, more accurate, and contextually relevant responses than the Lamoid without norms. This improvement stems from the normative framework, which enhances the agent's pragmatic reasoning, fostering effective human-AI collaboration and enabling context-aware communication in LLM-based agents.
- Abstract(参考訳): 効果的な人間とAIのコラボレーションは、明示的な指示に従うAIエージェントの能力だけでなく、あいまいさ、不完全さ、無効さ、コミュニケーションの不適切さをナビゲートする能力にも焦点を当てている。
グリシアン会話と推論の規範は、不明瞭な指示を協調原理と整合させることで協調を促進する。
本稿では,Griceanの規範と認知フレームワーク(共通基盤,関連理論,心の理論)を大規模言語モデル(LLM)に基づくエージェントに統合する規範的フレームワークを提案する。
規範的フレームワークは、量、品質、関係、方法の最大値と推論を、不明瞭、不完全、無効、あるいは無関係である不明瞭な命令を解釈するグリサンのノルムとして採用している。
本フレームワークでは,人間とのコラボレーションを目的としたGPT-4エージェントであるLamoidsを紹介する。
我々は,人間とAIのコラボレーションにおけるGriceanノルムの影響を評価するために,ノルムと非ノルムの2つのバージョンを評価した。
我々の実験では、Lamoidは人間と協力してグリッドの世界(Doors, Keys, Gems)において、明確な自然言語命令と不明瞭な自然言語命令の両方を解釈することで、共通の目標を達成する。
以上の結果から,Griceanノルムを持つラミドは,ノルムのないラミドよりも明瞭で,より正確で,文脈的に関係のある応答を生成することがわかった。
この改善は、エージェントの実用的推論を強化し、効果的な人間とAIのコラボレーションを促進し、LLMベースのエージェントにおけるコンテキスト認識コミュニケーションを可能にする規範的枠組みに起因している。
関連論文リスト
- EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Position: We Need An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [24.448749292993234]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - Using generative AI to support standardization work -- the case of 3GPP [2.0999222360659604]
テキスト要約のジェネリックモデルは、ドメインエキスパートやデリゲートのアセスメントとよく相関していることを示す。
標準化グループのためのより良い議論資料を提供するためには、ドメイン固有のモデルが必要である。
論文 参考訳(メタデータ) (2024-08-08T09:18:03Z) - Language Models in Dialogue: Conversational Maxims for Human-AI Interactions [14.312321347152249]
我々は,人間とAIの会話を効果的に表現するために,量,品質,関連性,態度,慈悲,透明性のセットを提案する。
様々な言語モデルがこれらの最大値を理解することができる程度を評価し、モデルがそれらの最大値を正確に解釈する能力に大きな影響を与える原理の内的優先順位付けを持っていることを発見した。
論文 参考訳(メタデータ) (2024-03-22T11:16:43Z) - Pragmatic Instruction Following and Goal Assistance via Cooperative
Language-Guided Inverse Planning [52.91457780361305]
本稿では,協調型言語誘導逆計画探索(CLIPS)を紹介する。
我々のエージェントは、協力的なプランナーとして人間をモデル化し、アシスタントに共同計画を伝える。
2つの協調計画領域(ドア,キー&ジェム,バーチャルホーム)におけるこれらの機能の評価
論文 参考訳(メタデータ) (2024-02-27T23:06:53Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Language Instructed Reinforcement Learning for Human-AI Coordination [23.694362407434753]
InstructRLという新しいフレームワークを提案し、自然言語でAIパートナーにどのような戦略を期待するかを、人間が指定できるようにする。
InstructRLは,概念実証環境とハナビベンチマークの課題において,与えられた指示を満足する人間的なポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-04-13T04:47:31Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - Iterated Reasoning with Mutual Information in Cooperative and Byzantine
Decentralized Teaming [0.0]
我々は,政策グラディエント(PG)の下での最適化において,エージェントの方針がチームメイトの方針に準じることが,本質的に相互情報(MI)の下限を最大化することを示す。
我々の手法であるInfoPGは、創発的協調行動の学習におけるベースラインを上回り、分散協調型MARLタスクにおける最先端の課題を設定します。
論文 参考訳(メタデータ) (2022-01-20T22:54:32Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。