論文の概要: Gricean Norms as a Basis for Effective Collaboration
- arxiv url: http://arxiv.org/abs/2503.14484v1
- Date: Tue, 18 Mar 2025 17:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:13.380971
- Title: Gricean Norms as a Basis for Effective Collaboration
- Title(参考訳): 効果的なコラボレーションの基盤としてのGricean Norms
- Authors: Fardin Saad, Pradeep K. Murukannaiah, Munindar P. Singh,
- Abstract要約: 本稿では,Griceanノルムと認知フレームワークを大規模言語モデル(LLM)ベースのエージェントに統合する規範的フレームワークを提案する。
本フレームワークでは,人間とのコラボレーションを目的としたGPT-4エージェントであるLamoidsを紹介する。
- 参考スコア(独自算出の注目度): 12.92528740921513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective human-AI collaboration hinges not only on the AI agent's ability to follow explicit instructions but also on its capacity to navigate ambiguity, incompleteness, invalidity, and irrelevance in communication. Gricean conversational and inference norms facilitate collaboration by aligning unclear instructions with cooperative principles. We propose a normative framework that integrates Gricean norms and cognitive frameworks -- common ground, relevance theory, and theory of mind -- into large language model (LLM) based agents. The normative framework adopts the Gricean maxims of quantity, quality, relation, and manner, along with inference, as Gricean norms to interpret unclear instructions, which are: ambiguous, incomplete, invalid, or irrelevant. Within this framework, we introduce Lamoids, GPT-4 powered agents designed to collaborate with humans. To assess the influence of Gricean norms in human-AI collaboration, we evaluate two versions of a Lamoid: one with norms and one without. In our experiments, a Lamoid collaborates with a human to achieve shared goals in a grid world (Doors, Keys, and Gems) by interpreting both clear and unclear natural language instructions. Our results reveal that the Lamoid with Gricean norms achieves higher task accuracy and generates clearer, more accurate, and contextually relevant responses than the Lamoid without norms. This improvement stems from the normative framework, which enhances the agent's pragmatic reasoning, fostering effective human-AI collaboration and enabling context-aware communication in LLM-based agents.
- Abstract(参考訳): 効果的な人間とAIのコラボレーションは、明示的な指示に従うAIエージェントの能力だけでなく、あいまいさ、不完全さ、無効さ、コミュニケーションの不適切さをナビゲートする能力にも焦点を当てている。
グリシアン会話と推論の規範は、不明瞭な指示を協調原理と整合させることで協調を促進する。
本稿では,Griceanの規範と認知フレームワーク(共通基盤,関連理論,心の理論)を大規模言語モデル(LLM)に基づくエージェントに統合する規範的フレームワークを提案する。
規範的フレームワークは、量、品質、関係、方法の最大値と推論を、不明瞭、不完全、無効、あるいは無関係である不明瞭な命令を解釈するグリサンのノルムとして採用している。
本フレームワークでは,人間とのコラボレーションを目的としたGPT-4エージェントであるLamoidsを紹介する。
我々は,人間とAIのコラボレーションにおけるGriceanノルムの影響を評価するために,ノルムと非ノルムの2つのバージョンを評価した。
我々の実験では、Lamoidは人間と協力してグリッドの世界(Doors, Keys, Gems)において、明確な自然言語命令と不明瞭な自然言語命令の両方を解釈することで、共通の目標を達成する。
以上の結果から,Griceanノルムを持つラミドは,ノルムのないラミドよりも明瞭で,より正確で,文脈的に関係のある応答を生成することがわかった。
この改善は、エージェントの実用的推論を強化し、効果的な人間とAIのコラボレーションを促進し、LLMベースのエージェントにおけるコンテキスト認識コミュニケーションを可能にする規範的枠組みに起因している。
関連論文リスト
- Vision-Language Models Are Not Pragmatically Competent in Referring Expression Generation [16.217818305338945]
Referring Expression Generation (REG)は、視覚言語システムの実用的能力を評価するための中核的なタスクである。
視覚言語モデル(VLM)の現在の評価は、しばしば実用的次元を見落としている。
本稿では,1.5k画像の新しいデータセット(RefOI)について述べる。
論文 参考訳(メタデータ) (2025-04-22T17:37:16Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - EgoNormia: Benchmarking Physical Social Norm Understanding [52.87904722234434]
我々はEgoNormia $|epsilon|$について紹介する。
規範的行動には、安全、プライバシー、プロキシ、丁寧さ、協力、協調/行動、コミュニケーション/相対性という7つのカテゴリが含まれる。
私たちの研究は、現在の最先端のビジョン言語モデルは、EgoNormiaで最大45%のスコアで、堅牢なノルム理解を欠いていることを実証しています。
論文 参考訳(メタデータ) (2025-02-27T19:54:16Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Position: We Need An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [24.448749292993234]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - Language Models in Dialogue: Conversational Maxims for Human-AI Interactions [14.312321347152249]
我々は,人間とAIの会話を効果的に表現するために,量,品質,関連性,態度,慈悲,透明性のセットを提案する。
様々な言語モデルがこれらの最大値を理解することができる程度を評価し、モデルがそれらの最大値を正確に解釈する能力に大きな影響を与える原理の内的優先順位付けを持っていることを発見した。
論文 参考訳(メタデータ) (2024-03-22T11:16:43Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Language Instructed Reinforcement Learning for Human-AI Coordination [23.694362407434753]
InstructRLという新しいフレームワークを提案し、自然言語でAIパートナーにどのような戦略を期待するかを、人間が指定できるようにする。
InstructRLは,概念実証環境とハナビベンチマークの課題において,与えられた指示を満足する人間的なポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-04-13T04:47:31Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - Iterated Reasoning with Mutual Information in Cooperative and Byzantine
Decentralized Teaming [0.0]
我々は,政策グラディエント(PG)の下での最適化において,エージェントの方針がチームメイトの方針に準じることが,本質的に相互情報(MI)の下限を最大化することを示す。
我々の手法であるInfoPGは、創発的協調行動の学習におけるベースラインを上回り、分散協調型MARLタスクにおける最先端の課題を設定します。
論文 参考訳(メタデータ) (2022-01-20T22:54:32Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。