論文の概要: Human Choice Prediction in Language-based Persuasion Games: Simulation-based Off-Policy Evaluation
- arxiv url: http://arxiv.org/abs/2305.10361v5
- Date: Thu, 20 Mar 2025 14:27:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:32:06.964069
- Title: Human Choice Prediction in Language-based Persuasion Games: Simulation-based Off-Policy Evaluation
- Title(参考訳): 言語に基づく説得ゲームにおける人間の選択予測:シミュレーションに基づくオフポリティ評価
- Authors: Eilam Shapira, Omer Madmon, Reut Apel, Moshe Tennenholtz, Roi Reichart,
- Abstract要約: 我々は,言語に基づく説得ゲームに焦点を合わせ,専門家が言論的なメッセージを通じて意思決定者に影響を与えることを目標としている。
OPEフレームワークでは,1組の専門家エージェントとの遭遇から収集した人間のインタラクションデータに基づいて,予測モデルを訓練する。
専用アプリケーションを用いて,人間による87Kの意思決定データセットを収集した。
- 参考スコア(独自算出の注目度): 20.520648062905433
- License:
- Abstract: Recent advances in Large Language Models (LLMs) have spurred interest in designing LLM-based agents for tasks that involve interaction with human and artificial agents. This paper addresses a key aspect in the design of such agents: predicting human decisions in off-policy evaluation (OPE). We focus on language-based persuasion games, where an expert aims to influence the decision-maker through verbal messages. In our OPE framework, the prediction model is trained on human interaction data collected from encounters with one set of expert agents, and its performance is evaluated on interactions with a different set of experts. Using a dedicated application, we collected a dataset of 87K decisions from humans playing a repeated decision-making game with artificial agents. To enhance off-policy performance, we propose a simulation technique involving interactions across the entire agent space and simulated decision-makers. Our learning strategy yields significant OPE gains, e.g., improving prediction accuracy in the top 15% challenging cases by 7.1%. Our code and the large dataset we collected and generated are submitted as supplementary material and publicly available in our GitHub repository: https://github.com/eilamshapira/HumanChoicePrediction
- Abstract(参考訳): LLM(Large Language Models)の最近の進歩は、人間や人工エージェントとの相互作用を伴うタスクのためのLLMベースのエージェントの設計への関心を喚起している。
本稿では,このようなエージェントの設計における重要な側面として,オフ・ポリティクス評価(OPE)における人的決定の予測について述べる。
我々は,言語に基づく説得ゲームに焦点を合わせ,専門家が言論的なメッセージを通じて意思決定者に影響を与えることを目標としている。
OPEフレームワークでは,1つの専門家エージェントとの出会いから収集した人間のインタラクションデータに基づいて予測モデルを訓練し,その性能を別の専門家とのインタラクションに基づいて評価する。
専用アプリケーションを用いて,人間による87Kの意思決定データセットを収集した。
本研究では, エージェント空間全体にわたるインタラクションと, 意思決定者のシミュレートを含むシミュレーション手法を提案する。
我々の学習戦略は、例えば、上位15%のチャレンジケースにおける予測精度を7.1%向上させる、重要なOPEゲインをもたらす。
私たちのコードと、私たちが収集し、生成した巨大なデータセットは、補足資料として提出され、GitHubリポジトリで公開されています。
関連論文リスト
- Simulating User Agents for Embodied Conversational-AI [9.402740034754455]
我々は,エンボディエージェントとのインタラクション中にユーザ動作をシミュレート可能な,LLMベースのユーザエージェントを構築した。
シミュレーション対話をTEAChデータセットと比較することにより,ユーザエージェントの人間的行動生成能力を評価する。
論文 参考訳(メタデータ) (2024-10-31T00:56:08Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - ADESSE: Advice Explanations in Complex Repeated Decision-Making Environments [14.105935964906976]
この研究は、インテリジェントなエージェントが人間の意思決定者にアドバイスを提供するような問題設定について考察する。
我々は,人的信頼と意思決定を改善するためのアドバイザーエージェントの説明を生成するために,ADESSEというアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-31T08:59:20Z) - Questioning the Unknown: Optimising Multi-Agent Collaboration in Narrative-Driven Games [18.383262467079078]
We present Questum, a novel framework for Large Language Model (LLM) based agent in Murder Mystery Games (MMGs)。
MMGには、未定義の状態空間、中間報酬の欠如、継続的な言語領域における戦略的相互作用の必要性など、ユニークな課題がある。
Questumは、エージェント状態のセンサベース表現、情報ゲインによってガイドされる質問ターゲティングメカニズム、そして容疑者リストを洗練し、意思決定効率を高めるためのプルーニング戦略を通じて、これらの複雑さに対処する。
論文 参考訳(メタデータ) (2024-04-26T19:07:30Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - Development of a Trust-Aware User Simulator for Statistical Proactive
Dialog Modeling in Human-AI Teams [4.384546153204966]
近年,人間-AIチームという概念が注目されている。
人間とAIチームメイトとの効果的なコラボレーションのためには、緊密な協調と効果的なコミュニケーションには、積極的活動が不可欠である。
本稿では,プロアクティブダイアログポリシーのトレーニングとテストのためのコーパスベースユーザシミュレータの開発について述べる。
論文 参考訳(メタデータ) (2023-04-24T08:42:51Z) - JECC: Commonsense Reasoning Tasks Derived from Interactive Fictions [75.42526766746515]
本稿では,人間のインタラクティブ・フィクション(IF)ゲームプレイ・ウォークスルーに基づく新しいコモンセンス推論データセットを提案する。
本データセットは,事実知識ではなく,機能的コモンセンス知識ルールの評価に重点を置いている。
実験の結果、導入したデータセットは、以前の機械読影モデルと新しい大規模言語モデルに難題であることが示されている。
論文 参考訳(メタデータ) (2022-10-18T19:20:53Z) - Investigations of Performance and Bias in Human-AI Teamwork in Hiring [30.046502708053097]
AIによる意思決定では、効果的なハイブリッドチームワーク(ヒューマンAI)は、AIのパフォーマンスにのみ依存するものではない。
本研究では,モデルの予測性能とバイアスの両方が,推薦型意思決定タスクにおいてどのように人間に伝達されるかを検討する。
論文 参考訳(メタデータ) (2022-02-21T17:58:07Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z) - SPA: Verbal Interactions between Agents and Avatars in Shared Virtual
Environments using Propositional Planning [61.335252950832256]
SPA(Sense-Plan-Ask)は、仮想的な仮想環境において、仮想的な人間のようなエージェントとユーザアバターの間の言語的対話を生成する。
提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。
論文 参考訳(メタデータ) (2020-02-08T23:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。