論文の概要: My Actions Speak Louder Than Your Words: When User Behavior Predicts
Their Beliefs about Agents' Attributes
- arxiv url: http://arxiv.org/abs/2301.09011v1
- Date: Sat, 21 Jan 2023 21:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:23:35.704060
- Title: My Actions Speak Louder Than Your Words: When User Behavior Predicts
Their Beliefs about Agents' Attributes
- Title(参考訳): 私の行動はあなたの言葉よりも大声で語る: ユーザーの行動がエージェントの属性についての信念を予測するとき
- Authors: Nikolos Gurney and David Pynadath and Ning Wang
- Abstract要約: 行動科学は、人々が時々無関係な情報を使用することを示唆している。
この現象の例としては、人間とエージェントの相互作用においてより良い結果を経験したユーザーが、そのエージェントをより優れた能力を持ち、好意的であり、また、自身の行動の結果である、より悪い結果を経験したユーザーよりも、ポストホックアセスメントにおいてより整合性を示すと体系的に評価した。
分析の結果,モデルの拡張の必要性が示唆され,そのような偏見を考慮し,エージェントがこのようなバイアスを検知し,積極的に行動し,ユーザの類似した偏見を補正するメカニズムも説明できる。
- 参考スコア(独自算出の注目度): 5.893351309010412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An implicit expectation of asking users to rate agents, such as an AI
decision-aid, is that they will use only relevant information -- ask them about
an agent's benevolence, and they should consider whether or not it was kind.
Behavioral science, however, suggests that people sometimes use irrelevant
information. We identify an instance of this phenomenon, where users who
experience better outcomes in a human-agent interaction systematically rated
the agent as having better abilities, being more benevolent, and exhibiting
greater integrity in a post hoc assessment than users who experienced worse
outcome -- which were the result of their own behavior -- with the same agent.
Our analyses suggest the need for augmentation of models so that they account
for such biased perceptions as well as mechanisms so that agents can detect and
even actively work to correct this and similar biases of users.
- Abstract(参考訳): ai decision-aidのようなエージェントに評価を依頼するという暗黙の期待は、関連する情報のみを使用する -- エージェントの善意について質問し、そのエージェントが親切であったかどうかを考慮すべきである。
しかし行動科学は、人々が時々無関係な情報を使うことを示唆している。
この現象の例として,人間とエージェントのインタラクションでよりよい成果を経験するユーザが,そのエージェントに対して,より優れた能力を持ち,より有益であると同時に,ホック後の評価において,自身の行動の結果である,より悪い結果に遭遇したユーザよりも高い整合性を示すように,体系的に評価した。
分析の結果,モデルの拡張の必要性が示唆され,そのような偏見を考慮し,エージェントがこのようなバイアスを検知し,積極的に行動し,ユーザの類似した偏見を補正するメカニズムも説明できる。
関連論文リスト
- Select to Perfect: Imitating desired behavior from large multi-agent data [28.145889065013687]
AIエージェントのDesired特徴は、望ましいスコアを割り当てることで表現できる。
まず,各エージェントの行動が集団的嗜好性スコアに及ぼす影響を評価する。
本稿では,エージェントの交換値の概念を提案する。これは,個々のエージェントの集団的望ましさスコアへの貢献を定量化するものである。
論文 参考訳(メタデータ) (2024-05-06T15:48:24Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - Explaining Agent Behavior with Large Language Models [7.128139268426959]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
エージェントの振る舞いのコンパクトな表現がいかに学習され、妥当な説明を生み出すかを示す。
論文 参考訳(メタデータ) (2023-09-19T06:13:24Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Diversifying Agent's Behaviors in Interactive Decision Models [11.125175635860169]
他のエージェントの振る舞いをモデル化することは、複数のエージェント間の相互作用に関する決定モデルにおいて重要な役割を果たす。
本稿では,その相互作用に先立って,被験者の意思決定モデルにおける他のエージェントの行動の多様化について検討する。
論文 参考訳(メタデータ) (2022-03-06T23:05:00Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Studying the Effects of Cognitive Biases in Evaluation of Conversational
Agents [10.248512149493443]
我々は,77人のクラウドソース労働者を対象に,人間に会話エージェントのアウトプットを評価するよう依頼されたとき,認知バイアスの役割,特に偏見を抑えるための調査を行った。
2つの実験条件における評価の整合性の向上は、バイアスのアンカーの結果である可能性がある。
論文 参考訳(メタデータ) (2020-02-18T23:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。