論文の概要: Towards Machines that Trust: AI Agents Learn to Trust in the Trust Game
- arxiv url: http://arxiv.org/abs/2312.12868v1
- Date: Wed, 20 Dec 2023 09:32:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 16:15:54.060370
- Title: Towards Machines that Trust: AI Agents Learn to Trust in the Trust Game
- Title(参考訳): 信頼するマシンに向けて:AIエージェントは信頼ゲームで信頼を学ぶ
- Authors: Ardavan S. Nobandegani, Irina Rish, Thomas R. Shultz
- Abstract要約: 我々は,行動科学と脳科学の信頼を研究するための標準的な課題である$textittrust game$について理論的に分析する。
具体的には、強化学習を利用してAIエージェントを訓練し、このタスクの様々なパラメータ化の下で学習信頼を調査する。
提案したシミュレーション結果と相関する理論解析は,信頼ゲームにおける信頼の出現に関する数学的基礎を提供する。
- 参考スコア(独自算出の注目度): 11.788352764861369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Widely considered a cornerstone of human morality, trust shapes many aspects
of human social interactions. In this work, we present a theoretical analysis
of the $\textit{trust game}$, the canonical task for studying trust in
behavioral and brain sciences, along with simulation results supporting our
analysis. Specifically, leveraging reinforcement learning (RL) to train our AI
agents, we systematically investigate learning trust under various
parameterizations of this task. Our theoretical analysis, corroborated by the
simulations results presented, provides a mathematical basis for the emergence
of trust in the trust game.
- Abstract(参考訳): 信頼は人間の道徳の基盤であり、人間の社会的相互作用の多くの側面を形作っている。
本研究では,行動科学と脳科学の信頼を研究するための標準課題である$\textit{trust game}$の理論的解析と,分析を支援するシミュレーション結果を示す。
具体的には、強化学習(RL)を利用してAIエージェントを訓練し、このタスクの様々なパラメータ化の下で学習信頼を体系的に調査する。
提案したシミュレーション結果と相関する理論解析は,信頼ゲームにおける信頼の出現に関する数学的基礎を提供する。
関連論文リスト
- Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Decoding trust: A reinforcement learning perspective [11.04265850036115]
信頼ゲームにおける行動実験は、信頼と信頼は人間の間で普遍的であることを示した。
個人が蓄積した経験を通じて長期的なリターンを評価することで戦略を更新する強化学習のパラダイムに目を向ける。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
論文 参考訳(メタデータ) (2023-09-26T01:06:29Z) - A Mental Model Based Theory of Trust [31.14516396625931]
信頼の推論に使用できる信頼の精神モデルに基づく理論を提案する。
そして、この理論を用いて、信頼の進化、人間の信頼と意思決定、そしてエージェントに対する適切な信頼のレベルを定式化する。
論文 参考訳(メタデータ) (2023-01-29T22:36:37Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。