論文の概要: Decoding trust: A reinforcement learning perspective
- arxiv url: http://arxiv.org/abs/2309.14598v2
- Date: Sun, 26 Nov 2023 11:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 14:38:15.109810
- Title: Decoding trust: A reinforcement learning perspective
- Title(参考訳): 信頼の復号化:強化学習視点
- Authors: Guozhong Zheng, Jiqiang Zhang, Jing Zhang, Weiran Cai, and Li Chen
- Abstract要約: 信頼ゲームにおける行動実験は、信頼と信頼は人間の間で普遍的であることを示した。
個人が蓄積した経験を通じて長期的なリターンを評価することで戦略を更新する強化学習のパラダイムに目を向ける。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
- 参考スコア(独自算出の注目度): 11.04265850036115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Behavioral experiments on the trust game have shown that trust and
trustworthiness are universal among human beings, contradicting the prediction
by assuming \emph{Homo economicus} in orthodox Economics. This means some
mechanism must be at work that favors their emergence. Most previous
explanations however need to resort to some factors based upon imitative
learning, a simple version of social learning. Here, we turn to the paradigm of
reinforcement learning, where individuals update their strategies by evaluating
the long-term return through accumulated experience. Specifically, we
investigate the trust game with the Q-learning algorithm, where each
participant is associated with two evolving Q-tables that guide one's decision
making as trustor and trustee respectively. In the pairwise scenario, we reveal
that high levels of trust and trustworthiness emerge when individuals
appreciate both their historical experience and returns in the future.
Mechanistically, the evolution of the Q-tables shows a crossover that resembles
human's psychological changes. We also provide the phase diagram for the game
parameters, where the boundary analysis is conducted. These findings are robust
when the scenario is extended to a latticed population. Our results thus
provide a natural explanation for the emergence of trust and trustworthiness
without external factors involved. More importantly, the proposed paradigm
shows the potential in deciphering many puzzles in human behaviors.
- Abstract(参考訳): 信頼ゲームにおける行動実験は、信頼と信頼性が人間の間で普遍的であることを示し、正統派経済学において「ホモ・エコノミクス」を仮定することで予測と矛盾している。
これは、何らかのメカニズムが彼らの出現を好む必要があることを意味する。
しかし、以前の説明の多くは、ソーシャル学習の単純なバージョンである模倣学習に基づくいくつかの要因に頼る必要がある。
ここでは、個人が蓄積した経験を通して長期的な回帰を評価することによって戦略を更新する強化学習のパラダイムに目を向ける。
具体的には,q-learningアルゴリズムを用いて,受託者の意思決定を指導する2つのq-tableと関連づけた信頼ゲームについて検討する。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
機械学的には、Qテーブルの進化は人間の心理的変化に似た交差を示す。
また,ゲームパラメータの位相図も提供し,境界解析を行った。
これらの発見は、シナリオが格子状個体群に拡張された場合、堅牢である。
その結果,外部要因を伴わない信頼と信頼性の出現の自然な説明が得られた。
さらに重要なことは、提案されたパラダイムは、人間の行動における多くのパズルを解読する可能性を示している。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Towards Machines that Trust: AI Agents Learn to Trust in the Trust Game [11.788352764861369]
我々は,行動科学と脳科学の信頼を研究するための標準的な課題である$textittrust game$について理論的に分析する。
具体的には、強化学習を利用してAIエージェントを訓練し、このタスクの様々なパラメータ化の下で学習信頼を調査する。
提案したシミュレーション結果と相関する理論解析は,信頼ゲームにおける信頼の出現に関する数学的基礎を提供する。
論文 参考訳(メタデータ) (2023-12-20T09:32:07Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Explaining Model Confidence Using Counterfactuals [4.385390451313721]
人間とAIのインタラクションにおける信頼スコアの表示は、人間とAIシステムの信頼構築に役立つことが示されている。
既存の研究のほとんどは、信頼スコアのみをコミュニケーションの形式として用いている。
信頼性スコアの反実的な説明は、参加者が機械学習モデルの予測をよりよく理解し、より信頼するのに役立つことを示す。
論文 参考訳(メタデータ) (2023-03-10T06:22:13Z) - Trust Calibration as a Function of the Evolution of Uncertainty in
Knowledge Generation: A Survey [1.462008690460147]
我々は、視覚分析システムにおけるユーザの信頼が、そのライフサイクルを通してどのように進化していくかを理解するためには、情報抽出を通じて、データソースからの不確実性の伝播を考慮する必要があると論じている。
我々は、視覚分析、人間の認知理論、不確実性から文献の幅広い断面をサンプリングし、有用な視点を合成しようと試みる。
論文 参考訳(メタデータ) (2022-09-09T16:46:37Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。