論文の概要: Exploratory Models of Human-AI Teams: Leveraging Human Digital Twins to Investigate Trust Development
- arxiv url: http://arxiv.org/abs/2411.01049v1
- Date: Fri, 01 Nov 2024 21:32:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:27:57.621648
- Title: Exploratory Models of Human-AI Teams: Leveraging Human Digital Twins to Investigate Trust Development
- Title(参考訳): 人間-AIチームの探索モデル:人間デジタル双生児を活用して信頼開発を調査する
- Authors: Daniel Nguyen, Myke C. Cohen, Hsien-Te Kao, Grant Engberson, Louis Penafiel, Spencer Lynch, Svitlana Volkova,
- Abstract要約: 1つの上昇する方法は、人間の振舞いを近似するために人間のデジタルツイン(HDT)を使用することと、AI駆動のエージェントチームメンバーに対する社会的感情的認知反応である。
我々は,共感,社会的認知,感情的構成が信頼形成に与える影響を理解するために,チームコミュニケーションデータの分析を行う。
本稿では,HDTトラストの特性について論じる。自己申告尺度,インタラクションベース尺度,コンプライアンス型行動測定である。
- 参考スコア(独自算出の注目度): 0.9976687191579061
- License:
- Abstract: As human-agent teaming (HAT) research continues to grow, computational methods for modeling HAT behaviors and measuring HAT effectiveness also continue to develop. One rising method involves the use of human digital twins (HDT) to approximate human behaviors and socio-emotional-cognitive reactions to AI-driven agent team members. In this paper, we address three research questions relating to the use of digital twins for modeling trust in HATs. First, to address the question of how we can appropriately model and operationalize HAT trust through HDT HAT experiments, we conducted causal analytics of team communication data to understand the impact of empathy, socio-cognitive, and emotional constructs on trust formation. Additionally, we reflect on the current state of the HAT trust science to discuss characteristics of HAT trust that must be replicable by a HDT such as individual differences in trust tendencies, emergent trust patterns, and appropriate measurement of these characteristics over time. Second, to address the question of how valid measures of HDT trust are for approximating human trust in HATs, we discuss the properties of HDT trust: self-report measures, interaction-based measures, and compliance type behavioral measures. Additionally, we share results of preliminary simulations comparing different LLM models for generating HDT communications and analyze their ability to replicate human-like trust dynamics. Third, to address how HAT experimental manipulations will extend to human digital twin studies, we share experimental design focusing on propensity to trust for HDTs vs. transparency and competency-based trust for AI agents.
- Abstract(参考訳): HAT(Human-Adnt Teaming)研究が成長を続けるにつれて、HATの振る舞いをモデル化し、HATの有効性を測定するための計算方法も発展し続けている。
1つの上昇する方法は、人間の振舞いを近似するために人間のデジタルツイン(HDT)を使用することと、AI駆動のエージェントチームメンバーに対する社会的感情的認知反応である。
本稿では,HATの信頼度をモデル化するためのディジタルツインの利用に関する3つの研究課題について述べる。
まず,HDT HAT実験を通じてHAT信頼を適切にモデル化し,運用する方法を問うため,チームコミュニケーションデータの因果解析を行い,共感,社会的認知,感情的構成が信頼形成に与える影響について考察した。
さらに,HAT信頼科学の現状を反映して,信頼傾向の個人差,創発的信頼パターン,時間とともにこれらの特性を適切に測定することなど,HDTによって複製可能なHAT信頼の特性について議論する。
第2に,HDT信頼度がHATの人間信頼度を評価する上で有効であるかという問題に対処するために,HDT信頼度の性質について論じる。
さらに、HDT通信を生成するための異なるLLMモデルを比較した予備シミュレーションの結果を共有し、人間のような信頼力学を再現する能力を分析する。
第3に、HATの実験的な操作が人間のデジタルツイン研究にどのように拡張されるかに取り組むために、HDTの信頼性と透明性に対する信頼性、AIエージェントの能力に基づく信頼に焦点を当てた実験設計を共有します。
関連論文リスト
- Designing LLM-Agents with Personalities: A Psychometric Approach [0.47498241053872914]
本研究は, 定量的, 制御可能, 心理的に検証された個人性をエージェントに割り当てる新しい手法を提案する。
人体研究の制約を克服し、エージェントを社会科学調査のためのアクセス可能なツールとして提案する。
論文 参考訳(メタデータ) (2024-10-25T01:05:04Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - More RLHF, More Trust? On The Impact of Human Preference Alignment On Language Model Trustworthiness [24.843692458375436]
本研究は,5つの信頼性分野において,汎用的嗜好データに整合したモデルが,有益性と無害性に与える影響について検討した。
RLHFによる信頼性の向上は保証されるには程遠いものであり、嗜好データ、アライメントアルゴリズム、および特定の信頼性の側面の間には複雑な相互作用が存在する。
論文 参考訳(メタデータ) (2024-04-29T17:00:53Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Modeling Trust in Human-Robot Interaction: A Survey [1.4502611532302039]
ロボット協力者の適切な信頼は、人間とロボットの相互作用のパフォーマンスに影響を与える主要な要因の1つである。
HRIの信頼性校正には、まず信頼をモデル化する必要がある。
論文 参考訳(メタデータ) (2020-11-09T21:56:34Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。