論文の概要: Flight Testing an Optionally Piloted Aircraft: a Case Study on Trust Dynamics in Human-Autonomy Teaming
- arxiv url: http://arxiv.org/abs/2503.16227v1
- Date: Thu, 20 Mar 2025 15:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:56.394898
- Title: Flight Testing an Optionally Piloted Aircraft: a Case Study on Trust Dynamics in Human-Autonomy Teaming
- Title(参考訳): オプション操縦機による飛行試験:人間-自律型チームにおける信頼ダイナミクスの事例研究
- Authors: Jeremy C. -H. Wang, Ming Hou, David Dunwoody, Marko Ilievski, Justin Tomasi, Edward Chao, Carl Pigeon,
- Abstract要約: 基本要因の変化が信頼の変動、信頼のしきい値、人間の行動に与える影響について論じる。
2021年から2023年にかけての複数年間の飛行試験で収集された200時間以上の飛行試験データをレビューした。
この結果は,人間-自律型チームにおける信頼のダイナミクスと信頼のための設計に関する今後の研究に有望な方向性をもたらす。
- 参考スコア(独自算出の注目度): 1.3887339164949892
- License:
- Abstract: This paper examines how trust is formed, maintained, or diminished over time in the context of human-autonomy teaming with an optionally piloted aircraft. Whereas traditional factor-based trust models offer a static representation of human confidence in technology, here we discuss how variations in the underlying factors lead to variations in trust, trust thresholds, and human behaviours. Over 200 hours of flight test data collected over a multi-year test campaign from 2021 to 2023 were reviewed. The dispositional-situational-learned, process-performance-purpose, and IMPACTS homeostasis trust models are applied to illuminate trust trends during nominal autonomous flight operations. The results offer promising directions for future studies on trust dynamics and design-for-trust in human-autonomy teaming.
- Abstract(参考訳): 本稿では,オプションで操縦する航空機と人間と自律的なコラボレーションの文脈において,信頼の形成,維持,あるいは時間の経過とともに減少する様子を考察する。
従来の要因に基づく信頼モデルは、技術に対する人間の信頼の静的な表現を提供するが、ここでは、基礎となる要因の変動が、信頼の変動、信頼のしきい値、人間の行動にどのように影響するかについて議論する。
2021年から2023年にかけての複数年間の飛行試験で収集された200時間以上の飛行試験データをレビューした。
自律飛行運転における信頼傾向を照らし出すために, 転置型, プロセス性能, IMPACTSホメオスタシス信頼モデルを適用した。
この結果は,人間-自律型チームにおける信頼のダイナミクスと信頼のための設計に関する今後の研究に有望な方向性をもたらす。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Exploratory Models of Human-AI Teams: Leveraging Human Digital Twins to Investigate Trust Development [0.9976687191579061]
1つの上昇する方法は、人間の振舞いを近似するために人間のデジタルツイン(HDT)を使用することと、AI駆動のエージェントチームメンバーに対する社会的感情的認知反応である。
我々は,共感,社会的認知,感情的構成が信頼形成に与える影響を理解するために,チームコミュニケーションデータの分析を行う。
本稿では,HDTトラストの特性について論じる。自己申告尺度,インタラクションベース尺度,コンプライアンス型行動測定である。
論文 参考訳(メタデータ) (2024-11-01T21:32:11Z) - Llamas Know What GPTs Don't Show: Surrogate Models for Confidence
Estimation [70.27452774899189]
大規模言語モデル(LLM)は、ユーザを誤解させるのではなく、不正な例に対して低い信頼を示さなければならない。
2023年11月現在、最先端のLLMはこれらの確率へのアクセスを提供していない。
言語的信頼度と代理モデル確率を構成する最良の方法は、12データセットすべてに対して最先端の信頼度推定を与える。
論文 参考訳(メタデータ) (2023-11-15T11:27:44Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Decoding trust: A reinforcement learning perspective [11.04265850036115]
信頼ゲームにおける行動実験は、信頼と信頼は人間の間で普遍的であることを示した。
個人が蓄積した経験を通じて長期的なリターンを評価することで戦略を更新する強化学習のパラダイムに目を向ける。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
論文 参考訳(メタデータ) (2023-09-26T01:06:29Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires [0.6853165736531939]
我々は、最も頻繁に引用され、最も有効な人間自動および人間ロボット信頼のアンケートを同定する。
本研究では,人間自動信頼の収束モデルを示す。
論文 参考訳(メタデータ) (2023-03-24T04:42:49Z) - Improving the Reliability for Confidence Estimation [16.952133489480776]
信頼度推定は、デプロイ中のモデルの予測出力の信頼性を評価することを目的としたタスクである。
これまでの研究は、信頼度推定モデルが持つべき2つの重要な特性を概説してきた。
信頼度推定モデルにおいて、両方の品質を同時に改善できるメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-13T06:34:23Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。