論文の概要: Modeling the quantum-like dynamics of human reliability ratings in Human-AI interactions by interaction dependent Hamiltonians
- arxiv url: http://arxiv.org/abs/2504.13918v1
- Date: Fri, 11 Apr 2025 03:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.659456
- Title: Modeling the quantum-like dynamics of human reliability ratings in Human-AI interactions by interaction dependent Hamiltonians
- Title(参考訳): 相互作用依存ハミルトニアンによる人間とAIの相互作用における人間の信頼性評価の量子様ダイナミクスのモデル化
- Authors: Johan van der Meer, Pamela Hoyte, Luisa Roeder, Peter Bruza,
- Abstract要約: 本研究では,人間とAIのインタラクションにおける信頼のダイナミクスをモデル化する量子ランダムウォークモデルについて検討する。
我々は、経験的パラメータを用いて異なるハミルトン人の使用を知らせることによって、人間とAIの相互作用における信頼の進化をモデル化する有望な手段が得られることを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As our information environments become ever more powered by artificial intelligence (AI), the phenomenon of trust in a human's interactions with this intelligence is becoming increasingly pertinent. For example, in the not too distant future, there will be teams of humans and intelligent robots involved in dealing with the repercussions of high-risk disaster situations such as hurricanes, earthquakes, or nuclear accidents. Even in such conditions of high uncertainty, humans and intelligent machines will need to engage in shared decision making, and trust is fundamental to the effectiveness of these interactions. A key challenge in modeling the dynamics of this trust is to provide a means to incorporate sensitivity to fluctuations in human trust judgments. In this article, we explore the ability of Quantum Random Walk models to model the dynamics of trust in human-AI interactions, and to integrate a sensitivity to fluctuations in participant trust judgments based on the nature of the interaction with the AI. We found that using empirical parameters to inform the use of different Hamiltonians can provide a promising means to model the evolution of trust in Human-AI interactions.
- Abstract(参考訳): 情報環境が人工知能(AI)によってより強力になるにつれ、この知能との人間の相互作用に対する信頼の現象がますます迫りつつある。
例えば、あまり遠くない将来には、ハリケーン、地震、核事故などの高リスク災害の再発に対処する人間と知能ロボットのチームがある。
高い不確実性のある状態であっても、人間とインテリジェントマシンは共有された意思決定に関与する必要があり、信頼はこれらの相互作用の有効性に不可欠である。
この信頼のダイナミクスをモデル化する上で重要な課題は、人間の信頼判断に揺らぎに対する感受性を組み込む手段を提供することである。
本稿では、人間とAIのインタラクションにおける信頼のダイナミクスをモデル化し、AIとのインタラクションの性質に基づいて、参加者の信頼判断の揺らぎに対する感受性を統合するための量子ランダムウォークモデルの可能性を検討する。
我々は、経験的パラメータを用いて異なるハミルトン人の使用を知らせることで、人間とAIの相互作用における信頼の進化をモデル化する有望な手段が得られることを見出した。
関連論文リスト
- Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - What Human-Horse Interactions may Teach us About Effective Human-AI Interactions [0.5893124686141781]
馬のようにAIは人間の能力を補うのではなく、補完すべきである、と私たちは主張する。
我々は、信頼、コミュニケーション、相互適応性といった、人間と馬の関係の重要な要素を分析する。
私たちは、信頼でき、適応可能で、共生的な人間とAIのパートナーシップを育むことができるAIシステムを設計するためのビジョンを提供します。
論文 参考訳(メタデータ) (2024-12-18T00:39:16Z) - Approximating Human Models During Argumentation-based Dialogues [4.178382980763478]
説明可能なAI計画(XAIP)の主な課題は、モデルの和解である。
本稿では,AIエージェントによる確率的人間モデル学習と更新を可能にする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T23:22:18Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Trust as Extended Control: Active Inference and User Feedback During
Human-Robot Collaboration [2.6381163133447836]
その重要な役割にもかかわらず、信頼がどのように出現し、発展し、人間以外の人工物との人間の相互作用をサポートするかはほとんど不明です。
拡張モータープラントやパートナーとの信頼性の高い感覚交換のためのエージェントの最良の説明として信頼のモデルを紹介する。
信頼の成因における共有行動の役割について,特にダイアドコラボレーションの文脈で検討する。
論文 参考訳(メタデータ) (2021-04-22T16:11:22Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。