論文の概要: Tell Me Something That Will Help Me Trust You: A Survey of Trust
Calibration in Human-Agent Interaction
- arxiv url: http://arxiv.org/abs/2205.02987v1
- Date: Fri, 6 May 2022 02:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 21:35:42.379831
- Title: Tell Me Something That Will Help Me Trust You: A Survey of Trust
Calibration in Human-Agent Interaction
- Title(参考訳): 信頼する何かを伝える:人間とエージェントのインタラクションにおける信頼の校正に関する調査
- Authors: George J. Cancro, Shimei Pan and James Foulds
- Abstract要約: 我々は、一人の人間監督官と一人のエージェント従属者の信頼関係について調査する。
この質問を人間中心の情報に焦点を当てた視点から調べることで、異なる実装を比較し、対比し始めることができる。
- 参考スコア(独自算出の注目度): 6.177038245239758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When a human receives a prediction or recommended course of action from an
intelligent agent, what additional information, beyond the prediction or
recommendation itself, does the human require from the agent to decide whether
to trust or reject the prediction or recommendation? In this paper we survey
literature in the area of trust between a single human supervisor and a single
agent subordinate to determine the nature and extent of this additional
information and to characterize it into a taxonomy that can be leveraged by
future researchers and intelligent agent practitioners. By examining this
question from a human-centered, information-focused point of view, we can begin
to compare and contrast different implementations and also provide insight and
directions for future work.
- Abstract(参考訳): 人間が知的なエージェントから予測または推奨行動のコースを受け取ったとき、予測または推奨そのもの以外の追加情報は、人間はエージェントに、予測を信頼するか拒否するかを決定するために要求されるのか?
本稿では,この追加情報の性質と範囲を判断し,将来の研究者や知的エージェント実践者によって活用可能な分類法に特徴付けるために,人間ひとりの管理者と一人のエージェントの従属者との信頼関係領域の文献を調査した。
この質問を人間中心の情報に焦点を当てた視点から調べることで、異なる実装の比較と対比を始め、将来の作業の洞察と方向性を提供することができる。
関連論文リスト
- Human Action Anticipation: A Survey [86.415721659234]
行動予測に関する文献は、行動予測、活動予測、意図予測、目標予測など、様々なタスクにまたがる。
我々の調査は、この断片化された文献を結びつけることを目的としており、最近の技術革新とモデルトレーニングと評価のための新しい大規模データセットの開発をカバーしています。
論文 参考訳(メタデータ) (2024-10-17T21:37:40Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Incentive-Theoretic Bayesian Inference for Collaborative Science [59.15962177829337]
未知のパラメータについて、プライベートな先行エージェントが存在する場合の仮説テストについて検討する。
エージェントの戦略行動によって明らかにされる情報を活用する統計的推論を行う方法を示す。
論文 参考訳(メタデータ) (2023-07-07T17:59:01Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Warmth and competence in human-agent cooperation [0.7237068561453082]
近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
われわれは2人プレイのソーシャルジレンマであるCoinsで深層強化学習エージェントを訓練している。
参加者の温かさと能力に対する認識は、異なるエージェントに対する表現された嗜好を予測する。
論文 参考訳(メタデータ) (2022-01-31T18:57:08Z) - Role of Human-AI Interaction in Selective Prediction [20.11364033416315]
我々は、AIシステムの遅延決定について、異なる種類の情報を人間に伝達する影響について研究する。
我々は,AIの予測は明らかにせず,遅延する決定を人間に伝えることで,人間のパフォーマンスを大幅に向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-12-13T16:03:13Z) - Finding Useful Predictions by Meta-gradient Descent to Improve
Decision-making [1.384055225262046]
我々は、一般値関数として表現される予測に焦点をあてる: 将来的な信号の蓄積の時間的拡張推定。
ひとつの課題は、エージェントが意思決定をサポートする可能性のある予測を、無限に多くの予測から決定することである。
これらの予測を手動で指定するのではなく、学習することにより、エージェントは自己管理的な方法で有用な予測を特定できる。
論文 参考訳(メタデータ) (2021-11-18T20:17:07Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - A Unifying Bayesian Formulation of Measures of Interpretability in
Human-AI [25.239891076153025]
我々は,エージェントに関する人間の観察者の進化的信念をモデル化する統一ベイズフレームワークを提案する。
本研究では, 拡張性, 可読性, 予測可能性といった解釈可能性尺度の定義が, 一般的な枠組みの特例として現れることを示した。
論文 参考訳(メタデータ) (2021-04-21T20:06:33Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。