論文の概要: Tell Me Something That Will Help Me Trust You: A Survey of Trust
Calibration in Human-Agent Interaction
- arxiv url: http://arxiv.org/abs/2205.02987v1
- Date: Fri, 6 May 2022 02:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 21:35:42.379831
- Title: Tell Me Something That Will Help Me Trust You: A Survey of Trust
Calibration in Human-Agent Interaction
- Title(参考訳): 信頼する何かを伝える:人間とエージェントのインタラクションにおける信頼の校正に関する調査
- Authors: George J. Cancro, Shimei Pan and James Foulds
- Abstract要約: 我々は、一人の人間監督官と一人のエージェント従属者の信頼関係について調査する。
この質問を人間中心の情報に焦点を当てた視点から調べることで、異なる実装を比較し、対比し始めることができる。
- 参考スコア(独自算出の注目度): 6.177038245239758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When a human receives a prediction or recommended course of action from an
intelligent agent, what additional information, beyond the prediction or
recommendation itself, does the human require from the agent to decide whether
to trust or reject the prediction or recommendation? In this paper we survey
literature in the area of trust between a single human supervisor and a single
agent subordinate to determine the nature and extent of this additional
information and to characterize it into a taxonomy that can be leveraged by
future researchers and intelligent agent practitioners. By examining this
question from a human-centered, information-focused point of view, we can begin
to compare and contrast different implementations and also provide insight and
directions for future work.
- Abstract(参考訳): 人間が知的なエージェントから予測または推奨行動のコースを受け取ったとき、予測または推奨そのもの以外の追加情報は、人間はエージェントに、予測を信頼するか拒否するかを決定するために要求されるのか?
本稿では,この追加情報の性質と範囲を判断し,将来の研究者や知的エージェント実践者によって活用可能な分類法に特徴付けるために,人間ひとりの管理者と一人のエージェントの従属者との信頼関係領域の文献を調査した。
この質問を人間中心の情報に焦点を当てた視点から調べることで、異なる実装の比較と対比を始め、将来の作業の洞察と方向性を提供することができる。
関連論文リスト
- Incentive-Theoretic Bayesian Inference for Collaborative Science [59.15962177829337]
未知のパラメータについて、プライベートな先行エージェントが存在する場合の仮説テストについて検討する。
エージェントの戦略行動によって明らかにされる情報を活用する統計的推論を行う方法を示す。
論文 参考訳(メタデータ) (2023-07-07T17:59:01Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Warmth and competence in human-agent cooperation [0.2148535041822524]
近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
人・エージェント連携における主観的嗜好を形成する要因をより深く理解するために,コインにおける深層強化学習エージェントを訓練する。
我々は、人間とエージェントの協力研究のために参加者を募集し、遭遇したエージェントの印象を測定する。
論文 参考訳(メタデータ) (2022-01-31T18:57:08Z) - Role of Human-AI Interaction in Selective Prediction [20.11364033416315]
我々は、AIシステムの遅延決定について、異なる種類の情報を人間に伝達する影響について研究する。
我々は,AIの予測は明らかにせず,遅延する決定を人間に伝えることで,人間のパフォーマンスを大幅に向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-12-13T16:03:13Z) - Finding Useful Predictions by Meta-gradient Descent to Improve
Decision-making [1.384055225262046]
我々は、一般値関数として表現される予測に焦点をあてる: 将来的な信号の蓄積の時間的拡張推定。
ひとつの課題は、エージェントが意思決定をサポートする可能性のある予測を、無限に多くの予測から決定することである。
これらの予測を手動で指定するのではなく、学習することにより、エージェントは自己管理的な方法で有用な予測を特定できる。
論文 参考訳(メタデータ) (2021-11-18T20:17:07Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z) - A Unifying Bayesian Formulation of Measures of Interpretability in
Human-AI [25.239891076153025]
我々は,エージェントに関する人間の観察者の進化的信念をモデル化する統一ベイズフレームワークを提案する。
本研究では, 拡張性, 可読性, 予測可能性といった解釈可能性尺度の定義が, 一般的な枠組みの特例として現れることを示した。
論文 参考訳(メタデータ) (2021-04-21T20:06:33Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。