論文の概要: Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs
- arxiv url: http://arxiv.org/abs/2204.01160v1
- Date: Sun, 3 Apr 2022 21:00:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 14:13:41.133190
- Title: Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs
- Title(参考訳): センタウアのためのベイズ適応pomdpを用いた最良応答ベイズ強化学習
- Authors: Mustafa Mert \c{C}elikok, Frans A. Oliehoek, Samuel Kaski
- Abstract要約: 本稿では,人間とAIの相互作用を逐次ゲームとして新たに定式化する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
我々は、機械が自身の限界と人間の助けを借りて改善する方法について議論する。
- 参考スコア(独自算出の注目度): 22.52332536886295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Centaurs are half-human, half-AI decision-makers where the AI's goal is to
complement the human. To do so, the AI must be able to recognize the goals and
constraints of the human and have the means to help them. We present a novel
formulation of the interaction between the human and the AI as a sequential
game where the agents are modelled using Bayesian best-response models. We show
that in this case the AI's problem of helping bounded-rational humans make
better decisions reduces to a Bayes-adaptive POMDP. In our simulated
experiments, we consider an instantiation of our framework for humans who are
subjectively optimistic about the AI's future behaviour. Our results show that
when equipped with a model of the human, the AI can infer the human's bounds
and nudge them towards better decisions. We discuss ways in which the machine
can learn to improve upon its own limitations as well with the help of the
human. We identify a novel trade-off for centaurs in partially observable
tasks: for the AI's actions to be acceptable to the human, the machine must
make sure their beliefs are sufficiently aligned, but aligning beliefs might be
costly. We present a preliminary theoretical analysis of this trade-off and its
dependence on task structure.
- Abstract(参考訳): centaurは半人半人半人意思決定者であり、aiの目標は人間を補完することである。
そのためには、AIは人間の目標と制約を認識し、それらを助ける手段を持っていなければならない。
エージェントをベイズ的ベストレスポンスモデルを用いてモデル化するシーケンシャルゲームとして,人間とAIの相互作用の新たな定式化を提案する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
シミュレーション実験では、AIの将来行動について主観的に楽観的な人間のためのフレームワークのインスタンス化を検討する。
以上の結果から,人間のモデルと組み合わせることで,AIは人間の限界を推測し,より良い判断を下すことができることがわかった。
我々は、機械が人間の助けを借りて、自身の限界を改善できる方法について議論する。
AIの行動が人間に受け入れられるためには、マシンは彼らの信念が十分に一致していることを確認する必要があるが、信念の整合はコストがかかる可能性がある。
このトレードオフの予備的理論的解析とタスク構造への依存について述べる。
関連論文リスト
- Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Towards Effective Human-AI Decision-Making: The Role of Human Learning
in Appropriate Reliance on AI Advice [3.595471754135419]
参加者100名を対象にした実験において,学習と適切な信頼の関係を示す。
本研究は,人間とAIの意思決定を効果的に設計するために,信頼度を分析し,意味を導き出すための基本的な概念を提供する。
論文 参考訳(メタデータ) (2023-10-03T14:51:53Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Uncalibrated Models Can Improve Human-AI Collaboration [10.106324182884068]
私たちは、AIモデルを実際によりも自信を持って提示することで、人間-AIのパフォーマンスが向上することを示した。
私たちはまず、何千もの人間のインタラクションのデータを使って、人間がAIアドバイスを組み込む方法のモデルを学びます。
論文 参考訳(メタデータ) (2022-02-12T04:51:00Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Instructive artificial intelligence (AI) for human training, assistance,
and explainability [0.24629531282150877]
ニューラルネットワークが従来のAI(XAI)の代替手段として人間の研修生にどのように教えるかを示す。
AIは人間の行動を調べ、より良いパフォーマンスをもたらす人間の戦略のバリエーションを計算する。
結果は、ハナビにおける人間の意思決定と人間-AIチームを改善するAIインストラクションの能力について提示される。
論文 参考訳(メタデータ) (2021-11-02T16:46:46Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。