論文の概要: A Framework for Effective AI Recommendations in Cyber-Physical-Human
Systems
- arxiv url: http://arxiv.org/abs/2403.05715v1
- Date: Fri, 8 Mar 2024 23:02:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:39:11.944250
- Title: A Framework for Effective AI Recommendations in Cyber-Physical-Human
Systems
- Title(参考訳): サイバー物理・ヒューマンシステムにおける効果的なai勧告の枠組み
- Authors: Aditya Dave, Heeseung Bang, Andreas A. Malikopoulos
- Abstract要約: 多くのサイバー物理人間システム(CPHS)は、人工知能(AI)プラットフォームからレコメンデーションを受けることができる人間の意思決定者を含んでいる。
このようなCPHSアプリケーションでは、人間の意思決定者は最適な推奨決定から離脱し、代わりに様々な理由で異なる決定を実装できる。
我々は、AIプラットフォームとは異なる方法でシステムの状態を知覚し、解釈することにより、人間がAIレコメンデーションから逸脱する可能性があると考えている。
- 参考スコア(独自算出の注目度): 3.066266438258146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many cyber-physical-human systems (CPHS) involve a human decision-maker who
may receive recommendations from an artificial intelligence (AI) platform while
holding the ultimate responsibility of making decisions. In such CPHS
applications, the human decision-maker may depart from an optimal recommended
decision and instead implement a different one for various reasons. In this
letter, we develop a rigorous framework to overcome this challenge. In our
framework, we consider that humans may deviate from AI recommendations as they
perceive and interpret the system's state in a different way than the AI
platform. We establish the structural properties of optimal recommendation
strategies and develop an approximate human model (AHM) used by the AI. We
provide theoretical bounds on the optimality gap that arises from an AHM and
illustrate the efficacy of our results in a numerical example.
- Abstract(参考訳): 多くのサイバー物理人間システム(CPHS)は、人工知能(AI)プラットフォームからレコメンデーションを受けることができる人間の意思決定者であり、意思決定の最終的な責任を負っている。
このようなCPHSアプリケーションでは、人間の意思決定者は最適な推奨決定から離脱し、代わりに様々な理由で異なる決定を実装できる。
本稿では,この課題を克服するための厳格な枠組みを開発する。
我々のフレームワークでは、AIプラットフォームとは異なる方法でシステムの状態を認識、解釈することで、人間がAIレコメンデーションから逸脱する可能性があると考えています。
我々は、最適な推奨戦略の構造特性を確立し、AIが使用する近似人間モデル(AHM)を開発する。
AHMから生じる最適性ギャップに関する理論的境界を提供し、数値的な例で結果の有効性を示す。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making [24.258056813524167]
本稿では,AI支援の様々な形態が意思決定者に与える影響を解釈できる計算フレームワークを提案する。
人間の意思決定プロセスにおけるAIアシストを「エマード」として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
論文 参考訳(メタデータ) (2024-01-11T11:22:36Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Learning to Make Adherence-Aware Advice [9.197904496216598]
本稿では,人間の従順性を考慮した逐次意思決定モデルを提案する。
最適なアドバイスポリシーを学習し、重要なタイムスタンプでのみアドバイスを行う学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-10-01T23:15:55Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Learning When to Advise Human Decision Makers [12.47847261193524]
本稿では,アルゴリズムがユーザと双方向に対話するAIシステムの設計を提案する。
大規模な実験の結果,私たちのアドバイスアプローチは,必要な時にアドバイスを提供することができることがわかった。
論文 参考訳(メタデータ) (2022-09-27T17:52:13Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs [22.52332536886295]
本稿では,人間とAIの相互作用を逐次ゲームとして新たに定式化する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
我々は、機械が自身の限界と人間の助けを借りて改善する方法について議論する。
論文 参考訳(メタデータ) (2022-04-03T21:00:51Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。