論文の概要: A2C: A Modular Multi-stage Collaborative Decision Framework for Human-AI
Teams
- arxiv url: http://arxiv.org/abs/2401.14432v1
- Date: Thu, 25 Jan 2024 02:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:59:59.251307
- Title: A2C: A Modular Multi-stage Collaborative Decision Framework for Human-AI
Teams
- Title(参考訳): A2C:AIチームのためのモジュール型多段階協調決定フレームワーク
- Authors: Shahroz Tariq, Mohan Baruwal Chhetri, Surya Nepal, Cecile Paris
- Abstract要約: A2Cは、AIチーム内で堅牢な意思決定を可能にするために設計された、多段階の共同決定フレームワークである。
決定における不確実性を認識し、必要な時に人間の専門家を軽視するように訓練されたAIシステムが組み込まれている。
- 参考スコア(独自算出の注目度): 19.91751748232295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces A2C, a multi-stage collaborative decision framework
designed to enable robust decision-making within human-AI teams. Drawing
inspiration from concepts such as rejection learning and learning to defer, A2C
incorporates AI systems trained to recognise uncertainty in their decisions and
defer to human experts when needed. Moreover, A2C caters to scenarios where
even human experts encounter limitations, such as in incident detection and
response in cyber Security Operations Centres (SOC). In such scenarios, A2C
facilitates collaborative explorations, enabling collective resolution of
complex challenges. With support for three distinct decision-making modes in
human-AI teams: Automated, Augmented, and Collaborative, A2C offers a flexible
platform for developing effective strategies for human-AI collaboration. By
harnessing the strengths of both humans and AI, it significantly improves the
efficiency and effectiveness of complex decision-making in dynamic and evolving
environments. To validate A2C's capabilities, we conducted extensive simulative
experiments using benchmark datasets. The results clearly demonstrate that all
three modes of decision-making can be effectively supported by A2C. Most
notably, collaborative exploration by (simulated) human experts and AI achieves
superior performance compared to AI in isolation, underscoring the framework's
potential to enhance decision-making within human-AI teams.
- Abstract(参考訳): 本稿では,AIチーム内で堅牢な意思決定を可能にするための多段階共同意思決定フレームワークであるA2Cを紹介する。
拒絶学習や推論の学習といった概念からインスピレーションを得て、a2cはaiシステムを組み込んで意思決定の不確実性を認識し、必要に応じて人間の専門家に推論する。
さらに、A2Cは、サイバーセキュリティオペレーションセンター(SOC)のインシデント検出や応答など、人間の専門家でさえ制限に遭遇するシナリオに対応している。
このようなシナリオでは、A2Cは協調的な探索を促進し、複雑な課題の集合的な解決を可能にする。
A2Cは、人間とAIのコラボレーションのための効果的な戦略を開発するための柔軟なプラットフォームを提供する。
人間とAIの両方の強みを活用することで、動的および進化する環境における複雑な意思決定の効率性と効率を大幅に改善する。
A2Cの能力を検証するため,ベンチマークデータを用いた広範囲なシミュレーション実験を行った。
その結果,A2Cでは3つの意思決定モードを効果的にサポートできることが明らかとなった。
中でも注目すべきは、(シミュレーションされた)人間の専門家とAIによる共同調査は、AIを単独で行うよりも優れたパフォーマンスを実現していることだ。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Scalable Interactive Machine Learning for Future Command and Control [1.762977457426215]
将来の戦争では、コマンド・アンド・コントロール(C2)の要員が時間スケールの縮小で決定を下す必要がある。
人工知能とヒューマンインテリジェンスの統合は、C2オペレーションプロセスに革命をもたらす可能性を秘めている。
本稿では、これらのアプローチを複雑なC2コンテキストで機能させるために、今後の研究が取り組むべき最先端の科学と技術のギャップについて述べる。
論文 参考訳(メタデータ) (2024-02-09T16:11:04Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Modeling Human-AI Team Decision Making [14.368767225297585]
我々は、不完全なAIエージェントが支援する一連の人間のグループに、知的な問題を提示する。
あるグループの目標は、グループのメンバーとその利用可能なAIエージェントの相対的な専門知識を評価することだった。
本研究では,人間-AIグループの行動予測における,予測理論,影響力学,ベイズ学習の社会的認知的構成要素の価値を示す。
論文 参考訳(メタデータ) (2022-01-08T04:23:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。