論文の概要: A2C: A Modular Multi-stage Collaborative Decision Framework for Human-AI
Teams
- arxiv url: http://arxiv.org/abs/2401.14432v1
- Date: Thu, 25 Jan 2024 02:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:59:59.251307
- Title: A2C: A Modular Multi-stage Collaborative Decision Framework for Human-AI
Teams
- Title(参考訳): A2C:AIチームのためのモジュール型多段階協調決定フレームワーク
- Authors: Shahroz Tariq, Mohan Baruwal Chhetri, Surya Nepal, Cecile Paris
- Abstract要約: A2Cは、AIチーム内で堅牢な意思決定を可能にするために設計された、多段階の共同決定フレームワークである。
決定における不確実性を認識し、必要な時に人間の専門家を軽視するように訓練されたAIシステムが組み込まれている。
- 参考スコア(独自算出の注目度): 19.91751748232295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces A2C, a multi-stage collaborative decision framework
designed to enable robust decision-making within human-AI teams. Drawing
inspiration from concepts such as rejection learning and learning to defer, A2C
incorporates AI systems trained to recognise uncertainty in their decisions and
defer to human experts when needed. Moreover, A2C caters to scenarios where
even human experts encounter limitations, such as in incident detection and
response in cyber Security Operations Centres (SOC). In such scenarios, A2C
facilitates collaborative explorations, enabling collective resolution of
complex challenges. With support for three distinct decision-making modes in
human-AI teams: Automated, Augmented, and Collaborative, A2C offers a flexible
platform for developing effective strategies for human-AI collaboration. By
harnessing the strengths of both humans and AI, it significantly improves the
efficiency and effectiveness of complex decision-making in dynamic and evolving
environments. To validate A2C's capabilities, we conducted extensive simulative
experiments using benchmark datasets. The results clearly demonstrate that all
three modes of decision-making can be effectively supported by A2C. Most
notably, collaborative exploration by (simulated) human experts and AI achieves
superior performance compared to AI in isolation, underscoring the framework's
potential to enhance decision-making within human-AI teams.
- Abstract(参考訳): 本稿では,AIチーム内で堅牢な意思決定を可能にするための多段階共同意思決定フレームワークであるA2Cを紹介する。
拒絶学習や推論の学習といった概念からインスピレーションを得て、a2cはaiシステムを組み込んで意思決定の不確実性を認識し、必要に応じて人間の専門家に推論する。
さらに、A2Cは、サイバーセキュリティオペレーションセンター(SOC)のインシデント検出や応答など、人間の専門家でさえ制限に遭遇するシナリオに対応している。
このようなシナリオでは、A2Cは協調的な探索を促進し、複雑な課題の集合的な解決を可能にする。
A2Cは、人間とAIのコラボレーションのための効果的な戦略を開発するための柔軟なプラットフォームを提供する。
人間とAIの両方の強みを活用することで、動的および進化する環境における複雑な意思決定の効率性と効率を大幅に改善する。
A2Cの能力を検証するため,ベンチマークデータを用いた広範囲なシミュレーション実験を行った。
その結果,A2Cでは3つの意思決定モードを効果的にサポートできることが明らかとなった。
中でも注目すべきは、(シミュレーションされた)人間の専門家とAIによる共同調査は、AIを単独で行うよりも優れたパフォーマンスを実現していることだ。
関連論文リスト
- Intelligent Mobile AI-Generated Content Services via Interactive Prompt Engineering and Dynamic Service Provisioning [55.641299901038316]
AI生成コンテンツは、ネットワークエッジで協調的なMobile AIGC Service Providers(MASP)を編成して、リソース制約のあるユーザにユビキタスでカスタマイズされたコンテンツを提供することができる。
このようなパラダイムは2つの大きな課題に直面している: 1) 生のプロンプトは、ユーザーが特定のAIGCモデルで経験していないために、しばしば生成品質が低下する。
本研究では,Large Language Model (LLM) を利用してカスタマイズしたプロンプトコーパスを生成する対話型プロンプトエンジニアリング機構を開発し,政策模倣に逆強化学習(IRL)を用いる。
論文 参考訳(メタデータ) (2025-02-17T03:05:20Z) - Human Decision-making is Susceptible to AI-driven Manipulation [71.20729309185124]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Coverage-Constrained Human-AI Cooperation with Multiple Experts [20.05241240080433]
本稿では,CL2DC法(Coverage-Constrained Learning to Defer and Complement with Specific Experts)を提案する。
CL2DCは、AI予測単独または特定の専門家に延期または補完することで、最終的な決定を行う。
最先端のHAI-CC法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-11-18T19:06:01Z) - Problem Solving Through Human-AI Preference-Based Cooperation [74.39233146428492]
我々は,人間-AI共同構築フレームワークであるHAI-Co2を提案する。
我々は、HAI-Co2を形式化し、それが直面する困難なオープンリサーチ問題について議論する。
本稿では,HAI-Co2のケーススタディと,モノリシックな生成型AIモデルとの比較による有効性を示す。
論文 参考訳(メタデータ) (2024-08-14T11:06:57Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Scalable Interactive Machine Learning for Future Command and Control [1.762977457426215]
将来の戦争では、コマンド・アンド・コントロール(C2)の要員が時間スケールの縮小で決定を下す必要がある。
人工知能とヒューマンインテリジェンスの統合は、C2オペレーションプロセスに革命をもたらす可能性を秘めている。
本稿では、これらのアプローチを複雑なC2コンテキストで機能させるために、今後の研究が取り組むべき最先端の科学と技術のギャップについて述べる。
論文 参考訳(メタデータ) (2024-02-09T16:11:04Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。