論文の概要: CAIS-DMA: A Decision-Making Assistant for Collaborative AI Systems
- arxiv url: http://arxiv.org/abs/2311.04562v1
- Date: Wed, 8 Nov 2023 09:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 16:11:20.145572
- Title: CAIS-DMA: A Decision-Making Assistant for Collaborative AI Systems
- Title(参考訳): CAIS-DMA:協調型AIシステムのための意思決定アシスタント
- Authors: Diaeddin Rimawi, Antonio Lotta, Marco Todescato, Barbara Russo
- Abstract要約: コラボレーティブ人工知能システム(CAIS)は、人間と協調して共通の目標を達成するために行動を学ぶサイバー物理システムである。
イベントがCAIS(すなわち破壊的なイベント)のパフォーマンスを低下させるとき、この決定プロセスは妨げられるか、停止される。
本稿では,ディスラプティブイベント後にシステムの性能劣化が発生した場合,CAISにおける意思決定プロセスを支援する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.4325175162807644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Collaborative Artificial Intelligence System (CAIS) is a cyber-physical
system that learns actions in collaboration with humans in a shared environment
to achieve a common goal. In particular, a CAIS is equipped with an AI model to
support the decision-making process of this collaboration. When an event
degrades the performance of CAIS (i.e., a disruptive event), this
decision-making process may be hampered or even stopped. Thus, it is of
paramount importance to monitor the learning of the AI model, and eventually
support its decision-making process in such circumstances. This paper
introduces a new methodology to automatically support the decision-making
process in CAIS when the system experiences performance degradation after a
disruptive event. To this aim, we develop a framework that consists of three
components: one manages or simulates CAIS's environment and disruptive events,
the second automates the decision-making process, and the third provides a
visual analysis of CAIS behavior. Overall, our framework automatically monitors
the decision-making process, intervenes whenever a performance degradation
occurs, and recommends the next action. We demonstrate our framework by
implementing an example with a real-world collaborative robot, where the
framework recommends the next action that balances between minimizing the
recovery time (i.e., resilience), and minimizing the energy adverse effects
(i.e., greenness).
- Abstract(参考訳): 協調型人工知能システム(collaborative artificial intelligence system, cais)は、共通の目標を達成するために、人間と協調して行動を学ぶサイバー物理システムである。
特に、CAISは、このコラボレーションの意思決定プロセスをサポートするAIモデルを備えている。
イベントがCAIS(すなわち破壊的なイベント)のパフォーマンスを低下させるとき、この決定プロセスは妨げられるか、停止される。
したがって、AIモデルの学習を監視し、最終的にはそのような状況下で意思決定プロセスを支援することが最重要となる。
本稿では,ディスラプティブイベント後にシステムの性能劣化が発生した場合,CAISにおける意思決定プロセスを支援する新しい手法を提案する。
本研究の目的は,CAISの環境と破壊的な事象を管理・シミュレートするフレームワークと,意思決定プロセスを自動化するフレームワークと,CAISの振る舞いを視覚的に分析するフレームワークを開発することである。
全体として、我々のフレームワークは意思決定プロセスを自動的に監視し、パフォーマンス劣化が発生した時に介入し、次のアクションを推奨します。
我々は,実世界のコラボレーティブロボットを用いて,回復時間(回復力)の最小化とエネルギーの悪影響(緑度)の最小化のバランスをとることを推奨する実世界のコラボレーティブロボットの例を示す。
関連論文リスト
- R-AIF: Solving Sparse-Reward Robotic Tasks from Pixels with Active Inference and World Models [50.19174067263255]
我々は、エージェントがスパース・リワード、継続的なアクション、ゴールベースのロボット制御POMDP環境においてエクササイズするのを助けるために、事前の選好学習手法と自己修正スケジュールを導入する。
我々のエージェントは、累積報酬、相対安定性、成功率の観点から、最先端モデルよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-21T18:32:44Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Synergising Human-like Responses and Machine Intelligence for Planning in Disaster Response [10.294618771570985]
デュアルプロセス理論(DPT)にインスパイアされた注意に基づく認知アーキテクチャを提案する。
このフレームワークは、高速だが(人間のような)応答と、遅いが最適化されたマシンインテリジェンスの計画能力を統合する。
論文 参考訳(メタデータ) (2024-04-15T15:47:08Z) - The Foundations of Computational Management: A Systematic Approach to
Task Automation for the Integration of Artificial Intelligence into Existing
Workflows [55.2480439325792]
本稿では,タスク自動化の体系的アプローチである計算管理を紹介する。
この記事では、ワークフロー内でAIを実装するプロセスを開始するための、ステップバイステップの手順を3つ紹介する。
論文 参考訳(メタデータ) (2024-02-07T01:45:14Z) - Modeling Resilience of Collaborative AI Systems [1.869472599236422]
協調人工知能システム(CAIS)は、共通の目標を達成するために、人間と協調して行動する。
CAISは、トレーニングされたAIモデルを使用して、人間のシステムインタラクションを制御することができる。
人間のフィードバックによるオンライン学習では、AIモデルは学習状態のシステムセンサーを通して人間のインタラクションを監視することによって進化する。
これらのセンサーに影響を及ぼす破壊的なイベントは、AIモデルが正確な決定を行い、CAISのパフォーマンスを低下させる能力に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-01-23T10:28:33Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - GResilience: Trading Off Between the Greenness and the Resilience of
Collaborative AI Systems [1.869472599236422]
本稿では, レジリエンスとグリーンネスのトレードオフが可能なCAIS回復行動を自動的に評価する手法を提案する。
本研究の目的は,最適化による1エージェント決定問題とゲーム理論による2エージェント決定問題である。
論文 参考訳(メタデータ) (2023-11-08T10:01:39Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Human AI interaction loop training: New approach for interactive
reinforcement learning [0.0]
機械学習の様々な意思決定タスクにおける強化学習(RL)は、スタンドアロンの報酬関数から学習するエージェントによる効果的な結果を提供する。
RLは、多くの環境状態と行動空間、および報酬の決定に固有の課題を提示する。
イミテーションラーニング(IL)は、教師を使った課題に対して有望な解決策を提供する。
論文 参考訳(メタデータ) (2020-03-09T15:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。