論文の概要: Modeling Resilience of Collaborative AI Systems
- arxiv url: http://arxiv.org/abs/2401.12632v1
- Date: Tue, 23 Jan 2024 10:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 16:07:22.540966
- Title: Modeling Resilience of Collaborative AI Systems
- Title(参考訳): 協調型AIシステムのレジリエンスのモデリング
- Authors: Diaeddin Rimawi, Antonio Liotta, Marco Todescato, Barbara Russo
- Abstract要約: 協調人工知能システム(CAIS)は、共通の目標を達成するために、人間と協調して行動する。
CAISは、トレーニングされたAIモデルを使用して、人間のシステムインタラクションを制御することができる。
人間のフィードバックによるオンライン学習では、AIモデルは学習状態のシステムセンサーを通して人間のインタラクションを監視することによって進化する。
これらのセンサーに影響を及ぼす破壊的なイベントは、AIモデルが正確な決定を行い、CAISのパフォーマンスを低下させる能力に影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 1.869472599236422
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A Collaborative Artificial Intelligence System (CAIS) performs actions in
collaboration with the human to achieve a common goal. CAISs can use a trained
AI model to control human-system interaction, or they can use human interaction
to dynamically learn from humans in an online fashion. In online learning with
human feedback, the AI model evolves by monitoring human interaction through
the system sensors in the learning state, and actuates the autonomous
components of the CAIS based on the learning in the operational state.
Therefore, any disruptive event affecting these sensors may affect the AI
model's ability to make accurate decisions and degrade the CAIS performance.
Consequently, it is of paramount importance for CAIS managers to be able to
automatically track the system performance to understand the resilience of the
CAIS upon such disruptive events. In this paper, we provide a new framework to
model CAIS performance when the system experiences a disruptive event. With our
framework, we introduce a model of performance evolution of CAIS. The model is
equipped with a set of measures that aim to support CAIS managers in the
decision process to achieve the required resilience of the system. We tested
our framework on a real-world case study of a robot collaborating online with
the human, when the system is experiencing a disruptive event. The case study
shows that our framework can be adopted in CAIS and integrated into the online
execution of the CAIS activities.
- Abstract(参考訳): 協調人工知能システム(CAIS)は、共通の目標を達成するために、人間と協調して行動を行う。
caissはトレーニングされたaiモデルを使って人間とシステム間のインタラクションを制御することもできるし、人間のインタラクションを使ってオンラインの方法で人間から動的に学習することもできる。
人間のフィードバックによるオンライン学習では、AIモデルは、学習状態のシステムセンサーを通して人間のインタラクションを監視し、運用状態の学習に基づいてCAISの自律的なコンポーネントを動作させる。
したがって、これらのセンサーに影響を与える破壊的事象は、aiモデルの正確な決定とcais性能の低下に影響する可能性がある。
そのため、CAIS管理者はシステムのパフォーマンスを自動的に追跡し、そのような破壊的な出来事に対するCAISのレジリエンスを理解することが最重要となる。
本稿では,システムに破壊的なイベントが発生した場合に,CAISのパフォーマンスをモデル化するための新しいフレームワークを提供する。
当社のフレームワークでは,CAISの性能進化モデルを導入している。
モデルは、システムに必要なレジリエンスを達成するための決定プロセスにおいて、CAISマネージャを支援するための一連の手段を備えている。
私たちは、システムが破壊的なイベントを経験しているときに、オンラインで人間と協調するロボットの現実世界のケーススタディで、我々のフレームワークをテストした。
ケーススタディでは、我々のフレームワークをCAISに導入し、CAIS活動のオンライン実行に統合できることが示されている。
関連論文リスト
- Characterizing and modeling harms from interactions with design patterns in AI interfaces [0.19116784879310028]
適応型AIシステムを用いたインタフェースの設計は、フィードバックループによって引き起こされるカスケード効果をもたらす可能性があると我々は主張する。
本稿では,AIインタフェース設計のインパクトアセスメントを構造化し,促進するAIシステムの設計強化制御(DECAI)を提案する。
論文 参考訳(メタデータ) (2024-04-17T13:30:45Z) - SELFI: Autonomous Self-Improvement with Reinforcement Learning for Social Navigation [54.97931304488993]
体験と対話し、改善する自己改善ロボットは、ロボットシステムの現実的な展開の鍵となる。
本研究では,オンラインロボット体験を活用したオンライン学習手法であるSELFIを提案する。
本研究では, 衝突回避の観点からの改善と, より社会的に順応する行動について報告する。
論文 参考訳(メタデータ) (2024-03-01T21:27:03Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - CAIS-DMA: A Decision-Making Assistant for Collaborative AI Systems [1.4325175162807644]
コラボレーティブ人工知能システム(CAIS)は、人間と協調して共通の目標を達成するために行動を学ぶサイバー物理システムである。
イベントがCAIS(すなわち破壊的なイベント)のパフォーマンスを低下させるとき、この決定プロセスは妨げられるか、停止される。
本稿では,ディスラプティブイベント後にシステムの性能劣化が発生した場合,CAISにおける意思決定プロセスを支援する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T09:49:46Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Toward Self-Learning End-to-End Dialog Systems [107.65369860922392]
環境変化におけるエンドツーエンドの対話システムを構築するための自己学習フレームワークであるSL-Agentを提案する。
SL-Agentは、システム応答の品質を判断するダイアログモデルと事前訓練された報酬モデルから構成される。
実験により、SL-Agentは限定的な人間の修正によって、新しいタスクに効果的に適応できることが示されている。
論文 参考訳(メタデータ) (2022-01-18T09:56:35Z) - An Augmented Reality Platform for Introducing Reinforcement Learning to
K-12 Students with Robots [10.835598738100359]
本研究では,学習の隠れ状態を明らかにする拡張現実(AR)システムを提案する。
本稿では,システムの設計と実装について述べるとともに,今後の2つの方向性について議論する。
論文 参考訳(メタデータ) (2021-10-10T03:51:39Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。