論文の概要: Compensating for Sensing Failures via Delegation in Human-AI Hybrid
Systems
- arxiv url: http://arxiv.org/abs/2303.01300v1
- Date: Thu, 2 Mar 2023 14:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:03:11.609655
- Title: Compensating for Sensing Failures via Delegation in Human-AI Hybrid
Systems
- Title(参考訳): ヒューマンAIハイブリッドシステムにおけるデリゲーションによる検知障害の補償
- Authors: Andrew Fuchs, Andrea Passarella, Marco Conti
- Abstract要約: 我々は、管理エージェントがいつ委任代行を行うかを特定することを任務とするハイブリッドな人間-AIチームについて考察する。
我々は、環境コンテキストが知覚障害にどのように貢献するか、または悪化するかをモデル化する。
本稿では,強化学習(RL)マネージャがコンテキストデリゲーションアソシエーションをいかに修正できるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given an increasing prevalence of intelligent systems capable of autonomous
actions or augmenting human activities, it is important to consider scenarios
in which the human, autonomous system, or both can exhibit failures as a result
of one of several contributing factors (e.g. perception). Failures for either
humans or autonomous agents can lead to simply a reduced performance level, or
a failure can lead to something as severe as injury or death. For our topic, we
consider the hybrid human-AI teaming case where a managing agent is tasked with
identifying when to perform a delegation assignment and whether the human or
autonomous system should gain control. In this context, the manager will
estimate its best action based on the likelihood of either (human, autonomous)
agent failure as a result of their sensing capabilities and possible
deficiencies. We model how the environmental context can contribute to, or
exacerbate, the sensing deficiencies. These contexts provide cases where the
manager must learn to attribute capabilities to suitability for
decision-making. As such, we demonstrate how a Reinforcement Learning (RL)
manager can correct the context-delegation association and assist the hybrid
team of agents in outperforming the behavior of any agent working in isolation.
- Abstract(参考訳): 自律的な行動や人間の活動の増強が可能な知的なシステムが増加していることを踏まえると、人間、自律的なシステム、あるいはその両方が複数の要因(例えば知覚)の1つによって失敗を生じさせるシナリオを考えることが重要である。
人間か自律的なエージェントの障害は単にパフォーマンスのレベルを低下させるか、障害は怪我や死と同じくらい深刻なものを引き起こす。
本論では,代行課題の実施時期と人的・自律的なシステムが制御可能かどうかを,管理担当者が特定するハイブリッド型人間AIチームについて考察する。
この文脈では、マネージャは、感知能力と潜在的な欠陥の結果、(人間的、自律的な)エージェントの失敗の可能性に基づいて、最善のアクションを見積もる。
環境コンテクストがセンシング欠陥にどのように寄与するか,あるいは悪化するかをモデル化する。
これらのコンテキストは、マネージャが意思決定に適合する能力の属性を学ぶ必要がある場合を提供します。
このようにして、強化学習(RL)マネージャがコンテキストデリゲーション・アソシエーションを補正し、エージェントのハイブリッドチームが孤立して働くエージェントの振る舞いより優れていることを示す。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Optimizing Risk-averse Human-AI Hybrid Teams [1.433758865948252]
本稿では,標準化された強化学習スキームを通じて,最良デリゲート法を学習するマネージャを提案する。
いくつかのグリッド環境において,マネージャのパフォーマンスの最適性を示す。
結果から、マネージャは望ましいデリゲートをうまく習得でき、その結果、チームパスは、ほぼ、あるいは正確には最適であることがわかった。
論文 参考訳(メタデータ) (2024-03-13T09:49:26Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Optimizing delegation between human and AI collaborative agents [1.6114012813668932]
私たちは、潜在的なパフォーマンス上の欠陥に関してデリゲート決定を行うために、デリゲートマネージャエージェントを訓練します。
我々のフレームワークは、エージェントをマッチングのダイナミクスに制限することなく、チームパフォーマンスの観察を通して学習する。
この結果から,環境の異なる表現の下で運用するエージェントチームによる委譲決定の実施をマネージャが学べることが判明した。
論文 参考訳(メタデータ) (2023-09-26T07:23:26Z) - Human-AI Collaboration: The Effect of AI Delegation on Human Task
Performance and Task Satisfaction [0.0]
タスク性能とタスク満足度はAIデリゲートによって向上することを示す。
我々は、これらの改善の基盤となるメカニズムとして、人間による自己効力の増大を見いだした。
我々の発見は、AIモデルがより多くの管理責任を引き継ぐことが、人間とAIのコラボレーションの効果的な形態であることを示す最初の証拠を提供する。
論文 参考訳(メタデータ) (2023-03-16T11:02:46Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Balancing Performance and Human Autonomy with Implicit Guidance Agent [8.071506311915396]
暗黙のガイダンスは、人間が計画の改善と自律性維持のバランスを維持するために有効であることを示す。
我々は、ベイズ的思考理論を既存の協調計画アルゴリズムに統合することにより、暗黙のガイダンスを持つ協調エージェントをモデル化した。
論文 参考訳(メタデータ) (2021-09-01T14:47:29Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。