論文の概要: Outlining the design space of eXplainable swarm (xSwarm): experts
perspective
- arxiv url: http://arxiv.org/abs/2309.01269v1
- Date: Sun, 3 Sep 2023 20:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 20:34:32.924850
- Title: Outlining the design space of eXplainable swarm (xSwarm): experts
perspective
- Title(参考訳): eXplainable Swarm (xSwarm)の設計空間の概要 : 専門家の視点から
- Authors: Mohammad Naiseh, Mohammad D. Soorati, Sarvapali Ramchurn
- Abstract要約: スウォームロボティクスでは、エージェントは局所的な役割を通して相互作用し、個人の能力を超えた複雑なタスクを解決する。
HSI(Human-Swarm Interaction)には、対処がまだ始まっていない新しい課題がある。
説明可能性(Explainability)は、効果的で信頼性の高いHSIを促進し、Human-Swarmチームの全体的なパフォーマンスを改善する要因のひとつだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In swarm robotics, agents interact through local roles to solve complex tasks
beyond an individual's ability. Even though swarms are capable of carrying out
some operations without the need for human intervention, many safety-critical
applications still call for human operators to control and monitor the swarm.
There are novel challenges to effective Human-Swarm Interaction (HSI) that are
only beginning to be addressed. Explainability is one factor that can
facilitate effective and trustworthy HSI and improve the overall performance of
Human-Swarm team. Explainability was studied across various Human-AI domains,
such as Human-Robot Interaction and Human-Centered ML. However, it is still
ambiguous whether explanations studied in Human-AI literature would be
beneficial in Human-Swarm research and development. Furthermore, the literature
lacks foundational research on the prerequisites for explainability
requirements in swarm robotics, i.e., what kind of questions an explainable
swarm is expected to answer, and what types of explanations a swarm is expected
to generate. By surveying 26 swarm experts, we seek to answer these questions
and identify challenges experts faced to generate explanations in Human-Swarm
environments. Our work contributes insights into defining a new area of
research of eXplainable Swarm (xSwarm) which looks at how explainability can be
implemented and developed in swarm systems. This paper opens the discussion on
xSwarm and paves the way for more research in the field.
- Abstract(参考訳): swarm roboticsでは、エージェントがローカルの役割を通して相互作用し、個人の能力を超えた複雑なタスクを解決します。
Swarmは人間の介入を必要とせずにいくつかの操作を実行できるが、安全に重要なアプリケーションの多くは、Swarmの制御と監視を人間オペレーターに要求している。
HSI(Human-Swarm Interaction)には、対処がまだ始まっていない新しい課題がある。
説明可能性(Explainability)は、効果的で信頼性の高いHSIを促進し、Human-Swarmチームの全体的なパフォーマンスを改善する要因のひとつだ。
人間-ロボットインタラクションや人間中心mlなど、さまざまな人間-aiドメインで説明可能性を検討した。
しかし、人間-AI文学で研究された説明が人間-スウォームの研究・発展に有用かどうかはまだはっきりしない。
さらに、swarm roboticsにおける説明可能性要件の前提条件、すなわち、説明可能なswarmが答えるであろう質問の種類、そして、swarmが生み出す説明の種類についての基礎的な研究が欠如している。
26人のSwarmのエキスパートを調査し、これらの疑問に答え、専門家が直面する課題を特定し、ヒューマン・スウォーム環境における説明を生み出す。
私たちの研究は、swarmシステムで説明可能性がどのように実装され開発されるかを検討する、説明可能なswarm(xswarm)の新たな研究領域の定義に寄与しています。
本稿では、xSwarmに関する議論を開き、この分野におけるさらなる研究の道を開く。
関連論文リスト
- Analysing Explanation-Related Interactions in Collaborative Perception-Cognition-Communication-Action [1.33828830691279]
我々は、シミュレーションされた緊急対応タスクを完了させるために協力する人間同士のコミュニケーションを分析し、分類する。
ほとんどの説明関連メッセージは、決定や行動の明確化を求めている。
論文 参考訳(メタデータ) (2024-11-19T13:07:04Z) - DISCOVERYWORLD: A Virtual Environment for Developing and Evaluating Automated Scientific Discovery Agents [49.74065769505137]
本研究では,新しい科学的発見の完全なサイクルを実行するエージェントの能力を開発し,ベンチマークする最初の仮想環境であるDiscoVERYWORLDを紹介する。
8つのトピックにまたがる120の異なる課題タスクが含まれており、3レベルの難易度といくつかのパラメトリックなバリエーションがある。
従来の環境においてよく機能する強力なベースラインエージェントが、ほとんどのdiscoVERYWORLDタスクに苦労していることがわかった。
論文 参考訳(メタデータ) (2024-06-10T20:08:44Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - ReGenNet: Towards Human Action-Reaction Synthesis [87.57721371471536]
我々は、人間と人間の相互作用の非対称、動的、同期、および詳細な性質を分析する。
本研究では,人間の行動に条件付けされた人間の反応を生成するための,最初のマルチセットヒト行動反応ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-18T15:33:06Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Can A Single Human Supervise A Swarm of 100 Heterogeneous Robots? [0.0]
OFFsensive Swarm-Enabled Tacticsプログラムのフィールドエクササイズはアメリカ陸軍の都市訓練現場で行われた。
その結果,1人の人間が100個の異種ロボット群を配置して実世界のミッションを遂行できることが実証された。
論文 参考訳(メタデータ) (2023-07-31T19:24:00Z) - Improving Grounded Language Understanding in a Collaborative Environment
by Interacting with Agents Through Help Feedback [42.19685958922537]
我々は、人間とAIのコラボレーションは対話的であり、人間がAIエージェントの作業を監視し、エージェントが理解し活用できるフィードバックを提供するべきだと論じている。
本研究では, IGLUコンペティションによって定義された課題である, マイニングクラフトのような世界における対話型言語理解タスクを用いて, これらの方向を探索する。
論文 参考訳(メタデータ) (2023-04-21T05:37:59Z) - EgoTaskQA: Understanding Human Tasks in Egocentric Videos [89.9573084127155]
EgoTaskQAベンチマークは、現実世界のエゴセントリックなビデオに対する質問回答を通じて、タスク理解の重要な次元を提供する。
我々は,(1)行動依存と効果,(2)意図と目標,(3)エージェントの他者に対する信念の理解を念頭に設計する。
我々は、我々のベンチマークで最先端のビデオ推論モデルを評価し、複雑なゴール指向のエゴセントリックなビデオを理解する上で、人間の間に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2022-10-08T05:49:05Z) - Onto4MAT: A Swarm Shepherding Ontology for Generalised Multi-Agent
Teaming [2.9327503320877457]
我々は、Swarm AIがその環境とシステムについて推論できる形式的な知識表現設計を提供する。
我々は,人間とチーム間のより効果的なチーム編成を実現するために,Ontology for Generalized Multi-Agent Teaming(Onto4MAT)を提案する。
論文 参考訳(メタデータ) (2022-03-24T09:36:50Z) - A Neuro-inspired Theory of Joint Human-Swarm Interaction [12.107259467873092]
HSI(Human-Swarm Interaction)は、ロボット工学とヒューマンファクター工学の領域における積極的な研究課題である。
本稿では、認知システム工学の観点を適用し、HSIの神経誘発ジョイントシステム理論を導入する。
論文 参考訳(メタデータ) (2020-07-09T15:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。