論文の概要: An Experimentation Platform for Explainable Coalition Situational
Understanding
- arxiv url: http://arxiv.org/abs/2010.14388v2
- Date: Mon, 9 Nov 2020 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:16:24.886685
- Title: An Experimentation Platform for Explainable Coalition Situational
Understanding
- Title(参考訳): 説明可能な協調状況理解のための実験プラットフォーム
- Authors: Katie Barrett-Powell, Jack Furby, Liam Hiley, Marc Roig Vilamala,
Harrison Taylor, Federico Cerutti, Alun Preece, Tianwei Xing, Luis Garcia,
Mani Srivastava, Dave Braines
- Abstract要約: 説明可能な人工知能/機械学習(AI/ML)の能力を強調した連立状況理解研究のための実験プラットフォームを提案する。
situational Understanding Explorer (SUE) プラットフォームは軽量で、実験やデモンストレーションを容易にし、オープンにするために設計されている。
- 参考スコア(独自算出の注目度): 7.162404968344482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an experimentation platform for coalition situational
understanding research that highlights capabilities in explainable artificial
intelligence/machine learning (AI/ML) and integration of symbolic and
subsymbolic AI/ML approaches for event processing. The Situational
Understanding Explorer (SUE) platform is designed to be lightweight, to easily
facilitate experiments and demonstrations, and open. We discuss our
requirements to support coalition multi-domain operations with emphasis on
asset interoperability and ad hoc human-machine teaming in a dense urban
terrain setting. We describe the interface functionality and give examples of
SUE applied to coalition situational understanding tasks.
- Abstract(参考訳): 本稿では、AI/ML(AI/ML)と、イベント処理のための象徴的およびサブシンボル的AI/MLアプローチの統合の能力を強調した連立状況理解研究のための実験プラットフォームを提案する。
situational Understanding Explorer (SUE)プラットフォームは軽量で、実験やデモンストレーションを容易にし、オープンにするために設計されている。
我々は,密集した都市部におけるアセット・インターオペラビリティとアドホックな人間と機械の連携を重視した連立多ドメイン運用支援の要件について論じる。
インターフェース機能について説明し、連立状況理解タスクに適用したSUEの例を示す。
関連論文リスト
- Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - DISCO: Embodied Navigation and Interaction via Differentiable Scene Semantics and Dual-level Control [53.80518003412016]
人間の命令によって多様なタスクに熟練した汎用的なインテリジェントホームアシストエージェントを構築することは、AI研究の長期的青写真である。
本研究では,具体的エージェントに対する原始的移動操作,すなわち指示された動詞と名詞のペアに基づいて,ナビゲートと対話の仕方について検討する。
本研究では、文脈化されたシーンモデリングと効率的な制御における非自明な進歩を特徴とするdisCOを提案する。
論文 参考訳(メタデータ) (2024-07-20T05:39:28Z) - SIGMA: An Open-Source Interactive System for Mixed-Reality Task Assistance Research [5.27467559535251]
混合現実シナリオにおけるタスク支援エージェントの研究を行うためのプラットフォームとして,SIGMAというオープンソースシステムを紹介した。
本稿では,システムの中心となる機能について紹介し,その全体設計と実装について論じ,システムによって実現される今後の研究の方向性について概説する。
論文 参考訳(メタデータ) (2024-05-16T21:21:09Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - MOKA: Open-World Robotic Manipulation through Mark-Based Visual Prompting [97.52388851329667]
我々は,自由形式の言語命令で指定されたロボット操作タスクを解決するために,マーキングオープンワールドキーポイントアフォード(Moka)を導入する。
我々のアプローチの中心は、VLMの観測画像と物理世界におけるロボットの行動に関する予測を橋渡しする、コンパクトな点ベースの可測性表現である。
ツールの使用,変形可能な身体操作,オブジェクト再構成など,さまざまなテーブルトップ操作タスクにおけるMokaの性能評価と解析を行った。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Unified Human-Scene Interaction via Prompted Chain-of-Contacts [61.87652569413429]
HSI(Human-Scene Interaction)は、AIや仮想現実といった分野において重要なコンポーネントである。
本稿では,言語コマンドによる多様なインタラクションの統一制御を支援する統一型HSIフレームワークUniHSIを提案する。
論文 参考訳(メタデータ) (2023-09-14T17:59:49Z) - Sensecape: Enabling Multilevel Exploration and Sensemaking with Large
Language Models [12.141818433363628]
Sensecapeは、大規模な言語モデルで複雑な情報タスクをサポートするために設計された対話型システムである。
Sensecapeはユーザーに対して、より多くのトピックを探索し、知識を階層的に構造化することを可能にする。
論文 参考訳(メタデータ) (2023-05-19T07:31:59Z) - SAMPLE-HD: Simultaneous Action and Motion Planning Learning Environment [26.942629424454456]
操作設定においてインタラクティブな推論を学習する新しい環境において、シミュレーションの視覚的側面と行動的側面の両方を包含するソリューションを提供しています。
SAMPLE-HD環境は、小さな家庭オブジェクトからなる様々なシーンを生成し、手続き的に操作のための言語命令を生成し、トレーニングデータとして機能する地上真実パスを生成する。
論文 参考訳(メタデータ) (2022-06-01T15:42:05Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Towards Embodied Scene Description [36.17224570332247]
身体は知的エージェント(創造物やロボット)にとって重要な特徴である
本研究では,シーン記述タスクの環境に最適な視点を見出すために,エージェントの実施能力を利用したシーン記述を提案する。
模倣学習と強化学習のパラダイムを備えた学習枠組みを構築し、知的エージェントにそれに対応する感覚運動を生成させる。
論文 参考訳(メタデータ) (2020-04-30T08:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。