論文の概要: An Experimentation Platform for Explainable Coalition Situational
Understanding
- arxiv url: http://arxiv.org/abs/2010.14388v2
- Date: Mon, 9 Nov 2020 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:16:24.886685
- Title: An Experimentation Platform for Explainable Coalition Situational
Understanding
- Title(参考訳): 説明可能な協調状況理解のための実験プラットフォーム
- Authors: Katie Barrett-Powell, Jack Furby, Liam Hiley, Marc Roig Vilamala,
Harrison Taylor, Federico Cerutti, Alun Preece, Tianwei Xing, Luis Garcia,
Mani Srivastava, Dave Braines
- Abstract要約: 説明可能な人工知能/機械学習(AI/ML)の能力を強調した連立状況理解研究のための実験プラットフォームを提案する。
situational Understanding Explorer (SUE) プラットフォームは軽量で、実験やデモンストレーションを容易にし、オープンにするために設計されている。
- 参考スコア(独自算出の注目度): 7.162404968344482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an experimentation platform for coalition situational
understanding research that highlights capabilities in explainable artificial
intelligence/machine learning (AI/ML) and integration of symbolic and
subsymbolic AI/ML approaches for event processing. The Situational
Understanding Explorer (SUE) platform is designed to be lightweight, to easily
facilitate experiments and demonstrations, and open. We discuss our
requirements to support coalition multi-domain operations with emphasis on
asset interoperability and ad hoc human-machine teaming in a dense urban
terrain setting. We describe the interface functionality and give examples of
SUE applied to coalition situational understanding tasks.
- Abstract(参考訳): 本稿では、AI/ML(AI/ML)と、イベント処理のための象徴的およびサブシンボル的AI/MLアプローチの統合の能力を強調した連立状況理解研究のための実験プラットフォームを提案する。
situational Understanding Explorer (SUE)プラットフォームは軽量で、実験やデモンストレーションを容易にし、オープンにするために設計されている。
我々は,密集した都市部におけるアセット・インターオペラビリティとアドホックな人間と機械の連携を重視した連立多ドメイン運用支援の要件について論じる。
インターフェース機能について説明し、連立状況理解タスクに適用したSUEの例を示す。
関連論文リスト
- MOKA: Open-Vocabulary Robotic Manipulation through Mark-Based Visual
Prompting [106.53784213239479]
Moka(Marking Open-vocabulary Keypoint Affordances)は,視覚言語モデルを用いたロボット操作タスクの解法である。
我々のアプローチの核心は、物理的世界におけるVLMのRGB画像とロボットの動きの予測を橋渡しする、手頃さと動きのコンパクトなポイントベース表現である。
我々は,自由形式の言語記述によって規定される様々な操作タスクに対して,Mokaの性能を評価し,分析する。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Voila-A: Aligning Vision-Language Models with User's Gaze Attention [56.755993500556734]
視覚言語モデル(VLM)を導くために,人間の注意の代用として視線情報を導入する。
本稿では,視線アライメントのための新しいアプローチであるVoila-Aを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:34:01Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [59.772904419928054]
大規模視覚言語モデル (VLM) はマルチモーダル認識と推論において大きな進歩を遂げた。
本稿では,エージェントの視覚とテキストタスクの目的を正確に解読する新しいVLMであるOctopusを紹介する。
我々の設計では、シミュレーターの日常的な雑用から複雑なビデオゲームの高度なインタラクションまで、エージェントは幅広いタスクを十分に扱えるようにしている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - Unified Human-Scene Interaction via Prompted Chain-of-Contacts [64.54156041189324]
HSI(Human-Scene Interaction)は、AIや仮想現実といった分野において重要なコンポーネントである。
本稿では,言語コマンドによる多様なインタラクションの統一制御を支援する統一型HSIフレームワークUniHSIを提案する。
論文 参考訳(メタデータ) (2023-09-14T17:59:49Z) - Sensecape: Enabling Multilevel Exploration and Sensemaking with Large
Language Models [12.141818433363628]
Sensecapeは、大規模な言語モデルで複雑な情報タスクをサポートするために設計された対話型システムである。
Sensecapeはユーザーに対して、より多くのトピックを探索し、知識を階層的に構造化することを可能にする。
論文 参考訳(メタデータ) (2023-05-19T07:31:59Z) - Transferring Procedural Knowledge across Commonsense Tasks [17.929737518694616]
本稿では,AIモデルによる手続き的知識を新しい物語課題に透過的に伝達する能力について検討する。
我々は、最先端のモデリングアーキテクチャ、トレーニングレシスタンス、拡張戦略を統合する包括的なフレームワークであるLEAPを設計する。
ドメイン内および外部タスクによる我々の実験は、異なるアーキテクチャの相互作用、トレーニング体制、拡張戦略に関する洞察を明らかにします。
論文 参考訳(メタデータ) (2023-04-26T23:24:50Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - SAMPLE-HD: Simultaneous Action and Motion Planning Learning Environment [26.942629424454456]
操作設定においてインタラクティブな推論を学習する新しい環境において、シミュレーションの視覚的側面と行動的側面の両方を包含するソリューションを提供しています。
SAMPLE-HD環境は、小さな家庭オブジェクトからなる様々なシーンを生成し、手続き的に操作のための言語命令を生成し、トレーニングデータとして機能する地上真実パスを生成する。
論文 参考訳(メタデータ) (2022-06-01T15:42:05Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Towards Embodied Scene Description [36.17224570332247]
身体は知的エージェント(創造物やロボット)にとって重要な特徴である
本研究では,シーン記述タスクの環境に最適な視点を見出すために,エージェントの実施能力を利用したシーン記述を提案する。
模倣学習と強化学習のパラダイムを備えた学習枠組みを構築し、知的エージェントにそれに対応する感覚運動を生成させる。
論文 参考訳(メタデータ) (2020-04-30T08:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。