論文の概要: An Experimentation Platform for Explainable Coalition Situational
Understanding
- arxiv url: http://arxiv.org/abs/2010.14388v2
- Date: Mon, 9 Nov 2020 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 12:16:24.886685
- Title: An Experimentation Platform for Explainable Coalition Situational
Understanding
- Title(参考訳): 説明可能な協調状況理解のための実験プラットフォーム
- Authors: Katie Barrett-Powell, Jack Furby, Liam Hiley, Marc Roig Vilamala,
Harrison Taylor, Federico Cerutti, Alun Preece, Tianwei Xing, Luis Garcia,
Mani Srivastava, Dave Braines
- Abstract要約: 説明可能な人工知能/機械学習(AI/ML)の能力を強調した連立状況理解研究のための実験プラットフォームを提案する。
situational Understanding Explorer (SUE) プラットフォームは軽量で、実験やデモンストレーションを容易にし、オープンにするために設計されている。
- 参考スコア(独自算出の注目度): 7.162404968344482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an experimentation platform for coalition situational
understanding research that highlights capabilities in explainable artificial
intelligence/machine learning (AI/ML) and integration of symbolic and
subsymbolic AI/ML approaches for event processing. The Situational
Understanding Explorer (SUE) platform is designed to be lightweight, to easily
facilitate experiments and demonstrations, and open. We discuss our
requirements to support coalition multi-domain operations with emphasis on
asset interoperability and ad hoc human-machine teaming in a dense urban
terrain setting. We describe the interface functionality and give examples of
SUE applied to coalition situational understanding tasks.
- Abstract(参考訳): 本稿では、AI/ML(AI/ML)と、イベント処理のための象徴的およびサブシンボル的AI/MLアプローチの統合の能力を強調した連立状況理解研究のための実験プラットフォームを提案する。
situational Understanding Explorer (SUE)プラットフォームは軽量で、実験やデモンストレーションを容易にし、オープンにするために設計されている。
我々は,密集した都市部におけるアセット・インターオペラビリティとアドホックな人間と機械の連携を重視した連立多ドメイン運用支援の要件について論じる。
インターフェース機能について説明し、連立状況理解タスクに適用したSUEの例を示す。
関連論文リスト
- Dynamic Scene Understanding from Vision-Language Representations [11.833972582610027]
本稿では,現代の凍結した視覚言語表現からの知識を活用することにより,動的シーン理解タスクのためのフレームワークを提案する。
既存のアプローチと比較して、最小限のトレーニング可能なパラメータを使用しながら、最先端の結果を得る。
論文 参考訳(メタデータ) (2025-01-20T18:33:46Z) - Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - DISCO: Embodied Navigation and Interaction via Differentiable Scene Semantics and Dual-level Control [53.80518003412016]
人間の命令によって多様なタスクに熟練した汎用的なインテリジェントホームアシストエージェントを構築することは、AI研究の長期的青写真である。
本研究では,具体的エージェントに対する原始的移動操作,すなわち指示された動詞と名詞のペアに基づいて,ナビゲートと対話の仕方について検討する。
本研究では、文脈化されたシーンモデリングと効率的な制御における非自明な進歩を特徴とするdisCOを提案する。
論文 参考訳(メタデータ) (2024-07-20T05:39:28Z) - SituationalLLM: Proactive language models with scene awareness for dynamic, contextual task guidance [13.155859243167619]
本研究では,構造化シーン情報を大規模言語モデルに統合する新しいアプローチである PresentalLLM を提案する。
カスタムのScene Graph Languageでオブジェクト、属性、関係をエンコードすることで、AciencealLLMは環境コンテキストのギャップを積極的に識別し、ユーザインタラクション中に明確化を求める。
実験結果から、ALLLMはタスク特異性、信頼性、適応性において、ジェネリックLLMベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-06-19T07:42:48Z) - ClawMachine: Learning to Fetch Visual Tokens for Referential Comprehension [71.03445074045092]
我々はClawMachineを提案し、視覚トークンのグループのトークン集合を用いて各エンティティに明示的に通知する新しい方法論を提案する。
追加構文を用いることなく視覚的参照タスクのプロンプトと応答を統一する手法を提案する。
ClawMachineは、高い効率でシーンレベルおよび参照理解タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-17T08:39:16Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - MOKA: Open-World Robotic Manipulation through Mark-Based Visual Prompting [97.52388851329667]
我々は,自由形式の言語命令で指定されたロボット操作タスクを解決するために,マーキングオープンワールドキーポイントアフォード(Moka)を導入する。
我々のアプローチの中心は、VLMの観測画像と物理世界におけるロボットの行動に関する予測を橋渡しする、コンパクトな点ベースの可測性表現である。
ツールの使用,変形可能な身体操作,オブジェクト再構成など,さまざまなテーブルトップ操作タスクにおけるMokaの性能評価と解析を行った。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Unified Human-Scene Interaction via Prompted Chain-of-Contacts [61.87652569413429]
HSI(Human-Scene Interaction)は、AIや仮想現実といった分野において重要なコンポーネントである。
本稿では,言語コマンドによる多様なインタラクションの統一制御を支援する統一型HSIフレームワークUniHSIを提案する。
論文 参考訳(メタデータ) (2023-09-14T17:59:49Z) - Sensecape: Enabling Multilevel Exploration and Sensemaking with Large
Language Models [12.141818433363628]
Sensecapeは、大規模な言語モデルで複雑な情報タスクをサポートするために設計された対話型システムである。
Sensecapeはユーザーに対して、より多くのトピックを探索し、知識を階層的に構造化することを可能にする。
論文 参考訳(メタデータ) (2023-05-19T07:31:59Z) - SAMPLE-HD: Simultaneous Action and Motion Planning Learning Environment [26.942629424454456]
操作設定においてインタラクティブな推論を学習する新しい環境において、シミュレーションの視覚的側面と行動的側面の両方を包含するソリューションを提供しています。
SAMPLE-HD環境は、小さな家庭オブジェクトからなる様々なシーンを生成し、手続き的に操作のための言語命令を生成し、トレーニングデータとして機能する地上真実パスを生成する。
論文 参考訳(メタデータ) (2022-06-01T15:42:05Z) - Towards Embodied Scene Description [36.17224570332247]
身体は知的エージェント(創造物やロボット)にとって重要な特徴である
本研究では,シーン記述タスクの環境に最適な視点を見出すために,エージェントの実施能力を利用したシーン記述を提案する。
模倣学習と強化学習のパラダイムを備えた学習枠組みを構築し、知的エージェントにそれに対応する感覚運動を生成させる。
論文 参考訳(メタデータ) (2020-04-30T08:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。