論文の概要: Translating Universal Scene Descriptions into Knowledge Graphs for
Robotic Environment
- arxiv url: http://arxiv.org/abs/2310.16737v2
- Date: Fri, 27 Oct 2023 13:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 10:53:12.607078
- Title: Translating Universal Scene Descriptions into Knowledge Graphs for
Robotic Environment
- Title(参考訳): ロボット環境のための知識グラフへのユニバーサルシーン記述の翻訳
- Authors: Giang Hoang Nguyen, Daniel Bessler, Simon Stelter, Mihai Pomarlan,
Michael Beetz
- Abstract要約: ロボット環境モデリングのための実装として,仮想現実技術の利用について検討する。
本稿では,シーングラフを知識ベースに変換する手法を提案する。
- 参考スコア(独自算出の注目度): 8.208981720784385
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robots performing human-scale manipulation tasks require an extensive amount
of knowledge about their surroundings in order to perform their actions
competently and human-like. In this work, we investigate the use of virtual
reality technology as an implementation for robot environment modeling, and
present a technique for translating scene graphs into knowledge bases. To this
end, we take advantage of the Universal Scene Description (USD) format which is
an emerging standard for the authoring, visualization and simulation of complex
environments. We investigate the conversion of USD-based environment models
into Knowledge Graph (KG) representations that facilitate semantic querying and
integration with additional knowledge sources.
- Abstract(参考訳): 人間サイズの操作タスクを実行するロボットは、その動作を有能かつ人間らしく行うために、周囲に関する膨大な知識を必要とします。
本研究では,ロボット環境モデリングの実装としての仮想現実技術の利用について検討し,シーングラフを知識ベースに変換する手法を提案する。
この目的のために我々は,複雑な環境のオーサリング,可視化,シミュレーションの新たな標準である,ユニバーサルシーン記述(USD)フォーマットを利用する。
我々は,USDベースの環境モデルから知識グラフ(KG)表現への変換について検討し,セマンティッククエリや付加的な知識ソースとの統合を容易にする。
関連論文リスト
- Context-Aware Command Understanding for Tabletop Scenarios [1.7082212774297747]
本稿では,テーブルトップシナリオにおける自然人コマンドの解釈を目的とした,新しいハイブリッドアルゴリズムを提案する。
音声、ジェスチャー、シーンコンテキストを含む複数の情報ソースを統合することにより、ロボットに対して実行可能な指示を抽出する。
システムの長所と短所、特にマルチモーダルコマンド解釈の扱い方について論じる。
論文 参考訳(メタデータ) (2024-10-08T20:46:39Z) - Recent Trends in 3D Reconstruction of General Non-Rigid Scenes [104.07781871008186]
コンピュータグラフィックスやコンピュータビジョンにおいて、3次元幾何学、外観、実際のシーンの動きを含む現実世界のモデルの再構築が不可欠である。
これは、映画産業やAR/VRアプリケーションに有用な、フォトリアリスティックなノベルビューの合成を可能にする。
この最新技術レポート(STAR)は、モノクロおよびマルチビュー入力による最新技術の概要を読者に提供する。
論文 参考訳(メタデータ) (2024-03-22T09:46:11Z) - MOKA: Open-World Robotic Manipulation through Mark-Based Visual Prompting [97.52388851329667]
我々は,自由形式の言語命令で指定されたロボット操作タスクを解決するために,マーキングオープンワールドキーポイントアフォード(Moka)を導入する。
我々のアプローチの中心は、VLMの観測画像と物理世界におけるロボットの行動に関する予測を橋渡しする、コンパクトな点ベースの可測性表現である。
ツールの使用,変形可能な身体操作,オブジェクト再構成など,さまざまなテーブルトップ操作タスクにおけるMokaの性能評価と解析を行った。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Robot Skill Generalization via Keypoint Integrated Soft Actor-Critic
Gaussian Mixture Models [21.13906762261418]
ロボット操作システムの長年の課題は、取得したモータースキルを、目に見えない環境に適応させ、一般化することだ。
我々は、模倣と強化のパラダイムを統合するハイブリッドスキルモデルを用いて、この課題に取り組む。
提案手法は,ロボットが新規環境への大幅なゼロショット一般化を実現し,目標環境におけるスキルをスクラッチから学習するよりも早く洗練することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T16:03:23Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Knowledge Acquisition and Completion for Long-Term Human-Robot
Interactions using Knowledge Graph Embedding [0.0]
本研究では,長期にわたる継続的な学習において,ユーザや環境からデータを収集するアーキテクチャを提案する。
我々は,ロボットの内部表現を段階的に拡張することを目的として,取得した情報を一般化するための知識グラフ埋め込み技術を採用した。
本研究では,学習主体のロボットの能力と,未知の文脈から得られる関係を計測することにより,連続学習アーキテクチャの性能を評価する。
論文 参考訳(メタデータ) (2023-01-17T12:23:40Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。