論文の概要: Actionet: An Interactive End-To-End Platform For Task-Based Data
Collection And Augmentation In 3D Environment
- arxiv url: http://arxiv.org/abs/2010.01357v1
- Date: Sat, 3 Oct 2020 13:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 11:40:07.425325
- Title: Actionet: An Interactive End-To-End Platform For Task-Based Data
Collection And Augmentation In 3D Environment
- Title(参考訳): Actionet:3D環境におけるタスクベースのデータ収集と拡張のための対話型エンドツーエンドプラットフォーム
- Authors: Jiafei Duan, Samson Yu, Hui Li Tan, Cheston Tan
- Abstract要約: 本稿では,3次元環境におけるタスクベースデータセットの収集と拡張のためのインタラクティブなエンドツーエンドプラットフォームであるActioNetを紹介する。
3000以上の階層的なタスク構造とビデオからなる大規模総合的なタスクベースデータセットを収集した。
階層的なタスク構造を使って、ビデオはさらに50の異なるシーンに拡張され、150,000以上のビデオが提供される。
- 参考スコア(独自算出の注目度): 1.8925617030516926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of task planning for artificial agents remains largely unsolved.
While there has been increasing interest in data-driven approaches for the
study of task planning for artificial agents, a significant remaining
bottleneck is the dearth of large-scale comprehensive task-based datasets. In
this paper, we present ActioNet, an interactive end-to-end platform for data
collection and augmentation of task-based dataset in 3D environment. Using
ActioNet, we collected a large-scale comprehensive task-based dataset,
comprising over 3000 hierarchical task structures and videos. Using the
hierarchical task structures, the videos are further augmented across 50
different scenes to give over 150,000 video. To our knowledge, ActioNet is the
first interactive end-to-end platform for such task-based dataset generation
and the accompanying dataset is the largest task-based dataset of such
comprehensive nature. The ActioNet platform and dataset will be made available
to facilitate research in hierarchical task planning.
- Abstract(参考訳): 人工エージェントのタスクプランニングの問題は未解決のままである。
人工エージェントのタスク計画研究におけるデータ駆動型アプローチへの関心が高まっているが、大きなボトルネックは大規模な包括的なタスクベースデータセットの破壊である。
本稿では,データ収集と3次元環境におけるタスクベースデータセット拡張のための対話型エンドツーエンドプラットフォームであるActioNetを提案する。
actionetを使用して,3000以上の階層的タスク構造とビデオからなる,大規模な総合的なタスクベースデータセットを収集した。
階層的なタスク構造を使って、ビデオはさらに50の異なるシーンに拡張され、150,000以上のビデオが提供される。
私たちの知る限り、actionetはこのようなタスクベースのデータセット生成のための最初の対話型エンドツーエンドプラットフォームです。
ActioNetプラットフォームとデータセットが利用可能になり、階層的なタスク計画の研究が容易になる。
関連論文リスト
- Leverage Task Context for Object Affordance Ranking [57.59106517732223]
25の共通タスク、50k以上の画像、661k以上のオブジェクトからなる、最初の大規模タスク指向のアベイランスランキングデータセットを構築しました。
その結果,タスクコンテキストに基づくアベイランス学習のパラダイムの実現可能性と,サリエンシランキングやマルチモーダルオブジェクト検出の分野における最先端モデルよりも,我々のモデルの方が優れていることが示された。
論文 参考訳(メタデータ) (2024-11-25T04:22:33Z) - MASSTAR: A Multi-Modal and Large-Scale Scene Dataset with a Versatile Toolchain for Surface Prediction and Completion [25.44529512862336]
MASSTARはマルチモーダルなlArgeスケールのシーンデータセットであり、サーフAce predictionと完了のためのVerSatile Toolchainを備えている。
環境から生の3Dデータを処理するための汎用的で効率的なツールチェーンを開発した。
実世界の部分的なデータを含む1000以上のシーンレベルのモデルからなるサンプルデータセットを生成する。
論文 参考訳(メタデータ) (2024-03-18T11:35:18Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Generalization with Lossy Affordances: Leveraging Broad Offline Data for
Learning Visuomotor Tasks [65.23947618404046]
本研究では,広範囲なデータを用いたオフライン強化学習を通じて,時間的拡張タスクの目標条件付きポリシを取得するフレームワークを提案する。
新たなタスク目標に直面した場合、フレームワークは余裕モデルを使用して、元のタスクをより簡単な問題に分解するサブゴールとして、損失のある表現のシーケンスを計画する。
我々は,従来の作業からロボット体験の大規模データセットを事前学習し,手動の報酬工学を使わずに視覚入力から,新しいタスクを効率的に微調整できることを実証した。
論文 参考訳(メタデータ) (2022-10-12T21:46:38Z) - Primitive3D: 3D Object Dataset Synthesis from Randomly Assembled
Primitives [44.03149443379618]
アノテーションで大量の3Dオブジェクトを自動生成するコスト効率のよい手法を提案する。
これらのオブジェクトはプリミティブから派生した部分ラベルで自動アノテーションされる。
生成したデータセットに対する学習のオーバーヘッドが大きいことを考慮し,データセットの蒸留戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T10:07:07Z) - ArraMon: A Joint Navigation-Assembly Instruction Interpretation Task in
Dynamic Environments [85.81157224163876]
我々は、収集したオブジェクトを組み立てるビジョン・アンド・ランゲージナビゲーションとオブジェクト参照表現理解を組み合わせることで、新しい共同ナビゲーション・アンド・アセンブリタスク、ArraMonを作成します。
この作業中、エージェントは、複雑で現実的な屋外環境において、自然言語の指示に基づいてナビゲートすることで、異なる対象物を1対1で見つけ、収集するよう依頼される。
我々は,いくつかのベースラインモデル(積分とバイアス)とメトリクス(nDTW, CTC, rPOD, PTC)の結果を提示する。
論文 参考訳(メタデータ) (2020-11-15T23:30:36Z) - Same Object, Different Grasps: Data and Semantic Knowledge for
Task-Oriented Grasping [40.95315009714416]
TaskGraspデータセットは、オブジェクトとタスクの両方で、以前のデータセットよりも桁違いに大きい。
本稿では、知識グラフにエンコードされたオブジェクトやタスクのセマンティック知識を利用して、新しいオブジェクトインスタンスやクラス、さらには新しいタスクに一般化するGCNGraspフレームワークを提案する。
我々は、未知の物体上で実際のロボットに対してタスク指向の把握を実行することで、我々のデータセットとモデルが現実世界に適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-11-12T15:08:15Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。