論文の概要: SCOD: Active Object Detection for Embodied Agents using Sensory
Commutativity of Action Sequences
- arxiv url: http://arxiv.org/abs/2107.02069v1
- Date: Mon, 5 Jul 2021 14:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:41:52.039264
- Title: SCOD: Active Object Detection for Embodied Agents using Sensory
Commutativity of Action Sequences
- Title(参考訳): SCOD:行動系列の感覚伝達を用いた身体的エージェントの能動物体検出
- Authors: Hugo Caselles-Dupr\'e, Michael Garcia-Ortiz, David Filliat
- Abstract要約: 本稿では,物体の移動・移動が可能な物体検出法であるSCOD(Sensory Commtativity Object Detection)を紹介する。
SCODは、ファーストパーソンセンサーと複数の自由度を持つ連続運動空間を備えたエンボディエージェントのシナリオにおいて、アクションシーケンスの可換性を利用する。
現実的な3次元ロボット装置(iGibson)の実験は、SCODの精度と、見えない環境や物体への一般化を実証している。
- 参考スコア(独自算出の注目度): 3.845877724862319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce SCOD (Sensory Commutativity Object Detection), an active method
for movable and immovable object detection. SCOD exploits the commutative
properties of action sequences, in the scenario of an embodied agent equipped
with first-person sensors and a continuous motor space with multiple degrees of
freedom. SCOD is based on playing an action sequence in two different orders
from the same starting point and comparing the two final observations obtained
after each sequence. Our experiments on 3D realistic robotic setups (iGibson)
demonstrate the accuracy of SCOD and its generalization to unseen environments
and objects. We also successfully apply SCOD on a real robot to further
illustrate its generalization properties. With SCOD, we aim at providing a
novel way of approaching the problem of object discovery in the context of a
naive embodied agent. We provide code and a supplementary video.
- Abstract(参考訳): 移動可能で移動不能な物体検出のためのアクティブな手法であるscod(sensory commutativity object detection)を紹介する。
SCODは、ファーストパーソンセンサーと複数の自由度を持つ連続運動空間を備えたエンボディエージェントのシナリオにおいて、アクションシーケンスの可換性を利用する。
SCODは、同じ開始点から2つの異なる順序でアクションシーケンスを再生し、各シーケンス後に得られた2つの最終観測を比較する。
現実的な3次元ロボット装置(iGibson)の実験は、SCODの精度と、見えない環境や物体への一般化を実証している。
また、SCODを実ロボットに適用し、その一般化特性をさらに明らかにする。
scod では, 物体発見の問題に対して, 内在的実施エージェントの文脈でアプローチする新しい方法を提供することを目標としている。
コードと補足ビデオを提供します。
関連論文リスト
- Uncertainty-Guided Appearance-Motion Association Network for Out-of-Distribution Action Detection [4.938957922033169]
セマンティックシフトでテストサンプルを検出し、拒否するOOD(Out-of-Distribution)検出ターゲット。
我々は,新しい不確実性誘導外観運動ネットワーク(UAAN)を提案する。
UAANは最先端の手法をかなりの差で打ち負かし、その効果を実証する。
論文 参考訳(メタデータ) (2024-09-16T02:53:49Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Improving Unsupervised Video Object Segmentation with Motion-Appearance
Synergy [52.03068246508119]
IMASは、トレーニングや推論において手動のアノテーションを使わずに、主要オブジェクトをビデオに分割する手法である。
IMASはMotion-Appearance Synergyによる改良されたUVOSを実現する。
人間のアノテーションや手作りハイパーパラム特有のメトリクスで調整された重要なハイパーパラムのチューニングにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2022-12-17T06:47:30Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Self-Supervised Object Detection via Generative Image Synthesis [106.65384648377349]
本稿では,自己教師対象検出のための制御可能なGANを用いたエンドツーエンド分析合成フレームワークを提案する。
オブジェクトの合成と検出を学習するために、ボックスアノテーションを使用せずに、実世界のイメージのコレクションを使用します。
我々の研究は、制御可能なGAN画像合成という新しいパラダイムを導入することで、自己教師対象検出の分野を前進させる。
論文 参考訳(メタデータ) (2021-10-19T11:04:05Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Improving Object Permanence using Agent Actions and Reasoning [8.847502932609737]
既存のアプローチは、低レベルの知覚からオブジェクト永続性を学ぶ。
我々は、ロボットが実行された動作に関する知識を使用する場合、オブジェクトの永続性を改善することができると論じる。
論文 参考訳(メタデータ) (2021-10-01T07:09:49Z) - Action-Conditioned 3D Human Motion Synthesis with Transformer VAE [44.523477804533364]
我々は、現実的で多様な人間の動き系列の行動条件生成の問題に取り組む。
動作シーケンスを完了または拡張する手法とは対照的に、このタスクは初期ポーズやシーケンスを必要としない。
生成的変分オートエンコーダを訓練することにより、人間の動きに対する行動認識の潜在表現を学ぶ。
論文 参考訳(メタデータ) (2021-04-12T17:40:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。