論文の概要: RF-Annotate: Automatic RF-Supervised Image Annotation of Common Objects
in Context
- arxiv url: http://arxiv.org/abs/2211.08837v1
- Date: Wed, 16 Nov 2022 11:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:25:18.580922
- Title: RF-Annotate: Automatic RF-Supervised Image Annotation of Common Objects
in Context
- Title(参考訳): RF-Annotate:コンテクスト内の共通物体のRF-Supervised Image Annotation
- Authors: Emerson Sie, Deepak Vasisht
- Abstract要約: ワイヤレスタグは、小売商品、食品、薬品、衣服、書籍、文書、鍵、機器など、一般的な商品の追跡や識別にますます利用されている。
本稿では,自律的画素画像アノテーションのためのパイプラインRF-Annotateについて述べる。
- 参考スコア(独自算出の注目度): 0.25019493958767397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wireless tags are increasingly used to track and identify common items of
interest such as retail goods, food, medicine, clothing, books, documents,
keys, equipment, and more. At the same time, there is a need for labelled
visual data featuring such items for the purpose of training object detection
and recognition models for robots operating in homes, warehouses, stores,
libraries, pharmacies, and so on. In this paper, we ask: can we leverage the
tracking and identification capabilities of such tags as a basis for a
large-scale automatic image annotation system for robotic perception tasks? We
present RF-Annotate, a pipeline for autonomous pixel-wise image annotation
which enables robots to collect labelled visual data of objects of interest as
they encounter them within their environment. Our pipeline uses unmodified
commodity RFID readers and RGB-D cameras, and exploits arbitrary small-scale
motions afforded by mobile robotic platforms to spatially map RFIDs to
corresponding objects in the scene. Our only assumption is that the objects of
interest within the environment are pre-tagged with inexpensive battery-free
RFIDs costing 3-15 cents each. We demonstrate the efficacy of our pipeline on
several RGB-D sequences of tabletop scenes featuring common objects in a
variety of indoor environments.
- Abstract(参考訳): 無線タグは、小売品、食品、薬品、衣服、本、文書、鍵、機器など、関心のある一般的なアイテムを追跡し識別するためにますます使われています。
同時に、家、倉庫、店舗、図書館、薬局等で作業するロボットの物体検出および認識モデルを訓練するために、そのようなアイテムをラベル付けしたビジュアルデータが必要である。
本稿では,このようなタグの追跡・識別機能を,ロボット知覚タスクのための大規模自動画像アノテーションシステムの基礎として活用することは可能か?
rf-annotateは、ロボットが興味のあるオブジェクトのラベル付きビジュアルデータを、その環境内で収集できる、自律的なピクセル単位での画像アノテーションのためのパイプラインである。
我々のパイプラインは、修正されていないコモディティRFIDリーダーとRGB-Dカメラを使用し、移動ロボットプラットフォームが任意の小さな動きを利用して、シーン内の対応するオブジェクトにRFIDを空間的にマッピングする。
唯一の前提は、環境内の関心の対象は、それぞれ3~15セントの安価なバッテリーフリーRFIDで事前にタグ付けされているということです。
各種屋内環境における共通物体を特徴とするテーブルトップシーンのRGB-Dシーケンスにおけるパイプラインの有効性を実証した。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Follow Anything: Open-set detection, tracking, and following in
real-time [89.83421771766682]
我々は,物体をリアルタイムで検出,追跡,追跡するロボットシステムを提案する。
私たちのアプローチは、何でも従う"(FAn)と呼ばれ、オープンな語彙とマルチモーダルモデルです。
FAnは軽量(6~8GB)グラフィックカードでラップトップにデプロイでき、毎秒6~20フレームのスループットを実現する。
論文 参考訳(メタデータ) (2023-08-10T17:57:06Z) - NeRF-Supervision: Learning Dense Object Descriptors from Neural Radiance
Fields [54.27264716713327]
シーンのニューラル・ラジアンス・フィールド(NeRF)表現は,高密度物体記述子の訓練に利用できることを示す。
我々は、最適化されたNeRFを用いて、オブジェクトの複数のビュー間の密接な対応を抽出し、これらの対応を、オブジェクトのビュー不変表現を学習するためのトレーニングデータとして使用する。
また,本手法により教師されたディエンス対応モデルは,市販の学習ディスクリプタよりも106%優れていた。
論文 参考訳(メタデータ) (2022-03-03T18:49:57Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Robotic Grasping of Fully-Occluded Objects using RF Perception [18.339320861642722]
RF-Graspは、非構造環境において、完全に隠された物体を把握できるロボットシステムである。
RF-Graspは、アイインハンドカメラと、関心のあるオブジェクトに添付されたバッテリーレスRFIDタグに依存します。
論文 参考訳(メタデータ) (2020-12-31T04:01:45Z) - Monitoring Browsing Behavior of Customers in Retail Stores via RFID
Imaging [24.007822566345943]
本稿では,モノスタティックRFIDイメージングに基づく多人数イメージングシステムTagSeeを提案する。
我々はImpinj Speedway R420リーダーとSMARTRAC DogBone RFIDタグを使用してTagSeeを実装した。
TagSeeは、たった3~4人のユーザーのトレーニングデータを使用して、マルチパーソンシナリオで90%以上のTPRと10%未満のFPRを達成することができる。
論文 参考訳(メタデータ) (2020-07-07T16:36:24Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Event-based Robotic Grasping Detection with Neuromorphic Vision Sensor
and Event-Stream Dataset [8.030163836902299]
ニューロモルフィック・ビジョンは、小さくて若い研究コミュニティである。従来のフレームベースのコンピュータビジョンと比較すると、ニューロモルフィック・ビジョンは小さくて若い研究コミュニティである。
91個のオブジェクトからなるイベントストリームデータセットという,ロボットによる把握データセットを構築した。
リードが高周波でブリンクするため、Event-Streamデータセットは1kHzの高周波でアノテートされる。
我々は、角度学習問題を回帰ではなく分類として考慮した、検出を把握するためのディープニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2020-04-28T16:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。