論文の概要: IROS 2019 Lifelong Robotic Vision Challenge -- Lifelong Object
Recognition Report
- arxiv url: http://arxiv.org/abs/2004.14774v1
- Date: Sun, 26 Apr 2020 08:33:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 12:50:45.207465
- Title: IROS 2019 Lifelong Robotic Vision Challenge -- Lifelong Object
Recognition Report
- Title(参考訳): IROS 2019の生涯ロボットビジョンチャレンジ - 生涯オブジェクト認識レポート
- Authors: Qi She, Fan Feng, Qi Liu, Rosa H. M. Chan, Xinyue Hao, Chuanlin Lan,
Qihan Yang, Vincenzo Lomonaco, German I. Parisi, Heechul Bae, Eoin Brophy,
Baoquan Chen, Gabriele Graffieti, Vidit Goel, Hyonyoung Han, Sathursan
Kanagarajah, Somesh Kumar, Siew-Kei Lam, Tin Lun Lam, Liang Ma, Davide
Maltoni, Lorenzo Pellegrini, Duvindu Piyasena, Shiliang Pu, Debdoot Sheet,
Soonyong Song, Youngsung Son, Zhengwei Wang, Tomas E. Ward, Jianwen Wu,
Meiqing Wu, Di Xie, Yangsheng Xu, Lin Yang, Qiaoyong Zhong, Liguang Zhou
- Abstract要約: 本報告では、IROS 2019-Lifelong Robotic Vision Competition (Lifelong Object Recognition Challenge)を要約し、上位8ドルのファイナリストのメソッドと結果を紹介する。
コンペティションデータセット (L)ifel(O)ng(R)obotic V(IS)ion (OpenLORIS) - Object Recognition (OpenLORIS-object) は、ロボットビジョン領域における生涯・連続学習の研究と応用を駆動するために設計されている。
- 参考スコア(独自算出の注目度): 69.37276509171721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report summarizes IROS 2019-Lifelong Robotic Vision Competition
(Lifelong Object Recognition Challenge) with methods and results from the top
$8$ finalists (out of over~$150$ teams). The competition dataset (L)ifel(O)ng
(R)obotic V(IS)ion (OpenLORIS) - Object Recognition (OpenLORIS-object) is
designed for driving lifelong/continual learning research and application in
robotic vision domain, with everyday objects in home, office, campus, and mall
scenarios. The dataset explicitly quantifies the variants of illumination,
object occlusion, object size, camera-object distance/angles, and clutter
information. Rules are designed to quantify the learning capability of the
robotic vision system when faced with the objects appearing in the dynamic
environments in the contest. Individual reports, dataset information, rules,
and released source code can be found at the project homepage:
"https://lifelong-robotic-vision.github.io/competition/".
- Abstract(参考訳): 本報告では、IROS 2019-Lifelong Robotic Vision Competition (Lifelong Object Recognition Challenge)を要約し、上位8ドルのファイナリスト(約150ドル以上のチームのうち)のメソッドと結果について説明する。
コンペティションデータセット (L)ifel(O)ng(R)obotic V(IS)ion (OpenLORIS) - オブジェクト認識 (OpenLORIS-object) は、家庭、オフィス、キャンパス、モールのシナリオで日常的なオブジェクトとともに、ロボットビジョン領域における生涯・連続学習の研究と応用を推進するために設計された。
データセットは、照明、オブジェクト閉塞、オブジェクトサイズ、カメラオブジェクト距離/角度、および乱雑な情報の変種を明示的に定量化する。
ルールは、コンテストの動的環境に現れるオブジェクトに直面するロボットビジョンシステムの学習能力を定量化するように設計されている。
個々のレポート、データセット情報、ルール、およびリリースされたソースコードはプロジェクトのホームページで見ることができる。
関連論文リスト
- Do Pre-trained Vision-Language Models Encode Object States? [13.4206464539947]
視覚言語モデル(VLM)がWebスケールデータにオブジェクト状態をエンコードするかどうかを検討する。
コントラストおよび生成目的を訓練したモデルを含む,9つのオープンソースVLMを評価した。
オブジェクト状態のエンコードを改善するための3つの領域を同定する。
論文 参考訳(メタデータ) (2024-09-16T17:22:18Z) - V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - Lifelong Ensemble Learning based on Multiple Representations for
Few-Shot Object Recognition [6.282068591820947]
本稿では,複数表現に基づく一生涯のアンサンブル学習手法を提案する。
生涯学習を容易にするため、各アプローチは、オブジェクト情報を即座に保存して検索するメモリユニットを備える。
提案手法の有効性を,オフラインおよびオープンエンドシナリオで評価するために,幅広い実験を行った。
論文 参考訳(メタデータ) (2022-05-04T10:29:10Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - LanguageRefer: Spatial-Language Model for 3D Visual Grounding [72.7618059299306]
3次元視覚的グラウンドリング問題に対する空間言語モデルを構築した。
本稿では,ReferIt3Dが提案する視覚言語データセットに対して,本モデルが競合的に動作することを示す。
論文 参考訳(メタデータ) (2021-07-07T18:55:03Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。