論文の概要: A Neuromorphic Dataset for Object Segmentation in Indoor Cluttered
Environment
- arxiv url: http://arxiv.org/abs/2302.06301v1
- Date: Mon, 13 Feb 2023 12:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:37:33.802377
- Title: A Neuromorphic Dataset for Object Segmentation in Indoor Cluttered
Environment
- Title(参考訳): 室内クラッタ環境におけるオブジェクトセグメンテーションのためのニューロモルフィックデータセット
- Authors: Xiaoqian Huang, Kachole Sanket, Abdulla Ayyad, Fariborz Baghaei
Naeini, Dimitrios Makris, Yahya Zweir
- Abstract要約: 本稿では,屋内環境におけるオブジェクトセグメンテーションのためのイベントベースESDデータセットを提案する。
提案するデータセットは,145のシーケンスと14,166のRGBフレームから構成される。
ステレオグラフィック構成で2つのイベントベースのカメラから2188万と2080万のイベントが収集されている。
- 参考スコア(独自算出の注目度): 3.6047642906482142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Taking advantage of an event-based camera, the issues of motion blur, low
dynamic range and low time sampling of standard cameras can all be addressed.
However, there is a lack of event-based datasets dedicated to the benchmarking
of segmentation algorithms, especially those that provide depth information
which is critical for segmentation in occluded scenes. This paper proposes a
new Event-based Segmentation Dataset (ESD), a high-quality 3D spatial and
temporal dataset for object segmentation in an indoor cluttered environment.
Our proposed dataset ESD comprises 145 sequences with 14,166 RGB frames that
are manually annotated with instance masks. Overall 21.88 million and 20.80
million events from two event-based cameras in a stereo-graphic configuration
are collected, respectively. To the best of our knowledge, this densely
annotated and 3D spatial-temporal event-based segmentation benchmark of
tabletop objects is the first of its kind. By releasing ESD, we expect to
provide the community with a challenging segmentation benchmark with high
quality.
- Abstract(参考訳): イベントベースのカメラを利用すると、動きのぼやけ、ダイナミックレンジの低さ、標準カメラの低時間サンプリングといった問題に対処できる。
しかし、セグメンテーションアルゴリズムのベンチマークに特化したイベントベースのデータセットが不足している。
本稿では,室内クラッタ環境におけるオブジェクトセグメンテーションのための高品質な3d空間および時間データセットであるイベントベースセグメンテーションデータセット(esd)を提案する。
提案するデータセットESDは,145のシーケンスと14,166のRGBフレームから構成される。
ステレオグラフィック構成の2つのイベントベースのカメラから、合計2188万と2080万のイベントがそれぞれ収集されている。
我々の知る限りでは、この高密度で3次元の時空間事象に基づくテーブルトップオブジェクトのセグメンテーションベンチマークは、その種の最初のものである。
ESDをリリースすることによって、私たちはコミュニティに高品質なセグメンテーションベンチマークを提供することを期待しています。
関連論文リスト
- PACE: Pose Annotations in Cluttered Environments [54.019143952287365]
PACEは、乱雑なシナリオにおけるポーズ推定手法の開発と評価を促進するために設計された大規模なベンチマークである。
PACEには54,945のフレームと、300の動画に257,673のアノテーションがあり、44のカテゴリから576のオブジェクトをカバーし、厳密で明瞭なアイテムが混在している。
我々は、PACEを、私たちが開発したアノテーションツールとともに、公開評価ベンチマークとしてリリースし、この分野のさらなる進歩を刺激する予定です。
論文 参考訳(メタデータ) (2023-12-23T01:38:41Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - EVIMO2: An Event Camera Dataset for Motion Segmentation, Optical Flow,
Structure from Motion, and Visual Inertial Odometry in Indoor Scenes with
Monocular or Stereo Algorithms [10.058432912712396]
データセットは640$times$480のイベントカメラから41分のデータと、2080$times$1552のクラシックカラーカメラで構成されている。
データセットの173のシーケンスは3つのカテゴリに分けられる。
いくつかのシーケンスは、従来のカメラが故障した低照度環境で記録された。
論文 参考訳(メタデータ) (2022-05-06T20:09:18Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。