論文の概要: YCB-LUMA: YCB Object Dataset with Luminance Keying for Object Localization
- arxiv url: http://arxiv.org/abs/2411.13149v1
- Date: Wed, 20 Nov 2024 09:32:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:13:08.822092
- Title: YCB-LUMA: YCB Object Dataset with Luminance Keying for Object Localization
- Title(参考訳): YCB-LUMA: オブジェクトローカライゼーションのための輝度キー付きYCBオブジェクトデータセット
- Authors: Thomas Pöllabauer,
- Abstract要約: 画像中のターゲットオブジェクトのローカライズは、コンピュータビジョンにおいて重要な課題である。
我々は、YCBスーパーセットの残りのオブジェクトを記録することで、共通YCB-V集合に輝度キーを付加する以前の作業を拡張した。
追加のさまざまなオブジェクトは、輝度キー付けの有用性を示し、新しい2次元オブジェクト検出とセグメンテーションアルゴリズムに対するアプローチの適用性をテストするために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Localizing target objects in images is an important task in computer vision. Often it is the first step towards solving a variety of applications in autonomous driving, maintenance, quality insurance, robotics, and augmented reality. Best in class solutions for this task rely on deep neural networks, which require a set of representative training data for best performance. Creating sets of sufficient quality, variety, and size is often difficult, error prone, and expensive. This is where the method of luminance keying can help: it provides a simple yet effective solution to record high quality data for training object detection and segmentation. We extend previous work that presented luminance keying on the common YCB-V set of household objects by recording the remaining objects of the YCB superset. The additional variety of objects - addition of transparency, multiple color variations, non-rigid objects - further demonstrates the usefulness of luminance keying and might be used to test the applicability of the approach on new 2D object detection and segmentation algorithms.
- Abstract(参考訳): 画像中のターゲットオブジェクトのローカライズは、コンピュータビジョンにおいて重要な課題である。
多くの場合、自動運転、メンテナンス、品質保険、ロボティクス、拡張現実など、さまざまな応用を解決するための第一歩だ。
このタスクのクラスソリューションのベストはディープニューラルネットワークに依存しており、最高のパフォーマンスを得るためには、一連の代表的トレーニングデータが必要である。
十分な品質、多様性、大きさのセットを作成することは、しばしば困難で、エラーの傾向があり、高価である。
オブジェクトの検出とセグメンテーションをトレーニングするための高品質なデータを記録するための、シンプルで効果的なソリューションを提供する。
我々は、YCBスーパーセットの残りのオブジェクトを記録することで、共通YCB-V集合に輝度キーを付加する以前の作業を拡張した。
追加のさまざまなオブジェクト - 透明性の追加、複数色のバリエーション、非厳密なオブジェクト - は、さらに輝度キー付けの有用性を示し、新しい2Dオブジェクト検出とセグメンテーションアルゴリズムに対するアプローチの適用性をテストするために使用されるかもしれない。
関連論文リスト
- Fast Training Data Acquisition for Object Detection and Segmentation using Black Screen Luminance Keying [4.491665410263268]
ディープニューラルネットワーク(DNN)は、優れたパフォーマンスを得るために大量の注釈付きトレーニングデータを必要とする。
必要なトレーニングデータを取得するための、迅速で直接的なアプローチは、ディープラーニングの採用を、最小のアプリケーションでも可能にします。
私たちの研究は、最先端ネットワークのトレーニングを数分で開始できる、高精度なトレーニングデータ取得を実証しています。
論文 参考訳(メタデータ) (2024-05-13T11:28:58Z) - TaskCLIP: Extend Large Vision-Language Model for Task Oriented Object Detection [23.73648235283315]
タスク指向オブジェクト検出は、特定のタスクを達成するのに適したオブジェクトを見つけることを目的としている。
最近のソリューションは主にオールインワンモデルです。
汎用オブジェクト検出とタスク誘導オブジェクト選択からなるより自然な2段階設計であるTaskCLIPを提案する。
論文 参考訳(メタデータ) (2024-03-12T22:33:02Z) - A Simple yet Effective Network based on Vision Transformer for
Camouflaged Object and Salient Object Detection [33.30644598646274]
視覚変換器(ViT)に基づく簡易で効果的なネットワーク(SENet)を提案する。
ローカル情報をモデル化するTransformerの機能を強化するために,ローカル情報キャプチャモジュール(licM)を提案する。
また,BCE(Binary Cross-Entropy)とIoU(Intersection over Union)に基づく動的重み付き損失(DW損失)を提案する。
論文 参考訳(メタデータ) (2024-02-29T07:29:28Z) - On the Importance of Large Objects in CNN Based Object Detection
Algorithms [0.0]
すべてのサイズで重要な学習機能において、大きなオブジェクトの重要性を強調します。
大きな物体により多くの重みを与えると、全ての物体の大きさに対する検出スコアが向上することを示す。
論文 参考訳(メタデータ) (2023-11-20T12:32:32Z) - Uncertainty Aware Active Learning for Reconfiguration of Pre-trained
Deep Object-Detection Networks for New Target Domains [0.0]
物体検出はコンピュータビジョンタスクの最も重要かつ基本的な側面の1つである。
オブジェクト検出モデルのトレーニングデータを効率的に取得するために、多くのデータセットは、ビデオフォーマットでアノテーションのないデータを取得することを選択します。
ビデオからすべてのフレームに注釈を付けるのは、多くのフレームがモデルが学ぶのに非常によく似た情報を含んでいるため、費用がかかり非効率である。
本稿では,この問題に対処するためのオブジェクト検出モデルのための新しい能動学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-22T17:14:10Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - Reinforcement Learning for Sparse-Reward Object-Interaction Tasks in a
First-person Simulated 3D Environment [73.9469267445146]
高忠実な3Dシミュレーション環境において、AI2Thorのような一対一のオブジェクトインタラクションタスクは、強化学習エージェントに顕著なサンプル効率の課題をもたらす。
補助的なタスクとして注意的オブジェクトモデルを学ぶことで、監督なしに、ゼロからオブジェクトインタラクションタスクを学習できることが示される。
論文 参考訳(メタデータ) (2020-10-28T19:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。