論文の概要: Jacquard V2: Refining Datasets using the Human In the Loop Data
Correction Method
- arxiv url: http://arxiv.org/abs/2402.05747v1
- Date: Thu, 8 Feb 2024 15:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 14:28:11.339886
- Title: Jacquard V2: Refining Datasets using the Human In the Loop Data
Correction Method
- Title(参考訳): Jacquard V2:人間のループデータ補正法によるデータセットの精製
- Authors: Qiuhao Li and Shenghai Yuan
- Abstract要約: 本稿では,Human-In-The-Loop(HIL)手法を用いてデータセットの品質を向上させることを提案する。
このアプローチは、ロボットの把握のための物体の位置と方向を予測するために、バックボーンのディープラーニングネットワークに依存している。
ラベルを欠いた画像は、有効なグリップバウンディングボックス情報で拡張される一方、破滅的なラベリングエラーによる画像は完全に除去される。
- 参考スコア(独自算出の注目度): 8.588472253340859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of rapid advancements in industrial automation, vision-based
robotic grasping plays an increasingly crucial role. In order to enhance visual
recognition accuracy, the utilization of large-scale datasets is imperative for
training models to acquire implicit knowledge related to the handling of
various objects. Creating datasets from scratch is a time and labor-intensive
process. Moreover, existing datasets often contain errors due to automated
annotations aimed at expediency, making the improvement of these datasets a
substantial research challenge. Consequently, several issues have been
identified in the annotation of grasp bounding boxes within the popular
Jacquard Grasp. We propose utilizing a Human-In-The-Loop(HIL) method to enhance
dataset quality. This approach relies on backbone deep learning networks to
predict object positions and orientations for robotic grasping. Predictions
with Intersection over Union (IOU) values below 0.2 undergo an assessment by
human operators. After their evaluation, the data is categorized into False
Negatives(FN) and True Negatives(TN). FN are then subcategorized into either
missing annotations or catastrophic labeling errors. Images lacking labels are
augmented with valid grasp bounding box information, whereas images afflicted
by catastrophic labeling errors are completely removed. The open-source tool
Labelbee was employed for 53,026 iterations of HIL dataset enhancement, leading
to the removal of 2,884 images and the incorporation of ground truth
information for 30,292 images. The enhanced dataset, named the Jacquard V2
Grasping Dataset, served as the training data for a range of neural networks.
- Abstract(参考訳): 産業自動化の急速な進歩の中で、視覚に基づくロボットの把握はますます重要な役割を担っている。
視覚的認識精度を高めるために,大規模データセットの利用は,各種オブジェクトの処理に関する暗黙的な知識を学習モデルで取得するために不可欠である。
スクラッチからデータセットを作成するのは時間と労力を要するプロセスです。
さらに、既存のデータセットには、迅速性を目的とした自動アノテーションによるエラーがしばしば含まれており、これらのデータセットの改善が大きな研究課題となっている。
その結果、人気のある Jacquard Grasp 内の有界ボックスをつかむというアノテーションでいくつかの問題が特定されている。
本稿では,human-in-the-loop(hil)法によるデータセットの品質向上を提案する。
このアプローチは、ロボット把持のためのオブジェクトの位置と方向を予測するために、バックボーンディープラーニングネットワークに依存している。
iou(intersection over union)値が0.2未満の予測は、人間のオペレーターによる評価を受ける。
評価後、データはFalse Negatives(FN)とTrue Negatives(TN)に分類される。
次にFNは、欠落したアノテーションまたは破滅的なラベリングエラーに分類される。
ラベルを欠いた画像は適切な把持バウンディングボックス情報で追加され、壊滅的なラベリングエラーに苦しむ画像は完全に削除される。
オープンソースのツールである labelbee は hil データセット拡張の53,026 回のイテレーションで採用され、2,884 枚の画像が削除され、30,292 枚の画像に基底真理情報が組み込まれた。
Jacquard V2 Grasping Datasetと名付けられた拡張データセットは、さまざまなニューラルネットワークのトレーニングデータとして機能した。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - DRUPI: Dataset Reduction Using Privileged Information [20.59889438709671]
データセットリダクション(DR)は、ターゲットタスクのパフォーマンスを維持しながら、大規模なデータセットからより小さなサブセットにサンプルを選択または蒸留する。
本稿では,DRUPI(Privleged Information)を用いたデータセットリダクションについて紹介する。
我々の研究結果によると、効果的な特徴ラベルは過度に差別的かつ過度に多様性があり、中程度のレベルがデータセットの有効性を改善するのに最適であることが判明した。
論文 参考訳(メタデータ) (2024-10-02T14:49:05Z) - TrajSSL: Trajectory-Enhanced Semi-Supervised 3D Object Detection [59.498894868956306]
Pseudo-labeling approach to semi-supervised learning は教師-学生の枠組みを採用する。
我々は、事前学習した動き予測モデルを活用し、擬似ラベル付きデータに基づいて物体軌跡を生成する。
提案手法は2つの異なる方法で擬似ラベル品質を向上する。
論文 参考訳(メタデータ) (2024-09-17T05:35:00Z) - CovarNav: Machine Unlearning via Model Inversion and Covariance
Navigation [11.222501077070765]
機械学習は、訓練されたモデルに対する特定のトレーニングデータポイントの影響を選択的に除去する重要なテクニックとして登場した。
我々は,このことを忘れないように,CovarNavという3段階のプロセスを導入する。
CIFAR-10とVggface2データセット上でCovarNavを厳格に評価する。
論文 参考訳(メタデータ) (2023-11-21T21:19:59Z) - Knowledge Combination to Learn Rotated Detection Without Rotated
Annotation [53.439096583978504]
回転バウンディングボックスは、伸長したオブジェクトの出力あいまいさを劇的に減少させる。
この効果にもかかわらず、回転検出器は広く使われていない。
本稿では,モデルが正確な回転ボックスを予測できるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-05T03:07:36Z) - Combating noisy labels in object detection datasets [0.0]
本稿では,オブジェクト検出データセットにおける各ラベルの品質を評価するためのCLODアルゴリズムを提案する。
欠落した、突発的で、ラベルが間違えた、そして誤配置されたバウンディングボックスを特定し、修正を提案する。
提案手法は, 擬陽性率0.1未満の人工乱れ箱の80%近くを指摘できる。
論文 参考訳(メタデータ) (2022-11-25T10:05:06Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Training Dynamic based data filtering may not work for NLP datasets [0.0]
NLPデータセットにおける誤り例を識別するために,AUM(Area Under the Margin)測定値の適用性を検討した。
我々は,NLPデータセットのAUM測定値を用いて誤ラベル付きサンプルをフィルタリングできることを発見したが,同時に,かなりの数の正確なラベル付きポイントを除去した。
論文 参考訳(メタデータ) (2021-09-19T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。