論文の概要: All You Need is LUV: Unsupervised Collection of Labeled Images using
Invisible UV Fluorescent Indicators
- arxiv url: http://arxiv.org/abs/2203.04566v1
- Date: Wed, 9 Mar 2022 08:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 13:59:40.052619
- Title: All You Need is LUV: Unsupervised Collection of Labeled Images using
Invisible UV Fluorescent Indicators
- Title(参考訳): 目に見えないuv蛍光インジケータを使ってラベル付き画像の教師なしコレクションが必要なのはluvだけ
- Authors: Brijen Thananjeyan, Justin Kerr, Huang Huang, Joseph E. Gonzalez, Ken
Goldberg
- Abstract要約: Labels from UltraViolet (LUV)は、人間のラベル付けなしで実際の操作環境で高速にラベル付けされたデータ収集を可能にする新しいフレームワークである。
LUVは透明な紫外線塗料とプログラマブルな紫外線LEDを使って、標準的な照明でシーンのペア画像を集めている。
LUVは、未塗布試験画像上の人間のアノテーションと整合したラベルを提供する。
- 参考スコア(独自算出の注目度): 36.50716553287436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale semantic image annotation is a significant challenge for
learning-based perception systems in robotics. Current approaches often rely on
human labelers, which can be expensive, or simulation data, which can visually
or physically differ from real data. This paper proposes Labels from
UltraViolet (LUV), a novel framework that enables rapid, labeled data
collection in real manipulation environments without human labeling. LUV uses
transparent, ultraviolet-fluorescent paint with programmable ultraviolet LEDs
to collect paired images of a scene in standard lighting and UV lighting to
autonomously extract segmentation masks and keypoints via color segmentation.
We apply LUV to a suite of diverse robot perception tasks to evaluate its
labeling quality, flexibility, and data collection rate. Results suggest that
LUV is 180-2500 times faster than a human labeler across the tasks. We show
that LUV provides labels consistent with human annotations on unpainted test
images. The networks trained on these labels are used to smooth and fold
crumpled towels with 83% success rate and achieve 1.7mm position error with
respect to human labels on a surgical needle pose estimation task. The low cost
of LUV makes it ideal as a lightweight replacement for human labeling systems,
with the one-time setup costs at $300 equivalent to the cost of collecting
around 200 semantic segmentation labels on Amazon Mechanical Turk. Code,
datasets, visualizations, and supplementary material can be found at
https://sites.google.com/berkeley.edu/luv
- Abstract(参考訳): 大規模セマンティック画像アノテーションはロボット工学における学習に基づく知覚システムにとって重要な課題である。
現在のアプローチでは、高価なヒューマンラベラーや、実際のデータと視覚的あるいは物理的に異なるシミュレーションデータに依存することが多い。
本稿では,人間のラベリングを伴わない実操作環境において,高速なラベル付きデータ収集を可能にする,UltraViolet (LUV) によるラベル抽出手法を提案する。
LUVは透明な紫外蛍光塗料とプログラマブルな紫外線LEDを使用して、標準的な照明と紫外線照明のシーンのペア画像を収集し、カラーセグメンテーションによってセグメンテーションマスクとキーポイントを自律的に抽出する。
LUVを多様なロボット認識タスク群に適用し,そのラベル付け品質,柔軟性,データ収集率を評価する。
その結果,LUVは人間のラベルよりも180~2500倍高速であることが示唆された。
LUVは、未塗布試験画像上の人間のアノテーションと整合したラベルを提供する。
これらのラベルで訓練されたネットワークは、スムーズで折り畳みされたタオルを83%の成功率で使用し、手術針ポーズ推定タスクにおけるヒトのラベルに対する1.7mmの位置誤差を達成する。
LUVの低コストは、人間のラベルシステムに代わる軽量な代替品として理想的であり、1回のセットアップコストは、Amazon Mechanical Turk上で200のセマンティックセグメンテーションラベルを集めるコストと同等である。
コード、データセット、ビジュアライゼーション、補足資料はhttps://sites.google.com/berkeley.edu/luvにある。
関連論文リスト
- Auto-Generating Weak Labels for Real & Synthetic Data to Improve Label-Scarce Medical Image Segmentation [5.368714143438489]
本稿では,Segment Anything Model (SAM) や医療用代替MedSAMなどの基礎モデルを活用することで,医療用画像ラベリングのハードルを克服する新しいアプローチを提案する。
我々のパイプラインは、ラベルなしの医療画像に対して弱いラベルを生成し、その後、ラベルのスカースデータセットを増やすためにそれを使用することができる。
この自動化により、MedSAMのマニュアルプロンプトステップが不要になり、実画像と合成画像の両方のラベルを生成するための合理化プロセスが作成される。
論文 参考訳(メタデータ) (2024-04-25T20:47:08Z) - VLM-CPL: Consensus Pseudo Labels from Vision-Language Models for Human Annotation-Free Pathological Image Classification [23.08368823707528]
本稿では,VLM(Venture-Language Models)を利用した画像分類法を提案する。
2つのノイズラベルフィルタリング技術と半教師付き学習戦略を統合した,コンセンサス擬似ラベルに基づく新しい手法 VLM-CPL を提案する。
実験の結果,HPHデータセットとLC25Kデータセットの精度は87.1%,95.1%であった。
論文 参考訳(メタデータ) (2024-03-23T13:24:30Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Surgical Tattoos in Infrared: A Dataset for Quantifying Tissue Tracking
and Mapping [7.282909831316735]
Infraredデータセットの手術用タトゥーは、in-vivoとex-vivoの両方のシーンで数百のステレオビデオクリップで構成されている。
3000以上のラベル付きポイントを持つSTIRは、トラッキングとマッピングの方法の定量化と、よりよい分析を可能にする。
論文 参考訳(メタデータ) (2023-09-28T18:22:34Z) - Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - Rapid Image Labeling via Neuro-Symbolic Learning [5.506243103965863]
本稿では,少量のラベル付きデータから画像ラベリングルールを推論するRapidというニューロシンボリックアプローチを提案する。
特にRapidは、事前訓練されたCVモデルと帰納的論理学習を組み合わせて、ロジックベースのラベリングルールを推論する。
ラピッドは4つの画像ラベリングタスクにおいて83.33%から88.33%のラベル付け精度を達成し、12から39のラベル付きサンプルしか持たない。
論文 参考訳(メタデータ) (2023-06-18T07:02:56Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - On Smart Gaze based Annotation of Histopathology Images for Training of
Deep Convolutional Neural Networks [1.9642257301321773]
アイアイアイアイのアノテーションは、スライドラベリングプロセスを高速化する可能性がある。
ハンドラベルデータとガゼラベルデータを用いて訓練したディープオブジェクト検出器の性能差を比較した。
論文 参考訳(メタデータ) (2022-02-06T12:07:12Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。