論文の概要: Few-Shot Object Detection in Real Life: Case Study on Auto-Harvest
- arxiv url: http://arxiv.org/abs/2011.02719v1
- Date: Thu, 5 Nov 2020 09:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:29:30.783077
- Title: Few-Shot Object Detection in Real Life: Case Study on Auto-Harvest
- Title(参考訳): 実生活におけるFew-Shot物体検出:オートハーベストの事例
- Authors: Kevin Riou, Jingwen Zhu, Suiyi Ling, Mathis Piquet, Vincent Truffault,
Patrick Le Callet
- Abstract要約: 新型コロナウイルス(COVID-19)による抑留は、世界中の農業に深刻な影響を及ぼしている。
オートハーベストシステムでは、堅牢な少数ショットオブジェクト検出モデルがボトルネックの1つである。
本稿では、新しいキュウリデータセットを提案し、コンテキストギャップをブリッジする2つのデータ拡張戦略を提案する。
- 参考スコア(独自算出の注目度): 26.119977579845614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Confinement during COVID-19 has caused serious effects on agriculture all
over the world. As one of the efficient solutions, mechanical
harvest/auto-harvest that is based on object detection and robotic harvester
becomes an urgent need. Within the auto-harvest system, robust few-shot object
detection model is one of the bottlenecks, since the system is required to deal
with new vegetable/fruit categories and the collection of large-scale annotated
datasets for all the novel categories is expensive. There are many few-shot
object detection models that were developed by the community. Yet whether they
could be employed directly for real life agricultural applications is still
questionable, as there is a context-gap between the commonly used training
datasets and the images collected in real life agricultural scenarios. To this
end, in this study, we present a novel cucumber dataset and propose two data
augmentation strategies that help to bridge the context-gap. Experimental
results show that 1) the state-of-the-art few-shot object detection model
performs poorly on the novel `cucumber' category; and 2) the proposed
augmentation strategies outperform the commonly used ones.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)による抑留は、世界中の農業に深刻な影響を及ぼしている。
効率的な解決策の1つとして,物体検出とロボット収穫に基づく機械収穫・自動収穫が急務となる。
オートハーベストシステムでは,新しい野菜・果物カテゴリーに対処するために必要なシステムや,新しいカテゴリすべてを対象とした大規模アノテートデータセットの収集が高価であるため,頑健な少数ショットオブジェクト検出モデルがボトルネックとなっている。
コミュニティによって開発された数少ないオブジェクト検出モデルが数多く存在する。
しかし、一般的に使われているトレーニングデータセットと、実生活の農業シナリオで収集された画像との間には、コンテキストギャップがあるため、現実の農業用途に直接適用できるかどうかはまだ疑わしい。
そこで本研究では,新しいcucumberデータセットを提案し,コンテキストギャップの橋渡しを支援する2つのデータ拡張戦略を提案する。
実験の結果
1) 最先端のマイノリティ・ショット・オブジェクト検出モデルは, 新規な ‘cucumber' カテゴリにおいて, 性能に乏しい。
2) 提案する拡張戦略は, 一般的に用いられるものよりも優れている。
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Transfer learning with generative models for object detection on limited datasets [1.4999444543328293]
海洋生物学などいくつかの分野では、各物体の周囲に有界箱を正しくラベル付けする必要がある。
本稿では,一般的なシナリオに有効な伝達学習フレームワークを提案する。
我々の研究結果は、さまざまな分野における機械学習アプリケーションのための、新しい生成AIベースのプロトコルの道を開くものである。
論文 参考訳(メタデータ) (2024-02-09T21:17:31Z) - CrowdSim2: an Open Synthetic Benchmark for Object Detectors [0.7223361655030193]
本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
論文 参考訳(メタデータ) (2023-04-11T09:35:57Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Neural-Sim: Learning to Generate Training Data with NeRF [31.81496344354997]
本稿では,ニューラルレージアンスフィールド(NeRF)を対象アプリケーションの損失関数を持つ閉ループに使用した,最初の完全微分可能な合成データパイプラインを提案する。
提案手法は,人的負担を伴わないオンデマンドでデータを生成し,目標タスクの精度を最大化する。
論文 参考訳(メタデータ) (2022-07-22T22:48:33Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Dataset and Performance Comparison of Deep Learning Architectures for
Plum Detection and Robotic Harvesting [3.7692411550925673]
実際のロボット梅収穫システムの昼夜動作中に2つの新しいデータセットが収集される。
これらに対して、現在の世代のディープラーニングオブジェクト検出器をベンチマークする。
深度情報と画像情報を融合する2つの手法が検出器性能に与える影響を検証した。
論文 参考訳(メタデータ) (2021-05-09T04:18:58Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。