論文の概要: Dynamic Curriculum Learning for Great Ape Detection in the Wild
- arxiv url: http://arxiv.org/abs/2205.00275v1
- Date: Sat, 30 Apr 2022 14:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:20:09.910326
- Title: Dynamic Curriculum Learning for Great Ape Detection in the Wild
- Title(参考訳): 野生における大類検出のための動的カリキュラム学習
- Authors: Xinyu Yang, Tilo Burghardt, Majid Mirmehdi
- Abstract要約: 本研究では,現実世界のジャングル環境における検出器構築を改善するために,エンドツーエンドのカリキュラム学習手法を提案する。
従来の半教師付き手法とは対照的に,本手法は自己強化に向けての訓練を行うことで,検出品質を徐々に向上させる。
このような厳密な力学と制御は、学習の崩壊を回避し、検出器の調整をより高度なモデル品質に徐々に結びつけることができることを示す。
- 参考スコア(独自算出の注目度): 14.212559301656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel end-to-end curriculum learning approach that leverages
large volumes of unlabelled great ape camera trap footage to improve supervised
species detector construction in challenging real-world jungle environments. In
contrast to previous semi-supervised methods, our approach gradually improves
detection quality by steering training towards virtuous self-reinforcement. To
achieve this, we propose integrating pseudo-labelling with dynamic curriculum
learning policies. We show that such dynamics and controls can avoid learning
collapse and gradually tie detector adjustments to higher model quality. We
provide theoretical arguments and ablations, and confirm significant
performance improvements against various state-of-the-art systems when
evaluating on the Extended PanAfrican Dataset holding several thousand camera
trap videos of great apes. We note that system performance is strongest for
smaller labelled ratios, which are common in ecological applications. Our
approach, although designed with wildlife data in mind, also shows competitive
benchmarks for generic object detection in the MS-COCO dataset, indicating
wider applicability of introduced concepts. The code is available at
https://github.com/youshyee/DCL-Detection.
- Abstract(参考訳): 本研究では,実世界のジャングル環境における教師付き種検出器の構成を改善するために,無防備な大型apeカメラトラップ映像を活用したエンド・ツー・エンドのカリキュラム学習手法を提案する。
従来の半教師付き手法とは対照的に,本手法は頑健な自己強化に向けての訓練によって,検出品質を徐々に向上させる。
そこで本稿では,疑似ラベルと動的カリキュラム学習ポリシーの統合を提案する。
このようなダイナミクスと制御は、学習の崩壊を回避し、検出器の調整をより高いモデル品質に徐々に結びつけることができる。
我々は理論的な議論と改善を提案し、数千のカメラトラップビデオを持つ拡張パンアフリカデータセットの評価において、様々な最先端システムに対する大幅な性能向上を確認した。
システム性能は,生態学的な応用に共通する,より小さなラベル付き比率に対して最強である。
提案手法は野生生物データを念頭に置いて設計されているが,MS-COCOデータセットにおけるジェネリックオブジェクト検出のための競合ベンチマークを示す。
コードはhttps://github.com/youshyee/dcl-detectionで入手できる。
関連論文リスト
- In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation [8.882680489254923]
WildFitは、高ドメインの一般化性能を実現し、カメラトラップアプリケーションに対する効率的な推論を保証するという、相反する目標を調整します。
背景認識データ合成は、背景画像とソース領域からの動物画像とをブレンドすることにより、新しい領域を表す訓練画像を生成する。
複数のカメラトラップデータセットを用いて評価したところ、WildFitは従来の手法に比べて分類精度と計算効率が大幅に向上していることがわかった。
論文 参考訳(メタデータ) (2024-09-12T06:56:52Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - XVO: Generalized Visual Odometry via Cross-Modal Self-Training [11.70220331540621]
XVOは、一般化された単眼視眼視(英語版)モデル(英語版)(VO)を訓練するための半教師付き学習法である。
単一のデータセット内の既知のキャリブレーションをよく研究する標準的な単分子VOアプローチとは対照的に、XVOは現実のスケールで相対的なポーズを回復するのを効率的に学習する。
そこで我々は,YouTubeで公開されている大量の非拘束・異質なダッシュカメラビデオから,自己学習による動作推定モデルを最適化した。
論文 参考訳(メタデータ) (2023-09-28T18:09:40Z) - Improving Buoy Detection with Deep Transfer Learning for Mussel Farm
Automation [7.906113472259946]
ニュージーランドの養殖業は急速に拡大しており、特に貝類の輸出に重点を置いている。
ムッセル農業活動の需要が発展を続けるにつれ、人工知能とコンピュータビジョン技術の統合が、運用効率を高める効果的なアプローチとして現れつつある。
本研究は, 深層学習手法を活用して, ブイ検出の高度化を図っている。
論文 参考訳(メタデータ) (2023-08-18T01:53:47Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Weakly Supervised Two-Stage Training Scheme for Deep Video Fight
Detection Model [0.0]
ビデオにおけるファイト検出は、今日の監視システムとストリーミングメディアの普及にともなう、新たなディープラーニングアプリケーションである。
これまでの研究は、この問題に対処するための行動認識技術に大きく依存していた。
本研究では,動作認識特徴抽出器と異常スコア生成器の合成として,戦闘検出モデルを設計する。
論文 参考訳(メタデータ) (2022-09-23T08:29:16Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Incremental Learning from Low-labelled Stream Data in Open-Set Video
Face Recognition [0.0]
本稿では,深層機能エンコーダとSVMのオープンセット動的アンサンブルを組み合わせた新しいインクリメンタル学習手法を提案する。
本手法は,教師なしの操作データを用いて認識性を向上させる。
結果は、非適応状態の方法に対する最大15%のF1スコア増加の利点を示しています。
論文 参考訳(メタデータ) (2020-12-17T13:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。