論文の概要: In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation
- arxiv url: http://arxiv.org/abs/2409.07796v1
- Date: Thu, 12 Sep 2024 06:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 17:27:46.007020
- Title: In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation
- Title(参考訳): 効率的な適応のためのIoT対応カメラトラップにおける野生生物モデルのその場的微調整
- Authors: Mohammad Mehdi Rastikerdar, Jin Huang, Hui Guan, Deepak Ganesan,
- Abstract要約: WildFitは、高ドメインの一般化性能を実現し、カメラトラップアプリケーションに対する効率的な推論を保証するという、相反する目標を調整します。
背景認識データ合成は、背景画像とソース領域からの動物画像とをブレンドすることにより、新しい領域を表す訓練画像を生成する。
複数のカメラトラップデータセットを用いて評価したところ、WildFitは従来の手法に比べて分類精度と計算効率が大幅に向上していることがわかった。
- 参考スコア(独自算出の注目度): 8.882680489254923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wildlife monitoring via camera traps has become an essential tool in ecology, but the deployment of machine learning models for on-device animal classification faces significant challenges due to domain shifts and resource constraints. This paper introduces WildFit, a novel approach that reconciles the conflicting goals of achieving high domain generalization performance and ensuring efficient inference for camera trap applications. WildFit leverages continuous background-aware model fine-tuning to deploy ML models tailored to the current location and time window, allowing it to maintain robust classification accuracy in the new environment without requiring significant computational resources. This is achieved by background-aware data synthesis, which generates training images representing the new domain by blending background images with animal images from the source domain. We further enhance fine-tuning effectiveness through background drift detection and class distribution drift detection, which optimize the quality of synthesized data and improve generalization performance. Our extensive evaluation across multiple camera trap datasets demonstrates that WildFit achieves significant improvements in classification accuracy and computational efficiency compared to traditional approaches.
- Abstract(参考訳): カメラトラップによる野生生物のモニタリングは、生態学において重要なツールとなっているが、デバイス上の動物分類のための機械学習モデルのデプロイは、ドメインシフトとリソース制約のために大きな課題に直面している。
本稿では、高ドメイン一般化性能の実現と、カメラトラップアプリケーションの効率的な推論の確保という、矛盾する目標を整合させる新しいアプローチであるWildFitを紹介する。
WildFitは、継続的バックグラウンド認識モデルの微調整を活用して、現在の位置と時間ウインドウに合わせてMLモデルをデプロイする。
これは、背景画像と、ソースドメインからの動物画像とをブレンドすることにより、新しいドメインを表すトレーニング画像を生成する背景認識データ合成によって達成される。
さらに、背景ドリフト検出とクラス分布ドリフト検出による微調整効率を高め、合成データの品質を最適化し、一般化性能を向上させる。
複数のカメラトラップデータセットにまたがる広範な評価は、WildFitが従来のアプローチと比較して、分類精度と計算効率を大幅に改善したことを示している。
関連論文リスト
- Improving Generalization Performance of YOLOv8 for Camera Trap Object Detection [0.0]
この論文では、一般化の問題に対処するため、YOLOv8オブジェクト検出アルゴリズムの強化について検討する。
提案された拡張は、カメラトラップデータセットに固有の課題に対処するだけでなく、現実の保存シナリオにおける広範な適用性への道を開く。
論文 参考訳(メタデータ) (2024-12-18T02:00:53Z) - Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - Adaptive High-Frequency Transformer for Diverse Wildlife Re-Identification [33.0352672906987]
Wildlife ReIDは視覚技術を利用して、異なるシナリオで野生動物の特定の個人を特定する。
野生生物ReIDのための統合された多種多種汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T15:16:30Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Eagle: End-to-end Deep Reinforcement Learning based Autonomous Control
of PTZ Cameras [4.8020206717026]
パンティルトゾム(PTZ)カメラの自律制御のためのエンド・ツー・エンドディープ強化学習(RL)ソリューションを提案する。
撮像画像の中心付近の被写体関心を解像度で維持し、最新技術よりも17%高いトラッキング時間を有することにより、優れたカメラ制御を導入する。
論文 参考訳(メタデータ) (2023-04-10T02:41:56Z) - Optimizing Relevance Maps of Vision Transformers Improves Robustness [91.61353418331244]
視覚的分類モデルは、しばしば画像背景に依存し、前景を無視し、分布の変化に対する頑丈さを損なうことが観察されている。
本稿では,モデルが前景オブジェクトに注目するように,モデルの関連性信号を監視して操作することを提案する。
これは、画像とそれに関連する前景マスクからなる比較的少数のサンプルを含む、微調整のステップとして行われる。
論文 参考訳(メタデータ) (2022-06-02T17:24:48Z) - Self-Supervised Pretraining and Controlled Augmentation Improve Rare
Wildlife Recognition in UAV Images [9.220908533011068]
本稿では,自己指導型プレトレーニングに頼って,必要なトレーニングデータの量を削減する手法を提案する。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNet 上で事前学習された従来のモデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-08-17T12:14:28Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。