論文の概要: In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation
- arxiv url: http://arxiv.org/abs/2409.07796v1
- Date: Thu, 12 Sep 2024 06:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 17:27:46.007020
- Title: In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation
- Title(参考訳): 効率的な適応のためのIoT対応カメラトラップにおける野生生物モデルのその場的微調整
- Authors: Mohammad Mehdi Rastikerdar, Jin Huang, Hui Guan, Deepak Ganesan,
- Abstract要約: WildFitは、高ドメインの一般化性能を実現し、カメラトラップアプリケーションに対する効率的な推論を保証するという、相反する目標を調整します。
背景認識データ合成は、背景画像とソース領域からの動物画像とをブレンドすることにより、新しい領域を表す訓練画像を生成する。
複数のカメラトラップデータセットを用いて評価したところ、WildFitは従来の手法に比べて分類精度と計算効率が大幅に向上していることがわかった。
- 参考スコア(独自算出の注目度): 8.882680489254923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wildlife monitoring via camera traps has become an essential tool in ecology, but the deployment of machine learning models for on-device animal classification faces significant challenges due to domain shifts and resource constraints. This paper introduces WildFit, a novel approach that reconciles the conflicting goals of achieving high domain generalization performance and ensuring efficient inference for camera trap applications. WildFit leverages continuous background-aware model fine-tuning to deploy ML models tailored to the current location and time window, allowing it to maintain robust classification accuracy in the new environment without requiring significant computational resources. This is achieved by background-aware data synthesis, which generates training images representing the new domain by blending background images with animal images from the source domain. We further enhance fine-tuning effectiveness through background drift detection and class distribution drift detection, which optimize the quality of synthesized data and improve generalization performance. Our extensive evaluation across multiple camera trap datasets demonstrates that WildFit achieves significant improvements in classification accuracy and computational efficiency compared to traditional approaches.
- Abstract(参考訳): カメラトラップによる野生生物のモニタリングは、生態学において重要なツールとなっているが、デバイス上の動物分類のための機械学習モデルのデプロイは、ドメインシフトとリソース制約のために大きな課題に直面している。
本稿では、高ドメイン一般化性能の実現と、カメラトラップアプリケーションの効率的な推論の確保という、矛盾する目標を整合させる新しいアプローチであるWildFitを紹介する。
WildFitは、継続的バックグラウンド認識モデルの微調整を活用して、現在の位置と時間ウインドウに合わせてMLモデルをデプロイする。
これは、背景画像と、ソースドメインからの動物画像とをブレンドすることにより、新しいドメインを表すトレーニング画像を生成する背景認識データ合成によって達成される。
さらに、背景ドリフト検出とクラス分布ドリフト検出による微調整効率を高め、合成データの品質を最適化し、一般化性能を向上させる。
複数のカメラトラップデータセットにまたがる広範な評価は、WildFitが従来のアプローチと比較して、分類精度と計算効率を大幅に改善したことを示している。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Enhanced Droplet Analysis Using Generative Adversarial Networks [0.0]
この研究は、DropletGANという画像生成装置を開発し、ドロップレットの画像を生成する。
また、合成データセットを用いた光液滴検出器の開発にも用いられている。
我々の知る限りでは、この研究は初めて、液滴の検出を増強するための生成モデルを用いたものである。
論文 参考訳(メタデータ) (2024-02-24T21:20:53Z) - Dynamic Test-Time Augmentation via Differentiable Functions [3.686808512438363]
DynTTAは、認識モデルを再訓練することなく、認識に優しい画像を生成する画像強調手法である。
DynTTAは、微分可能なデータ拡張技術に基づいて、多くの画像からブレンド画像を生成し、分布シフト時の認識精度を向上させる。
論文 参考訳(メタデータ) (2022-12-09T06:06:47Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z) - A first step towards automated species recognition from camera trap
images of mammals using AI in a European temperate forest [0.0]
本稿では,ポーランド bialowieza forest (bf) における哺乳類のカメラトラップ画像の自動ラベリングのためのyolov5アーキテクチャの実装について述べる。
カメラトラップデータは、大規模な野生動物の監視プロジェクトを管理するためのオープンソースアプリケーションであるTRAPPERソフトウェアを使用して整理および調和されました。
提案する画像認識パイプラインは, bfにおける中型・大型哺乳類12種の同定において, 85%f1-scoreの平均精度を達成した。
論文 参考訳(メタデータ) (2021-03-19T22:48:03Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。