論文の概要: In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation
- arxiv url: http://arxiv.org/abs/2409.07796v2
- Date: Fri, 24 Jan 2025 05:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:24.693316
- Title: In-Situ Fine-Tuning of Wildlife Models in IoT-Enabled Camera Traps for Efficient Adaptation
- Title(参考訳): 効率的な適応のためのIoT対応カメラトラップにおける野生生物モデルのその場的微調整
- Authors: Mohammad Mehdi Rastikerdar, Jin Huang, Hui Guan, Deepak Ganesan,
- Abstract要約: リソース制約のあるIoTデバイスは、リモート環境における推論タスクのディープラーニングモデルにますます依存している。
これらのモデルは、照明、天気、季節条件の変動に遭遇するドメインシフトによって、かなりの精度低下を経験する。
このフレームワークは、監視された種の視覚的特徴よりも背景のシーンがより頻繁に変化するという重要な洞察を活用する。
- 参考スコア(独自算出の注目度): 8.882680489254923
- License:
- Abstract: Resource-constrained IoT devices increasingly rely on deep learning models for inference tasks in remote environments. However, these models experience significant accuracy drops due to domain shifts when encountering variations in lighting, weather, and seasonal conditions. While cloud-based retraining can address this issue, many IoT deployments operate with limited connectivity and energy constraints, making traditional fine-tuning approaches impractical. We explore this challenge through the lens of wildlife ecology, where camera traps must maintain accurate species classification across changing seasons, weather, and habitats without reliable connectivity. We introduce WildFit, an autonomous in-situ adaptation framework that leverages the key insight that background scenes change more frequently than the visual characteristics of monitored species. WildFit combines background-aware synthesis to generate training samples on-device with drift-aware fine-tuning that triggers model updates only when necessary to conserve resources. Through extensive evaluation on multiple camera trap deployments, we demonstrate that WildFit significantly improves accuracy while greatly reducing adaptation overhead compared to traditional approaches.
- Abstract(参考訳): リソース制約のあるIoTデバイスは、リモート環境における推論タスクのディープラーニングモデルにますます依存している。
しかし、これらのモデルでは、照明、天気、季節条件の変化に遭遇するドメインシフトによって、かなりの精度低下を経験する。
クラウドベースのリトレーニングはこの問題に対処できるが、多くのIoTデプロイメントでは、接続性やエネルギー制限が制限されているため、従来の微調整アプローチは現実的ではない。
この課題を野生生物生態学のレンズを通して探求し、カメラトラップは、信頼できる接続性のない季節、天候、生息地を横断する正確な種分類を維持する必要がある。
このフレームワークは、監視された種の視覚的特徴よりも背景のシーンがより頻繁に変化するという重要な洞察を活用する。
WildFitは、バックグラウンド認識合成とデバイス上のトレーニングサンプルの生成を組み合わせることで、リソースの保存に必要な場合にのみモデル更新をトリガーするドリフト対応の微調整を行う。
複数のカメラトラップ配置の広範囲な評価を通じて、WildFitは従来のアプローチに比べて適応オーバーヘッドを大幅に低減し、精度を大幅に向上することを示した。
関連論文リスト
- Improving Generalization Performance of YOLOv8 for Camera Trap Object Detection [0.0]
この論文では、一般化の問題に対処するため、YOLOv8オブジェクト検出アルゴリズムの強化について検討する。
提案された拡張は、カメラトラップデータセットに固有の課題に対処するだけでなく、現実の保存シナリオにおける広範な適用性への道を開く。
論文 参考訳(メタデータ) (2024-12-18T02:00:53Z) - Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - Adaptive High-Frequency Transformer for Diverse Wildlife Re-Identification [33.0352672906987]
Wildlife ReIDは視覚技術を利用して、異なるシナリオで野生動物の特定の個人を特定する。
野生生物ReIDのための統合された多種多種汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T15:16:30Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Eagle: End-to-end Deep Reinforcement Learning based Autonomous Control
of PTZ Cameras [4.8020206717026]
パンティルトゾム(PTZ)カメラの自律制御のためのエンド・ツー・エンドディープ強化学習(RL)ソリューションを提案する。
撮像画像の中心付近の被写体関心を解像度で維持し、最新技術よりも17%高いトラッキング時間を有することにより、優れたカメラ制御を導入する。
論文 参考訳(メタデータ) (2023-04-10T02:41:56Z) - Optimizing Relevance Maps of Vision Transformers Improves Robustness [91.61353418331244]
視覚的分類モデルは、しばしば画像背景に依存し、前景を無視し、分布の変化に対する頑丈さを損なうことが観察されている。
本稿では,モデルが前景オブジェクトに注目するように,モデルの関連性信号を監視して操作することを提案する。
これは、画像とそれに関連する前景マスクからなる比較的少数のサンプルを含む、微調整のステップとして行われる。
論文 参考訳(メタデータ) (2022-06-02T17:24:48Z) - Self-Supervised Pretraining and Controlled Augmentation Improve Rare
Wildlife Recognition in UAV Images [9.220908533011068]
本稿では,自己指導型プレトレーニングに頼って,必要なトレーニングデータの量を削減する手法を提案する。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNet 上で事前学習された従来のモデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-08-17T12:14:28Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。