論文の概要: An Analysis of Layer-Freezing Strategies for Enhanced Transfer Learning in YOLO Architectures
- arxiv url: http://arxiv.org/abs/2509.05490v1
- Date: Fri, 05 Sep 2025 20:39:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.539478
- Title: An Analysis of Layer-Freezing Strategies for Enhanced Transfer Learning in YOLO Architectures
- Title(参考訳): YOLOアーキテクチャにおけるトランスファー学習強化のための層凍結戦略の解析
- Authors: Andrzej D. Dobrzycki, Ana M. Bernardos, José R. Casar,
- Abstract要約: 本研究は, 凍結深度, データセット特性, トレーニングダイナミクスの相互作用について考察する。
4つの挑戦的データセットを用いて、YOLOv8とYOLOv10の変種にわたる複数の凍結構成を調査した。
この結果から, 普遍的最適凍結戦略は存在せず, むしろデータの性質に依存していることが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The You Only Look Once (YOLO) architecture is crucial for real-time object detection. However, deploying it in resource-constrained environments such as unmanned aerial vehicles (UAVs) requires efficient transfer learning. Although layer freezing is a common technique, the specific impact of various freezing configurations on contemporary YOLOv8 and YOLOv10 architectures remains unexplored, particularly with regard to the interplay between freezing depth, dataset characteristics, and training dynamics. This research addresses this gap by presenting a detailed analysis of layer-freezing strategies. We systematically investigate multiple freezing configurations across YOLOv8 and YOLOv10 variants using four challenging datasets that represent critical infrastructure monitoring. Our methodology integrates a gradient behavior analysis (L2 norm) and visual explanations (Grad-CAM) to provide deeper insights into training dynamics under different freezing strategies. Our results reveal that there is no universal optimal freezing strategy but, rather, one that depends on the properties of the data. For example, freezing the backbone is effective for preserving general-purpose features, while a shallower freeze is better suited to handling extreme class imbalance. These configurations reduce graphics processing unit (GPU) memory consumption by up to 28% compared to full fine-tuning and, in some cases, achieve mean average precision (mAP@50) scores that surpass those of full fine-tuning. Gradient analysis corroborates these findings, showing distinct convergence patterns for moderately frozen models. Ultimately, this work provides empirical findings and practical guidelines for selecting freezing strategies. It offers a practical, evidence-based approach to balanced transfer learning for object detection in scenarios with limited resources.
- Abstract(参考訳): You Only Look Once (YOLO)アーキテクチャは、リアルタイムオブジェクト検出に不可欠である。
しかし、無人航空機(UAV)のような資源に制約のある環境に展開するには、効率的な移動学習が必要である。
層凍結は一般的な手法であるが、現代のYOLOv8やYOLOv10アーキテクチャに対する様々な凍結構成の影響は明らかにされていない。
本研究は, 層凍結戦略の詳細な解析により, このギャップに対処する。
重要なインフラストラクチャ監視を表す4つの挑戦的データセットを用いて、YOLOv8とYOLOv10の亜種をまたいだ複数の凍結構成を体系的に調査する。
本手法は、勾配挙動解析(L2ノルム)と視覚的説明(Grad-CAM)を統合し、異なる凍結戦略の下でのトレーニング力学の深い洞察を提供する。
この結果から, 普遍的最適凍結戦略は存在せず, むしろデータの性質に依存していることが明らかとなった。
例えば、バックボーンの凍結は汎用的な特徴の保存に有効であるが、浅い凍結は極端なクラス不均衡を扱うのに適している。
これらの構成は、フル微調整と比較してグラフィックス処理ユニット(GPU)のメモリ消費を最大28%削減し、場合によっては、フル微調整のメモリよりも平均的精度(mAP@50)のスコアを得る。
勾配解析はこれらの知見を裏付け、適度に凍結されたモデルに対して異なる収束パターンを示す。
最終的に、この研究は、凍結戦略を選択するための経験的な発見と実践的なガイドラインを提供する。
限られたリソースを持つシナリオにおいて、オブジェクト検出のためのバランスの取れた伝達学習に対して、実用的なエビデンスベースのアプローチを提供する。
関連論文リスト
- Efficient Jailbreaking of Large Models by Freeze Training: Lower Layers Exhibit Greater Sensitivity to Harmful Content [11.626522946410596]
本研究では,大規模言語モデルのパラメータのサンプリングと正規化を行い,パラメータ分布の視覚表現とヒートマップを生成する。
このことから,我々は,下層層のみにSupervised Fine-Tuningを選択的に行うフリーズトレーニング戦略を採用した。
実験により、この手法は、高いジェイルブレイク成功率と高いハーネススコアを維持しながら、トレーニング時間とGPUメモリ消費を著しく低減することを示した。
論文 参考訳(メタデータ) (2025-02-28T11:07:41Z) - The Other Side of the Coin: Unveiling the Downsides of Model Aggregation in Federated Learning from a Layer-peeled Perspective [12.916988821333124]
FL(Federated Learning)では、複数のクライアントが知識を相互に共有する上で、モデルアグリゲーションが重要なステップとなります。
この一時的な性能低下は、FLモデルの収束を遅くする可能性がある。
本稿では,モデルアグリゲーションの負の影響を軽減するための,単純かつ効果的な戦略を提案する。
論文 参考訳(メタデータ) (2025-02-05T14:45:56Z) - Language Models as Zero-shot Lossless Gradient Compressors: Towards General Neural Parameter Prior Models [56.00251589760559]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
実験により、LM-GCは既存の最先端のロスレス圧縮手法を超越していることが示された。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Temperature Balancing, Layer-wise Weight Analysis, and Neural Network
Training [58.20089993899729]
本稿では,直感的で効果的な階層学習手法であるTempBalanceを提案する。
我々は、TempBalanceが通常のSGDと注意深く調整されたスペクトルノルム正規化より著しく優れていることを示す。
また、TempBalanceは最先端のメトリクスやスケジューラよりも優れています。
論文 参考訳(メタデータ) (2023-12-01T05:38:17Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - MGAS: Multi-Granularity Architecture Search for Trade-Off Between Model
Effectiveness and Efficiency [10.641875933652647]
我々は,多粒度アーキテクチャサーチ(MGAS)を導入し,効率的かつ効率的なニューラルネットワークを探索する。
各粒度レベル固有の離散化関数を学習し、進化したアーキテクチャに従って単位残率を適応的に決定する。
CIFAR-10、CIFAR-100、ImageNetの大規模な実験により、MGASはモデル性能とモデルサイズとのトレードオフを改善するために、他の最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-23T16:32:18Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - Development, Optimization, and Deployment of Thermal Forward Vision
Systems for Advance Vehicular Applications on Edge Devices [0.3058685580689604]
我々は、エンドツーエンドのYOLO深層学習フレームワークを用いたスマートフォワードセンシングシステムとして、熱的小型YOLO多クラスオブジェクト検出(TTYMOD)システムを提案する。
このシステムは大規模な熱機関で訓練され、35,000以上の異なる熱フレームからなる新たなオープンソースデータセットが新たに集められている。
温度調整されたナノネットワークの有効性を、平均精度、秒間フレーム、平均推定時間を含む様々な定性的指標を用いて定量化する。
論文 参考訳(メタデータ) (2023-01-18T15:45:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。