論文の概要: GreenCOD: A Green Camouflaged Object Detection Method
- arxiv url: http://arxiv.org/abs/2405.16144v1
- Date: Sat, 25 May 2024 09:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 00:50:39.538727
- Title: GreenCOD: A Green Camouflaged Object Detection Method
- Title(参考訳): GreenCOD:グリーンカモフラージュされた物体検出方法
- Authors: Hong-Shuo Chen, Yao Zhu, Suya You, Azad M. Madni, C. -C. Jay Kuo,
- Abstract要約: バックプロパゲーションの回避に際し, カモフラージュした物体を検出するグリーンメソッドであるGreenCODを紹介した。
GreenCODは、事前訓練されたDeep Neural Networks(DNN)から抽出した勾配向上と深部特徴を活用する
注目すべきは、我々のモデルはバックプロパゲーションなしで訓練され、20G乗算演算(MAC)未満で最高の性能を達成することである。
- 参考スコア(独自算出の注目度): 32.80810414181875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce GreenCOD, a green method for detecting camouflaged objects, distinct in its avoidance of backpropagation techniques. GreenCOD leverages gradient boosting and deep features extracted from pre-trained Deep Neural Networks (DNNs). Traditional camouflaged object detection (COD) approaches often rely on complex deep neural network architectures, seeking performance improvements through backpropagation-based fine-tuning. However, such methods are typically computationally demanding and exhibit only marginal performance variations across different models. This raises the question of whether effective training can be achieved without backpropagation. Addressing this, our work proposes a new paradigm that utilizes gradient boosting for COD. This approach significantly simplifies the model design, resulting in a system that requires fewer parameters and operations and maintains high performance compared to state-of-the-art deep learning models. Remarkably, our models are trained without backpropagation and achieve the best performance with fewer than 20G Multiply-Accumulate Operations (MACs). This new, more efficient paradigm opens avenues for further exploration in green, backpropagation-free model training.
- Abstract(参考訳): 本研究は, 後方伝播の回避に際し, カモフラージュした物体を検出するグリーンメソッドであるGreenCODを紹介する。
GreenCODは、事前訓練されたDeep Neural Networks(DNN)から抽出された勾配の強化と深い特徴を活用する。
従来のカモフラージュオブジェクト検出(COD)アプローチは複雑なディープニューラルネットワークアーキテクチャに依存し、バックプロパゲーションベースの微調整によるパフォーマンス改善を求めることが多い。
しかし、そのような手法は典型的には計算的に要求され、異なるモデルにまたがる限界性能の変化しか示さない。
これにより、バックプロパゲーションなしで効果的なトレーニングが達成できるかどうかという疑問が持ち上がる。
そこで本研究では,CODの勾配向上を利用した新しいパラダイムを提案する。
このアプローチはモデル設計を大幅に単純化し、結果としてパラメータや操作を少なくし、最先端のディープラーニングモデルと比較して高いパフォーマンスを維持するシステムとなる。
注目すべきは、我々のモデルはバックプロパゲーションなしで訓練され、20G乗算演算(MAC)未満で最高の性能を達成することである。
この新しいより効率的なパラダイムは、グリーンでバックプロパゲーションのないモデルトレーニングにおけるさらなる探索の道を開く。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Massive Dimensions Reduction and Hybridization with Meta-heuristics in Deep Learning [0.24578723416255746]
ヒストグラムに基づく微分進化(HBDE)は、パラメータを最適化するために勾配に基づくアルゴリズムと勾配のないアルゴリズムをハイブリダイズする。
HBDEは、CIFAR-10とCIFAR-100データセットに基づいて評価されたベースライン勾配と親勾配のないDEMアルゴリズムより優れている。
論文 参考訳(メタデータ) (2024-08-13T20:28:20Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Rethinking Pareto Frontier for Performance Evaluation of Deep Neural
Networks [2.167843405313757]
多目的最適化を用いて効率測定を再定義する。
競合変数と自然を同時に1つの相対効率尺度で組み合わせる。
これにより、異なるコンピューティングハードウェア上で効率的に動作するディープモデルをランク付けし、推論効率とトレーニング効率を客観的に組み合わせることができる。
論文 参考訳(メタデータ) (2022-02-18T15:58:17Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Proxy Convexity: A Unified Framework for the Analysis of Neural Networks
Trained by Gradient Descent [95.94432031144716]
学習ネットワークの分析のための統合された非最適化フレームワークを提案する。
既存の保証は勾配降下により統一することができることを示す。
論文 参考訳(メタデータ) (2021-06-25T17:45:00Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Novelty Detection via Non-Adversarial Generative Network [47.375591404354765]
新しいデコーダ-エンコーダフレームワークが,新規検出タスクのために提案されている。
非敵対的な枠組みの下では、潜伏空間と画像再構成空間の両方が共同最適化されている。
我々のモデルは、最先端のノベルティ検出器よりも明らかな優位性を持ち、データセットの最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-02-03T01:05:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。