論文の概要: A 7K Parameter Model for Underwater Image Enhancement based on Transmission Map Prior
- arxiv url: http://arxiv.org/abs/2405.16197v1
- Date: Sat, 25 May 2024 11:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 00:31:06.125069
- Title: A 7K Parameter Model for Underwater Image Enhancement based on Transmission Map Prior
- Title(参考訳): 先行送信マップに基づく水中画像強調のための7Kパラメータモデル
- Authors: Fuheng Zhou, Dikai Wei, Ye Fan, Yulong Huang, Yonggang Zhang,
- Abstract要約: 水中画像強調のための深層学習モデルは、軽量および有効両方の制限に直面します。
本稿では,軽量選択的注意ネットワーク (LSNet) を提案する。
提案モデルでは,類似の注意ベースモデルと比較してPSNRが97%,パラメータは7Kである。
- 参考スコア(独自算出の注目度): 13.453441079833627
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although deep learning based models for underwater image enhancement have achieved good performance, they face limitations in both lightweight and effectiveness, which prevents their deployment and application on resource-constrained platforms. Moreover, most existing deep learning based models use data compression to get high-level semantic information in latent space instead of using the original information. Therefore, they require decoder blocks to generate the details of the output. This requires additional computational cost. In this paper, a lightweight network named lightweight selective attention network (LSNet) based on the top-k selective attention and transmission maps mechanism is proposed. The proposed model achieves a PSNR of 97\% with only 7K parameters compared to a similar attention-based model. Extensive experiments show that the proposed LSNet achieves excellent performance in state-of-the-art models with significantly fewer parameters and computational resources. The code is available at https://github.com/FuhengZhou/LSNet}{https://github.com/FuhengZhou/LSNet.
- Abstract(参考訳): 深層学習に基づく水中画像強調モデルは優れた性能を示したが、軽量かつ有効性の両方に制限があり、リソース制約のあるプラットフォームへの展開や適用を妨げている。
さらに、既存のディープラーニングベースのモデルの多くは、データ圧縮を使用して、元の情報ではなく、潜在空間の高レベルなセマンティック情報を取得する。
そのため、出力の詳細を生成するにはデコーダブロックが必要である。
これにより計算コストが増大する。
本稿では,トップk選択型アテンションと送信マップ機構に基づく軽量アテンションネットワーク(LSNet)を提案する。
提案モデルでは,類似の注意ベースモデルと比較して,7KパラメータのみのPSNRを97 %達成している。
拡張実験により,提案したLSNetは,パラメータや計算資源が著しく少ない最先端モデルにおいて優れた性能を発揮することが示された。
コードはhttps://github.com/FuhengZhou/LSNet}{https://github.com/FuhengZhou/LSNetで入手できる。
関連論文リスト
- RL-Pruner: Structured Pruning Using Reinforcement Learning for CNN Compression and Acceleration [0.0]
RL-Prunerを提案する。このRL-Prunerは、強化学習を用いて最適プルーニング分布を学習する。
RL-Prunerは、モデル固有のプルーニング実装を必要とせずに、入力モデル内のフィルタ間の依存関係を自動的に抽出し、プルーニングを実行する。
論文 参考訳(メタデータ) (2024-11-10T13:35:10Z) - Search for Efficient Large Language Models [52.98684997131108]
大規模言語モデル(LLMs)は、人工知能研究の領域で長い間停滞してきた。
軽量プルーニング、量子化、蒸留がLLMの圧縮に取り入れられ、メモリの削減と推論の加速を狙った。
ほとんどのモデル圧縮技術は、最適アーキテクチャの探索を見越して重量最適化に重点を置いている。
論文 参考訳(メタデータ) (2024-09-25T21:32:12Z) - Low-Rank Adaption on Transformer-based Oriented Object Detector for Satellite Onboard Processing of Remote Sensing Images [5.234109158596138]
衛星搭載時の深層学習モデルは、リモートセンシング画像のリアルタイム解釈を可能にする。
本稿では,ローランク適応 (LoRA) モジュールを用いたパラメータ効率の高い微調整技術を提案する。
モデル全体のパラメータの12.4$%だけを微調整し、更新することで、完全な微調整モデルの性能の97$%から100$%までを達成できる。
論文 参考訳(メタデータ) (2024-06-04T15:00:49Z) - Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - Do deep neural networks utilize the weight space efficiently? [2.9914612342004503]
TransformersやConvolutional Neural Networks(CNN)といったディープラーニングモデルは、さまざまなドメインに革命をもたらしたが、パラメータ集約的な自然ハマーをリソース制約された設定に配置する。
重み行列の列空間と行空間を利用する新しい概念を導入し、性能を損なうことなくモデルパラメータを大幅に削減する。
私たちのアプローチはBottleneck層とAttention層の両方に適用され、パラメータを効果的に半分にします。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - Edge-Cloud Cooperation for DNN Inference via Reinforcement Learning and
Supervised Learning [23.4463067406809]
低推論レイテンシを維持しつつ,推論精度を向上させるために,エッジクラウド協調フレームワークを提案する。
私たちはエッジに軽量モデル、クラウドにヘビーウェイトモデルを展開しています。
提案手法は, 最大78.8%の推論遅延を低減し, クラウドのみの戦略に比べて高い精度を実現する。
論文 参考訳(メタデータ) (2022-10-11T06:35:45Z) - Deep learning model compression using network sensitivity and gradients [3.52359746858894]
非リトレーニング条件とリトレーニング条件の両方に対するモデル圧縮アルゴリズムを提案する。
まず,ネットワークパラメータの感度を用いた深層学習モデルの圧縮のためのBin & Quantアルゴリズムを提案する。
第2のケースでは、新しい勾配重み付きk平均クラスタリングアルゴリズム(GWK)を提案する。
論文 参考訳(メタデータ) (2022-10-11T03:02:40Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。