論文の概要: GM-MoE: Low-Light Enhancement with Gated-Mechanism Mixture-of-Experts
- arxiv url: http://arxiv.org/abs/2503.07417v2
- Date: Wed, 26 Mar 2025 05:34:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 14:57:01.312375
- Title: GM-MoE: Low-Light Enhancement with Gated-Mechanism Mixture-of-Experts
- Title(参考訳): GM-MoE:Gated-Mechanism Mixture-of-Expertsを用いた低光強度化
- Authors: Minwen Liao, Hao Bo Dong, Xinyi Wang, Ziyang Yan, Yihua Shao,
- Abstract要約: 低照度化は、自動運転、3D再構成、リモートセンシング、監視など、幅広い用途に応用されている。
低照度画像強調のための混合実験ネットワークを導入した最初のフレームワークであるGated-Mechanism Mixture-of-Experts (GM-MoE)を提案する。
- 参考スコア(独自算出の注目度): 30.481508144617283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light enhancement has wide applications in autonomous driving, 3D reconstruction, remote sensing, surveillance, and so on, which can significantly improve information utilization. However, most existing methods lack generalization and are limited to specific tasks such as image recovery. To address these issues, we propose Gated-Mechanism Mixture-of-Experts (GM-MoE), the first framework to introduce a mixture-of-experts network for low-light image enhancement. GM-MoE comprises a dynamic gated weight conditioning network and three sub-expert networks, each specializing in a distinct enhancement task. Combining a self-designed gated mechanism that dynamically adjusts the weights of the sub-expert networks for different data domains. Additionally, we integrate local and global feature fusion within sub-expert networks to enhance image quality by capturing multi-scale features. Experimental results demonstrate that the GM-MoE achieves superior generalization with respect to 25 compared approaches, reaching state-of-the-art performance on PSNR on 5 benchmarks and SSIM on 4 benchmarks, respectively.
- Abstract(参考訳): 低照度化は、自律運転、3次元再構成、リモートセンシング、監視等に幅広い応用があり、情報利用を著しく改善することができる。
しかし、既存のほとんどの手法は一般化に欠けており、画像回復のような特定のタスクに限定されている。
これらの課題に対処するため、低照度画像強調のためのMix-of-Expertsネットワークを導入した最初のフレームワークであるGated-Mechanism Mixture-of-Experts (GM-MoE)を提案する。
GM-MoEは動的ゲートウェイトコンディショニングネットワークと3つのサブエキスパートネットワークから構成され、それぞれ異なる拡張タスクに特化している。
異なるデータドメインに対するサブエキスパートネットワークの重みを動的に調整する、自己設計のゲート機構を組み合わせる。
さらに,局所的・グローバルな特徴融合をサブエキスパートネットワークに統合し,マルチスケールな特徴を捉えることで画質を向上させる。
実験の結果, GM-MoEは, 5ベンチマークでPSNR, 4ベンチマークでSSIMに到達し, 比較した25のアプローチに対して優れた一般化を実現していることがわかった。
関連論文リスト
- An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - Semantic-Guided Global-Local Collaborative Networks for Lightweight Image Super-Resolution [9.666827340439669]
単画像超解像(SISR)は測定システムの精度と信頼性を高める上で重要な役割を担っている。
軽量SISRのためのSGGLC-Net(Semantic-Guided Global-Local Collaborative Network)を提案する。
論文 参考訳(メタデータ) (2025-03-20T11:43:55Z) - Optimized Unet with Attention Mechanism for Multi-Scale Semantic Segmentation [8.443350618722564]
本稿では,注目機構と組み合わさった改良されたUnetモデルを提案する。
チャネルアテンションと空間アテンションモジュールを導入し、重要な特徴にフォーカスするモデルの能力を強化する。
改良されたモデルは、mIoUとピクセル精度(PA)でよく機能し、それぞれ76.5%と95.3%に達した。
論文 参考訳(メタデータ) (2025-02-06T06:51:23Z) - Multi-Head Explainer: A General Framework to Improve Explainability in CNNs and Transformers [17.94275229960658]
MHEX(Multi-Head Explainer)は、CNNとTransformerベースのモデルの説明可能性と精度を高める汎用的でモジュール化されたフレームワークである。
MHEXは3つのコアコンポーネントで構成されている。タスク関連機能を動的に強調するアテンションゲート、ターゲットクラスに関連するきめ細かい詳細をキャプチャするために初期レイヤをガイドするDeep Supervision、洗練されたローカル表現とグローバル表現を統一して包括的なサリエンシマップを生成する等価マトリックスである。
論文 参考訳(メタデータ) (2025-01-02T15:47:56Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - LoRA-IR: Taming Low-Rank Experts for Efficient All-in-One Image Restoration [62.3751291442432]
高速なオールインワン画像復元を実現するために,コンパクトな低ランクの専門家を動的に活用する,フレキシブルなフレームワークであるLoRA-IRを提案する。
LoRA-IRは、劣化誘導前訓練とパラメータ効率の良い微調整の2つの訓練段階で構成されている。
実験により、LoRA-IRは計算効率を維持しつつ、14のIRタスクと29のベンチマークでSOTA性能を達成することが示された。
論文 参考訳(メタデータ) (2024-10-20T13:00:24Z) - MonoMM: A Multi-scale Mamba-Enhanced Network for Real-time Monocular 3D Object Detection [9.780498146964097]
リアルタイムモノクロ3Dオブジェクト検出のための革新的なネットワークアーキテクチャであるMonoMMを提案する。
MonoMM は Focused Multi-Scale Fusion (FMF) と Depth-Aware Feature Enhancement Mamba (DMB) モジュールで構成されている。
提案手法は,従来の単分子法よりも優れ,リアルタイム検出を実現する。
論文 参考訳(メタデータ) (2024-08-01T10:16:58Z) - Task-Customized Mixture of Adapters for General Image Fusion [51.8742437521891]
一般画像融合は、マルチソース画像から重要な情報を統合することを目的としている。
本稿では, 汎用画像融合用アダプタ(TC-MoA)を新たに提案し, 統一モデルにおける様々な融合タスクを適応的に促進する。
論文 参考訳(メタデータ) (2024-03-19T07:02:08Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Progressive Multi-stage Interactive Training in Mobile Network for
Fine-grained Recognition [8.727216421226814]
再帰型モザイク発電機(RMG-PMSI)を用いたプログレッシブ多段階インタラクティブトレーニング手法を提案する。
まず、異なる位相の異なる画像を生成する再帰モザイク発生器(RMG)を提案する。
次に、異なるステージの特徴は、異なるステージの対応する特徴を強化し補完するマルチステージインタラクション(MSI)モジュールを通過する。
RMG-PMSIは高い堅牢性と伝達性で性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-12-08T10:50:03Z) - Image-specific Convolutional Kernel Modulation for Single Image
Super-resolution [85.09413241502209]
本稿では,新しい画像特異的畳み込み変調カーネル(IKM)を提案する。
我々は、画像や特徴のグローバルな文脈情報を利用して、畳み込みカーネルを適応的に調整するための注意重みを生成する。
単一画像超解像実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-11-16T11:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。