論文の概要: Multi-Task Learning with Additive U-Net for Image Denoising and Classification
- arxiv url: http://arxiv.org/abs/2602.12649v1
- Date: Fri, 13 Feb 2026 06:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.865445
- Title: Multi-Task Learning with Additive U-Net for Image Denoising and Classification
- Title(参考訳): 画像認識と分類のための付加的U-Netを用いたマルチタスク学習
- Authors: Vikram Lakkavalli, Neelam Sinha,
- Abstract要約: 画像復調・復調中心型マルチタスク学習(MTL)のためのU-Netアーキテクチャにおける加算スキップ融合の検討
結合型スキップをゲート付加核融合に置き換えることにより、提案されたAdditive U-Netは、深さにわたって固定された特徴次元を維持しながら、ショートカット容量を制約する。
スキップ接続に対する単純な制約は、安定かつスケーラブルなマルチタスク学習のための効果的なアーキテクチャ正規化要因として機能することを示す。
- 参考スコア(独自算出の注目度): 4.483276453936335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We investigate additive skip fusion in U-Net architectures for image denoising and denoising-centric multi-task learning (MTL). By replacing concatenative skips with gated additive fusion, the proposed Additive U-Net (AddUNet) constrains shortcut capacity while preserving fixed feature dimensionality across depth. This structural regularization induces controlled encoder-decoder information flow and stabilizes joint optimization. Across single-task denoising and joint denoising-classification settings, AddUNet achieves competitive reconstruction performance with improved training stability. In MTL, learned skip weights exhibit systematic task-aware redistribution: shallow skips favor reconstruction, while deeper features support discrimination. Notably, reconstruction remains robust even under limited classification capacity, indicating implicit task decoupling through additive fusion. These findings show that simple constraints on skip connections act as an effective architectural regularizer for stable and scalable multi-task learning without increasing model complexity.
- Abstract(参考訳): 画像復調とマルチタスク学習(MTL)のためのU-Netアーキテクチャにおける付加的スキップ融合について検討する。
接続型スキップをゲート型加算核融合に置き換えることにより、提案されたAddUNet(AddUNet)は、深さにわたって固定された特徴次元を維持しながら、ショートカット容量を制限する。
この構造規則化は制御エンコーダとデコーダの情報の流れを誘導し、共同最適化を安定化させる。
シングルタスクのDenoisingとジョイントなDenoising-classification設定を通じて、AddUNetは、トレーニング安定性を改善して、競争力のある再構築パフォーマンスを実現する。
MTLでは、学習されたスキップウェイトは系統的なタスク認識の再分配を示し、浅いスキップは再構築に好意的であり、より深い特徴は識別をサポートする。
特に,限定的な分類能力下でも再建は頑健であり,加法融合による暗黙的なタスクの疎結合が示唆された。
これらの結果から, スキップ接続に対する単純な制約は, モデル複雑性を増大させることなく, 安定かつスケーラブルなマルチタスク学習に有効なアーキテクチャレギュレータとして機能することが示唆された。
関連論文リスト
- Rethinking Skip Connections: Additive U-Net for Robust and Interpretable Denoising [0.0]
本稿では,連結型スキップをゲート型付加接続に置き換えるAdditive U-Netを提案する。
付加的なU-Netは、カーネルのスケジュールや深さにまたがる堅牢さで、ノイズレベルが15, 25, 50の競合PSNR/SSIMを達成することを示す。
論文 参考訳(メタデータ) (2026-01-19T16:36:14Z) - Unleashing Degradation-Carrying Features in Symmetric U-Net: Simpler and Stronger Baselines for All-in-One Image Restoration [52.82397287366076]
オールインワン画像復元は、統合された枠組み内で様々な劣化(ノイズ、ぼかし、悪天候など)を扱うことを目的としている。
本研究では, 優れた特徴抽出法により, 劣化伝達情報を本質的にエンコードする, 重要な知見を明らかにする。
我々の対称設計は固有の劣化信号を頑健に保存し、スキップ接続に単純な加法融合を施す。
論文 参考訳(メタデータ) (2025-12-11T12:20:31Z) - Continual Learning for Adaptive AI Systems [0.0]
クラスタ・アウェア・リプレイ(Cluster-Aware Replay, CAR)は、クラスバランスの小さなリプレイバッファと正規化用語を統合するハイブリッド連続学習フレームワークである。
CARは、微調整単独よりも初期のタスクパフォーマンスを保ちます。
論文 参考訳(メタデータ) (2025-10-09T00:44:32Z) - Train with Perturbation, Infer after Merging: A Two-Stage Framework for Continual Learning [57.514786046966265]
textbfPerturb-and-Merge(P&M)は,モデルマージをCLパラダイムに統合し,忘れを緩和する新しい連続学習フレームワークである。
提案手法は,複数の連続学習ベンチマークデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-28T14:14:19Z) - Dynamic Integration of Task-Specific Adapters for Class Incremental Learning [32.124078616314144]
非典型的なクラス インクリメンタルラーニング (NECIL) では、モデルがスクラッチからリトレーニングしたり、古いタスク インクリメンタルを格納したりすることなく、新しいクラスを継続的に取得できる。
本稿では,タスク特化アダプタ統合(TSAI)とパッチレベルモデルアライメントという,タスク特化アダプタの動的統合(DIA)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T13:01:33Z) - Continual Panoptic Perception: Towards Multi-modal Incremental Interpretation of Remote Sensing Images [16.0258685984844]
継続的学習(CL)は、一方的なトレーニングの方法を破壊し、モデルが新しいデータ、セマンティクス、タスクに継続的に適応できるようにする。
本稿では,画素レベルの分類,インスタンスレベルのセグメンテーション,イメージレベルの知覚を対象とするマルチタスク共同学習を利用した統合型連続学習モデルを提案する。
論文 参考訳(メタデータ) (2024-07-19T12:22:32Z) - Multi-task Over-the-Air Federated Learning: A Non-Orthogonal
Transmission Approach [52.85647632037537]
複数の学習タスクがエッジサーバ(ES)の協調の下でデータ収集および学習モデルのためのエッジデバイスを共有するマルチタスク・オーバーテア・フェデレーション・ラーニング(MOAFL)フレームワークを提案する。
収束解析と数値計算の両方の結果から,MOAFLフレームワークは学習性能を著しく低下させることなく,複数のタスクのアップリンク帯域幅の消費を大幅に削減できることが示された。
論文 参考訳(メタデータ) (2021-06-27T13:09:32Z) - Visual Alignment Constraint for Continuous Sign Language Recognition [74.26707067455837]
ビジョンベースの継続的署名言語認識は、画像シーケンスから未分割ジェスチャーを認識することを目的とする。
本研究は,最近のCTCに基づくCSLRにおける過剰適合問題を再考し,特徴抽出器の訓練不足によるものである。
視覚アライメント制約(vac)により、よりアライメントの監督により特徴抽出器を強化する。
論文 参考訳(メタデータ) (2021-04-06T07:24:58Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。