論文の概要: FedVSR: Towards Model-Agnostic Federated Learning in Video Super-Resolution
- arxiv url: http://arxiv.org/abs/2503.13745v1
- Date: Mon, 17 Mar 2025 22:05:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:12.069994
- Title: FedVSR: Towards Model-Agnostic Federated Learning in Video Super-Resolution
- Title(参考訳): FedVSR:ビデオ超解法におけるモデルに依存しないフェデレーション学習を目指して
- Authors: Ali Mollaahmadi Dehaghi, Hossein KhademSohi, Reza Razavi, Steve Drew, Mohammad Moshirpour,
- Abstract要約: ビデオ超解像(VSR)は、解像度の低い入力から高解像度の映像を再構成し、細部を復元し、視覚的明瞭度を向上させる。
ディープラーニングベースのVSR手法は印象的な結果を得るが、その集中的な性質は深刻なプライバシー上の懸念を引き起こす。
本稿では,VSRのための新しい,アーキテクチャに依存しない,ステートレスなFLフレームワークであるFedVSR1を提案する。
- 参考スコア(独自算出の注目度): 1.3980986259786223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video Super-Resolution (VSR) reconstructs high-resolution videos from low-resolution inputs to restore fine details and improve visual clarity. While deep learning-based VSR methods achieve impressive results, their centralized nature raises serious privacy concerns, particularly in applications with strict privacy requirements. Federated Learning (FL) offers an alternative approach, but existing FL methods struggle with low-level vision tasks, leading to suboptimal reconstructions. To address this, we propose FedVSR1, a novel, architecture-independent, and stateless FL framework for VSR. Our approach introduces a lightweight loss term that improves local optimization and guides global aggregation with minimal computational overhead. To the best of our knowledge, this is the first attempt at federated VSR. Extensive experiments show that FedVSR outperforms general FL methods by an average of 0.85 dB in PSNR, highlighting its effectiveness. The code is available at: https://github.com/alimd94/FedVSR
- Abstract(参考訳): ビデオ超解像(VSR)は、解像度の低い入力から高解像度の映像を再構成し、細部を復元し、視覚的明瞭度を向上させる。
ディープラーニングベースのVSR手法は印象的な結果をもたらすが、その集中的な性質は、特に厳格なプライバシ要件を持つアプリケーションにおいて、深刻なプライバシの懸念を提起する。
フェデレーテッド・ラーニング(FL)は代替手法を提供するが、既存のFL手法は低レベルの視覚課題に苦しむため、準最適再建に繋がる。
そこで我々は,VSRのための新しい,アーキテクチャに依存しない,ステートレスなFLフレームワークであるFedVSR1を提案する。
提案手法では,局所最適化を改善する軽量な損失項を導入し,計算オーバーヘッドを最小限に抑えたグローバルアグリゲーションを導出する。
我々の知る限りでは、これは連合VSRの最初の試みである。
大規模な実験により、FedVSRはPSNRにおいて平均0.85dBの一般FL法よりも優れており、その効果を強調している。
コードは、https://github.com/alimd94/FedVSRで入手できる。
関連論文リスト
- QuantVSR: Low-Bit Post-Training Quantization for Real-World Video Super-Resolution [53.13952833016505]
実世界のビデオ超解像(VSR)のための低ビット量子化モデルを提案する。
キャリブレーションデータセットを用いて各レイヤの空間的および時間的複雑さを計測する。
我々はFPおよび低ビット分岐を改良し、同時最適化を実現する。
論文 参考訳(メタデータ) (2025-08-06T14:35:59Z) - FCA2: Frame Compression-Aware Autoencoder for Modular and Fast Compressed Video Super-Resolution [68.77813885751308]
最先端(SOTA)圧縮ビデオ超解像(CVSR)モデルは、長期の推論時間、複雑なトレーニングパイプライン、補助情報への依存など、永続的な課題に直面している。
ハイパースペクトル画像(HSI)とビデオデータの構造的および統計的類似性から着想を得た,効率的でスケーラブルなソリューションを提案する。
提案手法では,計算複雑性を低減し,推論を高速化し,フレーム間の時間情報の抽出を促進する圧縮駆動型次元減少戦略を導入する。
論文 参考訳(メタデータ) (2025-06-13T07:59:52Z) - Small Clips, Big Gains: Learning Long-Range Refocused Temporal Information for Video Super-Resolution [20.07870850150666]
ビデオ超解像(VSR)は、時間情報を活用することにより、単一画像超解像よりも優れた性能が得られる。
本稿では,Long-Range Re Focus Temporal Information を有効活用する VSR 再帰学習フレームワーク LRTI-VSR を提案する。
我々のフレームワークは、短いビデオクリップのトレーニング中に長いビデオクリップからの時間的伝搬機能を利用する一般的なトレーニング戦略を含んでいる。
論文 参考訳(メタデータ) (2025-05-04T15:46:34Z) - Event-Enhanced Blurry Video Super-Resolution [52.894824081586776]
我々は,低解像度(LR)とぼやけた入力から高解像度(HR)ビデオを生成することを目的とした,ぼやけたビデオ超解像(BVSR)の課題に取り組む。
現在のBVSR法は、しばしば高解像度でシャープな詳細を復元するのに失敗し、顕著なアーティファクトとジッターを生み出した。
本稿では,BVSR にイベント信号を導入し,新しいイベント強化ネットワーク Ev-DeVSR を提案する。
論文 参考訳(メタデータ) (2025-04-17T15:55:41Z) - Blind Video Super-Resolution based on Implicit Kernels [24.203293871573802]
Blind Super- resolution (BVSR) は、未知のシナリオにおいて低解像度の映像から高解像度の映像を生成することを目的とした低レベルのビジョンタスクである。
本稿では,暗黙的ニューラル表現によってパラメータ化されるマルチスケールカーネルを構成するImplicit Kernels(BVSR-IK)に基づく新しいモデルを提案する。
論文 参考訳(メタデータ) (2025-03-10T21:01:32Z) - One-shot Federated Learning via Synthetic Distiller-Distillate Communication [63.89557765137003]
One-shot Federated Learning (FL)は、単一のコミュニケーションで機械学習モデルの協調トレーニングを促進する強力な技術である。
我々はこれらの課題に対処するために,新しい,実用的なワンショットFLフレームワークであるFedSD2Cを提案する。
論文 参考訳(メタデータ) (2024-12-06T17:05:34Z) - FastLLVE: Real-Time Low-Light Video Enhancement with Intensity-Aware
Lookup Table [21.77469059123589]
我々は,フレーム間輝度の一貫性を効果的に維持するために,FastLLVEという名前の効率的なパイプラインを提案する。
FastLLVEは1080pのビデオを$mathit50+$ Frames Per Second (FPS)で処理できる。
論文 参考訳(メタデータ) (2023-08-13T11:54:14Z) - Benchmark Dataset and Effective Inter-Frame Alignment for Real-World
Video Super-Resolution [65.20905703823965]
ビデオ超解像(VSR)は、高解像度(HR)動画を低解像度(LR)ビデオから再構成することを目的としており、近年大きく進歩している。
既存のVSRメソッドを複雑な劣化を伴う実世界のデータにデプロイすることは依然として困難である。
EAVSRは、提案した多層適応空間変換ネットワーク(MultiAdaSTN)を用いて、事前学習した光フロー推定ネットワークが提供するオフセットを洗練する。
論文 参考訳(メタデータ) (2022-12-10T17:41:46Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - Boosting Video Super Resolution with Patch-Based Temporal Redundancy
Optimization [46.833568886576074]
静止物体と背景を持つパッチにおける時間的冗長性の影響について論じる。
我々は,既存の局所的および非局所的伝搬型VSRアルゴリズムの性能向上のための,シンプルで効果的な2つのプラグアンドプレイ法を開発した。
論文 参考訳(メタデータ) (2022-07-18T15:11:18Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - Self-Supervised Deep Blind Video Super-Resolution [46.410705294831374]
本稿では,視覚ビデオSR問題を解決するための自己教師付き学習手法を提案する。
我々は、ビデオSRの画像形成に応じて、元のLRビデオから補助的なペアデータを生成する。
実験により,本手法は,ベンチマークや実世界のビデオにおいて,最先端の手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2022-01-19T05:18:44Z) - Investigating Tradeoffs in Real-World Video Super-Resolution [90.81396836308085]
実世界のビデオ超解像(VSR)モデルは、一般化性を改善するために様々な劣化で訓練されることが多い。
最初のトレードオフを軽減するために,性能を犠牲にすることなく,最大40%のトレーニング時間を削減できる劣化手法を提案する。
そこで本研究では,多種多様な実世界の低品質映像系列を含むビデオLQデータセットを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:58:21Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Ada-VSR: Adaptive Video Super-Resolution with Meta-Learning [56.676110454594344]
VideoSuperResolution(Ada-SR)は、メタトランスファー学習と内部学習を通じて、それぞれ外部および内部情報を使用する。
提案手法を用いてトレーニングしたモデルでは,若干の勾配更新しか行わず,特定の映像条件に迅速に適応できるため,推論時間を大幅に短縮できる。
論文 参考訳(メタデータ) (2021-08-05T19:59:26Z) - BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment [90.81396836308085]
我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
論文 参考訳(メタデータ) (2021-04-27T17:58:31Z) - BasicVSR: The Search for Essential Components in Video Super-Resolution
and Beyond [75.62146968824682]
ビデオ超解像(VSR)アプローチは、画像よりも多くのコンポーネントを持つ傾向がある。
高速化と回復性の向上を図った簡潔なパイプライン「BasicVSR」について述べる。
論文 参考訳(メタデータ) (2020-12-03T18:56:14Z) - DynaVSR: Dynamic Adaptive Blind Video Super-Resolution [60.154204107453914]
DynaVSRは、現実世界のビデオSRのための新しいメタラーニングベースのフレームワークである。
様々な種類の合成ボケカーネルを備えたマルチフレームダウンスケーリングモジュールをトレーニングし、入力認識適応のためのビデオSRネットワークとシームレスに結合する。
実験結果から,DynaVSRは最先端のビデオSRモデルの性能を一定に向上することがわかった。
論文 参考訳(メタデータ) (2020-11-09T15:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。