論文の概要: SAVeD: Learning to Denoise Low-SNR Video for Improved Downstream Performance
- arxiv url: http://arxiv.org/abs/2504.00161v1
- Date: Mon, 31 Mar 2025 19:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:08.636966
- Title: SAVeD: Learning to Denoise Low-SNR Video for Improved Downstream Performance
- Title(参考訳): SAVeD: ダウンストリームパフォーマンスを改善するために低SNRビデオのノイズ化を学ぶ
- Authors: Suzanne Stathatos, Michael Hobley, Markus Marks, Pietro Perona,
- Abstract要約: ファンデーションモデルは自然画像の視覚タスクに優れるが、低信号対雑音比(SNR)ビデオでは失敗する。
本稿では,低SNRセンサビデオの自己監督手法であるビデオ・フォー・ダウンストリーム・タスク(SAVeD)の時空間拡張とデノベーションについて紹介する。
提案手法は,より少ないリソース要件で,分類,検出,追跡,カウントを改良し,最先端のビデオ復号化手法より優れる。
- 参考スコア(独自算出の注目度): 13.1526568726236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models excel at vision tasks in natural images but fail in low signal-to-noise ratio (SNR) videos, such as underwater sonar, ultrasound, and microscopy. We introduce Spatiotemporal Augmentations and denoising in Video for Downstream Tasks (SAVeD), a self-supervised method that denoises low-SNR sensor videos and is trained using only the raw noisy data. By leveraging differences in foreground and background motion, SAVeD enhances object visibility using an encoder-decoder with a temporal bottleneck. Our approach improves classification, detection, tracking, and counting, outperforming state-of-the-art video denoising methods with lower resource requirements. Project page: https://suzanne-stathatos.github.io/SAVeD Code page: https://github.com/suzanne-stathatos/SAVeD
- Abstract(参考訳): 基礎モデルは自然画像の視覚タスクに優れるが、水中ソナー、超音波、顕微鏡などの低信号対雑音比(SNR)ビデオでは失敗する。
SAVeDは低SNRセンサ映像をデノベートし、生ノイズデータのみを用いて訓練する自己教師型手法である。
前景と背景運動の違いを活用することで、SAVeDは時間的ボトルネックを持つエンコーダデコーダを用いてオブジェクトの可視性を向上させる。
提案手法は,より少ないリソース要件で,分類,検出,追跡,カウントを改良し,最先端のビデオ復号化手法より優れる。
プロジェクトページ: https://suzanne-stathatos.github.io/SAVeD Code page: https://github.com/suzanne-stathatos/SAVeD
関連論文リスト
- U-CAN: Unsupervised Point Cloud Denoising with Consistency-Aware Noise2Noise Matching [87.76453413654922]
我々は、一貫性を意識したノイズ2ノイズマッチングを用いて、ポイントクラウドをデノナイズするための教師なしフレームワークであるU-CANを紹介する。
具体的には、ニューラルネットワークを利用して、ノイズとノイズのマッチング方式で、形状やシーンの各点について、多段階のノイズ伝達経路を推測する。
整合性を考慮したデノナイズパターンの学習のための,デノナイズド幾何整合性に関する新しい制約を導入する。
論文 参考訳(メタデータ) (2025-10-29T06:20:21Z) - Towards Controllable Real Image Denoising with Camera Parameters [15.41728621274958]
画像からノイズを適応的に除去する新しい制御可能なデノナイジングフレームワークを提案する。
具体的には、ノイズレベルと密接に関連するISO、シャッタースピード、Fナンバーに焦点を当てる。
選択したパラメータをベクトルに変換してデノナイジングネットワークの性能を制御・強化する。
論文 参考訳(メタデータ) (2025-07-02T10:57:33Z) - Combining Pre- and Post-Demosaicking Noise Removal for RAW Video [2.772895608190934]
Denoisingは、カメラセンサーが捉えたデータをディスプレイ対応の画像やビデオに変換する処理パイプラインの基本ステップの1つである。
本研究では,ベイアパターンのCFAビデオデータに対して,事前および復号化後のデノイザを重み付けする自己相似型デノイザ方式を提案する。
両者のバランスが画像品質の向上につながることを示し、高ノイズレベルがより高影響のプレデモーザックの恩恵を受けることを実証的に見出した。
論文 参考訳(メタデータ) (2024-10-03T15:20:19Z) - Temporal As a Plugin: Unsupervised Video Denoising with Pre-Trained Image Denoisers [30.965705043127144]
本稿では,TAP (Temporal As aTAP) という,教師なしのビデオデノベーションフレームワークを提案する。
時間的加群を組み込むことで、ノイズの多いフレームをまたがる時間的情報を活用することができ、空間的 denoising のパワーを補完することができる。
他の教師なしビデオ復号化手法と比較して,本フレームワークは,SRGBと生ビデオ復号化データセットの両方において優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-17T15:05:33Z) - Unsupervised Denoising for Signal-Dependent and Row-Correlated Imaging Noise [54.0185721303932]
本稿では,行関連や信号依存の撮像ノイズを処理できる,教師なしのディープラーニングベースデノイザについて紹介する。
提案手法では,特殊設計の自己回帰デコーダを備えた変分オートエンコーダを用いる。
本手法では,事前学習した雑音モデルを必要としないため,雑音のないデータを用いてスクラッチから訓練することができる。
論文 参考訳(メタデータ) (2023-10-11T20:48:20Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - RViDeformer: Efficient Raw Video Denoising Transformer with a Larger Benchmark Dataset [15.340530514779804]
教師付き生ビデオのデノベーションのためのリアルな動きを持つ大規模なデータセットは存在しない。
ノイズクリーンな120グループからなるビデオデノケーションデータセット(ReCRVDと名づけられた)を構築した。
短距離・長距離の相関関係を探索するRViDeformer(RViDeformer)を提案する。
論文 参考訳(メタデータ) (2023-05-01T11:06:58Z) - Zero-Shot Noise2Noise: Efficient Image Denoising without any Data [26.808569077500128]
トレーニングデータやノイズ分布の知識のない単純な2層ネットワークは,低計算コストで高品質な画像のデノーミングを実現することができることを示す。
我々のアプローチはNoss2NoiseとNeighbor2Neighborによって動機付けられ、画素単位の独立ノイズを分解するのにうまく機能する。
論文 参考訳(メタデータ) (2023-03-20T16:40:37Z) - Enhancing convolutional neural network generalizability via low-rank weight approximation [6.763245393373041]
十分なノイズ処理は、画像処理にとって重要な第一歩であることが多い。
ディープニューラルネットワーク(DNN)は画像のノイズ化に広く利用されている。
本研究では,タッカー低ランクテンソル近似に基づく自己教師付き画像復調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:11:05Z) - Learning Task-Oriented Flows to Mutually Guide Feature Alignment in
Synthesized and Real Video Denoising [137.5080784570804]
Video Denoisingは、クリーンなノイズを回復するためにビデオからノイズを取り除くことを目的としている。
既存の研究によっては、近辺のフレームから追加の空間的時間的手がかりを利用することで、光学的流れがノイズ発生の助けとなることが示されている。
本稿では,様々なノイズレベルに対してより堅牢なマルチスケール光フロー誘導型ビデオデノイング法を提案する。
論文 参考訳(メタデータ) (2022-08-25T00:09:18Z) - Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution [96.89588203312451]
本稿では,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
DP3DFは、ローカル情報を組み込んで、単一エンコーダ/デコーダネットワークにおいて、同時復調、照明強化、SRを効率的に実現している。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
論文 参考訳(メタデータ) (2022-07-05T03:57:25Z) - Noise2NoiseFlow: Realistic Camera Noise Modeling without Clean Images [35.29066692454865]
本稿では,ノイズモデルとデノイザを同時にトレーニングするためのフレームワークを提案する。
ノイズ/クリーンなペア画像データではなく、ノイズの多いイメージのペアに依存します。
トレーニングされたデノイザーは、教師付きおよび弱教師付きベースラインデノイジングアプローチの両方において、大幅に改善される。
論文 参考訳(メタデータ) (2022-06-02T15:31:40Z) - Zero-shot Blind Image Denoising via Implicit Neural Representations [77.79032012459243]
暗黙的ニューラル表現(INR)のアーキテクチャ的帰納的バイアスを利用した代替的認知戦略を提案する。
提案手法は,低雑音シナリオや実雑音シナリオの広い範囲において,既存のゼロショット復調手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-05T12:46:36Z) - IDR: Self-Supervised Image Denoising via Iterative Data Refinement [66.5510583957863]
本稿では,最先端のデノナイジング性能を実現するために,教師なしの実用的なデノナイジング手法を提案する。
本手法では, 1つのノイズ画像と1つのノイズモデルしか必要とせず, 実際の生画像に容易にアクセス可能である。
実世界のアプリケーションにおける生画像復調性能を評価するため,500シーンのシーンを含む高品質な生画像データセットSenseNoise-500を構築した。
論文 参考訳(メタデータ) (2021-11-29T07:22:53Z) - Physics-based Noise Modeling for Extreme Low-light Photography [63.65570751728917]
CMOS光センサの撮像パイプラインにおけるノイズ統計について検討する。
実雑音構造を正確に特徴付けることのできる包括的ノイズモデルを定式化する。
我々のノイズモデルは、学習に基づく低照度復調アルゴリズムのためのリアルなトレーニングデータを合成するのに利用できる。
論文 参考訳(メタデータ) (2021-08-04T16:36:29Z) - Image Denoising using Attention-Residual Convolutional Neural Networks [0.0]
本稿では,学習に基づく新たな非盲検手法であるAttention Residual Convolutional Neural Network (ARCNN)を提案し,その拡張としてFlexible Attention Residual Convolutional Neural Network (FARCNN)を提案する。
ARCNNはガウス語とポアソン語で約0.44dBと0.96dBの平均PSNR結果を達成し、FARCNNはARCNNに比べて若干パフォーマンスが悪くても非常に一貫した結果を示した。
論文 参考訳(メタデータ) (2021-01-19T16:37:57Z) - Unpaired Learning of Deep Image Denoising [80.34135728841382]
本稿では,自己指導型学習と知識蒸留を取り入れた2段階の手法を提案する。
自己教師型学習では,実雑音の画像のみから視覚を学習するための拡張型盲点ネットワーク(D-BSN)を提案する。
実験の結果,本手法は合成ノイズ画像と実世界のノイズ画像の両方で良好に機能することがわかった。
論文 参考訳(メタデータ) (2020-08-31T16:22:40Z) - CycleISP: Real Image Restoration via Improved Data Synthesis [166.17296369600774]
本稿では,前向きと逆方向のカメラ画像パイプラインをモデル化するフレームワークを提案する。
リアルな合成データに基づいて新しい画像認識ネットワークをトレーニングすることにより、実際のカメラベンチマークデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-17T15:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。