論文の概要: Hazedefy: A Lightweight Real-Time Image and Video Dehazing Pipeline for Practical Deployment
- arxiv url: http://arxiv.org/abs/2512.16609v1
- Date: Thu, 18 Dec 2025 14:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.10516
- Title: Hazedefy: A Lightweight Real-Time Image and Video Dehazing Pipeline for Practical Deployment
- Title(参考訳): Hazedefy: 実践的なデプロイのための軽量リアルタイムイメージとビデオデハージングパイプライン
- Authors: Ayush Bhavsar,
- Abstract要約: Hazedefyはリアルタイムビデオとライブカメラフィードの強化のためのデハージングパイプラインだ。
計算の単純さと実用的デプロイ性をコンシューマグレードのハードウェアに優先する。
パイプラインはモバイルおよび組み込みアプリケーションに適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Hazedefy, a lightweight and application-focused dehazing pipeline intended for real-time video and live camera feed enhancement. Hazedefy prioritizes computational simplicity and practical deployability on consumer-grade hardware, building upon the Dark Channel Prior (DCP) concept and the atmospheric scattering model. Key elements include gamma-adaptive reconstruction, a fast transmission approximation with lower bounds for numerical stability, a stabilized atmospheric light estimator based on fractional top-pixel averaging, and an optional color balance stage. The pipeline is suitable for mobile and embedded applications, as experimental demonstrations on real-world images and videos show improved visibility and contrast without requiring GPU acceleration.
- Abstract(参考訳): 本稿では、リアルタイムビデオとライブカメラフィードの強化を目的とした軽量でアプリケーションにフォーカスしたデハージングパイプラインであるHazedefyを紹介する。
Hazedefyは、Dark Channel Prior(DCP)の概念と大気散乱モデルに基づいて、コンシューマグレードのハードウェア上での計算の単純さと実用的デプロイ性を優先している。
鍵となる要素は、ガンマ適応再構成、数値安定性の低い高速伝送近似、分数的トップピクセル平均化に基づく安定化された大気光推定器、オプションカラーバランスステージである。
実際の画像やビデオの実験では、GPUアクセラレーションを必要とせずに、可視性とコントラストが改善された。
関連論文リスト
- Large-scale Photorealistic Outdoor 3D Scene Reconstruction from UAV Imagery Using Gaussian Splatting Techniques [0.734084539365505]
本稿では,ドローンでキャプチャした映像ストリームを低レイテンシで高忠実度な3D再構成に変換できるエンドツーエンドパイプラインを提案する。
我々の目標は,RTMPストリーミング,同期センサ融合,カメラポーズ推定,3DGS最適化によるライブビデオ取得を併用した効率的なアーキテクチャを提案することである。
論文 参考訳(メタデータ) (2026-02-23T20:40:26Z) - Live Avatar: Streaming Real-time Audio-Driven Avatar Generation with Infinite Length [57.458450695137664]
提案するLive Avatarは,効率的,高忠実,無限長アバター生成のためのアルゴリズム設計のフレームワークである。
ライブアバターは、このスケールで実用的でリアルタイムで高忠実なアバター生成を実現するのが最初である。
論文 参考訳(メタデータ) (2025-12-04T11:11:24Z) - EvDiff: High Quality Video with an Event Camera [77.07279880903009]
イベントからの強度画像の再構成は、絶対的な明るさのあいまいさが原因で、非常に不適切な作業である。
EvDiffはイベントベースの拡散モデルであり、高品質なビデオを作成するための代理トレーニングフレームワークに従う。
論文 参考訳(メタデータ) (2025-11-21T18:49:18Z) - Fine-Tuning Open Video Generators for Cinematic Scene Synthesis: A Small-Data Pipeline with LoRA and Wan2.1 I2V [0.0]
小型のデータセットから映像や映像の撮影シーンを合成するために,オープンソースビデオ拡散トランスフォーマを微調整する実用的なパイプラインを提案する。
LoRAモジュールはWan2.1 I2V-14Bモデルのクロスアテンション層に統合され、視覚的表現に適応する。
第2段階では、微調整されたモデルでは、衣装、照明、色階調を保存するコヒーレントなコヒーレントが生成され、時間的に720pのシーケンスに拡張される。
論文 参考訳(メタデータ) (2025-10-31T10:51:35Z) - Yesnt: Are Diffusion Relighting Models Ready for Capture Stage Compositing? A Hybrid Alternative to Bridge the Gap [3.371167094244402]
キャプチャされたパフォーマンスを仮想世界に持ち込むには、ボリュームビデオのリライティングが不可欠だ。
現在のアプローチでは、時間的に安定し、生産可能な結果を提供するのに苦労しています。
本稿では,素材先行と時間的正規化と物理的動機付けレンダリングを組み合わせたハイブリッドリライトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-27T16:28:55Z) - From Cheap to Pro: A Learning-based Adaptive Camera Parameter Network for Professional-Style Imaging [0.07829352305480283]
ACamera-Netは軽量かつシーン適応型のカメラパラメータ調整ネットワークである。
RAW入力から最適露出とホワイトバランスを予測する。
画像品質を継続的に向上し、知覚出力を安定させる。
論文 参考訳(メタデータ) (2025-10-23T13:35:17Z) - LuxDiT: Lighting Estimation with Video Diffusion Transformer [66.60450792095901]
単一の画像やビデオからシーンライティングを推定することは、コンピュータビジョンとグラフィックスにおいて長年の課題である。
本稿では,映像拡散変換器を微調整し,視覚入力を前提としたHDR環境マップを生成するLuxDiTを提案する。
論文 参考訳(メタデータ) (2025-09-03T19:59:20Z) - E-4DGS: High-Fidelity Dynamic Reconstruction from the Multi-view Event Cameras [44.78881339601845]
イベントカメラは低消費電力、高時間分解能、高ダイナミックレンジの利点を提供する。
高速移動におけるシーン再構築の課題に対する新しい視点
論文 参考訳(メタデータ) (2025-08-13T16:09:36Z) - DiffusionRenderer: Neural Inverse and Forward Rendering with Video Diffusion Models [83.28670336340608]
逆レンダリングとフォワードレンダリングの二重問題に対処するニューラルアプローチであるDiffusionRendererを導入する。
本モデルは,リライティング,素材編集,現実的なオブジェクト挿入など,単一のビデオ入力から現実的な応用を可能にする。
論文 参考訳(メタデータ) (2025-01-30T18:59:11Z) - CompactFlowNet: Efficient Real-time Optical Flow Estimation on Mobile Devices [19.80162591240214]
我々は,光フロー予測のための最初のリアルタイム移動ニューラルネットワークであるCompactFlowNetを提案する。
光フローは、ビデオ復元、モーション推定、ビデオ安定化、オブジェクト追跡、アクション認識、ビデオ生成など、様々なビデオ関連タスクの基本的なビルディングブロックとして機能する。
論文 参考訳(メタデータ) (2024-12-17T19:06:12Z) - Event-based Continuous Color Video Decompression from Single Frames [36.4263932473053]
本研究では,静止RGB画像とイベントカメラストリームから連続映像を生成する新しい手法であるContinuityCamを提案する。
提案手法は、連続した長距離動きモデリングとニューラル合成モデルを組み合わせることで、イベント内の任意のタイミングでフレーム予測を可能にする。
論文 参考訳(メタデータ) (2023-11-30T18:59:23Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - SCFlow: Optical Flow Estimation for Spiking Camera [50.770803466875364]
スパイキングカメラは、特に高速シーンのモーション推定において、現実の応用において大きな可能性を秘めている。
光フロー推定は画像ベースおよびイベントベースの視覚において顕著な成功を収めているが、既存の手法はスパイクカメラからのスパイクストリームに直接適用することはできない。
本稿では、スパイキングカメラのための光フロー推定のための新しいディープラーニングパイプラインSCFlowについて述べる。
論文 参考訳(メタデータ) (2021-10-08T06:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。