論文の概要: FGA-NN: Film Grain Analysis Neural Network
- arxiv url: http://arxiv.org/abs/2506.14350v1
- Date: Tue, 17 Jun 2025 09:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.411016
- Title: FGA-NN: Film Grain Analysis Neural Network
- Title(参考訳): FGA-NN:フィルムグライン解析ニューラルネットワーク
- Authors: Zoubida Ameur, Frédéric Lefebvre, Philippe De Lagrange, Miloš Radosavljević,
- Abstract要約: かつてはアナログフィルムの副産物であったフィルムグレーンは、現在ではほとんどの撮影コンテンツに美的理由から存在している。
本稿では,FGA-NNについて紹介する。FGA-NNは,従来の合成法と互換性のあるフィルム粒子パラメータを推定するための,学習に基づく最初のフィルム粒子分析法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Film grain, once a by-product of analog film, is now present in most cinematographic content for aesthetic reasons. However, when such content is compressed at medium to low bitrates, film grain is lost due to its random nature. To preserve artistic intent while compressing efficiently, film grain is analyzed and modeled before encoding and synthesized after decoding. This paper introduces FGA-NN, the first learning-based film grain analysis method to estimate conventional film grain parameters compatible with conventional synthesis. Quantitative and qualitative results demonstrate FGA-NN's superior balance between analysis accuracy and synthesis complexity, along with its robustness and applicability.
- Abstract(参考訳): かつてはアナログフィルムの副産物であったフィルムグレーンは、現在ではほとんどの撮影コンテンツに美的理由から存在している。
しかし、そのような内容物が中から低ビットレートで圧縮されると、そのランダムな性質により膜粒が失われる。
効率よく圧縮しながら芸術的意図を保ちつつ、復号後の符号化・合成前にフィルム粒を解析、モデル化する。
本稿では,FGA-NNについて紹介する。FGA-NNは,従来の合成法と互換性のあるフィルム粒子パラメータを推定するための,学習に基づく最初のフィルム粒子分析法である。
定量および定性的な結果は、FGA-NNが解析精度と合成複雑性のバランスが優れており、その堅牢性と適用性を示している。
関連論文リスト
- Novel Concept-Oriented Synthetic Data approach for Training Generative AI-Driven Crystal Grain Analysis Using Diffusion Model [0.0]
本研究は, エッジ検出と生成拡散モデルを統合し, 粒子の同定, ノイズの除去, および予測された粒界に沿った破断セグメントの接続を行う。
提案したモデルは, ナノスケールまで平均粒径の様々な金属に応用され, 低分解能TEM画像から平均精度97.23%の結晶形態が得られた。
論文 参考訳(メタデータ) (2025-04-21T00:46:28Z) - Diffusion Priors for Dynamic View Synthesis from Monocular Videos [59.42406064983643]
ダイナミックノベルビュー合成は、ビデオ内の視覚的コンテンツの時間的進化を捉えることを目的としている。
まず、ビデオフレーム上に予め訓練されたRGB-D拡散モデルをカスタマイズ手法を用いて微調整する。
動的および静的なニューラルレイディアンス場を含む4次元表現に、微調整されたモデルから知識を蒸留する。
論文 参考訳(メタデータ) (2024-01-10T23:26:41Z) - Autonomous sputter synthesis of thin film nitrides with composition
controlled by Bayesian optimization of optical plasma emission [0.0]
制御された組成を有する薄膜のスパッタ堆積のための自律的ワークフローの設計と実装について報告する。
我々は, 蛍光X線で測定したフィルム組成を, 共スパッタ中に観測された発光線の線形関数としてモデル化した。
OESに通知されたベイズ制御アルゴリズムは、スパッタリングパワーの空間をナビゲートし、ユーザ定義の組成で映画を製作する。
論文 参考訳(メタデータ) (2023-05-18T17:09:21Z) - Motion-Conditioned Diffusion Model for Controllable Video Synthesis [75.367816656045]
本稿では,開始画像フレームと一組のストロークから映像を生成する条件拡散モデルであるMCDiffを紹介する。
MCDiffはストローク誘導制御可能なビデオ合成における最先端の視覚的品質を実現する。
論文 参考訳(メタデータ) (2023-04-27T17:59:32Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。