論文の概要: IN2OUT: Fine-Tuning Video Inpainting Model for Video Outpainting Using Hierarchical Discriminator
- arxiv url: http://arxiv.org/abs/2508.00418v1
- Date: Fri, 01 Aug 2025 08:15:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.794585
- Title: IN2OUT: Fine-Tuning Video Inpainting Model for Video Outpainting Using Hierarchical Discriminator
- Title(参考訳): IN2OUT:階層型判別器を用いた映像出力用微調整映像塗装モデル
- Authors: Sangwoo Youn, Minji Lee, Nokap Tony Park, Yeonggyoo Jeon, Taeyoung Na,
- Abstract要約: ビデオのアウトパインティングは、与えられたコンテンツとの一貫性を維持しながら境界を拡張するという、ユニークな課題を示している。
判別器の局所的特徴と大域的特徴を両立させる特有な露光損失関数を開発した。
提案手法は, 定量的かつ定性的に, 最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 3.6350564275444177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video outpainting presents a unique challenge of extending the borders while maintaining consistency with the given content. In this paper, we suggest the use of video inpainting models that excel in object flow learning and reconstruction in outpainting rather than solely generating the background as in existing methods. However, directly applying or fine-tuning inpainting models to outpainting has shown to be ineffective, often leading to blurry results. Our extensive experiments on discriminator designs reveal that a critical component missing in the outpainting fine-tuning process is a discriminator capable of effectively assessing the perceptual quality of the extended areas. To tackle this limitation, we differentiate the objectives of adversarial training into global and local goals and introduce a hierarchical discriminator that meets both objectives. Additionally, we develop a specialized outpainting loss function that leverages both local and global features of the discriminator. Fine-tuning on this adversarial loss function enhances the generator's ability to produce both visually appealing and globally coherent outpainted scenes. Our proposed method outperforms state-of-the-art methods both quantitatively and qualitatively. Supplementary materials including the demo video and the code are available in SigPort.
- Abstract(参考訳): ビデオのアウトパインティングは、与えられたコンテンツとの一貫性を維持しながら境界を拡張するという、ユニークな課題を示している。
本稿では,既存の手法のように背景のみを生成するのではなく,オブジェクトフロー学習やアウトペイントの再構築に優れた映像インパインティングモデルを提案する。
しかし、直接塗布や微調整による塗布は効果が無く、しばしばぼやけた結果をもたらすことが示されている。
判別器設計に関する広範囲な実験により,精細化プロセスに欠落する重要な成分が,拡張領域の知覚的品質を効果的に評価できる判別器であることを明らかにした。
この制限に対処するために、敵の訓練の目的をグローバルとローカルの目標に区別し、両方の目的を満たす階層的差別を導入します。
さらに,判別器の局所的特徴と大域的特徴を両立させる特有な露光損失関数を開発した。
この対向損失関数の微調整により、ジェネレータは視覚的に魅力的で、グローバルに整合した露光の両方を生成できる能力を高める。
提案手法は, 定量的かつ定性的に, 最先端の手法より優れている。
デモビデオやコードを含む追加資料はSigPortで入手できる。
関連論文リスト
- GuidPaint: Class-Guided Image Inpainting with Diffusion Models [1.1902474395094222]
GuidPaintは、トレーニング不要でクラス誘導型画像インペイントフレームワークである。
GuidPaintは、定性評価と定量的評価の両方において、既存の文脈認識の塗り絵法よりも明らかに改善されていることを示す。
論文 参考訳(メタデータ) (2025-07-29T09:36:52Z) - Towards Seamless Borders: A Method for Mitigating Inconsistencies in Image Inpainting and Outpainting [22.46566055053259]
拡散型塗布モデルにおける不一致問題に対処する2つの新しい手法を提案する。
まず,色不均衡を補正する修正変分オートエンコーダを導入する。
次に,拡散過程において生成した画像と既存の画像のブレンディングを改善するための2段階のトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2025-06-14T15:02:56Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - Be-Your-Outpainter: Mastering Video Outpainting through Input-Specific Adaptation [44.92712228326116]
ビデオのアウトペイントは、入力されたビデオのビューポートの外でビデオコンテンツを生成することを目的とした、難しい作業である。
入力特化適応によるMOTIAマスタリングビデオアウトペイントについて紹介する。
MoTIAは入力特異的適応とパターン認識の露呈という2つの主要なフェーズから構成される。
論文 参考訳(メタデータ) (2024-03-20T16:53:45Z) - Towards Enhanced Image Inpainting: Mitigating Unwanted Object Insertion and Preserving Color Consistency [78.0488707697235]
ASUKA(Aigned Stable Inpainting with UnKnown Areas)と呼ばれるポストプロセッシングアプローチは、インパインティングモデルを改善する。
Masked Auto-Encoder (MAE) は、オブジェクト幻覚を緩和する。
ローカルタスクとしてラテント・ツー・イメージ・デコーディングを扱う特殊なVAEデコーダ。
論文 参考訳(メタデータ) (2023-12-08T05:08:06Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - Cylin-Painting: Seamless {360\textdegree} Panoramic Image Outpainting
and Beyond [136.18504104345453]
塗り絵と塗り絵の間に有意義な協調関係を持つキリン塗り絵の枠組みを提示する。
提案アルゴリズムは、オブジェクト検出、深さ推定、画像超解像などの他のパノラマ視覚タスクに効果的に拡張できる。
論文 参考訳(メタデータ) (2022-04-18T21:18:49Z) - In&Out : Diverse Image Outpainting via GAN Inversion [89.84841983778672]
image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
論文 参考訳(メタデータ) (2021-04-01T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。