論文の概要: FLOWING: Implicit Neural Flows for Structure-Preserving Morphing
- arxiv url: http://arxiv.org/abs/2510.09537v1
- Date: Fri, 10 Oct 2025 16:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.402889
- Title: FLOWING: Implicit Neural Flows for Structure-Preserving Morphing
- Title(参考訳): フローリング: 構造保存型モーフィングのための入射ニューラルフロー
- Authors: Arthur Bizzi, Matias Grynberg, Vitor Matias, Daniel Perazzo, João Paulo Lima, Luiz Velho, Nuno Gonçalves, João Pereira, Guilherme Schardong, Tiago Novello,
- Abstract要約: FLOWing (FLOW morphing) は、微分ベクトルフローの構成としてワープをリキャストするフレームワークである。
FLOWINGは, より高速な収束により, 最先端の変形品質が得られることを示す。
- 参考スコア(独自算出の注目度): 5.498230316788923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Morphing is a long-standing problem in vision and computer graphics, requiring a time-dependent warping for feature alignment and a blending for smooth interpolation. Recently, multilayer perceptrons (MLPs) have been explored as implicit neural representations (INRs) for modeling such deformations, due to their meshlessness and differentiability; however, extracting coherent and accurate morphings from standard MLPs typically relies on costly regularizations, which often lead to unstable training and prevent effective feature alignment. To overcome these limitations, we propose FLOWING (FLOW morphING), a framework that recasts warping as the construction of a differential vector flow, naturally ensuring continuity, invertibility, and temporal coherence by encoding structural flow properties directly into the network architectures. This flow-centric approach yields principled and stable transformations, enabling accurate and structure-preserving morphing of both 2D images and 3D shapes. Extensive experiments across a range of applications - including face and image morphing, as well as Gaussian Splatting morphing - show that FLOWING achieves state-of-the-art morphing quality with faster convergence. Code and pretrained models are available at http://schardong.github.io/flowing.
- Abstract(参考訳): モーフィングは視覚とコンピュータグラフィックスにおける長年の問題であり、機能アライメントのための時間依存のワープとスムーズな補間のためのブレンディングを必要とする。
近年, マルチ層パーセプトロン (MLP) は, メッシュレス性や微分可能性から, このような変形をモデル化するための暗黙的ニューラル表現 (INR) として検討されている。
これらの制約を克服するために,ネットワークアーキテクチャに直接構造フロー特性をエンコードすることで,ワープを微分ベクトルフローの構築として再キャストし,連続性,可逆性,時間的コヒーレンスを自然に確保するフレームワークであるFLOWING(FLOW morphing)を提案する。
このフロー中心のアプローチは、原理的かつ安定した変換をもたらし、2次元画像と3次元形状の両方の正確かつ構造的に保存されるモーフィングを可能にする。
顔と画像のモルファス、およびガウスのスティングモルファスを含む幅広い応用にわたる大規模な実験は、FLOWINGがより高速な収束で最先端のモルファス品質を達成することを示す。
コードと事前トレーニングされたモデルは、http://schardong.github.io/flowing.orgで公開されている。
関連論文リスト
- ACFormer: Mitigating Non-linearity with Auto Convolutional Encoder for Time Series Forecasting [6.27761817493579]
時系列予測(TSF)は、複雑なチャネル内時間依存性とチャネル間相関をモデル化する際の課題に直面している。
本稿では,線形射影の効率を,畳み込みの非線形特徴抽出力と整合させるアーキテクチャであるACFormerを提案する。
論文 参考訳(メタデータ) (2026-01-28T13:47:54Z) - RenderFlow: Single-Step Neural Rendering via Flow Matching [17.56739408578129]
本稿では,フローマッチングパラダイムに基づいて構築された,エンドツーエンド,決定論的,単一ステップのニューラルレンダリングフレームワークRenderFlowを提案する。
本手法はレンダリング処理を大幅に高速化し,出力の物理的妥当性と全体的な視覚的品質を向上する。
結果として得られるパイプラインは、フォトリアリスティックなレンダリング品質でほぼリアルタイムのパフォーマンスを実現し、現代の生成モデルの効率と従来の物理ベースのレンダリングの精度とのギャップを効果的に埋める。
論文 参考訳(メタデータ) (2026-01-11T14:28:46Z) - Error-Propagation-Free Learned Video Compression With Dual-Domain Progressive Temporal Alignment [92.57576987521107]
両ドメインのプログレッシブな時間的アライメントと品質条件の混合(QCMoE)を備えた新しい統合変換フレームワークを提案する。
QCMoEは、魅力的なR-Dパフォーマンスで連続的かつ一貫したレート制御を可能にする。
実験結果から,提案手法は最先端技術と比較して,競争力のあるR-D性能を実現することが示された。
論文 参考訳(メタデータ) (2025-12-11T09:14:51Z) - Wukong's 72 Transformations: High-fidelity Textured 3D Morphing via Flow Models [33.80986417412425]
WUKONGは、高忠実なテクスチャ3Dモーフィングのためのトレーニングフリーフレームワークである。
フローベース生成プロセスの本質的連続性を利用する。
類似性誘導型セマンティック一貫性機構を提案する。
論文 参考訳(メタデータ) (2025-11-27T13:03:57Z) - Morphing Through Time: Diffusion-Based Bridging of Temporal Gaps for Robust Alignment in Change Detection [51.56484100374058]
既存の変更検出ネットワークを変更することなく空間的・時間的ロバスト性を改善するモジュールパイプラインを導入する。
拡散モジュールは、大きな外観ギャップをブリッジする中間変形フレームを合成し、RoMaは段階的に対応を推定できる。
LEVIR-CD、WHU-CD、DSIFN-CDの実験は、登録精度と下流変化検出の両方において一貫した利得を示した。
論文 参考訳(メタデータ) (2025-11-11T08:40:28Z) - Solving Inverse Problems with FLAIR [59.02385492199431]
フローベースの潜在生成モデルは、驚くべき品質の画像を生成でき、テキスト・ツー・イメージ生成も可能である。
本稿では,フローベース生成モデルを逆問題の前兆として活用する新しい学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - PolypFlow: Reinforcing Polyp Segmentation with Flow-Driven Dynamics [25.69584903128262]
PolypFLowは、セグメンテーションの洗練に物理にインスパイアされた最適化力学を注入するフローマッチング拡張アーキテクチャである。
我々はPolypFLowが様々な照明シナリオで一貫した性能を維持しながら最先端を実現していることを示す。
論文 参考訳(メタデータ) (2025-02-26T10:48:33Z) - SRIF: Semantic Shape Registration Empowered by Diffusion-based Image Morphing and Flow Estimation [2.336821026049481]
拡散型画像モーフィングとフロー推定に基づく新しいセマンティック形状登録フレームワークSRIFを提案する。
SRIFは、挑戦的な形状対に関する高品質な密接な対応を実現するが、その間にスムーズで意味のある意味を与える。
論文 参考訳(メタデータ) (2024-09-18T03:47:24Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Image Morphing with Perceptual Constraints and STN Alignment [70.38273150435928]
本稿では,一対の入力画像で動作する条件付きGANモーフィングフレームワークを提案する。
特別なトレーニングプロトコルは、知覚的類似性損失と組み合わせてフレームのシーケンスを生成し、時間とともにスムーズな変換を促進する。
我々は、古典的かつ潜時的な空間変形技術との比較を行い、自己スーパービジョンのための一連の画像から、我々のネットワークが視覚的に楽しむモーフィング効果を生成することを実証する。
論文 参考訳(メタデータ) (2020-04-29T10:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。