論文の概要: Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution
- arxiv url: http://arxiv.org/abs/2401.15913v1
- Date: Mon, 29 Jan 2024 06:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:52:51.787511
- Title: Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution
- Title(参考訳): 四次空間モデルと動的流れ畳み込みを用いた視覚インフォームドフロー画像超解法
- Authors: Qinglong Cao, Zhengqin Xu, Chao Ma, Xiaokang Yang, Yuntian Chen
- Abstract要約: フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 49.45309818782329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flow image super-resolution (FISR) aims at recovering high-resolution
turbulent velocity fields from low-resolution flow images. Existing FISR
methods mainly process the flow images in natural image patterns, while the
critical and distinct flow visual properties are rarely considered. This
negligence would cause the significant domain gap between flow and natural
images to severely hamper the accurate perception of flow turbulence, thereby
undermining super-resolution performance. To tackle this dilemma, we
comprehensively consider the flow visual properties, including the unique flow
imaging principle and morphological information, and propose the first flow
visual property-informed FISR algorithm. Particularly, different from natural
images that are constructed by independent RGB channels in the light field,
flow images build on the orthogonal UVW velocities in the flow field. To
empower the FISR network with an awareness of the flow imaging principle, we
propose quaternion spatial modeling to model this orthogonal spatial
relationship for improved FISR. Moreover, due to viscosity and surface tension
characteristics, fluids often exhibit a droplet-like morphology in flow images.
Inspired by this morphological property, we design the dynamic flow convolution
to effectively mine the morphological information to enhance FISR. Extensive
experiments on the newly acquired flow image datasets demonstrate the
state-of-the-art performance of our method. Code and data will be made
available.
- Abstract(参考訳): フローイメージスーパーレゾリューション(fisr)は、低解像度フロー画像から高分解能乱流速度場を回復することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理するが、批判的かつ明確なフロー視覚特性はめったに考慮されない。
この無視は、流れと自然画像の間の大きな領域ギャップを生じさせ、流れの乱流の正確な認識を著しく妨げ、超解像性能を損なう。
このジレンマに対処するために,一意なフローイメージング原理と形態情報を含むフロービジュアル特性を包括的に検討し,最初のフロービジュアルプロパティインフォームfisrアルゴリズムを提案する。
特に、光フィールド内の独立したRGBチャネルによって構築される自然画像とは違い、フローフィールド内の直交UVW速度に基づいてフローイメージを構築する。
フローイメージングの原理を意識してFISRネットワークを強化するために,この直交空間関係をモデル化し,改良されたFISRを提案する。
さらに, 粘性や表面張力特性から, 流動画像に液滴状の形態が現れることが多い。
この形態的性質に触発されて, 動的流れ畳み込みの設計を行い, fisrを強化するために形態的情報を効果的にマイニングする。
新たに取得したフローイメージデータセットに関する広範な実験により,本手法の最先端性能が実証された。
コードとデータは利用可能になる。
関連論文リスト
- Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Neural refractive index field: Unlocking the Potential of Background-oriented Schlieren Tomography in Volumetric Flow Visualization [6.748519362625069]
本研究はニューラル屈折指数場(NeRIF)と呼ばれる革新的な再構成手法を提案する。
NeRIFはニューラルネットワークで流れの場を暗黙的に表現する。
乱流文泉火炎における数値シミュレーションと実験実験の両方により, 再現精度と空間分解能を大幅に向上させることができることが示唆された。
論文 参考訳(メタデータ) (2024-09-23T05:40:50Z) - FlowIE: Efficient Image Enhancement via Rectified Flow [71.6345505427213]
FlowIEはフローベースのフレームワークであり、基本的な分布から高品質な画像への直線パスを推定する。
私たちのコントリビューションは、合成および実世界のデータセットに関する包括的な実験を通じて、厳密に検証されています。
論文 参考訳(メタデータ) (2024-06-01T17:29:29Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Single Image Optical Flow Estimation with an Event Camera [38.92408855196647]
イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を報告している。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T11:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。