論文の概要: Global Transport for Fluid Reconstruction with Learned Self-Supervision
- arxiv url: http://arxiv.org/abs/2104.06031v1
- Date: Tue, 13 Apr 2021 09:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:19:54.248499
- Title: Global Transport for Fluid Reconstruction with Learned Self-Supervision
- Title(参考訳): 自己スーパービジョン学習による流体再構成のためのグローバルトランスポート
- Authors: Erik Franz, Barbara Solenthaler, Nils Thuerey
- Abstract要約: 目に見えない角度からの観測を制約する学習的な自己スーパービジョンを導入する。
提案された輸送プロセスのグローバルな再構築は、流体運動の再構築を改善することを、様々な合成および実際の流れで示しています。
- 参考スコア(独自算出の注目度): 26.469951715253497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method to reconstruct volumetric flows from sparse views
via a global transport formulation. Instead of obtaining the space-time
function of the observations, we reconstruct its motion based on a single
initial state. In addition we introduce a learned self-supervision that
constrains observations from unseen angles. These visual constraints are
coupled via the transport constraints and a differentiable rendering step to
arrive at a robust end-to-end reconstruction algorithm. This makes the
reconstruction of highly realistic flow motions possible, even from only a
single input view. We show with a variety of synthetic and real flows that the
proposed global reconstruction of the transport process yields an improved
reconstruction of the fluid motion.
- Abstract(参考訳): 本稿では,グローバルトランスポートの定式化によるスパースビューからボリュームフローを再構築する新しい手法を提案する。
観測の時空関数を得る代わりに、1つの初期状態に基づいてその動きを再構成する。
さらに,観察を知覚しない角度から制約する学習自己スーパービジョンを導入する。
これらの視覚的制約はトランスポート制約と微分可能なレンダリングステップによって結合され、堅牢なエンドツーエンドの再構築アルゴリズムに到達する。
これにより、単一の入力ビューからでも、非常に現実的な流れの動きの再構築が可能となる。
提案する輸送過程のグローバルな再構築により, 流体運動の再現性が向上することを示す。
関連論文リスト
- A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Self-Supervised Bird's Eye View Motion Prediction with Cross-Modality
Signals [38.20643428486824]
密集した鳥の視線(BEV)の動きを自己監督的に学習することは、ロボット工学と自律運転の新たな研究である。
現在の自己監督法は主に点雲間の点対応に依存する。
マルチモダリティデータを活用することで,これらの問題に効果的に対処する,新たなクロスモダリティ自己教師型トレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-21T14:09:49Z) - BoDiffusion: Diffusing Sparse Observations for Full-Body Human Motion
Synthesis [14.331548412833513]
複合現実感アプリケーションは、没入感のある体験を可能にするために、ユーザのフルボディの動きを追跡する必要がある。
本稿では,この非拘束的再構成問題に対処するために,運動合成のための生成拡散モデルであるBoDiffusionを提案する。
本稿では,スムーズで現実的なフルボディモーションシーケンスを生成しつつ,スパーストラッキング入力をBoDiffusionが活用できる時間空間調和方式を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:39:05Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Towards performant and reliable undersampled MR reconstruction via
diffusion model sampling [67.73698021297022]
DiffuseReconは拡散モデルに基づく新しいMR再構成法である。
観測された信号に基づいて生成過程を導出する。
特定の加速因子に関する追加の訓練は必要としない。
論文 参考訳(メタデータ) (2022-03-08T02:25:38Z) - Temporally-Coherent Surface Reconstruction via Metric-Consistent Atlases [131.50372468579067]
再建された表面をニューラルネットワークを用いてアトラスとして表現する。
本手法は,教師なし対応の精度と表面再構成の精度において,その性能を超える結果が得られることを実証的に示す。
論文 参考訳(メタデータ) (2021-04-14T16:21:22Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Modeling Spatial Nonstationarity via Deformable Convolutions for Deep
Traffic Flow Prediction [12.73129937019653]
DeFlow-Netは、ディープニューラルネットワーク用の変形可能な畳み込み残留ネットワークです。
DeFlow-Netは, 交通流の空間的依存, 局所的空間的非定常性, 時間的周期性を効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-01-08T10:16:03Z) - Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion [63.18340058854517]
動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は、点クラウドシーケンスの時間的一貫性性に基づいて、自己監督的な信号で教師付きフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-09-22T11:39:19Z) - Learning Event-Based Motion Deblurring [39.16921854492941]
高速な動きは、イベントベースのカメラの高速でイベントとしてキャプチャすることができる。
我々は、その最適化を、新しいエンドツーエンドのディープアーキテクチャでどのように展開できるかを示す。
提案手法は、最先端の復元品質を実現し、実世界の動きのぼかし処理をより一般化する。
論文 参考訳(メタデータ) (2020-04-13T07:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。