論文の概要: Causal Deciphering and Inpainting in Spatio-Temporal Dynamics via Diffusion Model
- arxiv url: http://arxiv.org/abs/2409.19608v1
- Date: Sun, 29 Sep 2024 08:18:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:04:17.285037
- Title: Causal Deciphering and Inpainting in Spatio-Temporal Dynamics via Diffusion Model
- Title(参考訳): 拡散モデルによる時空間力学における因果解法と着色
- Authors: Yifan Duan, Jian Zhao, pengcheng, Junyuan Mao, Hao Wu, Jingyu Xu, shilong wang, Caoyuan Ma, Kai Wang, Kun Wang, Xuelong Li,
- Abstract要約: CaPaintは2段階のプロセスで因果推論能力を備えたデータとエンドウモデルの因果領域を特定することを目的としている。
微調整未条件拡散確率モデル(DDPM)を生成前として, 環境成分として定義されたマスクを埋め込む。
5つの実世界のSTベンチマークで実施された実験は、CaPaintの概念の統合により、モデルが4.3%から77.3%の改善を達成できることを示した。
- 参考スコア(独自算出の注目度): 45.45700202300292
- License:
- Abstract: Spatio-temporal (ST) prediction has garnered a De facto attention in earth sciences, such as meteorological prediction, human mobility perception. However, the scarcity of data coupled with the high expenses involved in sensor deployment results in notable data imbalances. Furthermore, models that are excessively customized and devoid of causal connections further undermine the generalizability and interpretability. To this end, we establish a causal framework for ST predictions, termed CaPaint, which targets to identify causal regions in data and endow model with causal reasoning ability in a two-stage process. Going beyond this process, we utilize the back-door adjustment to specifically address the sub-regions identified as non-causal in the upstream phase. Specifically, we employ a novel image inpainting technique. By using a fine-tuned unconditional Diffusion Probabilistic Model (DDPM) as the generative prior, we in-fill the masks defined as environmental parts, offering the possibility of reliable extrapolation for potential data distributions. CaPaint overcomes the high complexity dilemma of optimal ST causal discovery models by reducing the data generation complexity from exponential to quasi-linear levels. Extensive experiments conducted on five real-world ST benchmarks demonstrate that integrating the CaPaint concept allows models to achieve improvements ranging from 4.3% to 77.3%. Moreover, compared to traditional mainstream ST augmenters, CaPaint underscores the potential of diffusion models in ST enhancement, offering a novel paradigm for this field. Our project is available at https://anonymous.4open.science/r/12345-DFCC.
- Abstract(参考訳): 時空間(ST)予測は、気象学予測、人間の移動知覚などの地球科学において事実上の注意を引いている。
しかし、センサーの配置に伴う高コストとデータ不足は、顕著なデータ不均衡をもたらす。
さらに、因果関係を欠いた過度にカスタマイズされたモデルは、一般化可能性や解釈可能性をさらに損なう。
そこで本研究では,2段階のプロセスにおける因果推論能力を備えたデータおよびエンドウモデルにおける因果領域の同定を目的とした,CaPaintと呼ばれるST予測のための因果的フレームワークを構築した。
このプロセスを超えて、アップストリームフェーズにおいて非因果関係と特定されるサブリージョンに特に対処するために、バックドア調整を利用する。
具体的には,新しい画像インペイント技術を用いている。
本研究では, 微調整未条件拡散確率モデル(DDPM)を生成前として, 環境成分として定義されたマスクを埋め込み, 潜在的なデータ分布に対する信頼性の高い外挿を可能にする。
CaPaintは、データ生成の複雑さを指数関数から準線形レベルに減らし、最適なST因果探索モデルの高複雑性ジレンマを克服する。
5つの実世界のSTベンチマークで実施された大規模な実験は、CaPaintの概念の統合により、モデルが4.3%から77.3%の改善を達成できることを示した。
さらに、従来のST拡張器と比較して、CaPaintはST拡張における拡散モデルの可能性を強調し、この分野に新しいパラダイムを提供する。
私たちのプロジェクトはhttps://anonymous.4open.science/r/12345-DFCCで利用可能です。
関連論文リスト
- A Temporally Disentangled Contrastive Diffusion Model for Spatiotemporal Imputation [35.46631415365955]
C$2$TSDという条件拡散フレームワークを導入する。
実世界の3つのデータセットに対する我々の実験は、最先端のベースラインと比較して、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2024-02-18T11:59:04Z) - Deciphering Spatio-Temporal Graph Forecasting: A Causal Lens and
Treatment [33.4989883914555]
本研究では,時間的アウト・オブ・ディストリビューション問題と動的空間因果関係に対処するCaSTと呼ばれる新しいフレームワークを提案する。
実世界の3つのデータセットに対する実験結果は、CaSTの有効性と実用性を示している。
論文 参考訳(メタデータ) (2023-09-23T13:51:09Z) - Single-View Height Estimation with Conditional Diffusion Probabilistic
Models [1.8782750537161614]
我々は、マルコフ連鎖として光学画像とDSM画像の連成分布を学習するために、生成拡散モデルを訓練する。
これは、音源画像に条件付けされたままの復調スコアマッチング目標を最小化して、現実的な高解像度3次元表面を生成する。
本稿では,1枚のリモートセンシング画像から高度推定を行う条件付き拡散確率モデル(DDPM)を実験する。
論文 参考訳(メタデータ) (2023-04-26T00:37:05Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - DiffSTG: Probabilistic Spatio-Temporal Graph Forecasting with Denoising
Diffusion Models [53.67562579184457]
本稿では,不確実性や複雑な依存関係のモデル化が困難であることから,確率的STG予測に焦点をあてる。
本稿では,一般的な拡散モデルをSTGに一般化する最初の試みとして,DiffSTGと呼ばれる新しい非自己回帰フレームワークを提案する。
提案手法は,本質的時間学習能力STNNと拡散モデルの不確実性測定を組み合わせたものである。
論文 参考訳(メタデータ) (2023-01-31T13:42:36Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - A generic diffusion-based approach for 3D human pose prediction in the
wild [68.00961210467479]
3D人間のポーズ予測、すなわち、過去の観察されたポーズのシーケンスが与えられた後の人間の3Dポーズのシーケンスを予測することは、困難な時間課題である。
本稿では,不完全な要素(予測や観測に関係しない)をノイズとして扱える統一的な定式化法を提案し,それらを認知し,妥当なポーズを予測する条件拡散モデルを提案する。
本研究は,4つの標準データセットについて検討し,現状よりも大幅に改善された。
論文 参考訳(メタデータ) (2022-10-11T17:59:54Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - A Generative Deep Learning Approach to Stochastic Downscaling of
Precipitation Forecasts [0.5906031288935515]
GAN(Generative Adversarial Network)は、コンピュータビジョンコミュニティによって超高解像度問題で成功することが実証されている。
GANとVAE-GANは、高分解能で空間的に整合した降水マップを作成しながら、最先端のポイントワイズポストプロセッシング手法の統計的特性と一致することを示す。
論文 参考訳(メタデータ) (2022-04-05T07:19:42Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。