論文の概要: Grounding Creativity in Physics: A Brief Survey of Physical Priors in AIGC
- arxiv url: http://arxiv.org/abs/2502.07007v1
- Date: Mon, 10 Feb 2025 20:13:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:50.492449
- Title: Grounding Creativity in Physics: A Brief Survey of Physical Priors in AIGC
- Title(参考訳): 物理における接地創造性:AIGCにおける物理プライオリティの簡単な調査
- Authors: Siwei Meng, Yawei Luo, Ping Liu,
- Abstract要約: AI生成コンテンツの最近の進歩は、3Dおよび4D生成のリアリズムを著しく改善した。
既存の手法の多くは、基礎となる物理原理を無視しながら外観整合性を優先している。
本調査では,物理的制約が3次元および4次元生成にどのように組み込まれているかを体系的に解析する物理認識生成法について概説する。
- 参考スコア(独自算出の注目度): 14.522189177415724
- License:
- Abstract: Recent advancements in AI-generated content have significantly improved the realism of 3D and 4D generation. However, most existing methods prioritize appearance consistency while neglecting underlying physical principles, leading to artifacts such as unrealistic deformations, unstable dynamics, and implausible objects interactions. Incorporating physics priors into generative models has become a crucial research direction to enhance structural integrity and motion realism. This survey provides a review of physics-aware generative methods, systematically analyzing how physical constraints are integrated into 3D and 4D generation. First, we examine recent works in incorporating physical priors into static and dynamic 3D generation, categorizing methods based on representation types, including vision-based, NeRF-based, and Gaussian Splatting-based approaches. Second, we explore emerging techniques in 4D generation, focusing on methods that model temporal dynamics with physical simulations. Finally, we conduct a comparative analysis of major methods, highlighting their strengths, limitations, and suitability for different materials and motion dynamics. By presenting an in-depth analysis of physics-grounded AIGC, this survey aims to bridge the gap between generative models and physical realism, providing insights that inspire future research in physically consistent content generation.
- Abstract(参考訳): AI生成コンテンツの最近の進歩は、3Dおよび4D生成のリアリズムを著しく改善した。
しかし、既存のほとんどの手法は、基礎となる物理原理を無視しながら外観整合性を優先し、非現実的な変形、不安定な力学、不確実な物体相互作用などの人工物に繋がる。
物理を生成モデルに組み込むことは、構造的整合性と運動リアリズムを高める重要な研究方向となっている。
本調査では,物理的制約が3次元および4次元生成にどのように組み込まれているかを体系的に解析する物理認識生成法について概説する。
まず,静的および動的3次元生成に物理先行を組み込んだ最近の研究について検討し,視覚ベース,NeRFベース,ガウススプラッティングベースのアプローチを含む表現型に基づく手法を分類する。
第2に,物理シミュレーションを用いて時間的ダイナミクスをモデル化する手法に着目し,新しい4次元生成技術について検討する。
最後に、主要な手法の比較分析を行い、その強度、限界、異なる材料や運動力学に対する適合性を強調した。
この調査は、物理を基盤としたAIGCの詳細な分析を行い、生成モデルと物理リアリズムのギャップを埋めることを目的としており、物理的に一貫したコンテンツ生成における将来の研究を刺激する洞察を提供する。
関連論文リスト
- Generative Physical AI in Vision: A Survey [25.867330158975932]
生成人工知能(AI)は、コンピュータビジョンの分野を急速に進歩させ、機械が前例のない高度なビジュアルデータを作成し、解釈できるようにする。
生成AIが進化して物理リアリズムと動的シミュレーションを統合するにつれ、その「世界シミュレータ」として機能する可能性が高まっている。
この調査は、コンピュータビジョンにおける物理学を意識した生成AIの出現する分野を体系的にレビューする。
論文 参考訳(メタデータ) (2025-01-19T03:19:47Z) - PhysMotion: Physics-Grounded Dynamics From a Single Image [24.096925413047217]
本稿では、物理シミュレーションを利用した新しいフレームワークであるPhysMotionを紹介し、一つの画像と入力条件から生成された中間3次元表現をガイドする。
我々のアプローチは、従来のデータ駆動生成モデルの限界に対処し、より一貫した物理的に妥当な動きをもたらす。
論文 参考訳(メタデータ) (2024-11-26T07:59:11Z) - Phys4DGen: A Physics-Driven Framework for Controllable and Efficient 4D Content Generation from a Single Image [3.131272328696594]
既存の方法は、4Dコンテンツのダイナミクスを導くために、事前訓練されたビデオ拡散モデルに大きく依存している。
物理対応の4Dコンテンツを生成する新しいフレームワークであるPhys4DGenを提案する。
物理的特性を視覚的に推測する人間の能力に触発され,物理知覚モジュールが導入された。
論文 参考訳(メタデータ) (2024-11-25T12:12:38Z) - Generating Physical Dynamics under Priors [10.387111566480886]
拡散に基づく生成モデルに物理先入観をシームレスに組み込む新しい枠組みを導入する。
我々の貢献は、生成モデリングの分野ではかなり進歩しており、正確で物理的に一貫したダイナミクスを生成する堅牢なソリューションを提供しています。
論文 参考訳(メタデータ) (2024-09-01T14:43:47Z) - Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - ContPhy: Continuum Physical Concept Learning and Reasoning from Videos [86.63174804149216]
ContPhyは、マシン物理常識を評価するための新しいベンチマークである。
私たちは、さまざまなAIモデルを評価し、ContPhyで満足なパフォーマンスを達成するのに依然として苦労していることがわかった。
また、近年の大規模言語モデルとパーティクルベースの物理力学モデルを組み合わせるためのオラクルモデル(ContPRO)を導入する。
論文 参考訳(メタデータ) (2024-02-09T01:09:21Z) - H4D: Human 4D Modeling by Learning Neural Compositional Representation [75.34798886466311]
この研究は、動的人間に対するコンパクトで構成的な表現を効果的に学習できる新しい枠組みを提示する。
単純で効果的な線形運動モデルを提案し, 粗く規則化された動き推定を行う。
本手法は, 高精度な動作と詳細な形状を持つ動的ヒトの回復に有効であるだけでなく, 様々な4次元人間関連タスクにも有効であることを示す。
論文 参考訳(メタデータ) (2022-03-02T17:10:49Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。