論文の概要: DeepFracture: A Generative Approach for Predicting Brittle Fractures
- arxiv url: http://arxiv.org/abs/2310.13344v1
- Date: Fri, 20 Oct 2023 08:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 23:55:16.330100
- Title: DeepFracture: A Generative Approach for Predicting Brittle Fractures
- Title(参考訳): DeepFracture: 脆性骨折の予測のための生成的アプローチ
- Authors: Yuhang Huang, Takashi Kanai
- Abstract要約: 本稿では, 現実的な脆性破壊アニメーションと剛体シミュレーションをシームレスに融合させる新しい学習手法を提案する。
本手法は, BEM脆性破壊シミュレーションを用いて, 所定の形状の破壊パターンと衝突条件を作成する。
以上の結果から,本手法は既存の技術と比較して,より詳細な脆性骨折を生じさせる可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.7669937245634757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of brittle fracture animation, generating realistic destruction
animations with physics simulation techniques can be computationally expensive.
Although methods using Voronoi diagrams or pre-fractured patterns work for
real-time applications, they often lack realism in portraying brittle
fractures. This paper introduces a novel learning-based approach for seamlessly
merging realistic brittle fracture animations with rigid-body simulations. Our
method utilizes BEM brittle fracture simulations to create fractured patterns
and collision conditions for a given shape, which serve as training data for
the learning process. To effectively integrate collision conditions and
fractured shapes into a deep learning framework, we introduce the concept of
latent impulse representation and geometrically-segmented signed distance
function (GS-SDF). The latent impulse representation serves as input, capturing
information about impact forces on the shape's surface. Simultaneously, a
GS-SDF is used as the output representation of the fractured shape. To address
the challenge of optimizing multiple fractured pattern targets with a single
latent code, we propose an eight-dimensional latent space based on a normal
distribution code within our latent impulse representation design. This
adaptation effectively transforms our neural network into a generative one. Our
experimental results demonstrate that our approach can generate significantly
more detailed brittle fractures compared to existing techniques, all while
maintaining commendable computational efficiency during run-time.
- Abstract(参考訳): 脆性破壊アニメーションの領域では、物理シミュレーション技術による現実的な破壊アニメーションの生成は計算的に高価である。
ボロノイ図やプレフラクチャードパターンを用いた手法はリアルタイム応用に有効であるが、脆性骨折を描写する現実性に欠けることが多い。
本稿では, 剛体シミュレーションによる脆性破壊アニメーションをシームレスに融合する学習に基づく新しい手法を提案する。
本手法は,bem脆性破壊シミュレーションを用いて所定の形状の破壊パターンと衝突条件を作成し,学習過程のトレーニングデータとして利用する。
衝突条件と破断形状をディープラーニングフレームワークに効果的に統合するために,潜時インパルス表現と幾何分割符号距離関数(GS-SDF)の概念を導入する。
潜在インパルス表現は入力として働き、形状の表面の衝撃力に関する情報をキャプチャする。
同時に、破面形状の出力表現としてGS−SDFを用いる。
一つの潜在コードで複数の破壊パターンターゲットを最適化するという課題に対処するため,我々は潜在インパルス表現設計における正規分布コードに基づく8次元潜在空間を提案する。
この適応は、ニューラルネットワークを効果的に生成型に変換する。
実験結果から, 本手法は既存の手法に比べて脆性破壊を著しく低減し, 実行時の計算効率を維持できることを示した。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - HOSSnet: an Efficient Physics-Guided Neural Network for Simulating Crack
Propagation [4.594946929826274]
本研究では, ひび割れの空間的・時間的変化を正確に再現するための新しいデータ駆動手法を提案する。
我々は, 長期再建における破壊伝播の調整に, 物理的制約を活用している。
提案手法は, 画素単位の再構成誤差と構造的類似性の観点から, 高忠実度破壊データを空間的, 時間的に再構成することができる。
論文 参考訳(メタデータ) (2023-06-14T23:39:37Z) - Near-realtime Facial Animation by Deep 3D Simulation Super-Resolution [7.14576106770047]
本稿では,低コストでリアルタイムな物理シミュレーションによって生み出す顔のパフォーマンスを効率よく,現実的に向上させるニューラルネットワークに基づくシミュレーションフレームワークを提案する。
顔のアニメーションをこのようなシミュレーション領域の例に用いて,2つのシミュレータで同じ筋の運動制御と骨格のポーズを単純にダイヤルすることで,この意味の一致を創り出すことができる。
提案するニューラルネットワーク超解像フレームワークは,このトレーニングセットから未確認表現を一般化し,リアルタイム変種における解像度の制限やコスト削減近似による2つのシミュレーション間の不一致をモデル化するための補償を行うとともに,意味記述子やパラメータを必要としない。
論文 参考訳(メタデータ) (2023-05-05T00:09:24Z) - Generating artificial digital image correlation data using
physics-guided adversarial networks [2.07180164747172]
デジタル画像相関 (DIC) は, き裂標本の機械的実験を監視し評価するための貴重なツールとなっている。
実補間DIC変位に類似したクラック試験片の大量の人工変位データを直接生成する手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T12:52:40Z) - Real-time simulation of viscoelastic tissue behavior with physics-guided
deep learning [0.8250374560598492]
軟部組織の変位場を粘弾性特性で予測する深層学習法を提案する。
提案手法は従来のCNNモデルよりも精度が高い。
本調査は,仮想現実における深層学習のギャップを埋めるのに役立つものと期待されている。
論文 参考訳(メタデータ) (2023-01-11T18:17:10Z) - DeepMend: Learning Occupancy Functions to Represent Shape for Repair [0.6087960723103347]
DeepMendは、学習された占有機能を使って骨折形状の修復を再構築する新しいアプローチである。
本研究は, フラクチャー形状の占有を, 基礎となる完全形状の占有と破壊面との結合として表現する。
人工および実世界の走査対象物に模擬骨折を施行し, 実破折マグカップを採取した。
論文 参考訳(メタデータ) (2022-10-11T18:42:20Z) - RISP: Rendering-Invariant State Predictor with Differentiable Simulation
and Rendering for Cross-Domain Parameter Estimation [110.4255414234771]
既存のソリューションでは、大量のトレーニングデータが必要か、未知のレンダリング設定への一般化性が欠如している。
本稿では、ドメインのランダム化と微分可能なレンダリング勾配を併用してこの問題に対処する手法を提案する。
提案手法は, 再構成誤差を大幅に低減し, 未知のレンダリング構成間の一般化性が向上する。
論文 参考訳(メタデータ) (2022-05-11T17:59:51Z) - Predicting Loose-Fitting Garment Deformations Using Bone-Driven Motion
Networks [63.596602299263935]
本稿では,骨駆動型モーションネットワークを用いて,ゆるやかな衣服メッシュの変形を対話的に予測する学習アルゴリズムを提案する。
提案手法は,メッシュ変形の予測精度を約20%,ハウスドルフ距離とSTEDで約10%向上させる。
論文 参考訳(メタデータ) (2022-05-03T07:54:39Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。