論文の概要: PhyCustom: Towards Realistic Physical Customization in Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2512.02794v1
- Date: Mon, 01 Dec 2025 16:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.912259
- Title: PhyCustom: Towards Realistic Physical Customization in Text-to-Image Generation
- Title(参考訳): PhyCustom: テキスト・画像生成におけるリアルな物理的カスタマイズを目指して
- Authors: Fan Wu, Cheng Chen, Zhoujie Fu, Jiacheng Wei, Yi Xu, Deheng Ye, Guosheng Lin,
- Abstract要約: 本稿では,2つの新たな正規化損失を含む微調整フレームワークを提案する。
具体的には、等尺的損失は、物理的概念を学習するために拡散モデルを活性化することを目的としており、一方、分離的損失は独立した概念の混合学習を排除するのに役立つ。
- 参考スコア(独自算出の注目度): 58.02373668073258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent diffusion-based text-to-image customization methods have achieved significant success in understanding concrete concepts to control generation processes, such as styles and shapes. However, few efforts dive into the realistic yet challenging customization of physical concepts. The core limitation of current methods arises from the absence of explicitly introducing physical knowledge during training. Even when physics-related words appear in the input text prompts, our experiments consistently demonstrate that these methods fail to accurately reflect the corresponding physical properties in the generated results. In this paper, we propose PhyCustom, a fine-tuning framework comprising two novel regularization losses to activate diffusion model to perform physical customization. Specifically, the proposed isometric loss aims at activating diffusion models to learn physical concepts while decouple loss helps to eliminate the mixture learning of independent concepts. Experiments are conducted on a diverse dataset and our benchmark results demonstrate that PhyCustom outperforms previous state-of-the-art and popular methods in terms of physical customization quantitatively and qualitatively.
- Abstract(参考訳): 近年の拡散型テキスト・ツー・イメージのカスタマイズ手法は、具体的な概念を理解し、スタイルや形状などの生成過程を制御することに成功している。
しかし、物理的な概念の現実的かつ挑戦的なカスタマイズに目を向ける努力はほとんどない。
現在の手法の中核的な制限は、トレーニング中に物理的知識を明示的に導入しないことから生じる。
物理関連語が入力テキストのプロンプトに現れるときでも,これらの手法が生成した結果の物理特性を正確に反映しないことを示す実験が一貫して行われている。
本稿では,2つの新たな正規化損失を含む微調整フレームワークであるPhyCustomを提案する。
具体的には、等尺的損失は、物理的概念を学習するために拡散モデルを活性化することを目的としており、一方、分離的損失は独立した概念の混合学習を排除するのに役立つ。
実験は多種多様なデータセット上で行われ、ベンチマークの結果、PhyCustomは物理的カスタマイズの量的・質的に、従来の最先端および一般的な手法より優れていることが示された。
関連論文リスト
- LikePhys: Evaluating Intuitive Physics Understanding in Video Diffusion Models via Likelihood Preference [57.086932851733145]
ビデオ拡散モデルにおける直感的な物理を評価するトレーニング不要な方法であるLikePhysを紹介した。
現在のビデオ拡散モデルにおける直観的物理理解のベンチマークを行う。
経験的結果は、現在のモデルが複雑でカオス的な力学に苦しむにもかかわらず、モデルキャパシティと推論設定スケールとしての物理理解の改善傾向が明らかであることを示している。
論文 参考訳(メタデータ) (2025-10-13T15:19:07Z) - Enhancing Physical Plausibility in Video Generation by Reasoning the Implausibility [37.011366226968]
拡散モデルはリアルなビデオを生成することができるが、既存の方法は大規模テキストビデオデータセットから暗黙的に物理的推論を学ぶことに依存している。
本研究では,推論時の身体的可視性を改善するためのトレーニングフリーフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-29T12:32:54Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - Infusion: Preventing Customized Text-to-Image Diffusion from Overfitting [51.606819347636076]
本研究では, 概念知識を損なう概念非依存オーバーフィッティングと, 限られたモダリティのカスタマイズに限定した概念特化オーバーフィッティングを分析した。
Infusionは、ターゲット概念の学習を、限られた訓練モダリティによって制限されるのを避けることができるT2Iカスタマイズ手法である。
論文 参考訳(メタデータ) (2024-04-22T09:16:25Z) - Deep Physics-aware Inference of Cloth Deformation for Monocular Human
Performance Capture [84.73946704272113]
物理をトレーニングプロセスに統合することで、学習した布の変形が改善し、衣服を別の幾何学的要素としてモデル化できることを示す。
提案手法は現在の最先端手法よりも大幅に改善され,人間の衣服の変形面全体に対する現実的なモノクロキャプチャに向けた明確なステップとなる。
論文 参考訳(メタデータ) (2020-11-25T16:46:00Z) - Augmenting Physical Models with Deep Networks for Complex Dynamics
Forecasting [34.61959169976758]
APHYNITYは、深層データ駆動モデルを持つ微分方程式によって記述された不完全な物理力学を増大させる原理的なアプローチである。
これは、動的を2つのコンポーネントに分解することで構成されます。物理コンポーネントは、事前の知識を持つダイナミクスを、データ駆動コンポーネントは、物理モデルのエラーを説明します。
論文 参考訳(メタデータ) (2020-10-09T09:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。