論文の概要: PartStickers: Generating Parts of Objects for Rapid Prototyping
- arxiv url: http://arxiv.org/abs/2504.05508v1
- Date: Mon, 07 Apr 2025 21:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:02.401314
- Title: PartStickers: Generating Parts of Objects for Rapid Prototyping
- Title(参考訳): PartStickers: 高速プロトタイピングのためのオブジェクト部品の生成
- Authors: Mo Zhou, Josh Myers-Dean, Danna Gurari,
- Abstract要約: プロトタイピングは、しばしば、ビデオゲームのための新しい生物を構築するときなど、オブジェクトの特定の部分を必要とする。
既存のtext-to-imageメソッドはオブジェクト全体を生成するだけである。
中性背景に物体の孤立部分を生成する「部分ステッカー生成の新しいタスクと方法」を提案する。
- 参考スコア(独自算出の注目度): 25.550688383520807
- License:
- Abstract: Design prototyping involves creating mockups of products or concepts to gather feedback and iterate on ideas. While prototyping often requires specific parts of objects, such as when constructing a novel creature for a video game, existing text-to-image methods tend to only generate entire objects. To address this, we propose a novel task and method of ``part sticker generation", which entails generating an isolated part of an object on a neutral background. Experiments demonstrate our method outperforms state-of-the-art baselines with respect to realism and text alignment, while preserving object-level generation capabilities. We publicly share our code and models to encourage community-wide progress on this new task: https://partsticker.github.io.
- Abstract(参考訳): デザインプロトタイピングには、フィードバックを集め、アイデアを反復する製品やコンセプトのモックアップを作成することが含まれる。
プロトタイピングは、ビデオゲームのための新しい生物を構築する場合など、オブジェクトの特定の部分を必要とすることが多いが、既存のテキスト・ツー・イメージの方法は、オブジェクト全体を生成しているだけである。
そこで我々は,中性背景にオブジェクトの孤立部分を生成する「部分ステッカー生成」という新しいタスクと手法を提案する。
実験により,本手法は,オブジェクトレベルの生成能力を保ちながら,現実性やテキストアライメントに関して,最先端のベースラインよりも優れていることを示す。
私たちは、この新しいタスクについてコミュニティ全体の進歩を促すために、コードとモデルを公開しています。
関連論文リスト
- SINGAPO: Single Image Controlled Generation of Articulated Parts in Objects [20.978091381109294]
本稿では,単一画像から音声オブジェクトを生成する手法を提案する。
提案手法は,入力画像と視覚的に一致した音声オブジェクトを生成する。
実験の結果,本手法は音声によるオブジェクト生成における最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-21T20:41:32Z) - PartCraft: Crafting Creative Objects by Parts [128.30514851911218]
本稿では、ユーザが「選択」できることによって、生成的視覚AIにおける創造的制御を促進する。
私たちは初めて、創造的な努力のために、視覚的概念をパーツごとに選択できるようにしました。
選択された視覚概念を正確にキャプチャするきめ細かい生成。
論文 参考訳(メタデータ) (2024-07-05T15:53:04Z) - FaithFill: Faithful Inpainting for Object Completion Using a Single Reference Image [6.742568054626032]
FaithFillは、行方不明なオブジェクト部品を現実的に生成するための拡散ベースの塗装手法である。
本研究では,FithFillが1つの参照画像から,オブジェクトの欠落部分の忠実な生成と,背景・シーンの保存を両立させることを実証する。
論文 参考訳(メタデータ) (2024-06-12T04:45:33Z) - Customizing Text-to-Image Diffusion with Object Viewpoint Control [53.621518249820745]
テキストから画像への拡散モデルのカスタマイズにおいて、オブジェクト視点の明示的な制御を可能にする新しいタスクを導入する。
これにより、カスタムオブジェクトのプロパティを変更し、テキストプロンプトを通じて、さまざまなバックグラウンドシーンでそれを生成することができます。
本稿では,対象視点からレンダリングした3次元オブジェクトの特徴に拡散過程を規定する。
論文 参考訳(メタデータ) (2024-04-18T16:59:51Z) - Object-Driven One-Shot Fine-tuning of Text-to-Image Diffusion with
Prototypical Embedding [7.893308498886083]
提案手法は,オブジェクト駆動方式で一般化性と忠実性の課題に対処することを目的としている。
原型埋め込みは、拡散モデルを微調整する前に、オブジェクトの外観とそのクラスに基づいている。
我々の手法は、いくつかの既存の作業より優れています。
論文 参考訳(メタデータ) (2024-01-28T17:11:42Z) - LLM Blueprint: Enabling Text-to-Image Generation with Complex and
Detailed Prompts [60.54912319612113]
拡散に基づく生成モデルは、テキストと画像の生成が著しく進歩するが、長く複雑なテキストプロンプトを処理する際には困難に直面する。
本稿では,Large Language Models (LLM) を利用してテキストプロンプトから重要なコンポーネントを抽出する手法を提案する。
複数のオブジェクトを特徴とする複雑なプロンプトの評価は,ベースライン拡散モデルと比較して,リコールの大幅な改善を示す。
論文 参考訳(メタデータ) (2023-10-16T17:57:37Z) - Multi-object Video Generation from Single Frame Layouts [84.55806837855846]
本研究では,グローバルシーンを局所オブジェクトに合成するビデオ生成フレームワークを提案する。
我々のフレームワークは、画像生成手法からの非自明な適応であり、この分野では新しくなっています。
本モデルは広範に使用されている2つのビデオ認識ベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-05-06T09:07:01Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。