論文の概要: Alterbute: Editing Intrinsic Attributes of Objects in Images
- arxiv url: http://arxiv.org/abs/2601.10714v1
- Date: Thu, 15 Jan 2026 18:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.292744
- Title: Alterbute: Editing Intrinsic Attributes of Objects in Images
- Title(参考訳): Alterbute: 画像中のオブジェクトの固有の属性を編集する
- Authors: Tal Reiss, Daniel Winter, Matan Cohen, Alex Rav-Acha, Yael Pritch, Ariel Shamir, Yedid Hoshen,
- Abstract要約: Alterbuteは、画像中のオブジェクト固有の属性を編集する拡散ベースの方法である。
色、テクスチャ、素材、さらにはオブジェクトの形状さえ変えつつ、認識されたアイデンティティやシーンコンテキストを保存できます。
- 参考スコア(独自算出の注目度): 40.10940376181738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Alterbute, a diffusion-based method for editing an object's intrinsic attributes in an image. We allow changing color, texture, material, and even the shape of an object, while preserving its perceived identity and scene context. Existing approaches either rely on unsupervised priors that often fail to preserve identity or use overly restrictive supervision that prevents meaningful intrinsic variations. Our method relies on: (i) a relaxed training objective that allows the model to change both intrinsic and extrinsic attributes conditioned on an identity reference image, a textual prompt describing the target intrinsic attributes, and a background image and object mask defining the extrinsic context. At inference, we restrict extrinsic changes by reusing the original background and object mask, thereby ensuring that only the desired intrinsic attributes are altered; (ii) Visual Named Entities (VNEs) - fine-grained visual identity categories (e.g., ''Porsche 911 Carrera'') that group objects sharing identity-defining features while allowing variation in intrinsic attributes. We use a vision-language model to automatically extract VNE labels and intrinsic attribute descriptions from a large public image dataset, enabling scalable, identity-preserving supervision. Alterbute outperforms existing methods on identity-preserving object intrinsic attribute editing.
- Abstract(参考訳): 画像中の物体固有の属性を編集する拡散に基づく方法であるAlterbuteを紹介する。
色、テクスチャ、素材、さらにはオブジェクトの形状さえ変えつつ、認識されたアイデンティティやシーンコンテキストを保存できます。
既存のアプローチは、アイデンティティを保持するのにしばしば失敗する教師なしの先駆者に依存するか、意味のある内在的変動を防ぐために過度に制限的な監視を使用するかのいずれかである。
我々の方法は次の通りである。
一 識別基準画像に条件付された内在的属性及び外在的属性の両方をモデルが変更できるようにする緩和訓練目標、対象内在的属性を記述したテキストプロンプト、外在的コンテキストを定義する背景画像及び対象マスク。
推論において、元の背景とオブジェクトマスクを再利用することで、外在的変化を制限することにより、所望の内在的属性のみを変更することを保証する。
(ii) Visual Named Entities (VNEs) - 固有の属性のバリエーションを許容しながら、アイデンティティ定義機能を共有するグループオブジェクト(例: 'Porsche 911 Carrera')。
視覚言語モデルを用いて、大規模な公開画像データセットからVNEラベルや固有属性記述を自動的に抽出し、スケーラブルでアイデンティティを保存する監視を可能にする。
Alterbuteは、ID保存オブジェクト固有の属性編集において、既存のメソッドよりも優れています。
関連論文リスト
- Training-Free Disentangled Text-Guided Image Editing via Sparse Latent Constraints [2.4140502941897544]
テキスト駆動の画像操作は、しばしば属性の絡み合いに悩まされる。
Predict, Prevent, and Evaluate frameworkは、事前訓練された視覚言語モデルを活用して、アンタングル編集に利用することでこの問題に対処する。
実験の結果、提案手法はより集中的で制御された編集を強制し、顔認証を維持しながら意図しない非ターゲット属性の変化を効果的に低減することを示した。
論文 参考訳(メタデータ) (2025-12-25T11:38:10Z) - Beyond Inference Intervention: Identity-Decoupled Diffusion for Face Anonymization [55.29071072675132]
顔の匿名化は、非同一性属性を保持しながら、識別情報を隠蔽することを目的としている。
トレーニング中心の匿名化フレームワークである textbfIDsuperscript2Face を提案する。
IDtextsuperscript2Faceは、視覚的品質、アイデンティティの抑制、ユーティリティ保存において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-10-28T09:28:12Z) - Addressing Text Embedding Leakage in Diffusion-based Image Editing [33.1686050396517]
本稿では属性リークに対処するフレームワークであるAttribute-Leakage-free Editing (ALE)を紹介する。
ALEは、オブジェクト制限埋め込み(ORE)とテキスト埋め込みのアンタングル、空間的に正確に注意を向けるRGB-CAM(Regional-Guided Blending for Cross-Attention Masking)、非編集コンテンツを保存するためにバックグラウンドブレンディング(Backside Blending)を組み合わせる。
論文 参考訳(メタデータ) (2024-12-06T02:10:07Z) - DreamMix: Decoupling Object Attributes for Enhanced Editability in Customized Image Inpainting [56.77074226109392]
本研究では,ユーザ指定領域に対象オブジェクトを挿入できる拡散型フレームワークDreamMixを提案する。
また,DreamMixは,多様なアプリケーション間での属性保存と属性編集のバランスが良好であることを示す。
論文 参考訳(メタデータ) (2024-11-26T08:44:47Z) - ManiCLIP: Multi-Attribute Face Manipulation from Text [104.30600573306991]
テキスト記述に基づく新しい多属性顔操作法を提案する。
本手法は,テキスト関連属性の編集を最小限に抑えた自然な顔を生成する。
論文 参考訳(メタデータ) (2022-10-02T07:22:55Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network [4.654937118111992]
提案手法は,2つのジェネレータと2つの識別器を基本とし,2つの属性の実際の表現と2つのバイナリを利用する。
CelebAデータセットを用いた実験により,他の顔の細部を無傷に保存し,複数の属性の編集を効果的に行うことができた。
論文 参考訳(メタデータ) (2020-04-24T13:38:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。