論文の概要: Match-and-Fuse: Consistent Generation from Unstructured Image Sets
- arxiv url: http://arxiv.org/abs/2511.22287v1
- Date: Thu, 27 Nov 2025 10:11:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.501844
- Title: Match-and-Fuse: Consistent Generation from Unstructured Image Sets
- Title(参考訳): Match-and-Fuse:非構造化画像集合からの一貫性生成
- Authors: Kate Feingold, Omri Kaduri, Tali Dekel,
- Abstract要約: Match-and-Fuseは、ゼロショットでトレーニング不要な、非構造化画像セットの一貫性のある生成方法である。
共有コンテンツのクロスイメージ一貫性を保持する新しいセットを生成する。
最先端の一貫性と視覚的品質を実現し、画像コレクションからコンテンツを作成するための新機能をアンロックする。
- 参考スコア(独自算出の注目度): 19.406471754824576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Match-and-Fuse - a zero-shot, training-free method for consistent controlled generation of unstructured image sets - collections that share a common visual element, yet differ in viewpoint, time of capture, and surrounding content. Unlike existing methods that operate on individual images or densely sampled videos, our framework performs set-to-set generation: given a source set and user prompts, it produces a new set that preserves cross-image consistency of shared content. Our key idea is to model the task as a graph, where each node corresponds to an image and each edge triggers a joint generation of image pairs. This formulation consolidates all pairwise generations into a unified framework, enforcing their local consistency while ensuring global coherence across the entire set. This is achieved by fusing internal features across image pairs, guided by dense input correspondences, without requiring masks or manual supervision. It also allows us to leverage an emergent prior in text-to-image models that encourages coherent generation when multiple views share a single canvas. Match-and-Fuse achieves state-of-the-art consistency and visual quality, and unlocks new capabilities for content creation from image collections.
- Abstract(参考訳): Match-and-Fuse - ゼロショットでトレーニング不要な、非構造化イメージセットを一貫した制御で生成する手法 - 共通のビジュアル要素を共有しながら、視点、キャプチャ時間、周辺コンテンツが異なるコレクションを提供する。
個々の画像や密集したビデオを扱う既存の方法とは異なり、我々のフレームワークは、ソースセットとユーザプロンプトが与えられた場合、共有コンテンツのクロスイメージ一貫性を保持する新しいセットを生成する。
我々のキーとなるアイデアはタスクをグラフとしてモデル化することであり、各ノードは画像に対応し、各エッジは画像ペアの合同生成をトリガーする。
この定式化は、すべてのペア世代を統一されたフレームワークに集約し、その局所的な一貫性を強制し、集合全体のグローバルコヒーレンスを保証する。
これは、マスクや手動による監督を必要とせず、濃密な入力対応によって誘導される画像対に内部機能を融合させることによって達成される。
また、複数のビューが単一のキャンバスを共有するとき、コヒーレントな生成を促進するために、テキストから画像モデルに先立って創発的を活用できます。
Match-and-Fuseは最先端の一貫性と視覚的品質を実現し、画像コレクションからコンテンツを作成するための新機能をアンロックする。
関連論文リスト
- Canvas-to-Image: Compositional Image Generation with Multimodal Controls [51.44122945214702]
Canvas-to-Imageは、異種制御を単一のキャンバスインターフェースに統合する統合フレームワークである。
私たちのキーとなるアイデアは、多様な制御信号を単一の合成キャンバス画像にエンコードすることで、モデルが統合された視覚空間的推論を解釈できるようにすることです。
論文 参考訳(メタデータ) (2025-11-26T18:59:56Z) - ReMix: Towards a Unified View of Consistent Character Generation and Editing [22.04681457337335]
ReMixは、文字一貫性の生成と編集のための統一されたフレームワークである。
ReMixモジュールとIP-ControlNetという2つのコアコンポーネントで構成されている。
ReMixはパーソナライズされた生成、画像編集、スタイル転送、マルチ条件合成など、幅広いタスクをサポートしている。
論文 参考訳(メタデータ) (2025-10-11T10:31:56Z) - Generative Panoramic Image Stitching [10.512280991285893]
本研究では, シームレスなパノラマ合成を目的としたパノラマ画像縫合作業について紹介する。
従来の画像縫合パイプラインは、パノラマの大きなコヒーレントな領域を合成する際に失敗する。
本稿では,複数の参照画像に基づいてシーンの内容とレイアウトを保存するために,拡散型塗装モデルを微調整する手法を提案する。
論文 参考訳(メタデータ) (2025-07-08T22:07:12Z) - Unified Autoregressive Visual Generation and Understanding with Continuous Tokens [52.21981295470491]
We present UniFluid, a unified autoregressive framework for joint visual generation and understanding。
我々の統合自己回帰アーキテクチャはマルチモーダル画像とテキスト入力を処理し、テキストの離散トークンと画像の連続トークンを生成する。
画像生成と理解タスクの間には本質的にトレードオフがあることに気付きましたが、注意深く調整されたトレーニングレシピによって互いに改善できるようになりました。
論文 参考訳(メタデータ) (2025-03-17T17:58:30Z) - Content-Aware Preserving Image Generation [6.774749118736612]
本稿では,出力画像に所望のコンテンツを組み込むように設計された,新たな画像生成フレームワークを提案する。
このフレームワークは高度な符号化技術を利用し、コンテンツ融合と周波数符号化モジュールを統合する。
Flickr-Faces-High Quality、Animal Faces High Quality、大規模シーン理解データセットなど、広く使用されているベンチマークデータセットでテストが行われる。
論文 参考訳(メタデータ) (2024-11-15T01:32:19Z) - GroundingBooth: Grounding Text-to-Image Customization [17.185571339157075]
GroundingBoothは、前景と背景オブジェクトの両方にゼロショット、インスタンスレベルの空間的グラウンドを実現する。
提案するグラウンドモジュールと主観的なクロスアテンション層は、パーソナライズされた画像の作成を可能にする。
論文 参考訳(メタデータ) (2024-09-13T03:40:58Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - OneGAN: Simultaneous Unsupervised Learning of Conditional Image
Generation, Foreground Segmentation, and Fine-Grained Clustering [100.32273175423146]
本研究では、教師なしの方法で、条件付き画像生成装置、前景抽出とセグメンテーション、オブジェクトの削除と背景補完を同時に学習する方法を提案する。
Geneversarative Adrial Network と Variational Auto-Encoder を組み合わせることで、複数のエンコーダ、ジェネレータ、ディスクリミネータを組み合わせ、全てのタスクを一度に解くことができる。
論文 参考訳(メタデータ) (2019-12-31T18:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。