論文の概要: Vibe Spaces for Creatively Connecting and Expressing Visual Concepts
- arxiv url: http://arxiv.org/abs/2512.14884v1
- Date: Tue, 16 Dec 2025 20:03:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.776968
- Title: Vibe Spaces for Creatively Connecting and Expressing Visual Concepts
- Title(参考訳): 視覚概念の創造的接続と表現のためのバイブ空間
- Authors: Huzheng Yang, Katherine Xu, Andrew Lu, Michael D. Grossberg, Yutong Bai, Jianbo Shi,
- Abstract要約: 我々はコヒーレントで有意義なハイブリッドを生成するための新しいタスクであるVibe Blendingを紹介する。
特徴空間における低次元測地学を学習する階層グラフ多様体Vibe Spaceを提案する。
Vibe Spaceが作り出すブレンドは、人間が現在の方法よりも創造的でコヒーレントである。
- 参考スコア(独自算出の注目度): 17.836186474669848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating new visual concepts often requires connecting distinct ideas through their most relevant shared attributes -- their vibe. We introduce Vibe Blending, a novel task for generating coherent and meaningful hybrids that reveals these shared attributes between images. Achieving such blends is challenging for current methods, which struggle to identify and traverse nonlinear paths linking distant concepts in latent space. We propose Vibe Space, a hierarchical graph manifold that learns low-dimensional geodesics in feature spaces like CLIP, enabling smooth and semantically consistent transitions between concepts. To evaluate creative quality, we design a cognitively inspired framework combining human judgments, LLM reasoning, and a geometric path-based difficulty score. We find that Vibe Space produces blends that humans consistently rate as more creative and coherent than current methods.
- Abstract(参考訳): 新しい視覚的概念を作るには、しばしば、最も関連性の高い共有属性によって、異なるアイデアを結び付ける必要があります。
画像間の共有属性を明らかにするコヒーレントで意味のあるハイブリッドを生成するための新しいタスクであるVibe Blendingを紹介する。
このようなブレンドの達成は、潜在空間における遠い概念を結び付ける非線形経路の特定とトラバースに苦慮している現在の手法にとって困難である。
これはCLIPのような特徴空間における低次元測地学を学習し、概念間の滑らかで意味論的に一貫した遷移を可能にする階層グラフ多様体である。
創造的品質を評価するために,人間の判断,LLM推論,幾何学的パスに基づく難易度スコアを組み合わせた認知的インスピレーションの枠組みを設計した。
Vibe Spaceが作り出すブレンドは、人間が現在の方法よりも創造的でコヒーレントである。
関連論文リスト
- Imagine for Me: Creative Conceptual Blending of Real Images and Text via Blended Attention [11.686174382596667]
人間に対するクロスモーダルな概念ブレンディングは、デザインの固定のような認知バイアスを引き起こす。
本稿では, ブレンディングプロセスの自動化により, 人間の創造性を向上するT2I拡散アダプタ"IT-Blender"を提案する。
論文 参考訳(メタデータ) (2025-06-30T17:41:25Z) - Interpreting the linear structure of vision-language model embedding spaces [12.846590038965774]
我々は、4つの視覚言語モデルの埋め込み空間上でスパースオートエンコーダ(SAE)を訓練・リリースする。
学習方向の疎線形結合としてのSAEs近似モデル埋め込み、あるいは「概念」
異なる種や異なるデータダイエットでSAEをリトレーニングすることは、2つの発見につながる。SAEによって得られた稀で特異な概念は、劇的に変化するが、一般的に活性化される概念は、実行中に著しく安定していることも示している。
論文 参考訳(メタデータ) (2025-04-16T01:40:06Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - Alien Recombination: Exploring Concept Blends Beyond Human Cognitive Availability in Visual Art [90.8684263806649]
視覚芸術の創造において、AIが人間の認知的限界を超越する方法を示します。
我々の研究は、視覚芸術には膨大な未探索の概念的組み合わせが含まれているという仮説を立てている。
本稿では,人間の認知能力を超えた概念の組み合わせを同定し,生成するエイリアン組換え法を提案する。
論文 参考訳(メタデータ) (2024-11-18T11:55:38Z) - How to Blend Concepts in Diffusion Models [48.68800153838679]
近年の手法は複数の潜在表現とその関連性を利用しており、この研究はさらに絡み合っている。
我々のゴールは、潜在空間における操作が根底にある概念にどのように影響するかを理解することです。
我々の結論は、宇宙操作によるブレンドの概念は可能であるが、最良の戦略はブレンドの文脈に依存する。
論文 参考訳(メタデータ) (2024-07-19T13:05:57Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。