論文の概要: Synthia: Novel Concept Design with Affordance Composition
- arxiv url: http://arxiv.org/abs/2502.17793v1
- Date: Tue, 25 Feb 2025 02:54:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:23:04.301295
- Title: Synthia: Novel Concept Design with Affordance Composition
- Title(参考訳): Synthia: Affordance compositionによる新しいコンセプトデザイン
- Authors: Xiaomeng Jin, Hyeonjeong Ha, Jeonghwan Kim, Jiateng Liu, Zhenhailong Wang, Khanh Duy Nguyen, Ansel Blume, Nanyun Peng, Kai-wei Chang, Heng Ji,
- Abstract要約: 所望の価格に基づいて,新規で機能的なコヒーレントなデザインを生成するためのフレームワークであるSynTHIAを紹介する。
我々は,我々のオントロジーに基づくカリキュラム学習手法を開発し,細粒度T2Iモデルと対比して,段階的に手頃な構成を学習する。
実験の結果,SynTHIAは最先端のT2Iモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 114.19366716161655
- License:
- Abstract: Text-to-image (T2I) models enable rapid concept design, making them widely used in AI-driven design. While recent studies focus on generating semantic and stylistic variations of given design concepts, functional coherence--the integration of multiple affordances into a single coherent concept--remains largely overlooked. In this paper, we introduce SYNTHIA, a framework for generating novel, functionally coherent designs based on desired affordances. Our approach leverages a hierarchical concept ontology that decomposes concepts into parts and affordances, serving as a crucial building block for functionally coherent design. We also develop a curriculum learning scheme based on our ontology that contrastively fine-tunes T2I models to progressively learn affordance composition while maintaining visual novelty. To elaborate, we (i) gradually increase affordance distance, guiding models from basic concept-affordance association to complex affordance compositions that integrate parts of distinct affordances into a single, coherent form, and (ii) enforce visual novelty by employing contrastive objectives to push learned representations away from existing concepts. Experimental results show that SYNTHIA outperforms state-of-the-art T2I models, demonstrating absolute gains of 25.1% and 14.7% for novelty and functional coherence in human evaluation, respectively.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)モデルは、迅速な概念設計を可能にし、AI駆動設計で広く使用される。
近年の研究では、与えられた設計概念のセマンティックなバリエーションと様式的なバリエーションの生成に焦点が当てられているが、機能的コヒーレンス(機能的コヒーレンス)は、複数の余裕を単一のコヒーレントな概念に統合することで、ほとんど見落としている。
本稿では,所望の価格に基づいて,新規で機能的なコヒーレントなデザインを生成するためのフレームワークであるSynTHIAを紹介する。
当社のアプローチでは,概念を部品と余裕に分解する階層的な概念オントロジーを活用し,機能的に一貫性のある設計のための重要なビルディングブロックとして機能する。
また,我々のオントロジーに基づくカリキュラム学習手法を開発し,視覚的ノベルティを維持しつつ,手頃な構成を段階的に学習するT2Iモデルを比較検討した。
詳しくは、
一 段階的に空き距離を増大させ、基本概念充実協会から、別個の空きの一部を一つの一貫した形式に統合する複雑な空き構成までを導いたもの
二 既存の概念から学習した表現を遠ざけるために、対照的な目的を取り入れて視覚的ノベルティを強制すること。
実験の結果、SynTHIAは最先端のT2Iモデルよりも優れており、ヒト評価における新規性と機能的コヒーレンスに対する絶対的な利益が25.1%、14.7%であることが示された。
関連論文リスト
- A Concept-Centric Approach to Multi-Modality Learning [3.828996378105142]
我々は、より効率的なAIシステムを構築するために、新しいマルチモーダリティ学習フレームワークを導入する。
我々のフレームワークは、より効率的な学習曲線を示しながら、ベンチマークモデルと同等に達成する。
論文 参考訳(メタデータ) (2024-12-18T13:40:21Z) - LLM-based Hierarchical Concept Decomposition for Interpretable Fine-Grained Image Classification [5.8754760054410955]
構造化概念解析によるモデル解釈可能性の向上を目的とした新しいフレームワークである textttHi-CoDecomposition を紹介する。
われわれのアプローチは、最先端のモデルの性能だけでなく、意思決定プロセスに対する明確な洞察を提供することで透明性を向上する。
論文 参考訳(メタデータ) (2024-05-29T00:36:56Z) - Advancing Ante-Hoc Explainable Models through Generative Adversarial Networks [24.45212348373868]
本稿では,視覚的分類タスクにおけるモデル解釈可能性と性能を向上させるための新しい概念学習フレームワークを提案する。
本手法では, 教師なし説明生成器を一次分類器ネットワークに付加し, 対角訓練を利用する。
この研究は、タスク整合概念表現を用いた本質的に解釈可能なディープビジョンモデルを構築するための重要なステップを示す。
論文 参考訳(メタデータ) (2024-01-09T16:16:16Z) - Unifying Correspondence, Pose and NeRF for Pose-Free Novel View Synthesis from Stereo Pairs [57.492124844326206]
この研究は、3次元視覚における挑戦的で先駆的な課題であるステレオペアからのポーズレスノベルビュー合成の課題に踏み込んだ。
我々の革新的なフレームワークは、これまでとは違って、シームレスに2D対応マッチング、カメラポーズ推定、NeRFレンダリングを統合し、これらのタスクの相乗的強化を促進します。
論文 参考訳(メタデータ) (2023-12-12T13:22:44Z) - Coarse-to-Fine Concept Bottleneck Models [9.910980079138206]
この研究は、アンテホック解釈可能性、特に概念ボトルネックモデル(CBM)をターゲットにしている。
我々のゴールは、人間の理解可能な概念を2段階の粒度で、高度に解釈可能な意思決定プロセスを認めるフレームワークを設計することである。
この枠組みでは、概念情報は全体像と一般的な非構造概念の類似性にのみ依存せず、画像シーンのパッチ固有の領域に存在するより粒度の細かい概念情報を発見・活用するために概念階層の概念を導入している。
論文 参考訳(メタデータ) (2023-10-03T14:57:31Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - FALCON: Fast Visual Concept Learning by Integrating Images, Linguistic
descriptions, and Conceptual Relations [99.54048050189971]
自然に発生する複数のデータストリームによってガイドされる新しい視覚概念を素早く学習するフレームワークを提案する。
学習された概念は、未知の画像について推論することで質問に答えるなど、下流のアプリケーションをサポートする。
合成と実世界の両方のデータセットにおけるモデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-30T19:45:00Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z) - Learning the Compositional Visual Coherence for Complementary
Recommendations [62.60648815930101]
補完的なレコメンデーションは、ユーザーが獲得したアイテムと補完的で互換性のある製品提案を提供することを目的としている。
本研究では,グローバルコンテンツとセマンティックコンテンツの両方に包括的コンポジションコヒーレンスをモデル化する新しいコンテント注意ニューラルネットワーク(CANN)を提案する。
論文 参考訳(メタデータ) (2020-06-08T06:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。