論文の概要: VIDES: Virtual Interior Design via Natural Language and Visual Guidance
- arxiv url: http://arxiv.org/abs/2308.13795v1
- Date: Sat, 26 Aug 2023 07:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 18:57:03.662983
- Title: VIDES: Virtual Interior Design via Natural Language and Visual Guidance
- Title(参考訳): VIDES: 自然言語と視覚誘導による仮想内装設計
- Authors: Minh-Hien Le and Chi-Bien Chu and Khanh-Duy Le and Tam V. Nguyen and
Minh-Triet Tran and Trung-Nghia Le
- Abstract要約: 本稿では,この課題に対応する仮想内装署名(VIDES)システムを提案する。
生成AIにおける最先端技術を活用することで,室内シーンの概念の生成と編集を支援することができる。
- 参考スコア(独自算出の注目度): 16.35842298296878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interior design is crucial in creating aesthetically pleasing and functional
indoor spaces. However, developing and editing interior design concepts
requires significant time and expertise. We propose Virtual Interior DESign
(VIDES) system in response to this challenge. Leveraging cutting-edge
technology in generative AI, our system can assist users in generating and
editing indoor scene concepts quickly, given user text description and visual
guidance. Using both visual guidance and language as the conditional inputs
significantly enhances the accuracy and coherence of the generated scenes,
resulting in visually appealing designs. Through extensive experimentation, we
demonstrate the effectiveness of VIDES in developing new indoor concepts,
changing indoor styles, and replacing and removing interior objects. The system
successfully captures the essence of users' descriptions while providing
flexibility for customization. Consequently, this system can potentially reduce
the entry barrier for indoor design, making it more accessible to users with
limited technical skills and reducing the time required to create high-quality
images. Individuals who have a background in design can now easily communicate
their ideas visually and effectively present their design concepts.
https://sites.google.com/view/ltnghia/research/VIDES
- Abstract(参考訳): 室内デザインは審美的で機能的な屋内空間を作るのに不可欠である。
しかし、インテリアデザインの概念の開発と編集にはかなりの時間と専門知識が必要である。
本稿では,この課題に対応する仮想内装署名(VIDES)システムを提案する。
生成AIにおける最先端技術を活用することで,ユーザによるテキスト記述や視覚的ガイダンスから,屋内シーンの概念の生成と編集を迅速に行うことができる。
視覚誘導と言語の両方を条件入力として使用することにより、生成されたシーンの精度とコヒーレンスを大幅に向上させ、視覚的に魅力的なデザインをもたらす。
大規模実験により,新しい室内コンセプトの開発,室内スタイルの変更,室内オブジェクトの交換・除去におけるビデの有効性を実証した。
このシステムは、カスタマイズの柔軟性を提供しながら、ユーザの記述の本質をうまく捉えている。
これにより、室内設計の参入障壁を減らし、技術的技術に制限のあるユーザに対してアクセスしやすくし、高品質な画像を作成するのに要する時間を短縮することができる。
デザインのバックグラウンドを持つ個人は、自分のアイデアを視覚的に簡単に伝え、デザインコンセプトを効果的に提示することができる。
https://sites.google.com/view/ltnghia/research/VIDES
関連論文リスト
- DiffDesign: Controllable Diffusion with Meta Prior for Efficient Interior Design Generation [25.532400438564334]
DiffDesignは、メタプリミティブを持つ制御可能な拡散モデルであり、効率的な内部設計生成を実現する。
具体的には,画像データセット上で事前学習した2次元拡散モデルの生成先行をレンダリングバックボーンとして利用する。
さらに、外観、ポーズ、サイズといったデザイン属性を横断的に制御し、視点整合性を強制する最適な転送ベースのアライメントモジュールを導入することで、デノナイジングプロセスをガイドする。
論文 参考訳(メタデータ) (2024-11-25T11:36:34Z) - MagicTailor: Component-Controllable Personalization in Text-to-Image Diffusion Models [51.1034358143232]
本稿では,テキスト・ツー・イメージ(T2I)モデルの境界を押し上げる新しいタスクであるコンポーネント・コントロール可能なパーソナライゼーションを提案する。
これらの課題を克服するために、動的マスケード分解(DM-Deg)を活用して、望ましくない視覚的セマンティクスを動的に摂動させる革新的なフレームワークであるMagicTailorを設計する。
論文 参考訳(メタデータ) (2024-10-17T09:22:53Z) - Inspired by AI? A Novel Generative AI System To Assist Conceptual Automotive Design [6.001793288867721]
デザインインスピレーションは、デザインの方向性を確立するだけでなく、感情を呼び起こし、概念設計プロセス中に意味を伝えるためにも不可欠である。
多くの実践的デザイナーはPinterestのようなプラットフォーム上でテキストベースの検索を使用してイメージのアイデアを集め、続いて紙にスケッチしたり、デジタルツールを使ってコンセプトを開発したりする。
拡散モデルのような新しい生成AI技術は、テキストとイメージインスピレーションインプットに基づいてデザイン概念を迅速に生成することで、これらのプロセスを合理化するための有望な道を提供する。
論文 参考訳(メタデータ) (2024-06-06T17:04:14Z) - I-Design: Personalized LLM Interior Designer [57.00412237555167]
I-Designはパーソナライズされたインテリアデザイナで、自然言語によるコミュニケーションを通じて設計目標の生成と視覚化を可能にする。
I-Designは、対話や論理的推論に従事する大きな言語モデルエージェントのチームから始まる。
最終的な設計は、既存のオブジェクトデータベースから資産を取り出し、統合することで、3Dで構築されます。
論文 参考訳(メタデータ) (2024-04-03T16:17:53Z) - MyVLM: Personalizing VLMs for User-Specific Queries [78.33252556805931]
視覚言語モデルのパーソナライズに向けての第一歩を踏み出し,ユーザが提供する概念を学習し,推論することを可能にする。
様々なユーザ固有の概念を効果的に認識するために,モデルのトグルとして機能する外部概念ヘッドを付加する。
この概念を認識して、VLMの中間機能空間に埋め込まれた新しい概念を学習する。
この埋め込みは、言語モデルを誘導し、ターゲットの概念を生成された応答に自然に統合する。
論文 参考訳(メタデータ) (2024-03-21T17:51:01Z) - DressCode: Autoregressively Sewing and Generating Garments from Text Guidance [61.48120090970027]
DressCodeは、初心者向けのデザインを民主化し、ファッションデザイン、バーチャルトライオン、デジタルヒューマン創造において大きな可能性を秘めている。
まず,テキスト条件の埋め込みとクロスアテンションを統合して縫製パターンを生成する,GPTベースのアーキテクチャであるSewingGPTを紹介する。
次に、トレーニング済みの安定拡散を調整し、タイルベースの衣服用物理レンダリング(PBR)テクスチャを生成します。
論文 参考訳(メタデータ) (2024-01-29T16:24:21Z) - VISHIEN-MAAT: Scrollytelling visualization design for explaining Siamese
Neural Network concept to non-technical users [8.939421900877742]
本研究は,非技術ユーザに対してAIの概念を効果的に説明可能なスクロールテリングを作成するための,新たな可視化設計を提案する。
当社のアプローチは,セールスピッチのような短期間の状況に価値ある視覚化を実現する上で有効です。
論文 参考訳(メタデータ) (2023-04-04T08:26:54Z) - Towards Counterfactual Image Manipulation via CLIP [106.94502632502194]
既存の方法は、顔画像の年齢や性別など、さまざまな視覚特性をリアルに編集することができる。
コントラスト・ランゲージ・イメージ・プレトレーニング(CLIP)を用いたテキスト駆動方式でこの問題を考察する。
定義済みのCLIP空間の方向を利用して、異なる視点から所望の方向に向けて編集を誘導する新しいコントラスト損失を設計する。
論文 参考訳(メタデータ) (2022-07-06T17:02:25Z) - Learning-based pose edition for efficient and interactive design [55.41644538483948]
コンピュータ支援アニメーションアーティストでは、キャラクターのキーポーズは骨格を操作することで定義されている。
キャラクターのポーズは多くの不明確な制約を尊重しなければならないので、結果のリアリズムはアニメーターのスキルと知識に大きく依存する。
ポーズデザインのための効率的なツールを記述し、ユーザーが直感的にポーズを操作してキャラクターアニメーションを作成することができる。
論文 参考訳(メタデータ) (2021-07-01T12:15:02Z) - DeFINE: Delayed Feedback based Immersive Navigation Environment for
Studying Goal-Directed Human Navigation [10.7197371210731]
DeFINE(Delayed Feedback Based Immersive Navigation Environment)は、ナビゲーションタスクの作成と管理を容易にするフレームワークである。
DeFINEは、実験中に参加者にパフォーマンスフィードバックを提供するビルトイン機能を備えている。
論文 参考訳(メタデータ) (2020-03-06T11:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。