論文の概要: iCONTRA: Toward Thematic Collection Design Via Interactive Concept
Transfer
- arxiv url: http://arxiv.org/abs/2403.08746v1
- Date: Wed, 13 Mar 2024 17:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 13:07:11.185999
- Title: iCONTRA: Toward Thematic Collection Design Via Interactive Concept
Transfer
- Title(参考訳): iCONTRA:インタラクティブなコンセプトによるテーマコレクションデザインを目指して
移転
- Authors: Dinh-Khoi Vo, Duy-Nam Ly, Khanh-Duy Le, Tam V. Nguyen, Minh-Triet
Tran, Trung-Nghia Le
- Abstract要約: 対話型Concept TRAnsferシステムであるiCONTRAを導入する。
iCONTRAは、経験豊富なデザイナーと初心者の両方が、創造的なデザインコンセプトを熱心に探求することを可能にする。
また、微調整モデルを必要としないゼロショット画像編集アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.35842298296878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating thematic collections in industries demands innovative designs and
cohesive concepts. Designers may face challenges in maintaining thematic
consistency when drawing inspiration from existing objects, landscapes, or
artifacts. While AI-powered graphic design tools offer help, they often fail to
generate cohesive sets based on specific thematic concepts. In response, we
introduce iCONTRA, an interactive CONcept TRAnsfer system. With a user-friendly
interface, iCONTRA enables both experienced designers and novices to
effortlessly explore creative design concepts and efficiently generate thematic
collections. We also propose a zero-shot image editing algorithm, eliminating
the need for fine-tuning models, which gradually integrates information from
initial objects, ensuring consistency in the generation process without
influencing the background. A pilot study suggests iCONTRA's potential to
reduce designers' efforts. Experimental results demonstrate its effectiveness
in producing consistent and high-quality object concept transfers. iCONTRA
stands as a promising tool for innovation and creative exploration in thematic
collection design. The source code will be available at:
https://github.com/vdkhoi20/iCONTRA.
- Abstract(参考訳): 産業における主題的コレクションを作るには、革新的なデザインと結束的な概念が必要である。
デザイナーは、既存のオブジェクト、ランドスケープ、アーティファクトからインスピレーションを得る際に、テーマの一貫性を維持することの課題に直面します。
AIを使ったグラフィックデザインツールは助けを提供するが、特定のテーマの概念に基づいて結束集合を生成するのに失敗することが多い。
そこで本研究では,対話型Concept TRAnsferシステムであるiCONTRAを紹介する。
iCONTRAは、ユーザフレンドリーなインターフェースにより、経験豊富なデザイナーと初心者の両方が、創造的なデザイン概念を熱心に探求し、テーマコレクションを効率的に生成することを可能にする。
また、ゼロショット画像編集アルゴリズムを提案し、微調整モデルの必要性を排除し、初期オブジェクトからの情報を徐々に統合し、背景に影響を与えることなく生成プロセスにおける一貫性を確保する。
パイロット研究は、iCONTRAがデザイナーの努力を減らす可能性を示唆している。
実験結果から,一貫した高品質なオブジェクト・コンセプト・トランスファーの創出の有効性が示された。
iCONTRAは、テーマのコレクションデザインにおける革新と創造的な探索のための有望なツールである。
ソースコードは、https://github.com/vdkhoi20/iCONTRA.comから入手できる。
関連論文リスト
- Empowering Clients: Transformation of Design Processes Due to Generative AI [1.4003044924094596]
この研究は、AIがアイデアの迅速な視覚化を通じて、クライアントが設計プロセスに参加することを可能にすることによって、アイデアのフェーズを破壊できることを明らかにしている。
私たちの研究は、AIが設計に対して貴重なフィードバックを提供することができる一方で、そのような設計を生成できない可能性があることを示しています。
アーキテクチャの解釈的主権と,AIが設計プロセスのオーサシップをますます引き継ぐにつれて,意味とアイデンティティの喪失について,アーキテクトの間に不確実性があることも明らかになった。
論文 参考訳(メタデータ) (2024-11-22T16:48:15Z) - Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping [55.98643055756135]
初歩的なスケッチのWebページプロトタイプへの変換を自動化する上で,最先端のビジョン言語モデル(VLM)を評価するベンチマークであるSketch2Codeを紹介した。
我々は、既存のVLMではSketch2Codeが困難であることを示す10の商用およびオープンソースモデルを分析した。
UI/UXの専門家によるユーザ調査では、受動的フィードバックの受信よりも、積極的に質問を行うのがかなり好まれている。
論文 参考訳(メタデータ) (2024-10-21T17:39:49Z) - PartCraft: Crafting Creative Objects by Parts [128.30514851911218]
本稿では、ユーザが「選択」できることによって、生成的視覚AIにおける創造的制御を促進する。
私たちは初めて、創造的な努力のために、視覚的概念をパーツごとに選択できるようにしました。
選択された視覚概念を正確にキャプチャするきめ細かい生成。
論文 参考訳(メタデータ) (2024-07-05T15:53:04Z) - Inspired by AI? A Novel Generative AI System To Assist Conceptual Automotive Design [6.001793288867721]
デザインインスピレーションは、デザインの方向性を確立するだけでなく、感情を呼び起こし、概念設計プロセス中に意味を伝えるためにも不可欠である。
多くの実践的デザイナーはPinterestのようなプラットフォーム上でテキストベースの検索を使用してイメージのアイデアを集め、続いて紙にスケッチしたり、デジタルツールを使ってコンセプトを開発したりする。
拡散モデルのような新しい生成AI技術は、テキストとイメージインスピレーションインプットに基づいてデザイン概念を迅速に生成することで、これらのプロセスを合理化するための有望な道を提供する。
論文 参考訳(メタデータ) (2024-06-06T17:04:14Z) - I-Design: Personalized LLM Interior Designer [57.00412237555167]
I-Designはパーソナライズされたインテリアデザイナで、自然言語によるコミュニケーションを通じて設計目標の生成と視覚化を可能にする。
I-Designは、対話や論理的推論に従事する大きな言語モデルエージェントのチームから始まる。
最終的な設計は、既存のオブジェクトデータベースから資産を取り出し、統合することで、3Dで構築されます。
論文 参考訳(メタデータ) (2024-04-03T16:17:53Z) - Imagining a Future of Designing with AI: Dynamic Grounding, Constructive
Negotiation, and Sustainable Motivation [13.850610205757633]
我々は、過去の技術と比較して、大きなAIモデルがデザインを提供することのできる新しい価値を分離することを目指している。
自然言語対応基盤モデルの潜在品質を要約した3つの余裕にたどり着きます。
我々の設計プロセス、用語、図は、AI技術の相対的な可利用性に関する将来の議論に貢献することを目的としています。
論文 参考訳(メタデータ) (2024-02-12T00:20:43Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs [0.0]
2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
提案するアプローチは、知覚、理解、作成のプロセスを伝えることを目的としている。
マシンが生成した概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
論文 参考訳(メタデータ) (2023-11-23T12:18:39Z) - Design Space Exploration and Explanation via Conditional Variational
Autoencoders in Meta-model-based Conceptual Design of Pedestrian Bridges [52.77024349608834]
本稿では,条件付き変分オートエンコーダ(CVAE)による人間設計者向上のための性能駆動型設計探索フレームワークを提案する。
CVAEはスイスの歩行者橋の合成例18万件で訓練されている。
論文 参考訳(メタデータ) (2022-11-29T17:28:31Z) - CreativeGAN: Editing Generative Adversarial Networks for Creative Design
Synthesis [1.933681537640272]
本論文では,新しいデザインを作成するための自動手法であるCreativeGANを提案する。
デザインをユニークなものにするコンポーネントを識別し、GANモデルを変更することで、識別されたユニークなコンポーネントでデザインを生成する可能性が高まる。
自転車デザインのデータセットを用いて,ユニークなフレームとハンドル,および幅広いデザインの珍しいノベルティを備えた新しい自転車デザインを作成できることを実証した。
論文 参考訳(メタデータ) (2021-03-10T18:22:35Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。