論文の概要: Using Computational Approaches in Visual Identity Design: A Visual
Identity for the Design and Multimedia Courses of Faculty of Sciences and
Technology of University of Coimbra
- arxiv url: http://arxiv.org/abs/2209.03420v1
- Date: Wed, 7 Sep 2022 18:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-09 13:24:28.217054
- Title: Using Computational Approaches in Visual Identity Design: A Visual
Identity for the Design and Multimedia Courses of Faculty of Sciences and
Technology of University of Coimbra
- Title(参考訳): ビジュアルアイデンティティデザインにおける計算的アプローチの利用--コインブラ大学理工学部デザイン・マルチメディアコースの視覚的アイデンティティ
- Authors: S\'ergio M. Rebelo, Tiago Martins, Artur Rebelo, Jo\~ao Bicker,
Penousal Machado
- Abstract要約: 我々は,白黒の視覚モジュールを自動的に組み立てる生成設計システムを開発した。
このシステムは、1つの視覚的アイデンティティ設計の設計と展開のプロセスを高速化し、その間の視覚的一貫性を出力する。
- 参考スコア(独自算出の注目度): 0.8399688944263843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational approaches are beginning to be used to design dynamic visual
identities fuelled by data and generative processes. In this work, we explore
these computational approaches in order to generate a visual identity that
creates bespoke letterings and images. We achieve this developing a generative
design system that automatically assembles black and white visual modules. This
system generates designs performing two main methods: (i) Assisted generation;
and (ii) Automatic generation. Assisted generation method produces outputs
wherein the placement of modules is determined by a configuration file previous
defined. On the other hand, the Automatic generation method produces outputs
wherein the modules are assembled to depict an input image. This system speeds
up the process of design and deployment of one visual identity design as well
as it generates outputs visual coherent among them. In this paper, we
compressively describe this system and its achievements.
- Abstract(参考訳): 計算のアプローチは、データと生成プロセスによって引き起こされる動的な視覚のアイデンティティを設計するために使われ始めている。
本研究は,これらの計算手法を探求し,視覚的なアイデンティティを生成させ,自発的な文字や画像を生成する。
我々は、黒と白のビジュアルモジュールを自動的に組み立てる生成設計システムを開発する。
このシステムは2つの主要な方法を実行する設計を生成する。
(i)援助世代、及び
(ii)自動生成。
補助生成法は、以前に定義された構成ファイルによってモジュールの配置が決定される出力を生成する。
一方、自動生成方式では、モジュールを組み立てて入力画像を記述する出力を生成する。
このシステムは、1つの視覚的アイデンティティ設計の設計と展開のプロセスを高速化し、その間の視覚的一貫性を出力する。
本稿では,このシステムとその成果を圧縮的に記述する。
関連論文リスト
- Multimodal graph representation learning for website generation based on visual sketch [1.515687944002438]
Design2Codeの問題は、デジタルデザインを機能的なソースコードに変換することである。
伝統的なアプローチは、Webページの設計に固有の複雑な視覚的詳細と構造的関係を正確に解釈するのにしばしば苦労する。
本稿では,これらの課題に対処するために,マルチモーダルグラフ表現学習を活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-25T22:48:10Z) - UniToken: Harmonizing Multimodal Understanding and Generation through Unified Visual Encoding [84.87802580670579]
離散表現と連続表現の組み合わせによって視覚入力を符号化する自動回帰生成モデルUniTokenを導入する。
我々の統合ビジュアルエンコーディングフレームワークは、多次元情報を提供しながら、高レベルのセマンティクスと低レベルの詳細の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-04-06T09:20:49Z) - Harmonizing Visual Representations for Unified Multimodal Understanding and Generation [53.01486796503091]
我々は,共有MARエンコーダによる理解と生成タスクを調和させる統合自己回帰フレームワークであるemphHarmonを提案する。
HarmonはGenEval、MJHQ30K、WISEベンチマークで最先端の画像生成結果を達成する。
論文 参考訳(メタデータ) (2025-03-27T20:50:38Z) - Generative AI for Vision: A Comprehensive Study of Frameworks and Applications [0.0]
生成AIは画像合成を変換し、高品質で多様性があり、フォトリアリスティックなビジュアルを作成することができる。
本研究は,入力の性質に基づく画像生成技術の構造的分類を提案する。
DALL-E、ControlNet、DeepSeek Janus-Proといった主要なフレームワークを強調し、計算コスト、データバイアス、ユーザ意図とのアウトプットアライメントといった課題に対処します。
論文 参考訳(メタデータ) (2025-01-29T22:42:05Z) - VARGPT: Unified Understanding and Generation in a Visual Autoregressive Multimodal Large Language Model [38.61292051733335]
VARGPTは,単一の自己回帰フレームワーク内で視覚的理解と生成を統一する,新しいマルチモーダル大規模言語モデルである。
VarGPTは視覚理解のための次世代予測パラダイムと、視覚自己回帰生成のための次世代予測パラダイムを採用している。
特に、VARGPTは自己回帰的視覚生成と命令-画像合成の能力を自然にサポートし、視覚的理解と生成の両タスクにおいてその汎用性を示す。
論文 参考訳(メタデータ) (2025-01-21T17:50:43Z) - Object-level Visual Prompts for Compositional Image Generation [75.6085388740087]
テキストから画像への拡散モデルにおいて,オブジェクトレベルの視覚的プロンプトを構成する手法を提案する。
このタスクにおける重要な課題は、入力された視覚的プロンプトで表現されたオブジェクトのアイデンティティを保持することである。
我々は、キーと値が異なる視覚的表現から学習される新しいKV混合のクロスアテンション機構を導入する。
論文 参考訳(メタデータ) (2025-01-02T18:59:44Z) - Generative Timelines for Instructed Visual Assembly [106.80501761556606]
この研究の目的は、自然言語の指示を通じて視覚的タイムライン(例えばビデオ)を操作することである。
そこで本研究では,教師付き視覚アセンブリタスクの実行を訓練した生成モデルであるTimeline Assemblerを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:26:30Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は、大規模な実験を行い、パブリックなマルチモーダルレイアウト生成ベンチマーク上で、最先端(SOTA)性能を達成した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - Content-Centric Prototyping of Generative AI Applications: Emerging
Approaches and Challenges in Collaborative Software Teams [2.369736515233951]
私たちの研究は、共同ソフトウェアチームがいかにして設計ガイドラインと価値を適用して適用し、反復的にプロトタイププロンプトを作成し、望ましい結果を達成するためのプロンプトを評価するかを理解することを目的としています。
その結果,コンテンツ中心のプロトタイピングアプローチとして,生成したいコンテンツから始めて,特定の属性,制約,値を識別し,ユーザがそれらの属性に影響を与えて対話する手段を探索する,という方法が明らかになった。
論文 参考訳(メタデータ) (2024-02-27T17:56:10Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs [0.0]
2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
提案するアプローチは、知覚、理解、作成のプロセスを伝えることを目的としている。
マシンが生成した概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
論文 参考訳(メタデータ) (2023-11-23T12:18:39Z) - InstructCV: Instruction-Tuned Text-to-Image Diffusion Models as Vision Generalists [66.85125112199898]
我々は,タスク固有の設計選択を抽象化する,コンピュータビジョンタスクのための統一言語インタフェースを開発する。
InstructCVと呼ばれる我々のモデルは、他のジェネラリストやタスク固有の視覚モデルと比較して競合的に機能する。
論文 参考訳(メタデータ) (2023-09-30T14:26:43Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Object-Centric Relational Representations for Image Generation [18.069747511100132]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件画像生成手法を提案する。
このようなアーキテクチャバイアスには,生成過程の操作と条件付けを容易にする特性が伴うことを示す。
また,関係表現と組み合わせた画像の合成データセットからなる画像生成のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Biologically Inspired Design Concept Generation Using Generative
Pre-Trained Transformers [13.852758740799452]
本稿では、生成事前学習言語モデル(PLM)に基づく生成設計手法を提案する。
問題空間表現のゆるさに応じて、3種類の設計概念生成器をPLMから同定し、微調整する。
このアプローチは評価され、その後、軽量の空飛ぶ自動車を設計する現実世界のプロジェクトで使用される。
論文 参考訳(メタデータ) (2022-12-26T16:06:04Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。