論文の概要: Using Computational Approaches in Visual Identity Design: A Visual
Identity for the Design and Multimedia Courses of Faculty of Sciences and
Technology of University of Coimbra
- arxiv url: http://arxiv.org/abs/2209.03420v1
- Date: Wed, 7 Sep 2022 18:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:24:28.217054
- Title: Using Computational Approaches in Visual Identity Design: A Visual
Identity for the Design and Multimedia Courses of Faculty of Sciences and
Technology of University of Coimbra
- Title(参考訳): ビジュアルアイデンティティデザインにおける計算的アプローチの利用--コインブラ大学理工学部デザイン・マルチメディアコースの視覚的アイデンティティ
- Authors: S\'ergio M. Rebelo, Tiago Martins, Artur Rebelo, Jo\~ao Bicker,
Penousal Machado
- Abstract要約: 我々は,白黒の視覚モジュールを自動的に組み立てる生成設計システムを開発した。
このシステムは、1つの視覚的アイデンティティ設計の設計と展開のプロセスを高速化し、その間の視覚的一貫性を出力する。
- 参考スコア(独自算出の注目度): 0.8399688944263843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational approaches are beginning to be used to design dynamic visual
identities fuelled by data and generative processes. In this work, we explore
these computational approaches in order to generate a visual identity that
creates bespoke letterings and images. We achieve this developing a generative
design system that automatically assembles black and white visual modules. This
system generates designs performing two main methods: (i) Assisted generation;
and (ii) Automatic generation. Assisted generation method produces outputs
wherein the placement of modules is determined by a configuration file previous
defined. On the other hand, the Automatic generation method produces outputs
wherein the modules are assembled to depict an input image. This system speeds
up the process of design and deployment of one visual identity design as well
as it generates outputs visual coherent among them. In this paper, we
compressively describe this system and its achievements.
- Abstract(参考訳): 計算のアプローチは、データと生成プロセスによって引き起こされる動的な視覚のアイデンティティを設計するために使われ始めている。
本研究は,これらの計算手法を探求し,視覚的なアイデンティティを生成させ,自発的な文字や画像を生成する。
我々は、黒と白のビジュアルモジュールを自動的に組み立てる生成設計システムを開発する。
このシステムは2つの主要な方法を実行する設計を生成する。
(i)援助世代、及び
(ii)自動生成。
補助生成法は、以前に定義された構成ファイルによってモジュールの配置が決定される出力を生成する。
一方、自動生成方式では、モジュールを組み立てて入力画像を記述する出力を生成する。
このシステムは、1つの視覚的アイデンティティ設計の設計と展開のプロセスを高速化し、その間の視覚的一貫性を出力する。
本稿では,このシステムとその成果を圧縮的に記述する。
関連論文リスト
- Generative Timelines for Instructed Visual Assembly [106.80501761556606]
この研究の目的は、自然言語の指示を通じて視覚的タイムライン(例えばビデオ)を操作することである。
そこで本研究では,教師付き視覚アセンブリタスクの実行を訓練した生成モデルであるTimeline Assemblerを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:26:30Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は、大規模な実験を行い、パブリックなマルチモーダルレイアウト生成ベンチマーク上で、最先端(SOTA)性能を達成した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - Content-Centric Prototyping of Generative AI Applications: Emerging
Approaches and Challenges in Collaborative Software Teams [2.369736515233951]
私たちの研究は、共同ソフトウェアチームがいかにして設計ガイドラインと価値を適用して適用し、反復的にプロトタイププロンプトを作成し、望ましい結果を達成するためのプロンプトを評価するかを理解することを目的としています。
その結果,コンテンツ中心のプロトタイピングアプローチとして,生成したいコンテンツから始めて,特定の属性,制約,値を識別し,ユーザがそれらの属性に影響を与えて対話する手段を探索する,という方法が明らかになった。
論文 参考訳(メタデータ) (2024-02-27T17:56:10Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs [0.0]
2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
提案するアプローチは、知覚、理解、作成のプロセスを伝えることを目的としている。
マシンが生成した概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
論文 参考訳(メタデータ) (2023-11-23T12:18:39Z) - InstructCV: Instruction-Tuned Text-to-Image Diffusion Models as Vision Generalists [66.85125112199898]
我々は,タスク固有の設計選択を抽象化する,コンピュータビジョンタスクのための統一言語インタフェースを開発する。
InstructCVと呼ばれる我々のモデルは、他のジェネラリストやタスク固有の視覚モデルと比較して競合的に機能する。
論文 参考訳(メタデータ) (2023-09-30T14:26:43Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Object-Centric Relational Representations for Image Generation [18.069747511100132]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件画像生成手法を提案する。
このようなアーキテクチャバイアスには,生成過程の操作と条件付けを容易にする特性が伴うことを示す。
また,関係表現と組み合わせた画像の合成データセットからなる画像生成のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Biologically Inspired Design Concept Generation Using Generative
Pre-Trained Transformers [13.852758740799452]
本稿では、生成事前学習言語モデル(PLM)に基づく生成設計手法を提案する。
問題空間表現のゆるさに応じて、3種類の設計概念生成器をPLMから同定し、微調整する。
このアプローチは評価され、その後、軽量の空飛ぶ自動車を設計する現実世界のプロジェクトで使用される。
論文 参考訳(メタデータ) (2022-12-26T16:06:04Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。