論文の概要: Using Computational Approaches in Visual Identity Design: A Visual
Identity for the Design and Multimedia Courses of Faculty of Sciences and
Technology of University of Coimbra
- arxiv url: http://arxiv.org/abs/2209.03420v1
- Date: Wed, 7 Sep 2022 18:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:24:28.217054
- Title: Using Computational Approaches in Visual Identity Design: A Visual
Identity for the Design and Multimedia Courses of Faculty of Sciences and
Technology of University of Coimbra
- Title(参考訳): ビジュアルアイデンティティデザインにおける計算的アプローチの利用--コインブラ大学理工学部デザイン・マルチメディアコースの視覚的アイデンティティ
- Authors: S\'ergio M. Rebelo, Tiago Martins, Artur Rebelo, Jo\~ao Bicker,
Penousal Machado
- Abstract要約: 我々は,白黒の視覚モジュールを自動的に組み立てる生成設計システムを開発した。
このシステムは、1つの視覚的アイデンティティ設計の設計と展開のプロセスを高速化し、その間の視覚的一貫性を出力する。
- 参考スコア(独自算出の注目度): 0.8399688944263843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational approaches are beginning to be used to design dynamic visual
identities fuelled by data and generative processes. In this work, we explore
these computational approaches in order to generate a visual identity that
creates bespoke letterings and images. We achieve this developing a generative
design system that automatically assembles black and white visual modules. This
system generates designs performing two main methods: (i) Assisted generation;
and (ii) Automatic generation. Assisted generation method produces outputs
wherein the placement of modules is determined by a configuration file previous
defined. On the other hand, the Automatic generation method produces outputs
wherein the modules are assembled to depict an input image. This system speeds
up the process of design and deployment of one visual identity design as well
as it generates outputs visual coherent among them. In this paper, we
compressively describe this system and its achievements.
- Abstract(参考訳): 計算のアプローチは、データと生成プロセスによって引き起こされる動的な視覚のアイデンティティを設計するために使われ始めている。
本研究は,これらの計算手法を探求し,視覚的なアイデンティティを生成させ,自発的な文字や画像を生成する。
我々は、黒と白のビジュアルモジュールを自動的に組み立てる生成設計システムを開発する。
このシステムは2つの主要な方法を実行する設計を生成する。
(i)援助世代、及び
(ii)自動生成。
補助生成法は、以前に定義された構成ファイルによってモジュールの配置が決定される出力を生成する。
一方、自動生成方式では、モジュールを組み立てて入力画像を記述する出力を生成する。
このシステムは、1つの視覚的アイデンティティ設計の設計と展開のプロセスを高速化し、その間の視覚的一貫性を出力する。
本稿では,このシステムとその成果を圧縮的に記述する。
関連論文リスト
- Generative AI for Vision: A Comprehensive Study of Frameworks and Applications [0.0]
生成AIは画像合成を変換し、高品質で多様性があり、フォトリアリスティックなビジュアルを作成することができる。
本研究は,入力の性質に基づく画像生成技術の構造的分類を提案する。
DALL-E、ControlNet、DeepSeek Janus-Proといった主要なフレームワークを強調し、計算コスト、データバイアス、ユーザ意図とのアウトプットアライメントといった課題に対処します。
論文 参考訳(メタデータ) (2025-01-29T22:42:05Z) - VARGPT: Unified Understanding and Generation in a Visual Autoregressive Multimodal Large Language Model [38.61292051733335]
VARGPTは,単一の自己回帰フレームワーク内で視覚的理解と生成を統一する,新しいマルチモーダル大規模言語モデルである。
VarGPTは視覚理解のための次世代予測パラダイムと、視覚自己回帰生成のための次世代予測パラダイムを採用している。
特に、VARGPTは自己回帰的視覚生成と命令-画像合成の能力を自然にサポートし、視覚的理解と生成の両タスクにおいてその汎用性を示す。
論文 参考訳(メタデータ) (2025-01-21T17:50:43Z) - Object-level Visual Prompts for Compositional Image Generation [75.6085388740087]
テキストから画像への拡散モデルにおいて,オブジェクトレベルの視覚的プロンプトを構成する手法を提案する。
このタスクにおける重要な課題は、入力された視覚的プロンプトで表現されたオブジェクトのアイデンティティを保持することである。
我々は、キーと値が異なる視覚的表現から学習される新しいKV混合のクロスアテンション機構を導入する。
論文 参考訳(メタデータ) (2025-01-02T18:59:44Z) - Generative Timelines for Instructed Visual Assembly [106.80501761556606]
この研究の目的は、自然言語の指示を通じて視覚的タイムライン(例えばビデオ)を操作することである。
そこで本研究では,教師付き視覚アセンブリタスクの実行を訓練した生成モデルであるTimeline Assemblerを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:26:30Z) - PosterLLaVa: Constructing a Unified Multi-modal Layout Generator with LLM [58.67882997399021]
本研究では,グラフィックレイアウトの自動生成のための統合フレームワークを提案する。
データ駆動方式では、レイアウトを生成するために構造化テキスト(JSONフォーマット)とビジュアルインストラクションチューニングを用いる。
我々は,ユーザのデザイン意図に基づいて編集可能なポスターを生成する自動テキスト投稿システムを開発した。
論文 参考訳(メタデータ) (2024-06-05T03:05:52Z) - Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs [0.0]
2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
提案するアプローチは、知覚、理解、作成のプロセスを伝えることを目的としている。
マシンが生成した概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
論文 参考訳(メタデータ) (2023-11-23T12:18:39Z) - InstructCV: Instruction-Tuned Text-to-Image Diffusion Models as Vision Generalists [66.85125112199898]
我々は,タスク固有の設計選択を抽象化する,コンピュータビジョンタスクのための統一言語インタフェースを開発する。
InstructCVと呼ばれる我々のモデルは、他のジェネラリストやタスク固有の視覚モデルと比較して競合的に機能する。
論文 参考訳(メタデータ) (2023-09-30T14:26:43Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。