論文の概要: Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs
- arxiv url: http://arxiv.org/abs/2311.13960v1
- Date: Thu, 23 Nov 2023 12:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 23:57:29.938081
- Title: Human Machine Co-Creation. A Complementary Cognitive Approach to
Creative Character Design Process Using GANs
- Title(参考訳): 人間の機械の共創。
GANを用いた創造的文字設計プロセスへの補完的認知的アプローチ
- Authors: Mohammad Lataifeh, Xavier A Carrascoa, Ashraf M Elnagara, Naveed
Ahmeda, Imran Junejo
- Abstract要約: 2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
提案するアプローチは、知覚、理解、作成のプロセスを伝えることを目的としている。
マシンが生成した概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Generative Adversarial Networks GANs applications continue
to attract the attention of researchers in different fields. In such a
framework, two neural networks compete adversely to generate new visual
contents indistinguishable from the original dataset. The objective of this
research is to create a complementary codesign process between humans and
machines to augment character designers abilities in visualizing and creating
new characters for multimedia projects such as games and animation. Driven by
design cognitive scaffolding, the proposed approach aims to inform the process
of perceiving, knowing, and making. The machine generated concepts are used as
a launching platform for character designers to conceptualize new characters. A
labelled dataset of 22,000 characters was developed for this work and deployed
using different GANs to evaluate the most suited for the context, followed by
mixed methods evaluation for the machine output and human derivations. The
discussed results substantiate the value of the proposed cocreation framework
and elucidate how the generated concepts are used as cognitive substances that
interact with designers competencies in a versatile manner to influence the
creative processes of conceptualizing novel characters.
- Abstract(参考訳): 生成型逆ネットワークの最近の進歩 gans 応用は、様々な分野の研究者の注目を集め続けている。
このようなフレームワークでは、2つのニューラルネットワークが競合し、元のデータセットと区別できない新しい視覚コンテンツを生成する。
本研究の目的は,ゲームやアニメーションなどのマルチメディアプロジェクトにおけるキャラクタの可視化と作成におけるキャラクタ設計能力を高めるため,人間と機械の補完的なコード署名プロセスを作成することである。
設計認知的足場によって駆動されるこのアプローチは、知覚、理解、および作りの過程を知らせることを目的としている。
マシン生成の概念は、キャラクターデザイナーが新しいキャラクターを概念化するためのローンチプラットフォームとして使用される。
この研究のためにラベル付き22,000文字のデータセットを開発し、異なるGANを用いてコンテキストに最も適した評価を行い、続いて機械出力と人間の導出の混合手法の評価を行った。
提案したコクリエーションフレームワークの価値を検証し,創発された概念がデザイナーの能力と相互作用する認知物質としてどのように利用されているかを明らかにする。
関連論文リスト
- Content-Centric Prototyping of Generative AI Applications: Emerging
Approaches and Challenges in Collaborative Software Teams [2.369736515233951]
私たちの研究は、共同ソフトウェアチームがいかにして設計ガイドラインと価値を適用して適用し、反復的にプロトタイププロンプトを作成し、望ましい結果を達成するためのプロンプトを評価するかを理解することを目的としています。
その結果,コンテンツ中心のプロトタイピングアプローチとして,生成したいコンテンツから始めて,特定の属性,制約,値を識別し,ユーザがそれらの属性に影響を与えて対話する手段を探索する,という方法が明らかになった。
論文 参考訳(メタデータ) (2024-02-27T17:56:10Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - Visual Concept-driven Image Generation with Text-to-Image Diffusion
Model [69.89451490936652]
テキスト・ツー・イメージ(TTI)モデルでは、複雑で想像力のあるシーンの高解像度画像を生成するという印象的な結果が示されている。
近年のアプローチでは、これらの手法をパーソナライズ技術で拡張し、ユーザ認証の概念の統合を可能にしている。
しかし、人間の被写体のような複数の相互作用する概念を持つ画像を生成する能力は、1つにまたがったり、複数にまたがったりする概念は、いまだに説明がつかないままである。
これらの課題に対処する概念駆動型TTIパーソナライズフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T07:28:37Z) - The role of interface design on prompt-mediated creativity in Generative
AI [0.0]
2つのジェネレーティブAIプラットフォームから145,000以上のプロンプトを分析します。
その結果,利用者は以前訪れた概念の活用よりも,新たなトピックを探求する傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-11-30T22:33:34Z) - DreamCreature: Crafting Photorealistic Virtual Creatures from
Imagination [140.1641573781066]
ターゲット概念のラベルなしイメージのセットを前提として、我々は、新しいハイブリッド概念を創出できるT2Iモデルをトレーニングすることを目指している。
そこで我々はDreamCreatureと呼ばれる新しい手法を提案し,その基盤となるサブ概念を同定し抽出する。
したがって、T2Iは忠実な構造とフォトリアリスティックな外観を持つ新しい概念を生成するのに適応する。
論文 参考訳(メタデータ) (2023-11-27T01:24:31Z) - Augmenting Character Designers Creativity Using Generative Adversarial
Networks [0.0]
GAN(Generative Adversarial Networks)は、さまざまな分野の研究者の注目を集めている。
しかし、近年のGANはリアリズムに重点を置いているが、超現実的な出力を生成することはいくつかの領域にとって優先事項ではない。
本稿では,異なるGANアーキテクチャと,新しいビジュアルキャラクタデータセットをスクラッチからトレーニングした場合のパフォーマンスを比較した。
また、転送学習やデータ拡張といった代替手法も検討し、計算資源の制限を克服する。
論文 参考訳(メタデータ) (2023-05-28T10:52:03Z) - Generative Transformers for Design Concept Generation [7.807713821263175]
本研究では,人工知能(AI)分野における自然言語生成技術(NLG)の最近の進歩について考察する。
テキストデータからの知識と推論を活用するために,GPT(Generative Pre-trained Transformer)を用いた新しい手法を提案する。
3つの概念生成タスクは、異なる知識と推論(ドメイン知識合成、問題駆動合成、アナログ駆動合成)を活用するために定義される。
論文 参考訳(メタデータ) (2022-11-07T11:29:10Z) - Pathway to Future Symbiotic Creativity [76.20798455931603]
そこで本研究では, 5クラス階層の創造システムを分類し, 擬人アーティストから機械アーティストへの創造の道筋を示す。
芸術創造においては、機械は欲求、感謝、感情を含む人間の精神状態を理解する必要があるが、機械の創造的能力と限界も理解する必要がある。
我々は、人間互換のAIシステムが「ループ内人間」の原理に基づいているべきだという哲学を取り入れた、未来のマシンアーティストを構築するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-18T15:12:02Z) - Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning [64.6217849133164]
創造的プロセスを特定し,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセット全体にわたる通常のサンプルや非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2022-03-01T15:07:14Z) - CreativeGAN: Editing Generative Adversarial Networks for Creative Design
Synthesis [1.933681537640272]
本論文では,新しいデザインを作成するための自動手法であるCreativeGANを提案する。
デザインをユニークなものにするコンポーネントを識別し、GANモデルを変更することで、識別されたユニークなコンポーネントでデザインを生成する可能性が高まる。
自転車デザインのデータセットを用いて,ユニークなフレームとハンドル,および幅広いデザインの珍しいノベルティを備えた新しい自転車デザインを作成できることを実証した。
論文 参考訳(メタデータ) (2021-03-10T18:22:35Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。