論文の概要: The role of interface design on prompt-mediated creativity in Generative
AI
- arxiv url: http://arxiv.org/abs/2312.00233v2
- Date: Sat, 17 Feb 2024 13:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 04:21:23.671134
- Title: The role of interface design on prompt-mediated creativity in Generative
AI
- Title(参考訳): ジェネレーティブAIの創造性におけるインタフェース設計の役割
- Authors: Maddalena Torricelli, Mauro Martino, Andrea Baronchelli, Luca Maria
Aiello
- Abstract要約: 2つのジェネレーティブAIプラットフォームから145,000以上のプロンプトを分析します。
その結果,利用者は以前訪れた概念の活用よりも,新たなトピックを探求する傾向にあることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI for the creation of images is becoming a staple in the toolkit
of digital artists and visual designers. The interaction with these systems is
mediated by \emph{prompting}, a process in which users write a short text to
describe the desired image's content and style. The study of prompts offers an
unprecedented opportunity to gain insight into the process of human creativity.
Yet, our understanding of how people use them remains limited. We analyze more
than 145,000 prompts from the logs of two Generative AI platforms (Stable
Diffusion and Pick-a-Pic) to shed light on how people \emph{explore} new
concepts over time, and how their exploration might be influenced by different
design choices in human-computer interfaces to Generative AI. We find that
users exhibit a tendency towards exploration of new topics over exploitation of
concepts visited previously. However, a comparative analysis of the two
platforms, which differ both in scope and functionalities, reveals some stark
differences. Features diverting user focus from prompting and providing instead
shortcuts for quickly generating image variants are associated with a
considerable reduction in both exploration of novel concepts and detail in the
submitted prompts. These results carry direct implications for the design of
human interfaces to Generative AI and raise new questions regarding how the
process of prompting should be aided in ways that best support creativity.
- Abstract(参考訳): 画像作成のための生成AIは、デジタルアーティストやビジュアルデザイナのツールキットの定番になりつつある。
これらのシステムとのインタラクションは、ユーザが所望のイメージの内容とスタイルを記述するための短いテキストを書くプロセスである \emph{prompting} によって媒介される。
プロンプトの研究は、人間の創造性に関する洞察を得る前例のない機会を提供する。
しかし、人々の使い方に対する私たちの理解は限定的です。
我々は、2つの生成型aiプラットフォーム(stable diffusion と pick-a-pic)のログから145,000以上のプロンプトを分析し、人々が時間とともにどのように新しい概念を展開するか、そしてそれらの探索が、人間-コンピュータインターフェイスから生成型aiへの異なるデザイン選択にどのように影響するかを明らかにした。
利用者は,前回訪問した概念の活用よりも,新たなトピックの探求の傾向がみられた。
しかし、この2つのプラットフォームの比較分析によって、スコープと機能の両方が異なることが判明した。
画像の変種を高速に生成するためのショートカットのプロンプトと提供からユーザフォーカスを逸脱させる機能は、新規概念の探索と提案されたプロンプトの細部の両方で大幅に削減される。
これらの結果は、ヒューマンインターフェースの設計をジェネレーティブAIに直接的な意味を持ち、プロンプトのプロセスがクリエイティビティを最も支援する方法でどのように役立つべきか、という新たな疑問を提起する。
関連論文リスト
- Inspired by AI? A Novel Generative AI System To Assist Conceptual Automotive Design [6.001793288867721]
デザインインスピレーションは、デザインの方向性を確立するだけでなく、感情を呼び起こし、概念設計プロセス中に意味を伝えるためにも不可欠である。
多くの実践的デザイナーはPinterestのようなプラットフォーム上でテキストベースの検索を使用してイメージのアイデアを集め、続いて紙にスケッチしたり、デジタルツールを使ってコンセプトを開発したりする。
拡散モデルのような新しい生成AI技術は、テキストとイメージインスピレーションインプットに基づいてデザイン概念を迅速に生成することで、これらのプロセスを合理化するための有望な道を提供する。
論文 参考訳(メタデータ) (2024-06-06T17:04:14Z) - Generating Human-Centric Visual Cues for Human-Object Interaction
Detection via Large Vision-Language Models [59.611697856666304]
人-物対検出(Human-object Interaction:HOI)は、人-物対を検出し、その相互作用を予測することを目的とする。
我々はVLMを用いた3つのプロンプトを提案し、人間の複数の視点から画像内で人間中心の視覚的手がかりを生成する。
我々は,マルチトワーアーキテクチャを用いたトランスフォーマーベースのマルチモーダル融合モジュールを開発し,視覚的キュー機能をインスタンスと対話デコーダに統合する。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - VISHIEN-MAAT: Scrollytelling visualization design for explaining Siamese
Neural Network concept to non-technical users [8.939421900877742]
本研究は,非技術ユーザに対してAIの概念を効果的に説明可能なスクロールテリングを作成するための,新たな可視化設計を提案する。
当社のアプローチは,セールスピッチのような短期間の状況に価値ある視覚化を実現する上で有効です。
論文 参考訳(メタデータ) (2023-04-04T08:26:54Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - How to Prompt? Opportunities and Challenges of Zero- and Few-Shot
Learning for Human-AI Interaction in Creative Applications of Generative
Models [29.420160518026496]
我々は,人間-AIインタラクションの新しいパラダイムとしてプロンプトを利用するインタラクティブなクリエイティブアプリケーションのための機会と課題について論じる。
本分析に基づき,プロンプトをサポートするユーザインタフェースの設計目標を4つ提案する。
これらは、クリエイティブな記述のユースケースに焦点を当てた、具体的なUIデザインスケッチで説明します。
論文 参考訳(メタデータ) (2022-09-03T10:16:34Z) - Pathway to Future Symbiotic Creativity [76.20798455931603]
そこで本研究では, 5クラス階層の創造システムを分類し, 擬人アーティストから機械アーティストへの創造の道筋を示す。
芸術創造においては、機械は欲求、感謝、感情を含む人間の精神状態を理解する必要があるが、機械の創造的能力と限界も理解する必要がある。
我々は、人間互換のAIシステムが「ループ内人間」の原理に基づいているべきだという哲学を取り入れた、未来のマシンアーティストを構築するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-18T15:12:02Z) - A Taxonomy of Prompt Modifiers for Text-To-Image Generation [6.903929927172919]
本稿では,3ヶ月のエスノグラフィー研究に基づいて,オンラインコミュニティの実践者が使用する6種類のプロンプト修飾剤を同定する。
プロンプト修飾子の新たな分類法は、テキスト・ツー・イメージ・ジェネレーションの実践を研究するための概念的な出発点となる。
本稿では,人間-コンピュータインタラクション分野における新しい創造的実践の機会について論じる。
論文 参考訳(メタデータ) (2022-04-20T06:15:50Z) - SGEITL: Scene Graph Enhanced Image-Text Learning for Visual Commonsense
Reasoning [61.57887011165744]
マルチモーダルトランスフォーマーはVisual Commonsense Reasoningのタスクにおいて大きな進歩を遂げた。
視覚的なシーングラフを常識的推論に組み込むためのScene Graph Enhanced Image-Text Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-16T03:16:30Z) - Telling Creative Stories Using Generative Visual Aids [52.623545341588304]
私たちはライターに、開始プロンプトからクリエイティブなストーリーを書くように頼み、同じプロンプトから生成するAIモデルによって生成されたビジュアルを提供した。
コントロールグループと比較すると、ビジュアルをストーリー・ライティング・アシストとして使用した作家は、より創造的で、オリジナルで、完全で、視覚的にできるストーリーを著した。
発見は、AIによる横断的なモダリティ入力は、人間とAIの共創において創造性の異なる側面に利益をもたらすが、収束する思考を妨げることを示している。
論文 参考訳(メタデータ) (2021-10-27T23:13:47Z) - Human in the Loop for Machine Creativity [0.0]
我々は、創造的アプリケーションのための既存のHuman-in-the-loop(HITL)アプローチを概念化する。
モデル,インターフェース,機械の創造性に対する長期的影響について検討し,考察する。
テキスト,視覚,音,その他の情報を結合し,人や環境の自動解析を行うマルチモーダルHITLプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-07T15:42:18Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。