論文の概要: Artworks Reimagined: Exploring Human-AI Co-Creation through Body Prompting
- arxiv url: http://arxiv.org/abs/2408.05476v2
- Date: Sun, 16 Feb 2025 09:20:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:03:21.901216
- Title: Artworks Reimagined: Exploring Human-AI Co-Creation through Body Prompting
- Title(参考訳): ボディー・プロンプティングで人間とAIのコクレーションを探求するアートワーク
- Authors: Jonas Oppenlaender, Hannah Johnston, Johanna Silvennoinen, Helena Barranha,
- Abstract要約: 本稿では,公共施設における画像生成のための入力モダリティとしてのボディプロンプトについて検討する。
このコンセプトをインタラクティブなアートインスタレーションであるArtworks Reimaginedに実装し、ボディプロンプトを通じて既存のアートを変換します。
ビジターのサンプルを半構造化したインタビュー(N = 79)では,ボディプロンプトが良好に受容され,インスタレーションのビジターにとって魅力的な,楽しい体験が得られた。
- 参考スコア(独自算出の注目度): 3.7907687118593323
- License:
- Abstract: Image generation using generative artificial intelligence has become a popular activity. However, text-to-image generation - where images are produced from typed prompts - can be less engaging in public settings since the act of typing tends to limit interactive audience participation, thereby reducing its suitability for designing dynamic public installations. In this article, we explore body prompting as input modality for image generation in the context of installations at public event settings. Body prompting extends interaction with generative AI beyond textual inputs to reconnect the creative act of image generation with the physical act of creating artworks. We implement this concept in an interactive art installation, Artworks Reimagined, designed to transform existing artworks via body prompting. We deployed the installation at an event with hundreds of visitors in a public and private setting. Our semi-structured interviews with a sample of visitors (N = 79) show that body prompting was well-received and provides an engaging and fun experience to the installation's visitors. We present insights into participants' experience of body prompting and AI co-creation and identify three distinct strategies of embodied interaction focused on re-creating, reimagining, or casual interaction. We provide valuable recommendations for practitioners seeking to design interactive generative AI experiences in museums, galleries, and public event spaces.
- Abstract(参考訳): 生成人工知能を用いた画像生成が盛んに行われている。
しかし、タイプされたプロンプトから画像が生成されるテキスト・ツー・イメージ生成は、インタラクティブなオーディエンス参加を制限する傾向にあるため、パブリック設定への関与を減らし、ダイナミックなパブリックインストレーションを設計する際の適合性を低下させる。
本稿では、公開イベント設定におけるインストレーションの文脈における画像生成のための入力モダリティとしてのボディプロンプトについて検討する。
ボディプロンプトは、テキスト入力以外の生成AIとのインタラクションを拡張して、画像生成の創造的な行為と、アートワークを作成する物理的な行為をリコネクションする。
このコンセプトをインタラクティブなアートインスタレーションであるArtworks Reimaginedに実装し、ボディプロンプトを通じて既存のアートを変換します。
公開とプライベートの場所で、何百人ものビジターとイベントでインストールをデプロイしました。
ビジターのサンプルを半構造化したインタビュー(N = 79)では,ボディプロンプトが良好に受容され,インスタレーションのビジターにとって魅力的な,楽しい体験が得られた。
被験者のボディプロンプトとAIの共創経験に関する洞察を提示し、再創造、再想像、カジュアルなインタラクションに焦点を当てた3つの異なる相互作用戦略を同定する。
博物館、ギャラリー、公開イベントスペースでインタラクティブな生成AIエクスペリエンスを設計しようとする実践者に対して、貴重なレコメンデーションを提供する。
関連論文リスト
- Visions of Destruction: Exploring a Potential of Generative AI in Interactive Art [2.3020018305241337]
本稿では,対話型アートにおける生成AIの可能性について,実践に基づく研究手法を用いて検討する。
インタラクティブなアートワーク "Visions of Destruction" を詳細なケーススタディとして紹介し、動的でオーディエンス対応のエクスペリエンスを作り出すために、生成AIの革新的な利用を強調している。
論文 参考訳(メタデータ) (2024-08-26T21:20:45Z) - Designing and Evaluating Dialogue LLMs for Co-Creative Improvised Theatre [48.19823828240628]
本研究では,Edinburgh Festival Fringeで1ヶ月のライブショーで展開されたLarge Language Models(LLMs)について紹介する。
オンザスポット多人数対話の技術的能力と制約について検討する。
我々のHuman-in-the-loop法は、文脈関連応答を生成する上で、これらのLCMの課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-05-11T23:19:42Z) - Equivalence: An analysis of artists' roles with Image Generative AI from Conceptual Art perspective through an interactive installation design practice [16.063735487844628]
本研究では、アーティストが高度なテキストから画像生成AIモデルとどのように相互作用するかを検討する。
この枠組みを実証するために,「等価性」と題されたケーススタディでは,ユーザの音声入力を連続的に変化する絵画に変換する。
この研究は、アーティストの役割に対する理解を深め、画像生成AIで作成されたアートに固有の創造的側面に対する深い評価を促進することを目的としている。
論文 参考訳(メタデータ) (2024-04-29T02:45:23Z) - Social Reward: Evaluating and Enhancing Generative AI through
Million-User Feedback from an Online Creative Community [63.949893724058846]
コミュニティ認識の一形態としての社会的報酬は、オンラインプラットフォームのユーザーがコンテンツに関わり、貢献する動機の強い源泉となる。
この作業はパラダイムシフトの先駆者であり、革新的な報酬モデリングフレームワークであるSocial Rewardを発表した。
私たちは、オンラインビジュアル作成と編集プラットフォームであるPicsartから、データセットのキュレーションと洗練の広範な旅に乗り出した。
論文 参考訳(メタデータ) (2024-02-15T10:56:31Z) - Training-Free Consistent Text-to-Image Generation [80.4814768762066]
テキスト・ツー・イメージ・モデルは様々なプロンプトで同じ主題を表現できる。
既存のアプローチは、特定のユーザが提供する主題を記述する新しい単語を教えるためにモデルを微調整する。
本研究では、事前学習モデルの内部アクティベーションを共有することによって、一貫した主題生成を可能にする、トレーニング不要なアプローチであるConsiStoryを提案する。
論文 参考訳(メタデータ) (2024-02-05T18:42:34Z) - Generative Agents: Interactive Simulacra of Human Behavior [86.1026716646289]
生成エージェントを導入し,人間の振る舞いをシミュレートする計算ソフトウェアエージェントについて紹介する。
エージェントの経験の完全な記録を格納するために,大規模言語モデルを拡張するアーキテクチャについて述べる。
The Simsにインスパイアされた対話型サンドボックス環境に生成エージェントを投入する。
論文 参考訳(メタデータ) (2023-04-07T01:55:19Z) - Trash to Treasure: Using text-to-image models to inform the design of
physical artefacts [2.6093180689514353]
我々は,創造プロセスにおける上流タスクを支援するために,テキスト・ツー・イメージ・モデルをどのように利用できるかを検討するために,パイロット・スタディを実施している。
30人の参加者が彫刻素材を選択し、安定拡散画像生成装置を用いて3つの画像を生成した。
参加者の大多数は生成した画像が彫刻に通知したと報告し、28/30はテキスト・ツー・イメージ・モデルによる創造的な作業への関心を報告した。
論文 参考訳(メタデータ) (2023-02-01T16:26:34Z) - Visualize Before You Write: Imagination-Guided Open-Ended Text
Generation [68.96699389728964]
我々は、機械生成画像を用いて、オープンエンドテキスト生成における言語モデルをガイドするiNLGを提案する。
オープンエンドテキスト生成タスクにおけるiNLGの有効性について実験と解析を行った。
論文 参考訳(メタデータ) (2022-10-07T18:01:09Z) - A Taxonomy of Prompt Modifiers for Text-To-Image Generation [6.903929927172919]
本稿では,3ヶ月のエスノグラフィー研究に基づいて,オンラインコミュニティの実践者が使用する6種類のプロンプト修飾剤を同定する。
プロンプト修飾子の新たな分類法は、テキスト・ツー・イメージ・ジェネレーションの実践を研究するための概念的な出発点となる。
本稿では,人間-コンピュータインタラクション分野における新しい創造的実践の機会について論じる。
論文 参考訳(メタデータ) (2022-04-20T06:15:50Z) - ViNTER: Image Narrative Generation with Emotion-Arc-Aware Transformer [59.05857591535986]
様々な感情を「感情弧」として表現する時系列に焦点をあてた画像物語を生成するモデルViNTERを提案する。
手動評価と自動評価の両方の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-15T10:53:08Z) - Generating Music and Generative Art from Brain activity [0.0]
本研究は,脳-コンピュータインタフェース(BCI)を用いた生成アート作成のための計算システムを提案する。
生成されたアートワークは、脳信号と幾何学、色、空間的位置の概念を使って、自律的な構築に複雑さを与えます。
論文 参考訳(メタデータ) (2021-08-09T19:33:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。