論文の概要: Pinning "Reflection" on the Agenda: Investigating Reflection in Human-LLM Co-Creation for Creative Coding
- arxiv url: http://arxiv.org/abs/2402.09750v2
- Date: Sat, 12 Jul 2025 00:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 20:53:34.957602
- Title: Pinning "Reflection" on the Agenda: Investigating Reflection in Human-LLM Co-Creation for Creative Coding
- Title(参考訳): アジェンダに「反射」を打つ:創造的符号化のための人間-LLMコクレーテーションにおける反射の考察
- Authors: Anqi Wang, Zhizhuo Yin, Yulu Hu, Yuanyuan Mao, Lei Han, Xin Tong, Keqin Jiao, Pan Hui,
- Abstract要約: 本研究は,創造的符号化における位置的,瞬間的,モーメント的反射を2つのプロンプト戦略の下で検討する。
混合法の結果は3つの異なる反射型を示し、T2はより頻度が高く、戦略的で、生成的反射を促進することを示した。
- 参考スコア(独自算出の注目度): 20.58817370147299
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are increasingly integrated into creative coding, yet how users reflect, and how different co-creation conditions influence reflective behavior, remains underexplored. This study investigates situated, moment-to-moment reflection in creative coding under two prompting strategies: the entire task invocation (T1) and decomposed subtask invocation (T2), to examine their effects on reflective behavior. Our mixed-method results reveal three distinct reflection types and show that T2 encourages more frequent, strategic, and generative reflection, fostering diagnostic reasoning and goal redefinition. These findings offer insights into how LLM-based tools foster deeper creative engagement through structured, behaviorally grounded reflection support.
- Abstract(参考訳): 大規模言語モデル(LLM)は、創造的なコーディングにますます統合されていますが、ユーザの振り返りや、異なる共創条件が反射行動にどのように影響するかは、まだ未熟です。
本研究では,タスク実行全体(T1)とサブタスク実行分解(T2)という,創造的コーディングにおける位置的,モーメント・ツー・モーメント・リフレクションについて検討し,それらが反射行動に与える影響について検討した。
以上の結果から,T2はより頻度が高く,戦略的で,生成的反射を促進し,診断的推論と目標の再定義を促進することが示唆された。
これらの発見は、LLMベースのツールが、構造化された行動基盤のリフレクションサポートを通じて、より深い創造的エンゲージメントを促進する方法に関する洞察を与える。
関連論文リスト
- Evaluating the Impact of LLM-guided Reflection on Learning Outcomes with Interactive AI-Generated Educational Podcasts [4.312185476003309]
本研究では、対話型AI生成ポッドキャストにリフレクションプロンプトを埋め込むことで、プロンプトのないバージョンと比較して学習とユーザエクスペリエンスが向上するかどうかを検討した。
学習結果は条件によって似ているが、リフレクションは知覚的な魅力を減らし、反射的相互作用設計に関するさらなる研究の必要性を強調している。
論文 参考訳(メタデータ) (2025-08-06T18:03:42Z) - CogDual: Enhancing Dual Cognition of LLMs via Reinforcement Learning with Implicit Rule-Based Rewards [53.36917093757101]
ロールプレイング言語エージェント (RPLA) は,Large Language Models (LLM) に対する重要な適用方向として登場した。
テキスト認識対応推論パラダイムを採用した新しいRPLAであるtextbfCogDualを紹介する。
外部状況認識と内部自己認識を共同でモデル化することにより、CagDualは文字整合性と文脈整合性を改善した応答を生成する。
論文 参考訳(メタデータ) (2025-07-23T02:26:33Z) - SRPO: Enhancing Multimodal LLM Reasoning via Reflection-Aware Reinforcement Learning [25.02860760920562]
MLLM(Multimodal large language model)は、タスク推論において有望な能力を示すが、明示的な自己回帰と自己補正を必要とする複雑な問題に悩まされている。
既存のリフレクション手法は単純で、意味のあるインストラクティブフィードバックを生成するのに苦労している。
本稿では,2段階のリフレクション対応強化学習フレームワークであるグループ相対ポリシー最適化 (SRPO) を用いたマルチモーダル自己回帰強化推論を提案する。
論文 参考訳(メタデータ) (2025-06-02T14:21:44Z) - ReflectEvo: Improving Meta Introspection of Small LLMs by Learning Self-Reflection [60.75785864719726]
本稿では,小言語モデル(SLM)がリフレクション学習を通じてメタイントロスペクションを向上させることを実証するために,新しいパイプラインであるReflectEvoを提案する。
大規模かつ包括的かつ自己生成型リフレクションデータセットであるReflectEvo-460kを構築し,多様なマルチドメインタスクを実現する。
論文 参考訳(メタデータ) (2025-05-22T10:03:05Z) - Cooking Up Creativity: A Cognitively-Inspired Approach for Enhancing LLM Creativity through Structured Representations [53.950760059792614]
大きな言語モデル(LLM)は数え切れないほど多くのタスクで優れていますが、創造性に苦慮しています。
我々は、LLMと構造化表現を結合し、より創造的で多様なアイデアを生み出すために認知的にインスピレーションを与える新しいアプローチを導入する。
我々は、創造的なレシピを生成するモデルであるDishCOVERを用いて、料理分野における我々のアプローチを実証する。
論文 参考訳(メタデータ) (2025-04-29T11:13:06Z) - Probing and Inducing Combinational Creativity in Vision-Language Models [52.76981145923602]
VLM(Vision-Language Models)の最近の進歩は、それらのアウトプットが組合せの創造性を反映しているかという議論を引き起こしている。
本稿では,創造的プロセスを3つのレベルに分解するIEIフレームワークを提案する。
このフレームワークを検証するために、IEIフレームワークに従って注釈付けされた666人のアーティストによる視覚マッシュアップの高品質データセットであるCreativeMashupをキュレートする。
論文 参考訳(メタデータ) (2025-04-17T17:38:18Z) - ArtistAuditor: Auditing Artist Style Pirate in Text-to-Image Generation Models [61.55816738318699]
本稿では,テキスト・画像生成モデルにおける新しいデータ利用監査手法を提案する。
ArtistAuditorは、多彩なスタイルの表現を得るためにスタイル抽出器を使用し、アートワークをアーティストのスタイルのサンプリングとして扱う。
6つのモデルとデータセットの組み合わせによる実験結果は、ArtistAuditorが高いAUC値を達成可能であることを示している。
論文 参考訳(メタデータ) (2025-04-17T16:15:38Z) - Perception in Reflection [39.33505560810175]
本稿では,現在の大規模視覚言語モデルの限界を超越したリフレクションパラダイムを提案する。
本稿では、ポリシーと批判モデルとを体系的に交互に交互に行う二重モデル反射機構である反射知覚(RePer)を提案する。
論文 参考訳(メタデータ) (2025-04-09T17:59:02Z) - Compose Your Aesthetics: Empowering Text-to-Image Models with the Principles of Art [61.28133495240179]
本稿では,ユーザが特定した美学をT2I生成出力と整合させることを目的とした,美学アライメントの新しい課題を提案する。
アートワークが美学にアプローチするための貴重な視点を提供する方法にインスパイアされた私たちは、構成的枠組みのアーティストが採用する視覚的美学を定式化した。
我々は,T2I DMが,ユーザが特定したPoA条件により10の合成制御を効果的に提供することを実証した。
論文 参考訳(メタデータ) (2025-03-15T06:58:09Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Instruct-of-Reflection: Enhancing Large Language Models Iterative Reflection Capabilities via Dynamic-Meta Instruction [11.838351314880736]
インストラクション・オブ・リフレクション(英: Instruct-of-Reflection、IoRT)は、大規模言語モデル(LLM)の反復的リフレクション能力を高めるために動的メタ命令を活用する、新しく一般的なリフレクションフレームワークである。
実験の結果、IoRTは数学的および常識的推論タスクにおいて、確立されたベースラインよりも平均10.1%向上していることがわかった。
論文 参考訳(メタデータ) (2025-03-02T14:02:03Z) - Expertise elevates AI usage: experimental evidence comparing laypeople and professional artists [1.5296069874080693]
生成AIを用いて芸術家と一般人の芸術的能力を比較する。
平均して、アーティストは彼らの通常の作品よりも忠実でクリエイティブなアウトプットを生み出した。
AIはコンテンツ作成を楽にするかもしれないが、専門家の専門知識は依然として価値がある。
論文 参考訳(メタデータ) (2025-01-21T18:53:21Z) - Meta-Reflection: A Feedback-Free Reflection Learning Framework [57.14485943991588]
外部からのフィードバックを伴わずに単一の推論パスのみを必要とするフィードバックフリーリフレクション機構であるメタリフレクションを提案する。
過去のリフレクションを記憶し、取り出す人間の能力によって、メタリフレクションはコードブックに反射的な洞察を統合する。
実世界のシナリオにおけるメタリフレクションの実践性を徹底的に検討し,評価するために,E-Commerce Customer Intent Detectionという産業eコマースベンチマークを導入する。
論文 参考訳(メタデータ) (2024-12-18T12:20:04Z) - Alien Recombination: Exploring Concept Blends Beyond Human Cognitive Availability in Visual Art [90.8684263806649]
視覚芸術の創造において、AIが人間の認知的限界を超越する方法を示します。
我々の研究は、視覚芸術には膨大な未探索の概念的組み合わせが含まれているという仮説を立てている。
本稿では,人間の認知能力を超えた概念の組み合わせを同定し,生成するエイリアン組換え法を提案する。
論文 参考訳(メタデータ) (2024-11-18T11:55:38Z) - Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - GalleryGPT: Analyzing Paintings with Large Multimodal Models [64.98398357569765]
美術品の分析は、個人の審美性を豊かにし、批判的思考能力を促進することができる芸術鑑賞のための重要かつ基本的な技術である。
アートワークを自動解析する以前の作業は、主に分類、検索、その他の単純なタスクに焦点を当てており、AIの目標とは程遠い。
LLaVAアーキテクチャに基づいて微調整されたGalleryGPTと呼ばれる,絵画解析のための優れた大規模マルチモーダルモデルを提案する。
論文 参考訳(メタデータ) (2024-08-01T11:52:56Z) - Equivalence: An analysis of artists' roles with Image Generative AI from Conceptual Art perspective through an interactive installation design practice [16.063735487844628]
本研究では、アーティストが高度なテキストから画像生成AIモデルとどのように相互作用するかを検討する。
この枠組みを実証するために,「等価性」と題されたケーススタディでは,ユーザの音声入力を連続的に変化する絵画に変換する。
この研究は、アーティストの役割に対する理解を深め、画像生成AIで作成されたアートに固有の創造的側面に対する深い評価を促進することを目的としている。
論文 参考訳(メタデータ) (2024-04-29T02:45:23Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Luminate: Structured Generation and Exploration of Design Space with Large Language Models for Human-AI Co-Creation [19.62178304006683]
現在のインタラクションパラダイムは不足しており、限られたアイデアの集合に対して、ユーザを迅速なコンバージェンスへと導くものだ、と私たちは主張する。
本研究では,ユーザがシームレスに探索し,評価し,多数の応答を合成できる設計空間の構造化を促進するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:53:14Z) - Interactive Neural Painting [66.9376011879115]
本稿では,対話型ニューラルペイント(NP)の最初のアプローチを提案する。
2段デコーダを用いた条件変圧器変分自動エンコーダ(VAE)アーキテクチャに基づく新しい手法であるI-Paintを提案する。
実験の結果,本手法は良好なストローク提案を提供し,最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-31T07:02:00Z) - "It Felt Like Having a Second Mind": Investigating Human-AI
Co-creativity in Prewriting with Large Language Models [20.509651636971864]
本研究では,前書き中の人間-LLM協調パターンとダイナミクスについて検討する。
共同作業では,3段階の反復的Human-AI共同創造プロセスが存在するようだ。
論文 参考訳(メタデータ) (2023-07-20T16:55:25Z) - Inspire creativity with ORIBA: Transform Artists' Original Characters
into Chatbots through Large Language Model [4.984601297028257]
この研究は、イラストアートと人工知能(AI)の交差点を掘り下げる
創造的なプロセスと著者の境界に対するAIの影響を調べることで、創造的な分野における人間とAIの相互作用を強化することを目指している。
論文 参考訳(メタデータ) (2023-06-16T11:25:44Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - UViM: A Unified Modeling Approach for Vision with Learned Guiding Codes [91.24112204588353]
我々は、幅広いコンピュータビジョンタスクをモデル化できる統一的なアプローチであるUViMを紹介する。
以前のモデルとは対照的に、UViMは全てのタスクに対して同じ機能を持つ。
多様な3つの視覚課題に対するUViMの有効性を実証する。
論文 参考訳(メタデータ) (2022-05-20T17:47:59Z) - Understanding and Creating Art with AI: Review and Outlook [12.614901374282868]
人工知能(AI)に関連する技術は、視覚芸術における研究と創造的実践の変化に強い影響を与える。
本稿では,AIとアートの2つの側面を総合的にレビューする:1)AIはアート分析に使用され,デジタル化されたアートコレクションに使用される;2)AIは創造的な目的に使用され,新しいアート作品を生成する。
アートの創造におけるAIの役割に関して、AIアートの様々な実践的・理論的側面に対処し、それらのトピックを詳細に扱った関連作品を統合します。
論文 参考訳(メタデータ) (2021-02-18T01:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。