論文の概要: Style Over Story: A Process-Oriented Study of Authorial Creativity in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.02025v1
- Date: Thu, 02 Oct 2025 13:57:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.149936
- Title: Style Over Story: A Process-Oriented Study of Authorial Creativity in Large Language Models
- Title(参考訳): Style Over Story: 大規模言語モデルにおける権威創造性に関するプロセス指向の研究
- Authors: Donghoon Jung, Jiwoo Choi, Songeun Chae, Seohyon Jung,
- Abstract要約: 我々は、権威創造性のためのレンズとして制約に基づく意思決定を導入する。
以上の結果から,LLMはStyleを他の要素よりも一貫して重視していることがわかった。
このアプローチは、AIの権威的創造性を分析するための、新しい体系的なツールを提供する、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.7833043261515886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluations of large language models (LLMs)' creativity have focused primarily on the quality of their outputs rather than the processes that shape them. This study takes a process-oriented approach, drawing on narratology to examine LLMs as computational authors. We introduce constraint-based decision-making as a lens for authorial creativity. Using controlled prompting to assign authorial personas, we analyze the creative preferences of the models. Our findings show that LLMs consistently emphasize Style over other elements, including Character, Event, and Setting. By also probing the reasoning the models provide for their choices, we show that distinctive profiles emerge across models and argue that our approach provides a novel systematic tool for analyzing AI's authorial creativity.
- Abstract(参考訳): 大規模言語モデル(LLM)の創造性の評価は、主にそれらを形成するプロセスではなく、アウトプットの品質に焦点を当てている。
本研究は, ナラトロジーに基づくプロセス指向の手法を用いて, LLMを計算著者として検討する。
我々は、権威創造性のためのレンズとして制約に基づく意思決定を導入する。
制御されたプロンプトを用いて、著者のペルソナを割り当て、モデルの創造的嗜好を分析する。
以上の結果から,LLMはキャラクタやイベント,設定など,他の要素よりもスタイルを一貫して重視していることがわかった。
また、モデルが選択する理由を推測することで、モデルに固有のプロファイルが現れることを示し、私たちのアプローチはAIの権威的な創造性を分析するための新しい体系的なツールを提供する、と論じます。
関連論文リスト
- Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Cooking Up Creativity: Enhancing LLM Creativity through Structured Recombination [46.79423188943526]
本稿では,LLM(Large Language Models)の創造性を高める新しいアプローチを提案する。
自然言語と構造化表現の翻訳にLLMを適用し,その中心となる創造的飛躍を行う。
我々は、創造的なレシピを生成するモデルであるDishCOVERを用いて、料理分野における我々のアプローチを実証する。
論文 参考訳(メタデータ) (2025-04-29T11:13:06Z) - Untapped Potential in Self-Optimization of Hopfield Networks: The Creativity of Unsupervised Learning [0.6144680854063939]
我々は、自己最適化(SO)モデルが創造的プロセスに必要な十分な条件を満たすことを論じる。
確率以上の創造的な結果を見つけるためには,学習が必要であることを示す。
論文 参考訳(メタデータ) (2024-12-10T11:58:39Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Benchmarking Language Model Creativity: A Case Study on Code Generation [39.546827184857754]
本研究では,LLMの創造性を定量化するフレームワークを提案する。
生成した創造的応答における収束的思考と発散的思考の両方を定量化する計量であるNEOGAUGEを定義する。
我々はCodeforcesの問題に関する提案されたフレームワークをテストする。これは、タスクをコーディングするための自然なデータセットと、先行する人間のソリューションのコレクションの両方に役立ちます。
論文 参考訳(メタデータ) (2024-07-12T05:55:22Z) - Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - Creativity Has Left the Chat: The Price of Debiasing Language Models [1.223779595809275]
大規模言語モデル(LLM)の創造性に対する人間からのフィードバックからの強化学習の意図しない結果について検討する。
我々の発見は、コピーライティング、広告作成、顧客ペルソナ生成といったクリエイティブなタスクにLLMを頼っているマーケターにとって大きな意味を持つ。
論文 参考訳(メタデータ) (2024-06-08T22:14:51Z) - Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚トークンの概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - Evaluating Large Language Model Creativity from a Literary Perspective [13.672268920902187]
本稿では,大規模言語モデルが創造的記述プロセスにおいて補助ツールとして機能する可能性を評価する。
我々は,背景記述をインターリーブする対話的かつ多声的なプロンプト戦略,構成を案内する指示,対象スタイルのテキストのサンプル,与えられたサンプルの批判的議論を開発する。
論文 参考訳(メタデータ) (2023-11-30T16:46:25Z) - CRITIC: Large Language Models Can Self-Correct with Tool-Interactive
Critiquing [139.77117915309023]
CRITICは、大規模な言語モデルに対して、ツールとのヒューマンインタラクションに似た方法で、自分たちのアウトプットの検証と修正を可能にする。
自由形式の質問応答、数学的プログラム合成、毒性低減を含む包括的評価は、CRITICがLLMの性能を一貫して向上することを証明している。
論文 参考訳(メタデータ) (2023-05-19T15:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。