論文の概要: Generative AI & Fictionality: How Novels Power Large Language Models
- arxiv url: http://arxiv.org/abs/2603.01220v1
- Date: Sun, 01 Mar 2026 18:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.573315
- Title: Generative AI & Fictionality: How Novels Power Large Language Models
- Title(参考訳): ジェネレーティブAIとフィクション:どのようにして小説が大規模言語モデルを動かすか
- Authors: Edwin Roland, Richard Jean So,
- Abstract要約: 我々は、小説が生成AIの出力をどのように形成するかを研究する。
小説は、フィクションの見慣れた特質や余裕を生かし、また社会反応の新たな性質や形態を育んでいる。
現代文化が、生成的AIと機械学習によってますます形作られつつある場合、今日の様々な文化生産様式の分析は、比較的新しい次元である計算訓練データ(Computer Training data)を考慮しなければならない、と我々は主張する。
- 参考スコア(独自算出の注目度): 1.4847369589597454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models, like the one in ChatGPT, are powered by their training data. The models are simply next-word predictors, based on patterns learned from vast amounts of pre-existing text. Since the first generation of GPT, it is striking that the most popular datasets have included substantial collections of novels. For the engineers and research scientists who build these models, there is a common belief that the language in fiction is rich enough to cover all manner of social and communicative phenomena, yet the belief has gone mostly unexamined. How does fiction shape the outputs of generative AI? Specifically, what are novels' effects relative to other forms of text, such as newspapers, Reddit, and Wikipedia? Since the 1970s, literature scholars such as Catherine Gallagher and James Phelan have developed robust and insightful accounts of how fiction operates as a form of discourse and language. Through our study of an influential open-source model (BERT), we find that LLMs leverage familiar attributes and affordances of fiction, while also fomenting new qualities and forms of social response. We argue that if contemporary culture is increasingly shaped by generative AI and machine learning, any analysis of today's various modes of cultural production must account for a relatively novel dimension: computational training data.
- Abstract(参考訳): ChatGPTのような生成モデルは、トレーニングデータによって駆動される。
モデルは、既存の大量のテキストから学んだパターンに基づいて、単に次の単語の予測子である。
GPTの第1世代以降、最も人気のあるデータセットには、かなりの数の小説が収められている。
これらのモデルを構築する技術者や研究科学者にとって、フィクションの言語はあらゆる社会的・コミュニケーション的な現象をカバーできるほどに富んでいるという共通の信念があるが、その信念はほとんど検討されていない。
フィクションは生成AIのアウトプットをどう形成しますか?
具体的には、新聞、Reddit、ウィキペディアなど、他の形式のテキストと比較して、小説の効果はどのようなものか?
1970年代以降、キャサリン・ギャラガー(英語版)やジェームズ・フェラン(英語版)のような文学学者は、フィクションが言論や言語としてどのように機能するかについて、堅牢で洞察に富んだ説明を展開してきた。
影響力のあるオープンソースモデル (BERT) の研究を通じて, LLM は, フィクションの使い慣れた属性や余裕を生かし, 新たな品質や社会反応の形式を育んでいることがわかった。
現代文化が、生成的AIと機械学習によってますます形作られつつある場合、今日の様々な文化生産様式の分析は、比較的新しい次元である計算訓練データ(Computer Training data)を考慮しなければならない、と我々は主張する。
関連論文リスト
- The Art of Generative Narrativity [0.0]
生成AIは、聴衆の経験を通じて物語を引用する可能性を持つ非言語形式の実験につながる。
5つの中央セクションにおいて,現代言語自動化の課題を予見し,その根底にある概念的枠組みを考察する。
閉会の節では、これらの模範者の表現的特徴を要約し、生成的AIの文化的影響と失敗を批判的に評価する価値を下記する。
論文 参考訳(メタデータ) (2026-03-01T12:58:24Z) - Using Machine Learning to Distinguish Human-written from Machine-generated Creative Fiction [0.0]
著者のアウトプットに基づいて大規模言語モデルを訓練し、特定のスタイルで「ハムブック」を生成することは、新しい形態の盗作であると考えられる。
本研究では,機械学習の分類モデルを訓練し,人間書きの短いサンプルを機械創作の創作小説と区別した。
論文 参考訳(メタデータ) (2024-12-15T12:46:57Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - Experimental Narratives: A Comparison of Human Crowdsourced Storytelling and AI Storytelling [0.0]
この研究は、2019年6月にクラウドワーカーによって書かれた250のストーリーと、GPT-3.5とGPT-4によって生成された80のストーリーを分析した。
クラウドワーカーと大きな言語モデルの両方が、人工人間を創造し、恋に落ちるという同じプロンプトに反応した。
この分析により、GPT-3.5、特にGPT-4の物語は、人間によって書かれた物語よりも性役割やセクシュアリティの点で進歩的であることが明らかとなった。
論文 参考訳(メタデータ) (2023-10-19T16:54:38Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - The Next Chapter: A Study of Large Language Models in Storytelling [51.338324023617034]
大規模言語モデル(LLM)を用いたプロンプトベース学習の適用は,自然言語処理(NLP)タスクにおいて顕著な性能を示した。
本稿では,LLMのストーリー生成能力と最近のモデルを比較するために,自動評価と人的評価の両方を利用した総合的な調査を行う。
その結果、LLMは他のストーリー生成モデルと比較して、非常に高い品質のストーリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - ChatGPT is not all you need. A State of the Art Review of large
Generative AI models [0.0]
この研究は、生成AIによって影響を受ける主要なモデルを簡潔に記述し、最近出版された主要な生成モデルの分類を提供する試みである。
論文 参考訳(メタデータ) (2023-01-11T15:48:36Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - Estimating the Personality of White-Box Language Models [0.589889361990138]
大規模なテキストコーパスで訓練された大規模言語モデルは、至る所で広範囲のアプリケーションで使用されている。
既存の研究は、これらのモデルが人間の偏見を捉え、捉えていることを示している。
これらのバイアス、特に害を引き起こす可能性のあるバイアスの多くは、十分に調査されている。
しかし、これらのモデルによって受け継がれた人間の性格特性を推測し、変化させる研究は、ほとんど、あるいは存在しない。
論文 参考訳(メタデータ) (2022-04-25T23:53:53Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。