論文の概要: Can Artificial Intelligence Write Like Borges? An Evaluation Protocol for Spanish Microfiction
- arxiv url: http://arxiv.org/abs/2506.08172v1
- Date: Mon, 09 Jun 2025 19:34:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.561522
- Title: Can Artificial Intelligence Write Like Borges? An Evaluation Protocol for Spanish Microfiction
- Title(参考訳): 人工知能はボージュのように書けるか? スペインのマイクロフィクションの評価プロトコル
- Authors: Gerardo Aleman Manzanarez, Nora de la Cruz Arana, Jorge Garcia Flores, Yobany Garcia Medina, Raul Monroy, Nathalie Pernelle,
- Abstract要約: 大規模な言語モデルは、物語的に一貫性があり、言語的に一貫性のある短編テキストを生成することができる。
これらの進歩にもかかわらず、文学的価値のための厳密な評価が注目されている。
本稿では,AI生成マイクロフィクションを客観的に評価するためのフレームワークとして,文学理論に基づく評価プロトコルGrAImesを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated story writing has been a subject of study for over 60 years. Large language models can generate narratively consistent and linguistically coherent short fiction texts. Despite these advancements, rigorous assessment of such outputs for literary merit - especially concerning aesthetic qualities - has received scant attention. In this paper, we address the challenge of evaluating AI-generated microfictions and argue that this task requires consideration of literary criteria across various aspects of the text, such as thematic coherence, textual clarity, interpretive depth, and aesthetic quality. To facilitate this, we present GrAImes: an evaluation protocol grounded in literary theory, specifically drawing from a literary perspective, to offer an objective framework for assessing AI-generated microfiction. Furthermore, we report the results of our validation of the evaluation protocol, as answered by both literature experts and literary enthusiasts. This protocol will serve as a foundation for evaluating automatically generated microfictions and assessing their literary value.
- Abstract(参考訳): 自動ストーリー執筆は60年以上にわたって研究の対象となっている。
大規模な言語モデルは、物語的に一貫性があり、言語的に一貫性のある短編テキストを生成することができる。
これらの進歩にもかかわらず、文学的価値、特に美的品質に関する厳密な評価が注目されている。
本稿では,AI生成マイクロフィクションを評価する上での課題に対処し,この課題には,主題的コヒーレンス,テキストの明瞭さ,解釈深度,美的品質など,テキストのさまざまな側面における文学的基準の検討が必要であると論じる。
そこで本稿では,GrAImesについて,文学理論に基づく評価プロトコルとして,特に文学的視点から,AI生成マイクロフィクションを評価するための客観的な枠組みを提供する。
さらに,文献専門家と文芸愛好家の両方が回答した評価プロトコルの有効性について報告する。
このプロトコルは、自動生成されたマイクロフィクションを評価し、それらの文学的価値を評価する基盤となる。
関連論文リスト
- Where is my Glass Slipper? AI, Poetry and Art [0.0]
この文献は、人工知能、詩、芸術の交点を問うものである。
初期のテンプレートベースのシステムから生成モデルまで、コンピュータ生成詩の発達を辿る。
レビューは、技術革新と人間の主観性の相互依存を認識する創造的プロセスの再評価を要求する。
論文 参考訳(メタデータ) (2025-02-26T14:57:03Z) - Large Language Models for Automated Literature Review: An Evaluation of Reference Generation, Abstract Writing, and Review Composition [2.048226951354646]
大規模言語モデル(LLM)は、文学レビューを書くことに関わる複雑なプロセスを自動化するための潜在的な解決策として登場した。
本研究は,文学書記の3つの重要な課題において,LLMの性能を自動評価する枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-18T08:42:25Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - A Perspective on Literary Metaphor in the Context of Generative AI [0.6445605125467572]
本研究は,文芸メタファーの役割と,その能力について考察する。
原語の含意が文質を向上させるかどうかを検討するため,アフリカーンスでLSTMに基づく言語モデルを訓練した。
本論文は,美的価値,解釈,評価に関する思考的疑問を提起する。
論文 参考訳(メタデータ) (2024-09-02T08:27:29Z) - What Makes a Good Story and How Can We Measure It? A Comprehensive Survey of Story Evaluation [57.550045763103334]
ストーリーを評価することは、他の世代の評価タスクよりも難しい場合があります。
まず、テキスト・トゥ・テキスト、ビジュアル・トゥ・テキスト、テキスト・トゥ・ビジュアルといった既存のストーリーテリングタスクを要約する。
本研究では,これまで開発されてきた,あるいはストーリー評価に応用可能な評価指標を整理する分類法を提案する。
論文 参考訳(メタデータ) (2024-08-26T20:35:42Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Quasi Error-free Text Classification and Authorship Recognition in a
large Corpus of English Literature based on a Novel Feature Set [0.0]
GLECの準誤りのないテキスト分類とオーサシップ認識は,同一の5つのスタイルと5つのコンテンツ特徴を用いた手法で可能であることを示す。
我々のデータは、心理学を読むための文学や実験の、多くの未来の計算および実証的研究の道を開く。
論文 参考訳(メタデータ) (2020-10-21T07:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。