論文の概要: Can Artificial Intelligence Write Like Borges? An Evaluation Protocol for Spanish Microfiction
- arxiv url: http://arxiv.org/abs/2506.08172v1
- Date: Mon, 09 Jun 2025 19:34:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.561522
- Title: Can Artificial Intelligence Write Like Borges? An Evaluation Protocol for Spanish Microfiction
- Title(参考訳): 人工知能はボージュのように書けるか? スペインのマイクロフィクションの評価プロトコル
- Authors: Gerardo Aleman Manzanarez, Nora de la Cruz Arana, Jorge Garcia Flores, Yobany Garcia Medina, Raul Monroy, Nathalie Pernelle,
- Abstract要約: 大規模な言語モデルは、物語的に一貫性があり、言語的に一貫性のある短編テキストを生成することができる。
これらの進歩にもかかわらず、文学的価値のための厳密な評価が注目されている。
本稿では,AI生成マイクロフィクションを客観的に評価するためのフレームワークとして,文学理論に基づく評価プロトコルGrAImesを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated story writing has been a subject of study for over 60 years. Large language models can generate narratively consistent and linguistically coherent short fiction texts. Despite these advancements, rigorous assessment of such outputs for literary merit - especially concerning aesthetic qualities - has received scant attention. In this paper, we address the challenge of evaluating AI-generated microfictions and argue that this task requires consideration of literary criteria across various aspects of the text, such as thematic coherence, textual clarity, interpretive depth, and aesthetic quality. To facilitate this, we present GrAImes: an evaluation protocol grounded in literary theory, specifically drawing from a literary perspective, to offer an objective framework for assessing AI-generated microfiction. Furthermore, we report the results of our validation of the evaluation protocol, as answered by both literature experts and literary enthusiasts. This protocol will serve as a foundation for evaluating automatically generated microfictions and assessing their literary value.
- Abstract(参考訳): 自動ストーリー執筆は60年以上にわたって研究の対象となっている。
大規模な言語モデルは、物語的に一貫性があり、言語的に一貫性のある短編テキストを生成することができる。
これらの進歩にもかかわらず、文学的価値、特に美的品質に関する厳密な評価が注目されている。
本稿では,AI生成マイクロフィクションを評価する上での課題に対処し,この課題には,主題的コヒーレンス,テキストの明瞭さ,解釈深度,美的品質など,テキストのさまざまな側面における文学的基準の検討が必要であると論じる。
そこで本稿では,GrAImesについて,文学理論に基づく評価プロトコルとして,特に文学的視点から,AI生成マイクロフィクションを評価するための客観的な枠組みを提供する。
さらに,文献専門家と文芸愛好家の両方が回答した評価プロトコルの有効性について報告する。
このプロトコルは、自動生成されたマイクロフィクションを評価し、それらの文学的価値を評価する基盤となる。
関連論文リスト
- Enhancing Essay Cohesion Assessment: A Novel Item Response Theory Approach [0.7845950813414773]
本研究では,項目応答理論に基づく凝集点予測手法の提案と解析を行う。
提案手法は,従来の機械学習モデルとアンサンブル手法を,いくつかの評価指標で比較した。
論文 参考訳(メタデータ) (2025-07-11T11:05:27Z) - The Reader is the Metric: How Textual Features and Reader Profiles Explain Conflicting Evaluations of AI Creative Writing [1.3654846342364306]
我々は5つの公開データセット(1,471ストーリー、101アノテータ、批評家、学生、レイリーダー)を使って17の参照なしテキストの特徴を抽出します。
我々は、個々の読み手の好みをモデル化し、テキストの優先順位を反映した特徴重要ベクトルを導出する。
本研究は,文学的品質の測定が,文章の特徴と読み手の好みがどのように一致しているかを定量的に説明するものである。
論文 参考訳(メタデータ) (2025-06-03T18:50:22Z) - EssayBench: Evaluating Large Language Models in Multi-Genre Chinese Essay Writing [47.704427451419456]
benchNameは4つの主要なジャンル(Argumentative, Narrative, Descriptive, Expository)にまたがる中国語エッセイを書くために設計されたマルチジャンルのベンチマークである。
階層的にスコアを集計する,きめ細かなジャンル別スコアリングフレームワークを開発した。
我々は15個の大型LCMをベンチマークし、ジャンルや命令タイプにまたがる長所と短所を分析した。
論文 参考訳(メタデータ) (2025-06-03T08:14:46Z) - Where is my Glass Slipper? AI, Poetry and Art [0.0]
この文献は、人工知能、詩、芸術の交点を問うものである。
初期のテンプレートベースのシステムから生成モデルまで、コンピュータ生成詩の発達を辿る。
レビューは、技術革新と人間の主観性の相互依存を認識する創造的プロセスの再評価を要求する。
論文 参考訳(メタデータ) (2025-02-26T14:57:03Z) - Large Language Models for Automated Literature Review: An Evaluation of Reference Generation, Abstract Writing, and Review Composition [2.048226951354646]
大規模言語モデル(LLM)は、文学レビューを書くことに関わる複雑なプロセスを自動化するための潜在的な解決策として登場した。
本研究は,文学書記の3つの重要な課題において,LLMの性能を自動評価する枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-18T08:42:25Z) - STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond [68.47402386668846]
本研究では,テキストアセスメントをステップワイド推論プロセスとしてモデル化するために,Structured Reasoning In Critical Text Assessment (STRICTA)を導入する。
STRICTAは、因果性理論に基づく相互接続推論ステップのグラフに評価を分解する。
約40人のバイオメディカル専門家が20以上の論文について4000以上の推論ステップのデータセットにSTRICTAを適用した。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - A Perspective on Literary Metaphor in the Context of Generative AI [0.6445605125467572]
本研究は,文芸メタファーの役割と,その能力について考察する。
原語の含意が文質を向上させるかどうかを検討するため,アフリカーンスでLSTMに基づく言語モデルを訓練した。
本論文は,美的価値,解釈,評価に関する思考的疑問を提起する。
論文 参考訳(メタデータ) (2024-09-02T08:27:29Z) - What Makes a Good Story and How Can We Measure It? A Comprehensive Survey of Story Evaluation [57.550045763103334]
ストーリーを評価することは、他の世代の評価タスクよりも難しい場合があります。
まず、テキスト・トゥ・テキスト、ビジュアル・トゥ・テキスト、テキスト・トゥ・ビジュアルといった既存のストーリーテリングタスクを要約する。
本研究では,これまで開発されてきた,あるいはストーリー評価に応用可能な評価指標を整理する分類法を提案する。
論文 参考訳(メタデータ) (2024-08-26T20:35:42Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Large Language Models are Diverse Role-Players for Summarization
Evaluation [82.31575622685902]
文書要約の品質は、文法や正しさといった客観的な基準と、情報性、簡潔さ、魅力といった主観的な基準で人間の注釈者によって評価することができる。
BLUE/ROUGEのような自動評価手法のほとんどは、上記の次元を適切に捉えることができないかもしれない。
目的と主観の両面から生成されたテキストと参照テキストを比較し,総合的な評価フレームワークを提供するLLMに基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-27T10:40:59Z) - Quasi Error-free Text Classification and Authorship Recognition in a
large Corpus of English Literature based on a Novel Feature Set [0.0]
GLECの準誤りのないテキスト分類とオーサシップ認識は,同一の5つのスタイルと5つのコンテンツ特徴を用いた手法で可能であることを示す。
我々のデータは、心理学を読むための文学や実験の、多くの未来の計算および実証的研究の道を開く。
論文 参考訳(メタデータ) (2020-10-21T07:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。