論文の概要: Results of a Single Blind Literary Taste Test with Short Anonymized
Novel Fragments
- arxiv url: http://arxiv.org/abs/2011.01624v1
- Date: Tue, 3 Nov 2020 11:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:53:50.588171
- Title: Results of a Single Blind Literary Taste Test with Short Anonymized
Novel Fragments
- Title(参考訳): 短い匿名化小説断片を用いた盲目文芸味試験の結果
- Authors: Andreas van Cranenburgh, Corina Koolen
- Abstract要約: 文学的品質の認識が、文章本質と社会的要因からどの程度引き起こされるかは、明らかな疑問である。
オランダ語小説の文体的特徴が文学的評価に及ぼす影響を評価するためのパイロット研究の結果を報告する。
調査評価と調査評価の相関は中程度から強いが, 予測は調査評価に近づいた。
- 参考スコア(独自算出の注目度): 4.695687634290403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is an open question to what extent perceptions of literary quality are
derived from text-intrinsic versus social factors. While supervised models can
predict literary quality ratings from textual factors quite successfully, as
shown in the Riddle of Literary Quality project (Koolen et al., 2020), this
does not prove that social factors are not important, nor can we assume that
readers make judgments on literary quality in the same way and based on the
same information as machine learning models. We report the results of a pilot
study to gauge the effect of textual features on literary ratings of
Dutch-language novels by participants in a controlled experiment with 48
participants. In an exploratory analysis, we compare the ratings to those from
the large reader survey of the Riddle in which social factors were not
excluded, and to machine learning predictions of those literary ratings. We
find moderate to strong correlations of questionnaire ratings with the survey
ratings, but the predictions are closer to the survey ratings. Code and data:
https://github.com/andreasvc/litquest
- Abstract(参考訳): 文学的品質の認識が、テキストイントリンシズムと社会的要因からどの程度派生しているかは、公然の疑問である。
教師付きモデルは、文学的品質プロジェクト(koolen et al., 2020)の謎にあるように、テキスト的要因から文学的品質評価をかなりうまく予測することができるが、これは社会的要因が重要ではないことや、読者が文学的品質を同じように判断し、機械学習モデルと同じ情報に基づいて判断できると仮定することができない。
オランダ語小説の文体的特徴が文学的評価に及ぼす影響を,48人の被験者による対照実験で評価した。
探索的分析では,社会的要因を除外しない大規模リドル調査と,それらの文学的評価の機械学習予測を比較した。
アンケート評価と調査評価との相関は中程度から強かったが,その予測は調査評価に近かった。
コードとデータ: https://github.com/andreasvc/litquest
関連論文リスト
- LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - What factors influence the popularity of user-generated text in the
creative domain? A case study of book reviews [0.0]
本研究は, 書評の心理的, 語彙的, 意味的, 可読性の諸特徴について検討し, その評価の根底にある要因を解明する。
従来の機械学習分類器と変換器をベースとした微調整言語モデルにn-gram機能を導入し,レビューの人気を自動的に判定する。
その結果,いくつかの特徴を除いて,ほとんどの属性は人気レビュー群と非人気レビュー群に有意な差は示さないことがわかった。
論文 参考訳(メタデータ) (2023-11-12T02:54:11Z) - An Analysis of Reader Engagement in Literary Fiction through Eye
Tracking and Linguistic Features [11.805980147608178]
本研究は,読み手がいかに興味を抱くかを予測する上で,テキストの様々な性質の重要性について分析した。
フィクションで読者を魅了するものの理解を深めることによって、創造的な物語生成に使用されるモデルにより良い情報を与えることができる。
論文 参考訳(メタデータ) (2023-06-06T22:14:59Z) - Computational analyses of the topics, sentiments, literariness,
creativity and beauty of texts in a large Corpus of English Literature [0.0]
Gutenberg Literary English Corpus (GLEC)は、デジタル人文科学、計算言語学、神経認知詩学の研究のための豊富なテキストデータソースを提供する。
GLECの6つのテキストカテゴリのトピックと感情分析の結果を報告する。<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>100</i>,<i>3</i>,<i>3</i>,<i>3</i
論文 参考訳(メタデータ) (2022-01-12T08:16:52Z) - Modeling Social Readers: Novel Tools for Addressing Reception from
Online Book Reviews [0.0]
5つの人気小説のレビューのコーパスを使用して、小説のメインストーリーラインの読者の蒸留を研究します。
無限語彙ネットワークの研究に3つの重要な貢献をしている。
本稿では、レビューから集約された部分軌跡に基づいてイベントのコンセンサスシーケンスを生成する新しいシーケンシングアルゴリズムREV2SEQを提案する。
論文 参考訳(メタデータ) (2021-05-03T20:10:14Z) - My Teacher Thinks The World Is Flat! Interpreting Automatic Essay
Scoring Mechanism [71.34160809068996]
最近の研究では、自動スコアリングシステムが常識的な敵対的サンプルになりやすいことが示されています。
近年の解釈能力の進歩を活かし,コヒーレンスやコンテント,関連性といった特徴がスコアリングの自動化にどの程度重要であるかを見出す。
また、モデルが意味的に世界知識や常識に基づかないことから、世界のような虚偽の事実を追加することは、それを減らすよりもむしろスコアを増加させる。
論文 参考訳(メタデータ) (2020-12-27T06:19:20Z) - Curious Case of Language Generation Evaluation Metrics: A Cautionary
Tale [52.663117551150954]
イメージキャプションや機械翻訳などのタスクを評価するデファクトメトリクスとして、いくつかの一般的な指標が残っている。
これは、使いやすさが原因でもあり、また、研究者がそれらを見て解釈する方法を知りたがっているためでもある。
本稿では,モデルの自動評価方法について,コミュニティにより慎重に検討するよう促す。
論文 参考訳(メタデータ) (2020-10-26T13:57:20Z) - Quasi Error-free Text Classification and Authorship Recognition in a
large Corpus of English Literature based on a Novel Feature Set [0.0]
GLECの準誤りのないテキスト分類とオーサシップ認識は,同一の5つのスタイルと5つのコンテンツ特徴を用いた手法で可能であることを示す。
我々のデータは、心理学を読むための文学や実験の、多くの未来の計算および実証的研究の道を開く。
論文 参考訳(メタデータ) (2020-10-21T07:39:55Z) - Multilingual Twitter Corpus and Baselines for Evaluating Demographic
Bias in Hate Speech Recognition [46.57105755981092]
ヘイトスピーチ検出のための多言語Twitterコーパスを公開している。
コーパスは英語、イタリア語、ポーランド語、ポルトガル語、スペイン語の5つの言語をカバーしている。
我々は、クラウドソーシングプラットフォームを用いて、推定された人口統計ラベルを評価した。
論文 参考訳(メタデータ) (2020-02-24T16:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。