論文の概要: LiteraryTaste: A Preference Dataset for Creative Writing Personalization
- arxiv url: http://arxiv.org/abs/2511.09310v1
- Date: Thu, 13 Nov 2025 01:45:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.511217
- Title: LiteraryTaste: A Preference Dataset for Creative Writing Personalization
- Title(参考訳): LiteraryTaste: クリエイティブ・ライティング・パーソナライゼーションのための選好データセット
- Authors: John Joon Young Chung, Vishakh Padmakumar, Melissa Roemmele, Yi Wang, Yuqian Sun, Tiffany Wang, Shm Garanganao Almeda, Brett A. Halperin, Yuwen Lu, Max Kreminski,
- Abstract要約: LiteraryTasteは60人からの読み好みのデータセットである。
1人1人1人1人1人1人1人1人1人1人1人1人1人2人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1人1
筆者らのデータセットでは,1) 創作の好みを多用し,2) トランスフォーマーエンコーダを微調整することで,個人的および集団的嗜好のモデル化において75.8%と67.7%の精度が得られること,3) 提示された嗜好は,表現された嗜好のモデル化において限られた有用性を示した。
- 参考スコア(独自算出の注目度): 28.057580909463226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: People have different creative writing preferences, and large language models (LLMs) for these tasks can benefit from adapting to each user's preferences. However, these models are often trained over a dataset that considers varying personal tastes as a monolith. To facilitate developing personalized creative writing LLMs, we introduce LiteraryTaste, a dataset of reading preferences from 60 people, where each person: 1) self-reported their reading habits and tastes (stated preference), and 2) annotated their preferences over 100 pairs of short creative writing texts (revealed preference). With our dataset, we found that: 1) people diverge on creative writing preferences, 2) finetuning a transformer encoder could achieve 75.8% and 67.7% accuracy when modeling personal and collective revealed preferences, and 3) stated preferences had limited utility in modeling revealed preferences. With an LLM-driven interpretability pipeline, we analyzed how people's preferences vary. We hope our work serves as a cornerstone for personalizing creative writing technologies.
- Abstract(参考訳): これらのタスクに対する大きな言語モデル(LLM)は、各ユーザの好みに適応することの恩恵を受けます。
しかしながら、これらのモデルは、様々な個人の嗜好をモノリスと考えるデータセットでトレーニングされることが多い。
パーソナライズされたクリエイティブな書き込み LLM の開発を容易にするために,60 人からの読み好みのデータセットである LiteraryTaste を紹介した。
1)読書習慣・嗜好(選好)を自己申告し、
2)100対以上の短い創作テキストを注釈付けした(参照優先)。
データセットでは、次のようなことが分かりました。
1)創造的な書き方を好む人、
2変圧器エンコーダの微調整は、個人的及び集団的選好のモデル化において、75.8%及び67.7%の精度を達成することができる。
3) 嗜好のモデル化では, 嗜好が限定的であった。
LLM駆動の解釈可能性パイプラインを用いて、人々の好みがどのように変化するかを分析した。
私たちの仕事は、クリエイティブな執筆技術をパーソナライズするための基盤となることを願っています。
関連論文リスト
- Catch Me If You Can? Not Yet: LLMs Still Struggle to Imitate the Implicit Writing Styles of Everyday Authors [9.921537507947473]
本研究は,大規模言語モデルの個人記述スタイルを模倣する能力を包括的に評価する。
著者の帰属、著者の検証、スタイルマッチング、AI検出など、補完的な指標の集合体を導入し、スタイルの模倣を頑健に評価する。
結果は、LLMがニュースやメールなどの構造化フォーマットでユーザスタイルを近似できる一方で、ブログやフォーラムでの曖昧で非公式な書き込みに苦労していることを示している。
論文 参考訳(メタデータ) (2025-09-18T02:18:49Z) - NextQuill: Causal Preference Modeling for Enhancing LLM Personalization [82.15961484963256]
因果選好モデルに基づく新しいパーソナライズフレームワークであるNextQuillを紹介する。
この洞察に基づいて、NextQuillは2つの補完的なアライメント戦略を導入した。
複数のパーソナライズベンチマークの実験により、NextQuillはパーソナライズ品質を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-06-03T02:08:55Z) - Is Active Persona Inference Necessary for Aligning Small Models to Personal Preferences? [16.12440288407791]
人気のトレンドは、現在のユーザの会話にプレフィックスを追加して、好みの配布を操ることである。
ほとんどのメソッドは、前の例の選好ペアで個人的な選好を受動的にモデル化する。
モデルが嗜好記述を積極的に推測する利点があるかどうかを問う。
次に、微調整された1-8Bサイズのモデルが、個人の好みを推測し調整する上で、いかに効果的かをテストする。
論文 参考訳(メタデータ) (2025-05-19T15:39:48Z) - FSPO: Few-Shot Preference Optimization of Synthetic Preference Data in LLMs Elicits Effective Personalization to Real Users [111.56469697145519]
メタ学習問題として報酬モデルを再設計するFew-Shot Preference Optimizationを提案する。
このフレームワークでは、LDMはそのユーザからいくつかのラベル付けされた好みを通じてユーザへの迅速な適応を学び、パーソナライズされた報酬関数を構築する。
公開されているLLMを用いて100万以上の合成パーソナライズされた好みを生成する。
本研究は,映画レビュー,教育背景に基づく教育適応,一般質問応答の3分野を対象に,最大1,500人の総合ユーザを対象に,パーソナライズされたオープンエンド世代に対するFSPOの評価を行った。
論文 参考訳(メタデータ) (2025-02-26T17:08:46Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - DegustaBot: Zero-Shot Visual Preference Estimation for Personalized Multi-Object Rearrangement [53.86523017756224]
本稿では,視覚的嗜好学習のためのアルゴリズムであるDegustaBotを提案する。
我々は、シミュレーション表設定タスクにおいて、自然主義的個人的嗜好の大規模なデータセットを収集する。
私たちのモデルの予測の50%は、少なくとも20%の人々に受け入れられる可能性が高いことが分かりました。
論文 参考訳(メタデータ) (2024-07-11T21:28:02Z) - Personalized Language Modeling from Personalized Human Feedback [45.16986573937782]
パーソナライズされた大規模言語モデル(LLM)は、個々のユーザの好みに応答するように設計されている。
個人の好みを捉えるために軽量なユーザモデルを利用する効率的なフレームワークであるPersonalized-RLHFを提案する。
P-RLHF を用いて学習したパーソナライズされた LLM は,個々のユーザの好みとより密に一致した応答を生成する。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - PerPLM: Personalized Fine-tuning of Pretrained Language Models via
Writer-specific Intermediate Learning and Prompts [16.59511985633798]
事前訓練言語モデル(PLM)はコンテキストをキャプチャするための強力なツールである。
PLMは通常、様々な作家の間で広く使われるように訓練され、微調整されている。
本研究では, PLMの微調整を具体化することで, テキスト理解タスクの精度を向上させることを目的とする。
論文 参考訳(メタデータ) (2023-09-14T14:03:48Z) - Predicting A Creator's Preferences In, and From, Interactive Generative
Art [47.68552532886138]
我々は311人の被験者の好みを、特定の生成芸術形式と他の生活様式の両方で収集する。
我々は、好みを分析し、機械学習モデルを訓練し、残りから好みのサブセットを予測する。
我々の研究した生成芸術形態の嗜好は、偶然(およびその逆)よりも、他の人生の歩みの嗜好を予測できないことがわかりました。
論文 参考訳(メタデータ) (2020-03-03T01:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。