論文の概要: A Stylometric Application of Large Language Models
- arxiv url: http://arxiv.org/abs/2510.21958v1
- Date: Fri, 24 Oct 2025 18:35:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.480722
- Title: A Stylometric Application of Large Language Models
- Title(参考訳): 大規模言語モデルのスティロメトリ応用
- Authors: Harrison F. Stropkay, Jiayi Chen, Mohammad J. Latifi, Daniel N. Rockmore, Jeremy R. Manning,
- Abstract要約: 大規模言語モデル(LLM)は,異なる著者の筆跡を区別するために用いられることを示す。
具体的には、ある著者の作品に基づいてゼロから訓練された個々のGPT-2モデルは、他の著者の保持されたテキストよりも正確に著者の保持されたテキストを予測する。
- 参考スコア(独自算出の注目度): 3.6692282256009405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that large language models (LLMs) can be used to distinguish the writings of different authors. Specifically, an individual GPT-2 model, trained from scratch on the works of one author, will predict held-out text from that author more accurately than held-out text from other authors. We suggest that, in this way, a model trained on one author's works embodies the unique writing style of that author. We first demonstrate our approach on books written by eight different (known) authors. We also use this approach to confirm R. P. Thompson's authorship of the well-studied 15th book of the Oz series, originally attributed to F. L. Baum.
- Abstract(参考訳): 大規模言語モデル(LLM)は,異なる著者の筆跡を区別するために用いられることを示す。
具体的には、ある著者の作品に基づいてゼロから訓練された個々のGPT-2モデルは、他の著者の保持されたテキストよりも正確に著者の保持されたテキストを予測する。
このようにして、ある著者の作品で訓練されたモデルが、その著者の独特な執筆スタイルを具現化していることを示唆する。
私たちはまず、8つの異なる(既知の)著者によって書かれた本にアプローチを示します。
このアプローチは、もともとF. L. Baum に由来する Oz 級数のよく研究された 15 番目の本について R. P. Thompson の著作を裏付けるためにも用いられる。
関連論文リスト
- Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,文字のテキストワークに現れる言語パターンと独特の思考パターンの両方を再現するモデルである characterBot を紹介する。
著名な中国の作家ル・ジュンをケーススタディとして、17冊のエッセイ集から派生した4つの訓練課題を提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Low-Resource Authorship Style Transfer: Can Non-Famous Authors Be Imitated? [41.365967145680116]
オーサリングスタイルの転送は、本来の意味を保ちながら、ターゲットの作者のスタイルに合わせてテキストを変更することを含む。
低リソースなオーサリングスタイルの転送タスクを導入し、ターゲットのオーサリングスタイルに限られたテキストしか存在しないようにする。
実験では、Redditのソースとターゲットの作者を選択し、Redditの投稿を転送し、ターゲットの著者のスタイルのたった16の投稿(平均500ワード)に制限します。
論文 参考訳(メタデータ) (2022-12-18T01:57:30Z) - PART: Pre-trained Authorship Representation Transformer [52.623051272843426]
文書を書く著者は、自分のテキストに識別情報を印字する。
以前の作品では、手作りの機能や分類タスクを使って著者モデルを訓練していた。
セマンティクスの代わりにテキストの埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Letter-level Online Writer Identification [86.13203975836556]
我々は文字レベルのオンラインライタIDという新たな問題に焦点をあてる。
主な課題は、しばしば異なるスタイルで手紙を書くことである。
我々はこの問題をオンライン書記スタイルのばらつき(Var-O-Styles)と呼ぶ。
論文 参考訳(メタデータ) (2021-12-06T07:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。