論文の概要: GPT Editors, Not Authors: The Stylistic Footprint of LLMs in Academic Preprints
- arxiv url: http://arxiv.org/abs/2505.17327v1
- Date: Thu, 22 May 2025 22:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.719968
- Title: GPT Editors, Not Authors: The Stylistic Footprint of LLMs in Academic Preprints
- Title(参考訳): GPTエディタ - 著者ではなく - 学術論文におけるLCMの静的フットプリント
- Authors: Soren DeHaan, Yuanze Liu, Johan Bollen, Sa'ul A. Blanco,
- Abstract要約: 2022年末のLarge Language Models(LLM)の普及は、学術的な執筆に影響を与え、信頼性を脅かし、制度上の不確実性を引き起こしている。
文法エラーのチェックや不適切なフレーズ作成など、編集に使用されるのとは対照的に、LLMが重要なテキストを生成するのにどの程度使われるかを決定する。
著者らは, LLM を用いた場合, LLM が一様であることから, 学術的事前印刷に導入される幻覚のリスクが軽減されることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The proliferation of Large Language Models (LLMs) in late 2022 has impacted academic writing, threatening credibility, and causing institutional uncertainty. We seek to determine the degree to which LLMs are used to generate critical text as opposed to being used for editing, such as checking for grammar errors or inappropriate phrasing. In our study, we analyze arXiv papers for stylistic segmentation, which we measure by varying a PELT threshold against a Bayesian classifier trained on GPT-regenerated text. We find that LLM-attributed language is not predictive of stylistic segmentation, suggesting that when authors use LLMs, they do so uniformly, reducing the risk of hallucinations being introduced into academic preprints.
- Abstract(参考訳): 2022年末のLarge Language Models(LLM)の普及は、学術的な執筆に影響を与え、信頼性を脅かし、制度上の不確実性を引き起こしている。
文法エラーのチェックや不適切なフレーズ作成など、編集に使用されるのとは対照的に、LLMが重要なテキストを生成するのにどの程度使われるかを決定する。
そこで本研究では,GPT再生テキストで学習したベイズ分類器に対して,PELT閾値を変動させることにより,文体分割のためのarXiv論文を分析した。
著者らは, LLM を用いた場合, LLM が一様であることから, 学術的事前印刷に導入される幻覚のリスクが軽減されることが示唆された。
関連論文リスト
- Divergent LLM Adoption and Heterogeneous Convergence Paths in Research Writing [0.8046044493355781]
LLM(Large Language Models)は、コンテンツ作成と学術的執筆を変革する。
本研究は,AIによる生成リビジョンが研究原稿に与える影響について検討する。
論文 参考訳(メタデータ) (2025-04-18T11:09:16Z) - Human-LLM Coevolution: Evidence from Academic Writing [0.0]
We report a marked drop in the frequency of several words before previously identifieded by ChatGPT, such as "delve"。
ChatGPTで好まれる「重要な」単語の頻度は増加し続けている。
論文 参考訳(メタデータ) (2025-02-13T18:55:56Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Can AI writing be salvaged? Mitigating Idiosyncrasies and Improving Human-AI Alignment in the Writing Process through Edits [39.00434175773803]
私たちはプロの作家を雇い、いくつかの創造的なドメインで段落を編集しました。
LAMPコーパス 1,057 LLM- generated paragraphs by professional writer based by our taxonomy。
LAMPの分析から,本研究で用いたLLMはいずれも,書字品質の面では優れていないことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-22T16:13:00Z) - Native Language Identification with Large Language Models [60.80452362519818]
我々はGPTモデルがNLI分類に熟練していることを示し、GPT-4は0ショット設定でベンチマーク11テストセットで91.7%の新たなパフォーマンス記録を樹立した。
また、従来の完全教師付き設定とは異なり、LLMは既知のクラスに制限されずにNLIを実行できることを示す。
論文 参考訳(メタデータ) (2023-12-13T00:52:15Z) - The Ups and Downs of Large Language Model Inference with Vocabulary Trimming by Language Heuristics [74.99898531299148]
本研究は,興味のある言語への埋め込みエントリを制限し,時間と記憶効率を高めることによる語彙トリミング(VT)について検討する。
Unicodeベースのスクリプトフィルタリングとコーパスベースの選択という2つの言語を異なる言語ファミリやサイズに適用する。
その結果、VTは小型モデルのメモリ使用量を50%近く削減し、生成速度が25%向上した。
論文 参考訳(メタデータ) (2023-11-16T09:35:50Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - DPIC: Decoupling Prompt and Intrinsic Characteristics for LLM Generated Text Detection [56.513637720967566]
大規模言語モデル(LLM)は、盗作、eコマースプラットフォームへの偽レビューの設置、炎症性偽ツイートなどの誤用のリスクを引き起こすテキストを生成することができる。
既存の高品質な検出手法では、本質的な特徴を抽出するために、モデルの内部にアクセスする必要がある。
ブラックボックスモデル生成テキストの深い内在特性を抽出する。
論文 参考訳(メタデータ) (2023-05-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。