論文の概要: How LLMs Distort Our Written Language
- arxiv url: http://arxiv.org/abs/2603.18161v1
- Date: Wed, 18 Mar 2026 18:01:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.790606
- Title: How LLMs Distort Our Written Language
- Title(参考訳): LLMが言語を歪める方法
- Authors: Marwa Abdulhai, Isadora White, Yanming Wan, Ibrahim Qureshi, Joel Leibo, Max Kleiman-Weiner, Natasha Jaques,
- Abstract要約: 大規模言語モデル(LLM)は世界中で10億人以上が利用しており、多くの場合、執筆支援に使われている。
我々はLLMが人間の文章の音声やトーンを変えるだけでなく、意図した意味を一貫して変えることを実証した。
- 参考スコア(独自算出の注目度): 11.98582470524476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are used by over a billion people globally, most often to assist with writing. In this work, we demonstrate that LLMs not only alter the voice and tone of human writing, but also consistently alter the intended meaning. First, we conduct a human user study to understand how people actually interact with LLMs when using them for writing. Our findings reveal that extensive LLM use led to a nearly 70% increase in essays that remained neutral in answering the topic question. Significantly more heavy LLM users reported that the writing was less creative and not in their voice. Next, using a dataset of human-written essays that was collected in 2021 before the widespread release of LLMs, we study how asking an LLM to revise the essay based on the human-written feedback in the dataset induces large changes in the resulting content and meaning. We find that even when LLMs are prompted with expert feedback and asked to only make grammar edits, they still change the text in a way that significantly alters its semantic meaning. We then examine LLM-generated text in the wild, specifically focusing on the 21% of AI-generated scientific peer reviews at a recent top AI conference. We find that LLM-generated reviews place significantly less weight on clarity and significance of the research, and assign scores that, on average, are a full point higher.These findings highlight a misalignment between the perceived benefit of AI use and an implicit, consistent effect on the semantics of human writing, motivating future work on how widespread AI writing will affect our cultural and scientific institutions.
- Abstract(参考訳): 大規模言語モデル(LLM)は世界中で10億人以上が利用しており、多くの場合、執筆支援に使われている。
本研究では,LLMが人間の文章の音声やトーンを変えるだけでなく,意図した意味を一貫して変えることを実証する。
まず,LLMを文字として使用する際に,人間が実際にLLMとどのように相互作用しているかを理解するために,人間のユーザスタディを実施している。
以上の結果から, LLMの広範な使用により, 質問への回答に中立なエッセイが約70%増加したことが判明した。
より重いLCMユーザーは、文章は創造的ではなく、彼らの声にはないと報告した。
次に,LLMが普及する2021年に収集された人文エッセイのデータセットを用いて,本データセットにおける人文フィードバックに基づいて,LLMにエッセイを改訂するよう求め,その結果の内容と意味に大きな変化をもたらすかを検討する。
LLMが専門家のフィードバックで促され、文法編集のみを依頼されたとしても、意味を著しく変えるような方法でテキストを変更できることに気付きました。
次に、最近開催されたトップAIカンファレンスで、LLMが生成したテキストを調べ、AIが生成する科学的ピアレビューの21%に焦点をあてる。
LLMが生成したレビューは、研究の明確さと重要性を著しく減らし、平均的に、AIの使用の利点が認識されることと、人間の文章の意味に暗黙的に一貫した影響が、私たちの文化的・科学的な機関にどのように影響するかを、将来の研究の動機付けとして示している。
関連論文リスト
- LLM or Human? Perceptions of Trust and Information Quality in Research Summaries [4.14522715241162]
大規模言語モデル(LLM)は、科学的な抽象化の生成と編集にますます利用されている。
普及しているにもかかわらず、読者がLLM生成サマリーをどのように認識しているかはほとんど分かっていない。
論文 参考訳(メタデータ) (2026-01-22T00:53:38Z) - Mind the Gap! Choice Independence in Using Multilingual LLMs for Persuasive Co-Writing Tasks in Different Languages [51.96666324242191]
チャリティー広告作成タスクにおける新規筆記アシスタントのユーザ利用が、第2言語におけるAIの性能に影響を及ぼすかどうかを分析する。
我々は、これらのパターンが、生成したチャリティー広告の説得力に変換される程度を定量化する。
論文 参考訳(メタデータ) (2025-02-13T17:49:30Z) - IssueBench: Millions of Realistic Prompts for Measuring Issue Bias in LLM Writing Assistance [49.605835017477034]
IssueBenchは2.49mの現実的な英語のプロンプトで、大きな言語モデルにおける問題バイアスを測定する。
IssueBench を用いて、10 の最先端 LLM において問題バイアスが一般的で永続的であることを示す。
論文 参考訳(メタデータ) (2025-02-12T13:37:03Z) - Can AI writing be salvaged? Mitigating Idiosyncrasies and Improving Human-AI Alignment in the Writing Process through Edits [39.00434175773803]
私たちはプロの作家を雇い、いくつかの創造的なドメインで段落を編集しました。
LAMPコーパス 1,057 LLM- generated paragraphs by professional writer based by our taxonomy。
LAMPの分析から,本研究で用いたLLMはいずれも,書字品質の面では優れていないことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-22T16:13:00Z) - Delving into LLM-assisted writing in biomedical publications through excess vocabulary [4.58733012283457]
ChatGPTのような大きな言語モデル(LLM)は、人間レベルのパフォーマンスでテキストを生成し、修正することができる。
PubMedによる2010年から2024年にかけての1500万以上のバイオメディカル・抽象化の語彙変化について検討した。
バイオメディカル研究におけるLCMは,コビッドパンデミックなどの世界大イベントの影響を超越し,科学的な執筆に前例のない影響を与えていることを示す。
論文 参考訳(メタデータ) (2024-06-11T07:16:34Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Event knowledge in large language models: the gap between the impossible
and the unlikely [46.540380831486125]
我々は,事前学習された大規模言語モデル (LLM) がイベント知識を持つことを示す。
彼らはほぼ常に、不可能な事象に対して高い確率を割り当てる。
しかし、おそらくは起こりそうもない出来事に対して、一貫性のない選好を示す。
論文 参考訳(メタデータ) (2022-12-02T23:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。