論文の概要: Echoes of Automation: The Increasing Use of LLMs in Newsmaking
- arxiv url: http://arxiv.org/abs/2508.06445v1
- Date: Fri, 08 Aug 2025 16:38:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.307603
- Title: Echoes of Automation: The Increasing Use of LLMs in Newsmaking
- Title(参考訳): 自動化のエコー:ニュース制作におけるLCMの利用の増加
- Authors: Abolfazl Ansari, Delvin Ce Zhang, Nafis Irtiza Tripto, Dongwon Lee,
- Abstract要約: 本研究では,大手メディア,地方メディア,大学ニュースメディアの4万件以上のニュース記事を対象としたAI生成コンテンツについて検討する。
近年のGenAI利用は,特に地域ニュースや大学ニュースで顕著に増加している。
- 参考スコア(独自算出の注目度): 12.627597853309174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid rise of Generative AI (GenAI), particularly LLMs, poses concerns for journalistic integrity and authorship. This study examines AI-generated content across over 40,000 news articles from major, local, and college news media, in various media formats. Using three advanced AI-text detectors (e.g., Binoculars, Fast-Detect GPT, and GPTZero), we find substantial increase of GenAI use in recent years, especially in local and college news. Sentence-level analysis reveals LLMs are often used in the introduction of news, while conclusions usually written manually. Linguistic analysis shows GenAI boosts word richness and readability but lowers formality, leading to more uniform writing styles, particularly in local media.
- Abstract(参考訳): ジェネレーティブAI(GenAI)の急速な台頭、特にLLMは、ジャーナリストの完全性と著者権に対する懸念を引き起こしている。
本研究では,大手メディア,地方メディア,大学ニュースメディアから4万件以上のニュース記事に対して,さまざまなメディアフォーマットでAI生成コンテンツを調査する。
先進的な3つのAIテキスト検出器(例えば、Binoculars、Fast-Detect GPT、GPTZero)を用いることで、近年、特に地元や大学のニュースにおいて、GenAIの使用が大幅に増加していることが分かる。
文レベルの分析では、LLMはニュースの導入によく使われ、結論は通常手作業で書かれる。
言語学的分析では、GenAIは単語の豊かさと可読性を向上するが、形式性を低下させ、特にローカルメディアにおいて、より均一な書き方をもたらす。
関連論文リスト
- Diversity Boosts AI-Generated Text Detection [51.56484100374058]
DivEyeは、予備的な機能を使って、予測不可能がテキスト間でどのように変動するかをキャプチャする、新しいフレームワークである。
提案手法は、既存のゼロショット検出器を最大33.2%向上させ、微調整ベースラインとの競合性能を達成する。
論文 参考訳(メタデータ) (2025-09-23T10:21:22Z) - Who Gets Seen in the Age of AI? Adoption Patterns of Large Language Models in Scholarly Writing and Citation Outcomes [1.5702201012657682]
グローバルイーストの著者は、AIツールをより積極的に採用するが、西洋の著者は「人間に似た」文章に対して、既に存在する罰則により、採用単位当たりの利益を得る。
先行する雑誌は、より人間らしい文章を特権化し続け、可視性とゲートキーピングの間に緊張を生じさせ続けている。
論文 参考訳(メタデータ) (2025-09-10T06:05:34Z) - People who frequently use ChatGPT for writing tasks are accurate and robust detectors of AI-generated text [37.36534911201806]
私たちは、300のノンフィクションの英語記事を読むために注釈を雇い、それを人書きまたはAI生成とラベル付けします。
実験の結果,AI生成テキストの検出において,LLMを頻繁に使用するアノテータが優れていることがわかった。
注釈付きデータセットとコードを公開し、AI生成テキストの人的および自動検出に関する将来の研究を刺激します。
論文 参考訳(メタデータ) (2025-01-26T19:31:34Z) - GigaCheck: Detecting LLM-generated Content [72.27323884094953]
本稿では,GigaCheckを提案することによって生成したテキスト検出の課題について検討する。
本研究は,LLM生成テキストとLLM生成テキストを区別する手法と,Human-Machine協調テキストにおけるLLM生成間隔を検出する手法について検討する。
具体的には,テキスト内のAI生成間隔をローカライズするために,コンピュータビジョンから適応したDETRのような検出モデルと組み合わせて,微調整の汎用LLMを用いる。
論文 参考訳(メタデータ) (2024-10-31T08:30:55Z) - Developing Story: Case Studies of Generative AI's Use in Journalism [18.67676679963561]
本研究では、WildChatデータセットを閲覧することで、2つの報道機関によるジャーナリストとAIのインタラクションの研究を行う。
本稿では,ジャーナリストが他の機関からの資料や記事との機密通信などの機密資料をLCMに送付し,記事作成を促す事例を明らかにする。
本稿では,AIの活用に責任を負うものに関するさらなる研究と,ジャーナリストの文脈でLLMを使用するための明確なガイドラインとベストプラクティスの確立を求めている。
論文 参考訳(メタデータ) (2024-06-19T16:58:32Z) - The Influencer Next Door: How Misinformation Creators Use GenAI [1.1650821883155187]
我々は、非専門家がGenAIをリミックス、再パッケージ、そして(再)コンテンツの制作に利用し、彼らの個人的ニーズや欲求に応えていることに気付きました。
我々は、これらの突発的GenAIの使用が、新しいまたは加速された誤情報障害をいかに生み出すかを分析する。
論文 参考訳(メタデータ) (2024-05-22T11:40:22Z) - Raidar: geneRative AI Detection viA Rewriting [42.477151044325595]
大規模な言語モデル(LLM)は、書き直しのタスクを行う場合、AI生成テキストよりも人間の書き起こしテキストを変更する傾向にある。
テキストの書き直しを LLM に促し,出力の編集距離を計算することで,AI 生成コンテンツを検出する手法を提案する。
この結果から,機械自体のレンズを通した機械生成テキストのユニークなインプリントが明らかになった。
論文 参考訳(メタデータ) (2024-01-23T18:57:53Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Bias of AI-Generated Content: An Examination of News Produced by Large Language Models [3.386586126505656]
大規模言語モデル(LLM)は、AIGC(AI-Generated Content)として知られる、私たちの生活を変革し、彼らが生成するコンテンツを通じて機能する可能性を持っている。
本稿では,ChatGPT や LLaMA を含む 7 つの代表的な LLM が生成する AIGC のバイアスについて検討する。
論文 参考訳(メタデータ) (2023-09-18T14:47:24Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。