論文の概要: The Impact of LLMs on Online News Consumption and Production
- arxiv url: http://arxiv.org/abs/2512.24968v2
- Date: Wed, 07 Jan 2026 04:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.003946
- Title: The Impact of LLMs on Online News Consumption and Production
- Title(参考訳): LLMがオンラインニュース消費と生産に与える影響
- Authors: Hangcheng Zhao, Ron Berman,
- Abstract要約: 大型言語モデル(LLM)は、消費者がオンラインで情報を取得する方法を変える。
LLMはまた、ニュース出版社のウェブサイトをクロールしてデータをトレーニングし、消費者の問い合わせに答える。
これらの変更は、ニュース出版社に悪影響を及ぼすという予測に繋がる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) change how consumers acquire information online; their bots also crawl news publishers' websites for training data and to answer consumer queries; and they provide tools that can lower the cost of content creation. These changes lead to predictions of adverse impact on news publishers in the form of lowered consumer demand, reduced demand for newsroom employees, and an increase in news "slop." Consequently, some publishers strategically responded by blocking LLM access to their websites using the robots.txt file standard. Using high-frequency granular data, we document four effects related to the predicted shifts in news publishing following the introduction of generative AI (GenAI). First, we find a moderate decline in traffic to news publishers occurring after August 2024. Second, using a difference-in-differences approach, we find that blocking GenAI bots can be associated with a reduction of total website traffic to large publishers compared to not blocking. Third, on the hiring side, we do not find evidence that LLMs are replacing editorial or content-production jobs yet. The share of new editorial and content-production job listings increases over time. Fourth, regarding content production, we find no evidence that large publishers increased text volume; instead, they significantly increased rich content and use more advertising and targeting technologies. Together, these findings provide early evidence of some unforeseen impacts of the introduction of LLMs on news production and consumption.
- Abstract(参考訳): 大規模言語モデル(LLM)は、消費者がオンラインで情報を取得する方法を変え、そのボットは、ニュース出版社のウェブサイトをクロールしてデータを訓練し、消費者の問い合わせに答え、コンテンツ作成コストを下げるツールを提供する。
これらの変化は、消費者需要の減少という形でニュース出版社に悪影響を及ぼすと予測し、ニュース室の従業員の需要を減らし、ニュースの「落ち込み」を増した。
結果として、いくつかの出版社は、ロボット.txtファイル標準を使用して LLM へのアクセスをブロックすることで戦略的に反応した。
高周波グラニュラーデータを用いて、生成AI(GenAI)の導入に伴うニュース出版の予測変化に関連する4つの効果を報告する。
まず、2024年8月以降に発生したニュース出版社へのトラフィックはやや減少している。
第2に、差分差分法を用いて、GenAIボットのブロックは、ブロックしない場合に比べて、Webサイト全体のトラフィックが大きめのパブリッシャーに減少することと関連付けられる。
第3に、雇用面では、LLMが編集職やコンテンツ制作職を置き換えているという証拠は見つからない。
新しい編集とコンテンツ制作の求人広告のシェアは、時間とともに増加する。
第4に、コンテンツ制作に関して、大手出版社がテキストのボリュームを増大させる証拠は見つからない。
これらの知見は、LLMの導入がニュースの制作と消費に予期せぬ影響を初期の証拠として示している。
関連論文リスト
- Web Intellectual Property at Risk: Preventing Unauthorized Real-Time Retrieval by Large Language Models [49.270849415269936]
本稿では,Webコンテンツ作成者に対して,不正な抽出と再配布からWebベースのIPを保護するための新しいフレームワークを提案する。
提案手法はモチベーションの原則に従い,難解なブラックボックス最適化問題に効果的に対処する。
論文 参考訳(メタデータ) (2025-05-19T03:14:08Z) - Against Opacity: Explainable AI and Large Language Models for Effective Digital Advertising [45.512178197258066]
メタ広告と世界のGoogleは、直感に頼っている無数の広告主を惹きつけている。
この透明性の欠如は、広告主が情報的な決定をし、透明性を促進し、業界メトリクスを標準化し、規制フレームワークを強化する努力を必要とする能力を妨げている。
本研究では,コンテンツの分析と評価を目的とした機械学習技術,特に新規広告コンテンツのクリックスルー率(CTR)を予測することによって,マーケターの広告戦略の最適化を支援する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-22T08:46:47Z) - The Influence of Generative AI on Content Platforms: Supply, Demand, and Welfare Impacts in Two-Sided Markets [3.4039202831583903]
本稿では、生成的人工知能が、人間とAIの両方がコンテンツを生成するオンラインプラットフォームにどのように影響するかを考察する。
我々は、生産的AIが供給と需要をどのように変化させ、交通分布に影響を与え、社会福祉に影響を及ぼすかを理解するためのモデルを開発する。
論文 参考訳(メタデータ) (2024-10-17T00:14:12Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Fake News Detectors are Biased against Texts Generated by Large Language
Models [39.36284616311687]
フェイクニュースの拡散は、信頼を弱め、社会への脅威を訴える重要な課題として浮上している。
本稿では,人間の書き起こしとLLM生成の両方の誤情報を含むシナリオにおいて,偽ニュース検知器を評価するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-15T18:04:40Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Machine-Made Media: Monitoring the Mobilization of Machine-Generated Articles on Misinformation and Mainstream News Websites [5.161088104035108]
私たちは、DeBERTaベースの合成ニュース検出器を訓練し、3,074の誤報とメインストリームのニュースサイトから156万記事以上を分類します。
2022年1月1日から2023年5月1日までの間に、メインストリームのウェブサイトでは、合成ニュース記事の相対数が57.3%増加し、誤情報サイトでは474%増加した。
論文 参考訳(メタデータ) (2023-05-16T21:51:01Z) - Multilingual Disinformation Detection for Digital Advertising [0.9684919127633844]
私たちは、偽情報で大衆を操る可能性のあるWebサイトを素早く検出し、リフレッシュする第一歩を踏み出します。
我々は、多言語テキスト埋め込みに基づく機械学習モデルを構築し、まず、ページが興味のあるトピックについて言及しているかどうかを判断し、コンテンツが悪意のあるものである可能性を推定する。
当社のシステムでは,内部チームが積極的に安全でないコンテンツをブラックリスト化することで,広告提供者の評判を保護できる。
論文 参考訳(メタデータ) (2022-07-04T10:29:20Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。