論文の概要: Breaking News: Case Studies of Generative AI's Use in Journalism
- arxiv url: http://arxiv.org/abs/2406.13706v1
- Date: Wed, 19 Jun 2024 16:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:54:50.800526
- Title: Breaking News: Case Studies of Generative AI's Use in Journalism
- Title(参考訳): ブレーキングニュース:ジェネレーティブAIのジャーナリズム利用事例
- Authors: Natalie Grace Brigham, Chongjiu Gao, Tadayoshi Kohno, Franziska Roesner, Niloofar Mireshghallah,
- Abstract要約: 本研究では、WildChatデータセットを閲覧することで、2つの報道機関によるジャーナリストとAIのインタラクションの研究を行う。
本稿では,ジャーナリストが他の機関からの資料や記事との機密通信などの機密資料をLCMに送付し,記事作成を促す事例を明らかにする。
本稿では,AIの活用に責任を負うものに関するさらなる研究と,ジャーナリストの文脈でLLMを使用するための明確なガイドラインとベストプラクティスの確立を求めている。
- 参考スコア(独自算出の注目度): 18.67676679963561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Journalists are among the many users of large language models (LLMs). To better understand the journalist-AI interactions, we conduct a study of LLM usage by two news agencies through browsing the WildChat dataset, identifying candidate interactions, and verifying them by matching to online published articles. Our analysis uncovers instances where journalists provide sensitive material such as confidential correspondence with sources or articles from other agencies to the LLM as stimuli and prompt it to generate articles, and publish these machine-generated articles with limited intervention (median output-publication ROUGE-L of 0.62). Based on our findings, we call for further research into what constitutes responsible use of AI, and the establishment of clear guidelines and best practices on using LLMs in a journalistic context.
- Abstract(参考訳): ジャーナリストは、大きな言語モデル(LLM)の多くのユーザーの一人です。
ジャーナリストとAIのインタラクションをよりよく理解するために、WildChatデータセットを閲覧し、候補のインタラクションを特定し、オンライン公開された記事と照合して検証することで、2つのニュースエージェンシーによるLLM使用状況の調査を行う。
本稿では,ジャーナリストが他の機関からの資料や記事との機密通信などの機密資料をLCMに送付し,限定的な介入(中間出力公開ROUGE-L:0.62)で公開する事例を明らかにした。
本稿では,AIの活用に責任を負うものに関するさらなる研究と,ジャーナリストの文脈でLLMを使用するための明確なガイドラインとベストプラクティスの確立を求めている。
関連論文リスト
- Enhancing Journalism with AI: A Study of Contextualized Image Captioning for News Articles using LLMs and LMMs [2.1165011830664673]
大規模言語モデル(LLM)と大規模マルチモーダルモデル(LMM)はAIコミュニティに大きな影響を与えている。
本研究では,LLMとLMMが,ニュース記事に付随する画像の文脈的キャプションを生成することによって,ジャーナリストの実践を支援する方法について検討する。
論文 参考訳(メタデータ) (2024-08-08T09:31:24Z) - LLM-Collaboration on Automatic Science Journalism for the General Audience [3.591143309194537]
科学ジャーナリズムは、現在の科学的発見を非専門主義者に報告している。
この課題は、聴衆が提示された研究に関する具体的な知識を欠いているため、難しくなる可能性がある。
本稿では,現実の書き込み-フィードバック-リビジョンワークフローを模倣した3つのLLMを統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-13T03:31:35Z) - AI as a Tool for Fair Journalism: Case Studies from Malta [0.07499722271664144]
2つのプロジェクトは、ニュース記事やテレビニュースセグメントの潜在的なバイアスを分析するために設計されたメディアモニタリングとプレゼンテーションツールに焦点を当てている。
最初のプロジェクトは、コンピュータビジョンと自然言語処理の技術を使用して、ニュース記事の画像とそれに対応するキャプション、見出し、記事本体の一貫性を分析する。
第2のプロジェクトは、コンピュータビジョン技術を使用して、画面上の時間やニュースビデオの視覚的露出を追跡し、クエリ可能なデータを提供する。
論文 参考訳(メタデータ) (2024-07-08T15:02:39Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Quantifying Generative Media Bias with a Corpus of Real-world and Generated News Articles [12.356251871670011]
大規模言語モデル(LLM)は、タスクやドメインにまたがってますます活用されてきている。
本研究では、政治バイアスに着目し、教師付きモデルとLLMの両方を用いて検出する。
ジャーナリストの領域内ではじめて、この研究は定量化実験の枠組みを概説した。
論文 参考訳(メタデータ) (2024-06-16T01:32:04Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Bias of AI-Generated Content: An Examination of News Produced by Large Language Models [3.386586126505656]
大規模言語モデル(LLM)は、AIGC(AI-Generated Content)として知られる、私たちの生活を変革し、彼らが生成するコンテンツを通じて機能する可能性を持っている。
本稿では,ChatGPT や LLaMA を含む 7 つの代表的な LLM が生成する AIGC のバイアスについて検討する。
論文 参考訳(メタデータ) (2023-09-18T14:47:24Z) - Identifying Informational Sources in News Articles [109.70475599552523]
我々は、ニュース執筆に使用される情報ソースの、最大かつ最も広範囲にアノテートされたデータセットを構築した。
本稿では,ニュース記事中のソースの構成性を研究するための新しいタスクであるソース予測を導入する。
論文 参考訳(メタデータ) (2023-05-24T08:56:35Z) - Towards Corpus-Scale Discovery of Selection Biases in News Coverage:
Comparing What Sources Say About Entities as a Start [65.28355014154549]
本稿では,大規模ニュースコーパスにおけるニュースコンテンツから直接メディア選択バイアスのパターンを発見するために,スケーラブルなNLPシステムを構築する上での課題について検討する。
我々は,世界519のニュースソースから180万件のニュース記事のコーパスであるNELA-2020のケーススタディを通じて,フレームワークの能力を示す。
論文 参考訳(メタデータ) (2023-04-06T23:36:45Z) - VMSMO: Learning to Generate Multimodal Summary for Video-based News
Articles [63.32111010686954]
マルチモーダル出力(VMSMO)を用いたビデオベースマルチモーダル要約の課題を提案する。
このタスクの主な課題は、ビデオの時間的依存性と記事の意味を共同でモデル化することである。
本稿では,デュアルインタラクションモジュールとマルチモーダルジェネレータからなるDual-Interaction-based Multimodal Summarizer (DIMS)を提案する。
論文 参考訳(メタデータ) (2020-10-12T02:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。