論文の概要: "Ownership, Not Just Happy Talk": Co-Designing a Participatory Large Language Model for Journalism
- arxiv url: http://arxiv.org/abs/2501.17299v1
- Date: Tue, 28 Jan 2025 21:06:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:53.999722
- Title: "Ownership, Not Just Happy Talk": Co-Designing a Participatory Large Language Model for Journalism
- Title(参考訳): オーナシップ、ただのハッピートーク」:ジャーナリズムのための参加型大規模言語モデルの共同設計
- Authors: Emily Tseng, Meg Young, Marianne Aubin Le Quéré, Aimee Rinehart, Harini Suresh,
- Abstract要約: ジャーナリズムは、職場における大規模言語モデル(LLM)の使用、制限、および影響を理解するために不可欠な領域として現れてきた。
ジャーナリスト主導のLCMはどのように機能するのか、そして、ある特定の使用状況に一律にフィットする基礎モデルを適用する上での現在の課題に対して、参加型設計はどのように照らし出すことができるのか?
記者、データジャーナリスト、編集者、労働者組織、製品リーダー、そして経営幹部との20のインタビューは、この機会のためにデザインするマクロ、メソ、マイクロテンションを強調している。
- 参考スコア(独自算出の注目度): 7.25169954977234
- License:
- Abstract: Journalism has emerged as an essential domain for understanding the uses, limitations, and impacts of large language models (LLMs) in the workplace. News organizations face divergent financial incentives: LLMs already permeate newswork processes within financially constrained organizations, even as ongoing legal challenges assert that AI companies violate their copyright. At stake are key questions about what LLMs are created to do, and by whom: How might a journalist-led LLM work, and what can participatory design illuminate about the present-day challenges about adapting ``one-size-fits-all'' foundation models to a given context of use? In this paper, we undertake a co-design exploration to understand how a participatory approach to LLMs might address opportunities and challenges around AI in journalism. Our 20 interviews with reporters, data journalists, editors, labor organizers, product leads, and executives highlight macro, meso, and micro tensions that designing for this opportunity space must address. From these desiderata, we describe the result of our co-design work: organizational structures and functionality for a journalist-controlled LLM. In closing, we discuss the limitations of commercial foundation models for workplace use, and the methodological implications of applying participatory methods to LLM co-design.
- Abstract(参考訳): ジャーナリズムは、職場における大規模言語モデル(LLM)の使用、制限、および影響を理解するために不可欠な領域として現れてきた。
LLMは、現在進行中の法的課題がAI企業が著作権を侵害していると主張していても、金融規制の厳しい組織内のニュース処理プロセスを既に浸透させています。
ジャーナリスト主導のLLMは、どのように機能するのか、そして、ある特定の使用状況に 'one-s-fits-all' ファンデーションモデルを適用する上での現在の課題に対して、参加型設計はどのように照らし出すことができるのか?
本稿では,LLMへの参加的アプローチがジャーナリズムにおけるAIに関する機会と課題にどのように対処するかを理解するために,共同設計調査を行う。
記者、データジャーナリスト、編集者、労働者組織、製品リーダー、そして経営幹部との20のインタビューは、この機会のためにデザインするマクロ、メソ、マイクロテンションを強調している。
これらのデシダータから、ジャーナリストが管理するLLMの組織構造と機能について、共同設計の成果を述べる。
閉会にあたっては、職場利用のための商業基盤モデルの限界と、LCM共同設計への参加手法の適用の方法論的意義について論じる。
関連論文リスト
- NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - LLM-Collaboration on Automatic Science Journalism for the General Audience [3.591143309194537]
科学ジャーナリズムは、現在の科学的発見を非専門主義者に報告している。
この課題は、聴衆が提示された研究に関する具体的な知識を欠いているため、難しくなる可能性がある。
本稿では,現実の書き込み-フィードバック-リビジョンワークフローを模倣した3つのLLMを統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-13T03:31:35Z) - Developing Story: Case Studies of Generative AI's Use in Journalism [18.67676679963561]
本研究では、WildChatデータセットを閲覧することで、2つの報道機関によるジャーナリストとAIのインタラクションの研究を行う。
本稿では,ジャーナリストが他の機関からの資料や記事との機密通信などの機密資料をLCMに送付し,記事作成を促す事例を明らかにする。
本稿では,AIの活用に責任を負うものに関するさらなる研究と,ジャーナリストの文脈でLLMを使用するための明確なガイドラインとベストプラクティスの確立を求めている。
論文 参考訳(メタデータ) (2024-06-19T16:58:32Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。