論文の概要: JRE-L: Journalist, Reader, and Editor LLMs in the Loop for Science Journalism for the General Audience
- arxiv url: http://arxiv.org/abs/2501.16865v1
- Date: Tue, 28 Jan 2025 11:30:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:41:45.330399
- Title: JRE-L: Journalist, Reader, and Editor LLMs in the Loop for Science Journalism for the General Audience
- Title(参考訳): JRE-L:科学ジャーナリズムのループにおけるジャーナリスト、読者、編集者のLLM
- Authors: Gongyao Jiang, Xinran Shi, Qiong Luo,
- Abstract要約: 科学ジャーナリズムは、現在の科学的発見を非専門主義者に報告し、芸術の状態を一般に理解することを目的としている。
書き込み-フィードバック-リビジョンループを模倣した3つのLLMを統合するJRE-Lフレームワークを提案する。
私たちのコードは access.com/Zzoay/JRE-L で公開されています。
- 参考スコア(独自算出の注目度): 3.591143309194537
- License:
- Abstract: Science journalism reports current scientific discoveries to non-specialists, aiming to enable public comprehension of the state of the art. This task is challenging as the audience often lacks specific knowledge about the presented research. We propose a JRE-L framework that integrates three LLMs mimicking the writing-reading-feedback-revision loop. In JRE-L, one LLM acts as the journalist, another LLM as the general public reader, and the third LLM as an editor. The journalist's writing is iteratively refined by feedback from the reader and suggestions from the editor. Our experiments demonstrate that by leveraging the collaboration of two 7B and one 1.8B open-source LLMs, we can generate articles that are more accessible than those generated by existing methods, including prompting single advanced models such as GPT-4 and other LLM-collaboration strategies. Our code is publicly available at github.com/Zzoay/JRE-L.
- Abstract(参考訳): 科学ジャーナリズムは、現在の科学的発見を非専門主義者に報告し、最先端の公衆の理解を可能にすることを目的としている。
この課題は、聴衆が提示された研究に関する具体的な知識を欠いているため、難しい。
書き込み-フィードバック-リビジョンループを模倣した3つのLLMを統合するJRE-Lフレームワークを提案する。
JRE-L では、ある LLM がジャーナリスト、別の LLM が一般大衆の読者、そして3番目の LLM が編集者である。
ジャーナリストの執筆は、読者からのフィードバックと編集者からの提言によって反復的に洗練されている。
実験により,2つの7Bと1つの1.8BオープンソースLLMの協調を利用して,GPT-4などの単一高度なモデルや,他のLLM-協調戦略の促進など,既存の手法よりもアクセスしやすい記事を生成することができた。
私たちのコードはgithub.com/Zzoay/JRE-Lで公開されています。
関連論文リスト
- "Ownership, Not Just Happy Talk": Co-Designing a Participatory Large Language Model for Journalism [7.25169954977234]
ジャーナリズムは、職場における大規模言語モデル(LLM)の使用、制限、および影響を理解するために不可欠な領域として現れてきた。
ジャーナリスト主導のLCMはどのように機能するのか、そして、ある特定の使用状況に一律にフィットする基礎モデルを適用する上での現在の課題に対して、参加型設計はどのように照らし出すことができるのか?
記者、データジャーナリスト、編集者、労働者組織、製品リーダー、そして経営幹部との20のインタビューは、この機会のためにデザインするマクロ、メソ、マイクロテンションを強調している。
論文 参考訳(メタデータ) (2025-01-28T21:06:52Z) - Understanding the LLM-ification of CHI: Unpacking the Impact of LLMs at CHI through a Systematic Literature Review [8.524433537542484]
大規模言語モデル(LLM)は、HCIに革命をもたらす位置にある。
現在、LLMsのHCIへの取り込みについてはほとんど理解されていない。
我々は、LLMに関わる2020-24年の153件のCHI論文をレビューする。
論文 参考訳(メタデータ) (2025-01-22T00:31:51Z) - From Test-Taking to Test-Making: Examining LLM Authoring of Commonsense Assessment Items [0.18416014644193068]
LLMをコモンセンス評価項目の著者とみなす。
我々はLLMに対して、コモンセンス推論のための顕著なベンチマークのスタイルでアイテムを生成するよう促す。
元のCOPAベンチマークの回答に成功するLCMも、自分自身の項目のオーサリングに成功していることがわかった。
論文 参考訳(メタデータ) (2024-10-18T22:42:23Z) - LLM-Collaboration on Automatic Science Journalism for the General Audience [3.591143309194537]
科学ジャーナリズムは、現在の科学的発見を非専門主義者に報告している。
この課題は、聴衆が提示された研究に関する具体的な知識を欠いているため、難しくなる可能性がある。
本稿では,現実の書き込み-フィードバック-リビジョンワークフローを模倣した3つのLLMを統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-13T03:31:35Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Developing Story: Case Studies of Generative AI's Use in Journalism [18.67676679963561]
本研究では、WildChatデータセットを閲覧することで、2つの報道機関によるジャーナリストとAIのインタラクションの研究を行う。
本稿では,ジャーナリストが他の機関からの資料や記事との機密通信などの機密資料をLCMに送付し,記事作成を促す事例を明らかにする。
本稿では,AIの活用に責任を負うものに関するさらなる研究と,ジャーナリストの文脈でLLMを使用するための明確なガイドラインとベストプラクティスの確立を求めている。
論文 参考訳(メタデータ) (2024-06-19T16:58:32Z) - DELL: Generating Reactions and Explanations for LLM-Based Misinformation Detection [50.805599761583444]
大規模な言語モデルは、事実性や幻覚の難しさによって制限され、ニュース記事の正確さを判断するために、棚外で直接使用される。
我々は,LLMをパイプラインの一部として組み込む誤情報検出の3つの重要な段階を同定するDellを提案する。
論文 参考訳(メタデータ) (2024-02-16T03:24:56Z) - See the Unseen: Better Context-Consistent Knowledge-Editing by Noises [73.54237379082795]
知識編集が大規模言語モデル(LLM)の知識を更新
既存の作業はこの特性を無視し、編集には一般化が欠けている。
実験により、異なる文脈がLLMに与える影響は、同じ知識を思い出す際にガウス的な分布に従うことが判明した。
論文 参考訳(メタデータ) (2024-01-15T09:09:14Z) - Guiding LLM to Fool Itself: Automatically Manipulating Machine Reading
Comprehension Shortcut Triggers [76.77077447576679]
真のラベルに急激な相関関係を持つ機能によって引き起こされるショートカットは、機械読み取り(MRC)システムに対する潜在的な脅威として現れている。
サンプルにショートカットトリガーを追加するためのエディタをガイドするフレームワークを導入します。
GPT4をエディタとして使うと、LCMを騙すサンプルのトリガショートカットをうまく編集できる。
論文 参考訳(メタデータ) (2023-10-24T12:37:06Z) - Eva-KELLM: A New Benchmark for Evaluating Knowledge Editing of LLMs [54.22416829200613]
Eva-KELLMは、大規模言語モデルの知識編集を評価するための新しいベンチマークである。
実験結果から, 生文書を用いた知識編集手法は, 良好な結果を得るには有効ではないことが示唆された。
論文 参考訳(メタデータ) (2023-08-19T09:17:19Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。