論文の概要: Explaining Mixtures of Sources in News Articles
- arxiv url: http://arxiv.org/abs/2411.05192v1
- Date: Thu, 07 Nov 2024 21:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:55:48.292505
- Title: Explaining Mixtures of Sources in News Articles
- Title(参考訳): ニュース記事における出典の相違について
- Authors: Alexander Spangher, James Youn, Matt DeButts, Nanyun Peng, Emilio Ferrara, Jonathan May,
- Abstract要約: 我々は、長文世代における計画評価のケーススタディとして、ニュースのソース選択という1つの計画について検討する。
これは人間の計画にとって重要なケーススタディであり、他の種類の計画を評価するためのフレームワークとアプローチを提供する。
- 参考スコア(独自算出の注目度): 102.00778025859276
- License:
- Abstract: Human writers plan, then write. For large language models (LLMs) to play a role in longer-form article generation, we must understand the planning steps humans make before writing. We explore one kind of planning, source-selection in news, as a case-study for evaluating plans in long-form generation. We ask: why do specific stories call for specific kinds of sources? We imagine a generative process for story writing where a source-selection schema is first selected by a journalist, and then sources are chosen based on categories in that schema. Learning the article's plan means predicting the schema initially chosen by the journalist. Working with professional journalists, we adapt five existing schemata and introduce three new ones to describe journalistic plans for the inclusion of sources in documents. Then, inspired by Bayesian latent-variable modeling, we develop metrics to select the most likely plan, or schema, underlying a story, which we use to compare schemata. We find that two schemata: stance and social affiliation best explain source plans in most documents. However, other schemata like textual entailment explain source plans in factually rich topics like "Science". Finally, we find we can predict the most suitable schema given just the article's headline with reasonable accuracy. We see this as an important case-study for human planning, and provides a framework and approach for evaluating other kinds of plans. We release a corpora, NewsSources, with annotations for 4M articles.
- Abstract(参考訳): 人間の作家は、次に書くことを計画する。
大きな言語モデル(LLM)が長い形式の記事生成において役割を果たすためには、人間が書く前に計画するステップを理解する必要があります。
我々は、長文世代における計画評価のケーススタディとして、ニュースのソース選択という、ある種類の計画を探究する。
なぜ特定のストーリーが特定のソースを要求するのか?
著者選択スキーマが最初にジャーナリストによって選択され、その後、そのスキーマのカテゴリに基づいてソースが選択される、ストーリー作成のための生成過程を想像する。
記事の計画を知ることは、ジャーナリストが最初に選んだスキーマを予測することを意味する。
専門家のジャーナリストと協力し、既存の5つのスキーマに適応し、3つの新しいスキーマを導入し、文書に情報源を組み込むためのジャーナリスト計画を説明する。
そして、ベイジアン潜在変数モデリングにインスパイアされた私たちは、最も可能性の高い計画やスキーマを選択するメトリクスを開発します。
スタンスとソーシャルアフィリエイトの2つのスキーマは、ほとんどの文書でソースプランを最もよく説明している。
しかし、テキスト・エンテーメントのような他のスキーマでは、"Science"のような実際にリッチなトピックでソース・プランを説明する。
最後に、記事の見出しのみに適切なスキーマを妥当な精度で予測できることがわかりました。
これは人間の計画にとって重要なケーススタディであり、他の種類の計画を評価するためのフレームワークとアプローチを提供する。
4Mの記事に対するアノテーションを備えたコーパスであるNewsSourcesをリリースしています。
関連論文リスト
- EIPE-text: Evaluation-Guided Iterative Plan Extraction for Long-Form
Narrative Text Generation [114.50719922069261]
長文物語テキスト生成のための評価誘導反復計画抽出法(EIPE-text)を提案する。
EIPEテキストには、計画抽出、学習、推論の3段階がある。
小説やストーリーテリングの分野におけるEIPEテキストの有効性を評価する。
論文 参考訳(メタデータ) (2023-10-12T10:21:37Z) - Identifying Informational Sources in News Articles [109.70475599552523]
我々は、ニュース執筆に使用される情報ソースの、最大かつ最も広範囲にアノテートされたデータセットを構築した。
本稿では,ニュース記事中のソースの構成性を研究するための新しいタスクであるソース予測を導入する。
論文 参考訳(メタデータ) (2023-05-24T08:56:35Z) - Towards Corpus-Scale Discovery of Selection Biases in News Coverage:
Comparing What Sources Say About Entities as a Start [65.28355014154549]
本稿では,大規模ニュースコーパスにおけるニュースコンテンツから直接メディア選択バイアスのパターンを発見するために,スケーラブルなNLPシステムを構築する上での課題について検討する。
我々は,世界519のニュースソースから180万件のニュース記事のコーパスであるNELA-2020のケーススタディを通じて,フレームワークの能力を示す。
論文 参考訳(メタデータ) (2023-04-06T23:36:45Z) - Little Red Riding Hood Goes Around the Globe:Crosslingual Story Planning and Generation with Large Language Models [69.60579227637399]
以前の研究は、主に英語に焦点を当てた単言語設定でのみストーリー生成の計画の有効性を実証してきた。
本稿では,言語横断型ストーリ生成の新たな課題を提案する。
論文 参考訳(メタデータ) (2022-12-20T17:42:16Z) - "Don't quote me on that": Finding Mixtures of Sources in News Articles [85.92467549469147]
各ソースのtextitaffiliationとtextitroleに基づいてソースのオントロジーラベリングシステムを構築します。
これらの属性を名前付きソースに推論し、ニュース記事をこれらのソースの混合物として記述する確率モデルを構築します。
論文 参考訳(メタデータ) (2021-04-19T21:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。