論文の概要: "Don't quote me on that": Finding Mixtures of Sources in News Articles
- arxiv url: http://arxiv.org/abs/2104.09656v1
- Date: Mon, 19 Apr 2021 21:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 03:00:12.345679
- Title: "Don't quote me on that": Finding Mixtures of Sources in News Articles
- Title(参考訳): 『それを引用しないで』:ニュース記事の出典の混同を見つける
- Authors: Alexander Spangher, Nanyun Peng, Jonathan May and Emilio Ferrara
- Abstract要約: 各ソースのtextitaffiliationとtextitroleに基づいてソースのオントロジーラベリングシステムを構築します。
これらの属性を名前付きソースに推論し、ニュース記事をこれらのソースの混合物として記述する確率モデルを構築します。
- 参考スコア(独自算出の注目度): 85.92467549469147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Journalists publish statements provided by people, or \textit{sources} to
contextualize current events, help voters make informed decisions, and hold
powerful individuals accountable. In this work, we construct an ontological
labeling system for sources based on each source's \textit{affiliation} and
\textit{role}. We build a probabilistic model to infer these attributes for
named sources and to describe news articles as mixtures of these sources. Our
model outperforms existing mixture modeling and co-clustering approaches and
correctly infers source-type in 80\% of expert-evaluated trials. Such work can
facilitate research in downstream tasks like opinion and argumentation mining,
representing a first step towards machine-in-the-loop \textit{computational
journalism} systems.
- Abstract(参考訳): ジャーナリストは、現在の出来事をコンテキスト化し、有権者がインフォームドな判断をするのを手助けし、強力な個人を説明責任に持つために、人々によって提供された声明を発行する。
本研究では、各ソースの \textit{affiliation} と \textit{role} に基づいて、ソースに対するオントロジラベリングシステムを構築する。
我々は、これらの属性を名前付きソースに推論し、これらのソースの混合としてニュース記事を記述する確率モデルを構築した。
提案モデルは,既存の混合モデルおよび協調クラスタリング手法より優れ,専門家評価試験の80%でソースタイプを正しく推定する。
このような作業は、意見や議論のマイニングといった下流のタスクの研究を容易にし、マシン・イン・ザ・ループの \textit{computational journalism} システムへの第一歩を示す。
関連論文リスト
- Citations as Queries: Source Attribution Using Language Models as
Rerankers [2.3605348648054454]
我々は、英語のウィキペディアと中世アラビア語の歴史的文章の2つのデータセットで実験を行う。
半教師付き手法は完全教師付き手法と同じくらい効果的であることがわかった。
論文 参考訳(メタデータ) (2023-06-29T22:13:38Z) - Identifying Informational Sources in News Articles [109.70475599552523]
我々は、ニュース執筆に使用される情報ソースの、最大かつ最も広範囲にアノテートされたデータセットを構築した。
本稿では,ニュース記事中のソースの構成性を研究するための新しいタスクであるソース予測を導入する。
論文 参考訳(メタデータ) (2023-05-24T08:56:35Z) - Towards Corpus-Scale Discovery of Selection Biases in News Coverage:
Comparing What Sources Say About Entities as a Start [65.28355014154549]
本稿では,大規模ニュースコーパスにおけるニュースコンテンツから直接メディア選択バイアスのパターンを発見するために,スケーラブルなNLPシステムを構築する上での課題について検討する。
我々は,世界519のニュースソースから180万件のニュース記事のコーパスであるNELA-2020のケーススタディを通じて,フレームワークの能力を示す。
論文 参考訳(メタデータ) (2023-04-06T23:36:45Z) - Multi-Source Diffusion Models for Simultaneous Music Generation and Separation [17.124189082882395]
私たちは、音楽ソース分離のための標準データセットであるSlakh2100でモデルをトレーニングします。
我々の手法は、生成タスクと分離タスクの両方を処理できる単一のモデルの最初の例である。
論文 参考訳(メタデータ) (2023-02-04T23:18:36Z) - Discord Questions: A Computational Approach To Diversity Analysis in
News Coverage [84.55145223950427]
本稿では,情報源の違いを識別し,ニュース報道の多様性を理解する上で,読者を支援する新しい枠組みを提案する。
このフレームワークはDiscord Questionsの生成に基づいている。
論文 参考訳(メタデータ) (2022-11-09T16:37:55Z) - SciLander: Mapping the Scientific News Landscape [8.504643390943409]
本稿では,SciLanderについて紹介する。SciLanderは,科学に基づくトピックに関するニュースソースの表現を学習する手法である。
我々は,2020年のパンデミック開始から18ヶ月の期間にわたって,500件の情報源から100万件近いニュース記事を含む,新たな新型コロナウイルスデータセットについて評価を行った。
論文 参考訳(メタデータ) (2022-05-16T20:20:43Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Pretrained Language Models for Dialogue Generation with Multiple Input
Sources [101.17537614998805]
本研究では,事前学習した言語モデルGPT2から適応した複数の入力源を持つ対話モデルについて検討する。
異なるソースに対応する複数の異なる注意情報を融合する様々な手法を探索する。
実験結果から, 核融合法は単純な核融合ベースラインよりも, 対話履歴との関連性が高いことがわかった。
論文 参考訳(メタデータ) (2020-10-15T07:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。