論文の概要: NewsEdits 2.0: Learning the Intentions Behind Updating News
- arxiv url: http://arxiv.org/abs/2411.18811v1
- Date: Wed, 27 Nov 2024 23:35:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:22:10.911053
- Title: NewsEdits 2.0: Learning the Intentions Behind Updating News
- Title(参考訳): NewsEdits 2.0: 最新ニュースの背後にある意図を学ぶ
- Authors: Alexander Spangher, Kung-Hsiang Huang, Hyundong Cho, Jonathan May,
- Abstract要約: イベントが進むにつれて、ニュース記事は新しい情報で更新されることが多い。
本研究では,言語的特徴が事実流動性を示すことを仮定し,ニュース記事のテキストのみを用いて,どの事実が更新されるかを予測する。
- 参考スコア(独自算出の注目度): 74.84017890548259
- License:
- Abstract: As events progress, news articles often update with new information: if we are not cautious, we risk propagating outdated facts. In this work, we hypothesize that linguistic features indicate factual fluidity, and that we can predict which facts in a news article will update using solely the text of a news article (i.e. not external resources like search engines). We test this hypothesis, first, by isolating fact-updates in large news revisions corpora. News articles may update for many reasons (e.g. factual, stylistic, narrative). We introduce the NewsEdits 2.0 taxonomy, an edit-intentions schema that separates fact updates from stylistic and narrative updates in news writing. We annotate over 9,200 pairs of sentence revisions and train high-scoring ensemble models to apply this schema. Then, taking a large dataset of silver-labeled pairs, we show that we can predict when facts will update in older article drafts with high precision. Finally, to demonstrate the usefulness of these findings, we construct a language model question asking (LLM-QA) abstention task. We wish the LLM to abstain from answering questions when information is likely to become outdated. Using our predictions, we show, LLM absention reaches near oracle levels of accuracy.
- Abstract(参考訳): イベントが進むにつれて、ニュース記事は新しい情報で更新されることが多い。
本研究では,言語的特徴が事実流動性を示すこと,ニュース記事のどの事実が更新されるのかを,ニュース記事のテキストのみを用いて予測できる(検索エンジンのような外部リソースではない)ことを仮定する。
我々はまず,大規模なニュースコーパスで事実更新を分離することで,この仮説を検証した。
ニュース記事は、多くの理由で更新される可能性がある(例:事実、スタイル、物語)。
我々は、ニュース執筆において、事実更新をスタイル的、物語的更新と区別する編集意図スキーマであるNewsEdits 2.0の分類を導入した。
我々は9,200組以上の文修正を注釈し、このスキーマを適用するためにハイスコアのアンサンブルモデルを訓練する。
次に,銀ラベルのペアの大規模なデータセットを用いて,古い論文のドラフトにおいて,事実がいつ更新されるのかを高精度に予測できることを示す。
最後に,これらの知見の有用性を示すために,言語モデル質問課題(LLM-QA)を構築した。
LLMは、情報が時代遅れになる可能性がある場合に、質問に答えることを禁ずることを願っています。
以上の結果から,LSM欠失はオラクルレベルの精度に近づいたことが判明した。
関連論文リスト
- SCStory: Self-supervised and Continual Online Story Discovery [53.72745249384159]
SCStoryは、素早く公開されたニュース記事ストリームを人間のアノテーションなしでリアルタイムで消化するのに役立つ。
SCStoryは、ニュース記事ストリームのストーリー指向適応モデリングという新しいアイデアを取り入れて、自己指導的かつ継続的な学習を取り入れている。
論文 参考訳(メタデータ) (2023-11-27T04:50:01Z) - WSDMS: Debunk Fake News via Weakly Supervised Detection of Misinforming
Sentences with Contextualized Social Wisdom [13.92421433941043]
本稿では,文章レベルの誤報を検出する偽ニュース拡散の分野における新たな課題について検討する。
Weakly Supervised Detection of Misinforming Sentences (WSDMS) というモデルを提案する。
実世界の3つのベンチマークでWSDMSを評価し、文レベルと記事レベルの両方でフェイクニュースをデバッキングすることで、既存の最先端のベースラインを上回っていることを実証した。
論文 参考訳(メタデータ) (2023-10-25T12:06:55Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - NewsEdits: A News Article Revision Dataset and a Document-Level
Reasoning Challenge [122.37011526554403]
NewsEditsは、最初に公開されたニュースリビジョン履歴のデータセットである。
120万記事と、22以上の英語とフランス語の新聞ソースから460万バージョンを収録している。
論文 参考訳(メタデータ) (2022-06-14T18:47:13Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - No News is Good News: A Critique of the One Billion Word Benchmark [4.396860522241306]
10億ワードベンチマークは、WMT 2011 News Crawlから派生したデータセットである。
毎年分割されたCommon Crawlのウェブスクラップにのみモデルをトレーニングし、分散シフトによる時間経過とともに、このタスクに悪影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2021-10-25T02:41:27Z) - Explainable Tsetlin Machine framework for fake news detection with
credibility score assessment [16.457778420360537]
本稿では,最近導入されたTsetlin Machine (TM) に基づく,新たな解釈可能な偽ニュース検出フレームワークを提案する。
我々は、TMの接続節を用いて、真偽のニューステキストの語彙的および意味的特性をキャプチャする。
評価のために、PolitiFactとGossipCopという2つの公開データセットで実験を行い、TMフレームワークが以前公開されたベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-19T13:18:02Z) - Supporting verification of news articles with automated search for
semantically similar articles [0.0]
偽ニュースを扱うための証拠検索手法を提案する。
学習課題は教師なし機械学習問題として定式化される。
われわれのアプローチは、コンセプトドリフトとは無関係である。
機械学習タスクはテキスト内の仮説とは独立している。
論文 参考訳(メタデータ) (2021-03-29T12:56:59Z) - NewsBERT: Distilling Pre-trained Language Model for Intelligent News
Application [56.1830016521422]
本稿では,学習済み言語モデルを抽出し,効率的なニュースインテリジェンスを実現するNewsBERTを提案する。
そこで本研究では,教師と学生の共学モデルを協調的に学習するための,教師と学生の共学学習・蒸留の枠組みを設計する。
実験では,NewsBERTはより小さなモデルで,様々なインテリジェントなニュースアプリケーションのモデル性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2021-02-09T15:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。