論文の概要: Tell Me Who Your Friends Are: Using Content Sharing Behavior for News
Source Veracity Detection
- arxiv url: http://arxiv.org/abs/2101.10973v1
- Date: Fri, 15 Jan 2021 21:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:09:39.021765
- Title: Tell Me Who Your Friends Are: Using Content Sharing Behavior for News
Source Veracity Detection
- Title(参考訳): 友達が誰なのか: ニュースソースのveracity検出にコンテンツ共有の動作を使う
- Authors: Maur\'icio Gruppi, Benjamin D. Horne, Sibel Adal{\i}
- Abstract要約: ネットワークとして定式化されたニュースソースのコンテンツ共有行動を利用した,新規かつ堅牢なニュースベラシティ検出モデルを提案する。
美術書記スタイルとCSNの特徴は,予測時に多種多様な誤りを犯し,両者が分類作業において異なる役割を担っていることを示す。
- 参考スコア(独自算出の注目度): 3.359647717705252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stopping the malicious spread and production of false and misleading news has
become a top priority for researchers. Due to this prevalence, many automated
methods for detecting low quality information have been introduced. The
majority of these methods have used article-level features, such as their
writing style, to detect veracity. While writing style models have been shown
to work well in lab-settings, there are concerns of generalizability and
robustness. In this paper, we begin to address these concerns by proposing a
novel and robust news veracity detection model that uses the content sharing
behavior of news sources formulated as a network. We represent these content
sharing networks (CSN) using a deep walk based method for embedding graphs that
accounts for similarity in both the network space and the article text space.
We show that state of the art writing style and CSN features make diverse
mistakes when predicting, meaning that they both play different roles in the
classification task. Moreover, we show that the addition of CSN features
increases the accuracy of writing style models, boosting accuracy as much as
14\% when using Random Forests. Similarly, we show that the combination of
hand-crafted article-level features and CSN features is robust to concept
drift, performing consistently well over a 10-month time frame.
- Abstract(参考訳): 悪質な拡散と誤解を招くニュースの制作を止めることが、研究者にとって最優先事項となっている。
この傾向から,低品質情報の自動検出法が数多く導入されている。
これらの手法の大半は、その書き込みスタイルのような記事レベルの特徴を使って、正確性を検出する。
スタイルモデルは実験室でうまく機能することが示されているが、一般化可能性や堅牢性には懸念がある。
本稿では,ネットワークとして定式化されたニュースソースのコンテンツ共有行動を利用した新しいロバストなニュース検証モデルを提案することで,これらの懸念に対処し始める。
本稿では,これらのコンテンツ共有ネットワーク(csn)を,ネットワーク空間と記事テキスト空間の類似性を考慮したディープウォークに基づくグラフ埋め込み手法を用いて表現する。
美術書記スタイルとCSNの特徴は,予測時に多種多様な誤りを犯し,両者が分類作業において異なる役割を担っていることを示す。
さらに,CSN機能の追加により書式モデルの精度が向上し,ランダムフォレストを用いた場合の精度が最大14\%向上することを示した。
同様に、手作りの記事レベル機能とCSN機能の組み合わせは、コンセプトドリフトに対して堅牢であり、10ヶ月の時間枠で一貫して良好に機能することを示す。
関連論文リスト
- Classification of Non-native Handwritten Characters Using Convolutional Neural Network [0.0]
非ネイティブユーザによる英語文字の分類は、カスタマイズされたCNNモデルを提案することによって行われる。
我々はこのCNNを、手書きの独立した英語文字データセットと呼ばれる新しいデータセットでトレーニングする。
5つの畳み込み層と1つの隠蔽層を持つモデルでは、文字認識精度において最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2024-06-06T21:08:07Z) - Detection and Discovery of Misinformation Sources using Attributed Webgraphs [3.659498819753633]
本稿では、ラベル付きニュースドメインと、アウトリンクおよびバックリンクドメインへの接続を含む、新しい属性付きWebグラフデータセットを提案する。
本稿では,これらの属性付きWebグラフを用いたニュースサイトの信頼性検出におけるグラフニューラルネットワークの成功例を示す。
また、未知の誤報ニュースソースを発見するための新しいグラフベースのアルゴリズムを導入・評価する。
論文 参考訳(メタデータ) (2024-01-04T17:47:36Z) - SCStory: Self-supervised and Continual Online Story Discovery [53.72745249384159]
SCStoryは、素早く公開されたニュース記事ストリームを人間のアノテーションなしでリアルタイムで消化するのに役立つ。
SCStoryは、ニュース記事ストリームのストーリー指向適応モデリングという新しいアイデアを取り入れて、自己指導的かつ継続的な学習を取り入れている。
論文 参考訳(メタデータ) (2023-11-27T04:50:01Z) - Fast and Accurate Factual Inconsistency Detection Over Long Documents [19.86348214462828]
我々は,新しいチャンキング戦略を用いて,現実の不整合を検出するタスク非依存モデルであるSCALEを紹介する。
このアプローチは、様々なタスクや長い入力に対して、現実の不整合検出における最先端のパフォーマンスを実現する。
コードとデータはGitHubに公開しています。
論文 参考訳(メタデータ) (2023-10-19T22:55:39Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Unsupervised Story Discovery from Continuous News Streams via Scalable
Thematic Embedding [37.62597275581973]
関連ニュース記事のあるストーリーをリアルタイムで発見することは、高価な人間のアノテーションなしで巨大なニュースストリームを消化するのに役立ちます。
記事や物語を動的に表現するために,既訓練の文エンコーダを用いた新しいテーマ埋め込みを提案する。
実ニュースデータセットによる徹底的な評価は、USTORYがベースラインよりも高いストーリー発見性能を達成することを示す。
論文 参考訳(メタデータ) (2023-04-08T20:41:15Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Like a Good Nearest Neighbor: Practical Content Moderation and Text
Classification [66.02091763340094]
LaGoNN(Good Nearest Neighbor)は、学習可能なパラメータを導入することなく、隣人の情報で入力テキストを変更するSetFitの変更である。
LaGoNNは望ましくないコンテンツやテキスト分類のフラグ付けに有効であり、SetFitのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-02-17T15:43:29Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Informative Dropout for Robust Representation Learning: A Shape-bias
Perspective [84.30946377024297]
Informative Dropout (InfoDrop) と呼ばれる軽量モデル非依存の手法を提案し, 解釈性の向上とテクスチャバイアスの低減を図る。
具体的には、画像中の局所的な自己情報に基づいて形状からテクスチャを識別し、Dropoutのようなアルゴリズムを用いて局所的なテクスチャからのモデル出力をデコレーションする。
論文 参考訳(メタデータ) (2020-08-10T16:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。