論文の概要: An Interactive Framework for Profiling News Media Sources
- arxiv url: http://arxiv.org/abs/2309.07384v2
- Date: Fri, 26 Apr 2024 20:29:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 01:04:37.857450
- Title: An Interactive Framework for Profiling News Media Sources
- Title(参考訳): ニュースソースをプロファイリングするための対話型フレームワーク
- Authors: Nikhil Mehta, Dan Goldwasser,
- Abstract要約: 本稿では,ニュースメディアのプロファイリングのためのインタラクティブなフレームワークを提案する。
グラフベースのニュースメディアプロファイリングモデル、事前訓練された大規模言語モデル、人間の洞察の強みを組み合わせる。
人間のインタラクションが5つにも満たないので、我々のフレームワークはフェイクや偏見のあるニュースメディアを素早く検出できる。
- 参考スコア(独自算出の注目度): 26.386860411085053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent rise of social media has led to the spread of large amounts of fake and biased news, content published with the intent to sway beliefs. While detecting and profiling the sources that spread this news is important to maintain a healthy society, it is challenging for automated systems. In this paper, we propose an interactive framework for news media profiling. It combines the strengths of graph based news media profiling models, Pre-trained Large Language Models, and human insight to characterize the social context on social media. Experimental results show that with as little as 5 human interactions, our framework can rapidly detect fake and biased news media, even in the most challenging settings of emerging news events, where test data is unseen.
- Abstract(参考訳): 近年のソーシャルメディアの台頭は、大量の偽ニュースや偏見のあるニュースの拡散につながっている。
このニュースを広める情報源の検出とプロファイリングは、健全な社会を維持する上で重要であるが、自動化システムでは困難である。
本稿では,ニュースメディアのプロファイリングのためのインタラクティブなフレームワークを提案する。
それは、グラフベースのニュースメディアプロファイリングモデル、事前訓練された大規模言語モデル、そしてソーシャルメディア上の社会的コンテキストを特徴づける人間の洞察の強みを組み合わせたものだ。
実験結果から,テストデータが見えない新興ニュースイベントの最も困難な状況においても,人間のインタラクションを5つに抑えることで,偽ニュースや偏見のあるニュースメディアを迅速に検出できることがわかった。
関連論文リスト
- Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Interactively Learning Social Media Representations Improves News Source
Factuality Detection [31.172580066204635]
フェイクニュースの迅速検出、特に新しい出来事の発生は、誤報を防ぐために重要である。
我々は、人間が対話して、自動化されたシステムがより優れたソーシャルメディア表現品質を学習するのに役立つような、この問題に対話的にアプローチすることを提案する。
論文 参考訳(メタデータ) (2023-09-26T14:36:19Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - It's All in the Embedding! Fake News Detection Using Document Embeddings [0.6091702876917281]
本稿では,文書埋め込みを用いて,ニュース記事を信頼性やニセモノと正確にラベル付けする複数のモデルを構築する手法を提案する。
また、バイナリや複数ラベルの分類を用いて偽ニュースを検出する異なるアーキテクチャのベンチマークを示す。
論文 参考訳(メタデータ) (2023-04-16T13:30:06Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Exploring Fake News Detection with Heterogeneous Social Media Context
Graphs [4.2177790395417745]
フェイクニュースの検出は、社会全体に直接的な影響を与えるため、純粋に学術的な関心を超える研究領域となっている。
本稿では,ニュース記事を取り巻く異質なソーシャルコンテキストグラフを構築し,問題をグラフ分類タスクとして再構築することを提案する。
論文 参考訳(メタデータ) (2022-12-13T13:29:47Z) - FR-Detect: A Multi-Modal Framework for Early Fake News Detection on
Social Media Using Publishers Features [0.0]
ニュース分野におけるこれらのメディアの優位性にもかかわらず、制御と検証機構の欠如がフェイクニュースの普及につながっている。
早期検出機能を備えたユーザ関連・コンテンツ関連機能を用いた高精度なマルチモーダルフレームワークFR-Detectを提案する。
実験によると、パブリッシャーの機能はコンテンツベースのモデルの性能を最大13%改善し、精度とF1スコアを29%向上させることができる。
論文 参考訳(メタデータ) (2021-09-10T12:39:00Z) - Stance Detection with BERT Embeddings for Credibility Analysis of
Information on Social Media [1.7616042687330642]
本稿では,記事の内容とともに,その特徴の1つとして姿勢を用いた偽ニュースを検出するモデルを提案する。
本研究は,自動的特徴抽出とテキストの関連性でコンテンツを解釈する。
実世界のデータセットで行った実験は、我々のモデルが以前の研究より優れており、95.32%の精度で偽ニュースの検出を可能にすることを示している。
論文 参考訳(メタデータ) (2021-05-21T10:46:43Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。