論文の概要: Listen to what they say: Better understand and detect online
misinformation with user feedback
- arxiv url: http://arxiv.org/abs/2210.17166v1
- Date: Mon, 31 Oct 2022 09:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 19:56:55.914933
- Title: Listen to what they say: Better understand and detect online
misinformation with user feedback
- Title(参考訳): 彼らの言うことを聞く: ユーザのフィードバックでオンラインの誤情報を理解し検出する
- Authors: Hubert Etienne and Onur \c{C}elebi
- Abstract要約: 私たちは、2020年6月にフランス、イギリス、米国でFacebookとInstagramで報告された9000件の項目をレビューします。
これにより、国とプラットフォーム間のコンテンツ報告に関する意味のある区別を観察することができる。
誤報として報告された内容の半分の正確さを説明できる4種類のノイズを導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social media users who report content are key allies in the management of
online misinformation, however, no research has been conducted yet to
understand their role and the different trends underlying their reporting
activity. We suggest an original approach to studying misinformation: examining
it from the reporting users perspective at the content-level and comparatively
across regions and platforms. We propose the first classification of reported
content pieces, resulting from a review of c. 9,000 items reported on Facebook
and Instagram in France, the UK, and the US in June 2020. This allows us to
observe meaningful distinctions regarding reporting content between countries
and platforms as it significantly varies in volume, type, topic, and
manipulation technique. Examining six of these techniques, we identify a novel
one that is specific to Instagram US and significantly more sophisticated than
others, potentially presenting a concrete challenge for algorithmic detection
and human moderation. We also identify four reporting behaviours, from which we
derive four types of noise capable of explaining half of the inaccuracy found
in content reported as misinformation. We finally show that breaking down the
user reporting signal into a plurality of behaviours allows to train a simple,
although competitive, classifier on a small dataset with a combination of basic
users-reports to classify the different types of reported content pieces.
- Abstract(参考訳): コンテンツを報告しているソーシャルメディアユーザーは、オンラインの誤情報の管理において重要な味方であるが、その役割とレポート活動の背景にある異なるトレンドを理解する研究はまだ行われていない。
我々は,誤情報を調査するための独自のアプローチを提案する。報告ユーザの視点から,コンテンツレベルと,地域やプラットフォーム間で比較して検討する。
本稿では,c のレビューから得られた報告内容の第一の分類を提案する。
2020年6月にフランス、イギリス、米国でfacebookとinstagramで9000件が報告された。
これにより、ボリューム、タイプ、トピック、操作技術が大きく異なるため、国とプラットフォーム間のコンテンツの報告に関する有意義な区別を観察できます。
これらの技術のうち6つを調べることで、instagram usに特有で、他よりはるかに洗練された新しい技術を特定し、アルゴリズムによる検出と人間のモデレーションに関する具体的な課題を提示した。
また,誤報として報告されたコンテンツの半分の正確さを説明できる4種類のノイズを抽出する4つの報告行動も同定した。
最後に,ユーザ報告信号を複数の動作に分割することで,基本的なユーザレポートを組み合わせることで,異なるタイプのコンテンツ片を分類する,単純な,競争的な,小さなデータセット上の分類器を訓練できることを示す。
関連論文リスト
- ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Toxicity Detection for Indic Multilingual Social Media Content [0.0]
本稿では、emphIIIT-D Abusive Comment Identification Challengeにおいて、ShareChat/Mojが提供するデータを用いて、チーム「Moj Masti」によって提案されたシステムについて述べる。
我々は、多言語トランスフォーマーに基づく事前訓練および微調整モデルを用いて、コード混在/コード切替型分類タスクにアプローチする方法に焦点をあてる。
論文 参考訳(メタデータ) (2022-01-03T12:01:47Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - Like Article, Like Audience: Enforcing Multimodal Correlations for
Disinformation Detection [20.394457328537975]
ユーザ生成コンテンツとユーザ共有コンテンツの相関を利用して、オンラインニュース記事の偽情報を検出する。
偽情報検出のためのマルチモーダル学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-08-31T14:50:16Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Supporting verification of news articles with automated search for
semantically similar articles [0.0]
偽ニュースを扱うための証拠検索手法を提案する。
学習課題は教師なし機械学習問題として定式化される。
われわれのアプローチは、コンセプトドリフトとは無関係である。
機械学習タスクはテキスト内の仮説とは独立している。
論文 参考訳(メタデータ) (2021-03-29T12:56:59Z) - Stay on Topic, Please: Aligning User Comments to the Content of a News
Article [7.3203631241415055]
新たな記事ベースに投稿されたユーザコメントとその内容との整合性を分類する分類アルゴリズムを提案する。
このアライメントは、コンテンツ、議論のエンティティ、トピック間の類似性に基づいて、ユーザーコメントと記事とを一致させようとする。
分類作業の難易度を理解するために,人間のラベル付け性能を評価するためのユーザ調査を行う。
論文 参考訳(メタデータ) (2021-03-03T18:29:00Z) - Content-based Analysis of the Cultural Differences between TikTok and
Douyin [95.32409577885645]
ショートフォームのソーシャルメディアは、聴衆にダイナミックなストーリーを伝え、彼らの注意を引き付けることによって、伝統的なメディアパラダイムから遠ざかる。
特に、興味深く、理解しやすいユニークなシーンを表現するために、日常的なオブジェクトの異なる組み合わせを用いることができる。
同じ会社によって提供されたTikTokとDouyinは、近年人気になった新しいメディアの好例だ。
メディアファッションや社会的慣用性とともに文化的な違いを表現しているという仮説が,本研究の主目的である。
論文 参考訳(メタデータ) (2020-11-03T01:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。