論文の概要: Silence Speaks Volumes: Re-weighting Techniques for Under-Represented
Users in Fake News Detection
- arxiv url: http://arxiv.org/abs/2308.02011v1
- Date: Thu, 3 Aug 2023 20:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 14:42:07.360213
- Title: Silence Speaks Volumes: Re-weighting Techniques for Under-Represented
Users in Fake News Detection
- Title(参考訳): Silence Speaks Volumes:フェイクニュース検出における非表示ユーザのための再重み付け手法
- Authors: Mansooreh Karami, David Mosallanezhad, Paras Sheth, Huan Liu
- Abstract要約: わずか1%のユーザーが、ソーシャルネットワークサイトのコンテンツの大半を生成している。
残りのユーザーは、さまざまな学位を取得できるが、コンテンツ制作にはあまり積極的でなく、ほとんど沈黙している傾向にある。
そこで本稿では,提案手法を応用してサイレント・マジョリティを耳にする手法を提案する。また,これらのユーザからの手がかりが,偽ニュース検出の下流タスクにおいて,現在のモデルの性能を向上させることができるかどうかを検討する。
- 参考スコア(独自算出の注目度): 25.5495085102178
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social media platforms provide a rich environment for analyzing user
behavior. Recently, deep learning-based methods have been a mainstream approach
for social media analysis models involving complex patterns. However, these
methods are susceptible to biases in the training data, such as participation
inequality. Basically, a mere 1% of users generate the majority of the content
on social networking sites, while the remaining users, though engaged to
varying degrees, tend to be less active in content creation and largely silent.
These silent users consume and listen to information that is propagated on the
platform. However, their voice, attitude, and interests are not reflected in
the online content, making the decision of the current methods predisposed
towards the opinion of the active users. So models can mistake the loudest
users for the majority. We propose to leverage re-weighting techniques to make
the silent majority heard, and in turn, investigate whether the cues from these
users can improve the performance of the current models for the downstream task
of fake news detection.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、ユーザーの行動を分析するための豊富な環境を提供する。
近年,深層学習に基づく手法が,複雑なパターンを含むソーシャルメディア分析モデルにおいて主流となっている。
しかしながら、これらの方法は、参加不平等など、トレーニングデータのバイアスに影響を受けやすい。
基本的には、わずか1%のユーザーがソーシャルネットワーキングサイトでコンテンツの大半を制作しているが、残りのユーザーはさまざまな程度に携わっているが、コンテンツ制作の活発さは低く、ほとんど沈黙している。
これらのサイレントユーザーは、プラットフォーム上で伝達される情報を消費し、聞く。
しかし、彼らの声、態度、興味はオンラインコンテンツに反映されておらず、現在の方法の決定はアクティブユーザーの意見に先行している。
モデルが大きめのユーザーを大半で間違えることもある。
我々は,サイレント・マジョリティを聴かせるために,再重み付け手法を活用し,それらのユーザからのヒントが,偽ニュース検出の下流課題に対する現在のモデルの性能を向上させることができるかを検討することを提案する。
関連論文リスト
- Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Thread With Caution: Proactively Helping Users Assess and Deescalate
Tension in Their Online Discussions [13.455968033357065]
オンラインディスカッションプラットフォームにとって、インキュビティは依然として大きな課題だ。
伝統的に、プラットフォームはモデレーターを -- アルゴリズムの支援の有無に関わらず -- 頼りにしており、コメントの削除やユーザー禁止といった修正措置を取っている。
本研究では,会話における既存の緊張感に対する意識を積極的に高め,ユーザに直接力を与える補完的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-12-02T19:00:03Z) - Like Article, Like Audience: Enforcing Multimodal Correlations for
Disinformation Detection [20.394457328537975]
ユーザ生成コンテンツとユーザ共有コンテンツの相関を利用して、オンラインニュース記事の偽情報を検出する。
偽情報検出のためのマルチモーダル学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-08-31T14:50:16Z) - SOK: Seeing and Believing: Evaluating the Trustworthiness of Twitter
Users [4.609388510200741]
現在、どのニュースやユーザーが信頼できるか、どれがそうでないかを自動で判断する方法はない。
本研究では、Twitter上で5万人の政治家の行動を分析するモデルを作成しました。
政治Twitterのユーザを、ランダムな森林、多層パーセプトロン、サポートベクターマシンを使って、信頼あるいは信頼できないと分類した。
論文 参考訳(メタデータ) (2021-07-16T17:39:32Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Learning User Embeddings from Temporal Social Media Data: A Survey [15.324014759254915]
我々は,簡潔な潜在ユーザ表現(a.k.a.)を学習する代表的作業について調査する。
ユーザー埋め込み)は、ソーシャルメディアユーザーの主な特徴を捉えることができる。
学習されたユーザー埋め込みは、その後、パーソナリティモデリング、自殺リスクアセスメント、購買判断予測など、さまざまな下流のユーザー分析タスクをサポートするために使用できます。
論文 参考訳(メタデータ) (2021-05-17T16:22:43Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。