論文の概要: Diverse Misinformation: Impacts of Human Biases on Detection of
Deepfakes on Networks
- arxiv url: http://arxiv.org/abs/2210.10026v3
- Date: Sat, 13 Jan 2024 18:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 03:48:24.493496
- Title: Diverse Misinformation: Impacts of Human Biases on Detection of
Deepfakes on Networks
- Title(参考訳): 多様な誤報:ネットワーク上のディープフェイクの検出に対するヒトのバイアスの影響
- Authors: Juniper Lovato, Laurent H\'ebert-Dufresne, Jonathan St-Onge, Randall
Harp, Gabriela Salazar Lopez, Sean P. Rogers, Ijaz Ul Haq and Jeremiah
Onaolapo
- Abstract要約: 異種偽情報(diverse misinformation)とは、人間の偏見と誤情報で表される人口統計の複雑な関係をいう。
精度は人口統計によって異なり、参加者はそれらと一致するビデオの分類が得意だ。
我々のモデルは、多様な接触が、友人同士がお互いを保護できる「本質的な修正」をもたらす可能性を示唆している。
- 参考スコア(独自算出の注目度): 1.5910150494847917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms often assume that users can self-correct against
misinformation. However, social media users are not equally susceptible to all
misinformation as their biases influence what types of misinformation might
thrive and who might be at risk. We call "diverse misinformation" the complex
relationships between human biases and demographics represented in
misinformation. To investigate how users' biases impact their susceptibility
and their ability to correct each other, we analyze classification of deepfakes
as a type of diverse misinformation. We chose deepfakes as a case study for
three reasons: 1) their classification as misinformation is more objective; 2)
we can control the demographics of the personas presented; 3) deepfakes are a
real-world concern with associated harms that must be better understood. Our
paper presents an observational survey (N=2,016) where participants are exposed
to videos and asked questions about their attributes, not knowing some might be
deepfakes. Our analysis investigates the extent to which different users are
duped and which perceived demographics of deepfake personas tend to mislead. We
find that accuracy varies by demographics, and participants are generally
better at classifying videos that match them. We extrapolate from these results
to understand the potential population-level impacts of these biases using a
mathematical model of the interplay between diverse misinformation and crowd
correction. Our model suggests that diverse contacts might provide "herd
correction" where friends can protect each other. Altogether, human biases and
the attributes of misinformation matter greatly, but having a diverse social
group may help reduce susceptibility to misinformation.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、ユーザーが誤情報に対して自己修正できると仮定することが多い。
しかし、ソーシャルメディア利用者は、そのバイアスがどの種類の誤情報が繁栄し、誰が危険にさらされるかに影響を与えるため、全ての誤情報の影響を受けやすいわけではない。
異種偽情報(diverse misinformation)とは、人間の偏見と誤情報で表される人口統計の複雑な関係をいう。
ユーザのバイアスが感受性と相互修正能力にどのように影響するかを調べるために,ディープフェイクの分類を多様な誤情報の一種として分析する。
私たちは3つの理由から、ケーススタディとしてdeepfakesを選択しました。
1) 誤情報としての分類は,より客観的である。
2) 提示されたペルソナの人口動態を制御できる。
3)ディープフェイクは、関連する害がより深く理解されなければならない現実的な懸念である。
本報告では,参加者がビデオに曝露し,その属性について質問する観察調査(N=2,016)について述べる。
本研究では,ディープフェイク・パーソナラ(deepfake personas)の人口動態を誤認する傾向について検討した。
精度は人口統計によって異なり、参加者はそれらと一致するビデオの分類が得意だ。
これらの結果から,多様な誤情報と群衆の補正の相互作用の数学的モデルを用いて,これらのバイアスの潜在的人口レベルへの影響を推定する。
モデルでは,友人同士が相互に保護できる「ヘルド補正」が多様であることが示唆された。
他にも、人間の偏見や誤情報の特徴は大きいが、多様な社会集団を持つことは、誤情報に対する感受性を低下させる可能性がある。
関連論文リスト
- Correcting misinformation on social media with a large language model [14.69780455372507]
現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
論文 参考訳(メタデータ) (2024-03-17T10:59:09Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Folk Models of Misinformation on Social Media [10.667165962654996]
我々は、誤報を概念化する少なくとも5つのフォークモデルを、政治的(会計的)論証、口外的物語、本質的に誤った情報、外部プロパガンダ、あるいは単に娯楽のいずれかとして特定する。
我々は、これらの民生モデルに具現化された豊かな概念化を利用して、ソーシャルメディアユーザーが日常生活における誤情報遭遇に対する悪反応を最小化する方法を明らかにする。
論文 参考訳(メタデータ) (2022-07-26T00:40:26Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Characterizing User Susceptibility to COVID-19 Misinformation on Twitter [40.0762273487125]
本研究は、パンデミックのオンライン誤報に弱い人口を構成する人々への回答を試みる。
我々は、ソーシャルボットから、新型コロナウイルス関連の誤情報に関するさまざまなレベルのエンゲージメントを持つ人間まで、さまざまなタイプのユーザーを区別する。
次に、新型コロナウイルスの誤情報に対する感受性と相関する、ユーザのオンライン機能と状況予測を識別する。
論文 参考訳(メタデータ) (2021-09-20T13:31:15Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。