論文の概要: Diverse Misinformation: Impacts of Human Biases on Detection of
Deepfakes on Networks
- arxiv url: http://arxiv.org/abs/2210.10026v2
- Date: Sun, 8 Jan 2023 18:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:52:20.837318
- Title: Diverse Misinformation: Impacts of Human Biases on Detection of
Deepfakes on Networks
- Title(参考訳): 多様な誤報:ネットワーク上のディープフェイクの検出に対するヒトのバイアスの影響
- Authors: Juniper Lovato, Laurent H\'ebert-Dufresne, Jonathan St-Onge, Randall
Harp, Gabriela Salazar Lopez, Sean P. Rogers, Ijaz Ul Haq and Jeremiah
Onaolapo
- Abstract要約: 異種偽情報(diverse misinformation)とは、人間の偏見と誤情報で表される人口統計の複雑な関係をいう。
コンピュータ生成ビデオ(ディープフェイク)の人間の分類を多種多様な誤情報の一種として分析する。
精度は人口統計によって大きく異なり、参加者はそれらとマッチする動画を分類するのが一般的である。
- 参考スコア(独自算出の注目度): 2.009597557771958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media users are not equally susceptible to all misinformation. We call
"diverse misinformation" the complex relationships between human biases and
demographics represented in misinformation. To investigate how users' biases
impact their susceptibility to misinformation and their ability to correct each
other, we analyze human classification of computer-generated videos (deepfakes)
as a type of diverse misinformation. We chose deepfakes as a case study for
three reasons: 1) their classification as misinformation is more objective; 2)
we can control the demographics of the personas presented; 3) deepfakes are a
real-world concern with associated harms that need to be better understood. Our
paper presents a survey (N=2,016) where U.S.-based participants are exposed to
videos and asked questions about their attributes, not knowing some might be
deepfakes. Our analysis measures the extent to which different users are duped
and which perceived demographics of deepfake personas tend to mislead.
Importantly, we find that accuracy varies significantly by demographics, and
participants are generally better at classifying videos that match them
(especially for white participants). We extrapolate from these results to
understand the population-level impacts of these biases using an idealized
mathematical model of the interplay between diverse misinformation and crowd
correction. Our model suggests that a diverse set of contacts might provide
"herd correction" where friends can protect each other's blind spots.
Altogether, human biases and the attributes of misinformation matter greatly,
but having a diverse social group may help reduce susceptibility to
misinformation.
- Abstract(参考訳): ソーシャルメディアのユーザーは、あらゆる誤報に等しく影響を受けない。
異種偽情報(diverse misinformation)とは、人間の偏見と誤情報で表される人口統計の複雑な関係をいう。
ユーザのバイアスが誤情報に対する感受性と相互修正能力にどのように影響するかを調べるために,コンピュータ生成ビデオ(ディープフェイク)の人間の分類を多様な誤情報の一種として分析する。
私たちは3つの理由から、ケーススタディとしてdeepfakesを選択しました。
1) 誤情報としての分類は,より客観的である。
2) 提示されたペルソナの人口動態を制御できる。
3) ディープフェイクは、より深く理解する必要がある害に関連する現実的な懸念である。
本稿では,米国在住の参加者がビデオに露出し,その属性について質問する調査(N=2,016)を報告する。
分析は, 異なる利用者の重複度と, ディープフェイクパーソナラの認知層が誤解を招く傾向の程度を測定した。
重要なことに、精度は人口統計によって大きく異なり、参加者はビデオ(特に白人の参加者)を分類するのが一般的である。
これらの結果から,多様な誤情報と群衆の補正の相互作用を理想化した数学的モデルを用いて,これらのバイアスの集団的影響を理解するために推定する。
我々のモデルは、友人同士がお互いの盲点を保護できる「隠れた修正」を提供するかもしれないことを示唆している。
他にも、人間の偏見や誤情報の特徴は大きいが、多様な社会集団を持つことは、誤情報に対する感受性を低下させる可能性がある。
関連論文リスト
- Correcting misinformation on social media with a large language model [14.69780455372507]
現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
論文 参考訳(メタデータ) (2024-03-17T10:59:09Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Folk Models of Misinformation on Social Media [10.667165962654996]
我々は、誤報を概念化する少なくとも5つのフォークモデルを、政治的(会計的)論証、口外的物語、本質的に誤った情報、外部プロパガンダ、あるいは単に娯楽のいずれかとして特定する。
我々は、これらの民生モデルに具現化された豊かな概念化を利用して、ソーシャルメディアユーザーが日常生活における誤情報遭遇に対する悪反応を最小化する方法を明らかにする。
論文 参考訳(メタデータ) (2022-07-26T00:40:26Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Characterizing User Susceptibility to COVID-19 Misinformation on Twitter [40.0762273487125]
本研究は、パンデミックのオンライン誤報に弱い人口を構成する人々への回答を試みる。
我々は、ソーシャルボットから、新型コロナウイルス関連の誤情報に関するさまざまなレベルのエンゲージメントを持つ人間まで、さまざまなタイプのユーザーを区別する。
次に、新型コロナウイルスの誤情報に対する感受性と相関する、ユーザのオンライン機能と状況予測を識別する。
論文 参考訳(メタデータ) (2021-09-20T13:31:15Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。