論文の概要: Could you become more credible by being White? Assessing Impact of Race
on Credibility with Deepfakes
- arxiv url: http://arxiv.org/abs/2102.08054v1
- Date: Tue, 16 Feb 2021 10:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 00:22:02.291282
- Title: Could you become more credible by being White? Assessing Impact of Race
on Credibility with Deepfakes
- Title(参考訳): ホワイトになって、もっと信用できますか。
ディープフェイクの信頼性に及ぼすレースの影響評価
- Authors: Kurtis Haut, Caleb Wohn, Victor Antony, Aidan Goldfarb, Melissa Welsh,
Dillanie Sumanthiran, Ji-ze Jang, Md. Rafayet Ali and Ehsan Hoque
- Abstract要約: 本稿では、DeepfakesとGANアーキテクチャを用いて、視覚的特徴を分離し、人種的知覚を変化させるアプローチを提案する。
そして、800以上の調査回答をクラウドソーシングして、認識された人種を変えることによって、信頼性がどのように影響されたかを測定しました。
- 参考スコア(独自算出の注目度): 1.2647816797166165
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computer mediated conversations (e.g., videoconferencing) is now the new
mainstream media. How would credibility be impacted if one could change their
race on the fly in these environments? We propose an approach using Deepfakes
and a supporting GAN architecture to isolate visual features and alter racial
perception. We then crowd-sourced over 800 survey responses to measure how
credibility was influenced by changing the perceived race. We evaluate the
effect of showing a still image of a Black person versus a still image of a
White person using the same audio clip for each survey. We also test the effect
of showing either an original video or an altered video where the appearance of
the person in the original video is modified to appear more White. We measure
credibility as the percent of participant responses who believed the speaker
was telling the truth. We found that changing the race of a person in a static
image has negligible impact on credibility. However, the same manipulation of
race on a video increases credibility significantly (61\% to 73\% with p $<$
0.05). Furthermore, a VADER sentiment analysis over the free response survey
questions reveals that more positive sentiment is used to justify the
credibility of a White individual in a video.
- Abstract(参考訳): コンピュータによる会話(ビデオ会議など)が新しい主流メディアとなった。
これらの環境でレースを素早く変えることができれば、信頼性はどのように影響しますか?
本稿では,deepfakesとganアーキテクチャを用いた視覚特徴を分離し,人種認識を変化させる手法を提案する。
次に、800以上の調査回答をクラウドソーシングして、認識された人種の変化による信頼性への影響を測定しました。
本研究では、黒人の静止画像と白人の静止画像とを比較し、各調査に同じ音声クリップを用いて評価する。
また、オリジナルビデオや、オリジナルビデオ内の人物の外観がより白く見えるように修正されたビデオを表示する効果についても検証する。
話者が真実を言っていると信じた参加者の回答のパーセントとして信頼性を測定した。
静的な画像で人の人種を変えることは、信頼性にほとんど影響しないことがわかった。
しかし、ビデオ上でのレースの操作は信頼性を大幅に向上させる(p $<$ 0.05で61\%から73\%)。
さらに、free response surveyの質問に対するvaderの感情分析により、ビデオ内の白人の信頼性を正当化するために、よりポジティブな感情が使用されることが明らかになった。
関連論文リスト
- Inclusive content reduces racial and gender biases, yet non-inclusive content dominates popular culture [1.4204016278692333]
私たちは最先端の機械学習モデルを使用して、50年以上にわたって30万以上の画像を分類しています。
人種的少数派は白人よりもはるかに頻度が低く、それらが現れると、顕著に描写されなくなる。
また、女性は全身で描かれる傾向が強く、男性は顔で描かれる傾向が強いこともわかりました。
論文 参考訳(メタデータ) (2024-05-10T11:34:47Z) - Quantifying Media Influence on Covid-19 Mask-Wearing Beliefs [0.8192907805418583]
この研究は、Howard 2020のFace Mask Perception Scaleによると、Covid-19マスク着用に関する声明に注釈を付けた米国のニュースメディアのデータセットに貢献する。
同時期に行われたギャラップ調査から,メディアメッセージングと経験的世論調査データとの微妙な相関関係を示す。
また、このデータは、その期間を通じて、プロマスクとアンチマスクの感情の定量的分析に使用できることを示した。
論文 参考訳(メタデータ) (2024-03-06T13:09:40Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Diverse Misinformation: Impacts of Human Biases on Detection of
Deepfakes on Networks [1.5910150494847917]
異種偽情報(diverse misinformation)とは、人間の偏見と誤情報で表される人口統計の複雑な関係をいう。
精度は人口統計によって異なり、参加者はそれらと一致するビデオの分類が得意だ。
我々のモデルは、多様な接触が、友人同士がお互いを保護できる「本質的な修正」をもたらす可能性を示唆している。
論文 参考訳(メタデータ) (2022-10-18T17:49:53Z) - Evidence for Hypodescent in Visual Semantic AI [4.1804353242318255]
多人種の人々は、同等の多数派または有利な集団よりも、少数派または不利な人種または民族の集団に対応する人種または民族のラベルが割り当てられる傾向にある。
心理学的な研究に根ざした顔の変形実験は、思春期を示す。
画像のステレオタイプ・コングロレントな快適性関連は,CLIPのブラックテキストラベルと関連していることを示す。
論文 参考訳(メタデータ) (2022-05-22T06:46:39Z) - Shifting Polarization and Twitter News Influencers between two U.S.
Presidential Elections [92.33485580547801]
我々は2016年米大統領選挙と2020年米大統領選挙の間の分極の変化を分析した。
トップインフルエンサーのほとんどが、両選挙の間にメディア組織に所属していた。
2020年のトップインフルエンサーの75%は2016年は存在しなかった。
論文 参考訳(メタデータ) (2021-11-03T20:08:54Z) - Identity Signals in Emoji Do not Influence Perception of Factual Truth
on Twitter [90.14874935843544]
以前の研究によると、Twitterユーザーは人種的・民族的アイデンティティを表現するために、自己表現の行為としてスキントーン絵文字を使っている。
この信号が、その信号を含む投稿の内容に対する読者の認識に影響を及ぼすかどうかを検証する。
絵文字もプロフィール写真も、読者がこれらの事実をどう評価するかに影響を与えていない。
論文 参考訳(メタデータ) (2021-05-07T10:56:19Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - What Was Written vs. Who Read It: News Media Profiling Using Text
Analysis and Social Media Context [32.92101895367273]
現在のフェイク、偏見、プロパガンダ的なコンテンツの拡散は、疑わしいすべての主張を事実確認することを不可能にした。
ニュースメディア全体をプロファイルし、偽のコンテンツや偏見のあるコンテンツを掲載する可能性があるものを探すことができる。
このアプローチにより、発行された瞬間に“フェイクニュース”を検出することが可能になる。
論文 参考訳(メタデータ) (2020-05-09T22:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。