論文の概要: The Deepfake Detection Dilemma: A Multistakeholder Exploration of
Adversarial Dynamics in Synthetic Media
- arxiv url: http://arxiv.org/abs/2102.06109v1
- Date: Thu, 11 Feb 2021 16:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 23:53:03.313358
- Title: The Deepfake Detection Dilemma: A Multistakeholder Exploration of
Adversarial Dynamics in Synthetic Media
- Title(参考訳): ディープフェイク検出ジレンマ:合成メディアにおける対比ダイナミクスのマルチステークホルダ探索
- Authors: Claire Leibowicz, Sean McGregor, Aviv Ovadya
- Abstract要約: 合成メディア検出技術は、メディアを合成または非合成のいずれかとラベル付けする。
検出プラクティスがよりアクセスしやすくなれば,回避も容易になる。
この研究は、検出器ジレンマをナビゲートする「最良の」アプローチは存在しないと結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Synthetic media detection technologies label media as either synthetic or
non-synthetic and are increasingly used by journalists, web platforms, and the
general public to identify misinformation and other forms of problematic
content. As both well-resourced organizations and the non-technical general
public generate more sophisticated synthetic media, the capacity for purveyors
of problematic content to adapt induces a \newterm{detection dilemma}: as
detection practices become more accessible, they become more easily
circumvented. This paper describes how a multistakeholder cohort from academia,
technology platforms, media entities, and civil society organizations active in
synthetic media detection and its socio-technical implications evaluates the
detection dilemma. Specifically, we offer an assessment of detection contexts
and adversary capacities sourced from the broader, global AI and media
integrity community concerned with mitigating the spread of harmful synthetic
media. A collection of personas illustrates the intersection between
unsophisticated and highly-resourced sponsors of misinformation in the context
of their technical capacities. This work concludes that there is no "best"
approach to navigating the detector dilemma, but derives a set of implications
from multistakeholder input to better inform detection process decisions and
policies, in practice.
- Abstract(参考訳): 合成メディア検出技術は、メディアを合成または非合成とラベル付けし、ジャーナリスト、ウェブプラットフォーム、および一般大衆が誤情報やその他の問題のあるコンテンツを識別するためにますます使用されています。
高度に調達された組織と非技術一般の両方がより洗練された合成メディアを生成するため、問題のあるコンテンツのパーベイヤが適応する能力は、"newterm{detection dilemma}"を誘導する。
本稿では, 産学, 技術プラットフォーム, メディアエンティティ, 市民社会の多元的コーホートが, 合成メディア検出に活発に活動し, その社会技術的意義が検出ジレンマを評価する方法について述べる。
具体的には、有害な合成メディアの拡散を緩和することに関連する幅広いグローバルAIおよびメディア整合性コミュニティから得られた検出コンテキストと敵の能力の評価を提供します。
ペルソナのコレクションは、技術的能力の文脈における誤情報の未解決と高度に調達されたスポンサーの交差点を描いている。
この研究は、検出器ジレンマをナビゲートする"最良の"アプローチはないと結論づけるが、実際には、検出プロセスの決定や方針をよりよく知らせるために、マルチステイクホルダ入力から一連の影響を導き出している。
関連論文リスト
- Understanding Audiovisual Deepfake Detection: Techniques, Challenges, Human Factors and Perceptual Insights [49.81915942821647]
ディープラーニングは様々な分野に適用され、ディープフェイク検出への影響は例外ではない。
ディープフェイク(英: Deepfakes)は、政治的偽造、フィッシング、スランダリング、偽情報の拡散に偽装的に使用できる、偽物だが現実的な合成コンテンツである。
本稿では,ディープフェイク検出戦略の有効性を改善し,サイバーセキュリティとメディアの整合性に関する今後の研究を導くことを目的とする。
論文 参考訳(メタデータ) (2024-11-12T09:02:11Z) - The Cat and Mouse Game: The Ongoing Arms Race Between Diffusion Models and Detection Methods [0.0]
拡散モデルは合成メディア生成を変革し、未整合のリアリズムとコンテンツ生成の制御を提供する。
それらは、ディープフェイク、誤報、著作権のある素材の不正な複製を促進することができる。
これに対し, 効果的な検出機構の必要性が高まっている。
論文 参考訳(メタデータ) (2024-10-24T15:51:04Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - AMMeBa: A Large-Scale Survey and Dataset of Media-Based Misinformation In-The-Wild [1.4193873432298625]
オンラインメディアをベースとした誤情報に注釈を付けるために,ヒトラプターを用いた2年間の研究結果を示す。
偽情報クレームにおける生成AIベースのコンテンツの増加を示す。
また、歴史的に支配的な「単純な」手法、特に文脈操作を示す。
論文 参考訳(メタデータ) (2024-05-19T23:05:53Z) - Detecting and Grounding Multi-Modal Media Manipulation and Beyond [93.08116982163804]
マルチモーダルフェイクメディア(DGM4)の新たな研究課題について述べる。
DGM4は、マルチモーダルメディアの真正性を検出するだけでなく、操作されたコンテンツも検出することを目的としている。
本稿では,異なるモーダル間のきめ細かい相互作用を完全に捉えるために,新しい階層型マルチモーダルマニピュレーションrEasoning tRansformer(HAMMER)を提案する。
論文 参考訳(メタデータ) (2023-09-25T15:05:46Z) - False Information, Bots and Malicious Campaigns: Demystifying Elements
of Social Media Manipulations [6.901078062583646]
オンラインソーシャルネットワーク(OSN)に対する偽情報や永続的な操作攻撃は、OSNの開放性に影響を与えている。
本稿では,様々な分野の知見を総合的に分析するために,様々な分野の知見を合成する。
論文 参考訳(メタデータ) (2023-08-24T01:37:33Z) - Synthetic Misinformers: Generating and Combating Multimodal
Misinformation [11.696058634552147]
マルチモーダル誤情報検出(MMD)は、画像と付随するテキストの組み合わせが誤読や誤字を検知する。
提案したCLIPベースの名前付きエンティティスワッピングは,マルチモーダル精度で他のOOCやNEIミスコンバータを上回り,MDDモデルに繋がることを示す。
論文 参考訳(メタデータ) (2023-03-02T12:59:01Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Multi-modal Misinformation Detection: Approaches, Challenges and Opportunities [5.4482836906033585]
ソーシャルメディアプラットフォームは、テキストベースのフォーラムからマルチモーダル環境へと進化している。
誤情報スプレッダーは、最近、テキストや画像などのモダリティ間のコンテキスト接続をターゲットにしている。
マルチモーダルな誤情報検出の分野での新たな研究機会を見出すために,既存のアプローチを分析,分類,そして,それらが直面する課題や欠点に加えて特定する。
論文 参考訳(メタデータ) (2022-03-25T19:45:33Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。