論文の概要: Deception Decoder: Proposing a Human-Focused Framework for Identifying AI-Generated Content on Social Media
- arxiv url: http://arxiv.org/abs/2511.05555v1
- Date: Mon, 03 Nov 2025 15:55:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.434401
- Title: Deception Decoder: Proposing a Human-Focused Framework for Identifying AI-Generated Content on Social Media
- Title(参考訳): Deception Decoder: ソーシャルメディア上のAI生成コンテンツを識別するためのヒューマンフォーカスフレームワークの提案
- Authors: C. Bowman Kerbage,
- Abstract要約: ジェネレーティブAI(GenAI)は、現代の公共領域における情報の完全性に重大な脅威をもたらす。
この論文は、テキスト、画像、ビデオ間でAIが生成する偽情報と偽情報を特定するのに、一般ユーザをサポートするために設計されたフレームワークであるDeception Decoderを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI (GenAI) poses a substantial threat to the integrity of information within the contemporary public sphere, which increasingly relies on social media platforms as intermediaries for news consumption. At present, most research efforts are directed toward automated and machine learning-based detection methods, despite growing concerns regarding false positives, social and political biases, and susceptibility to circumvention. This dissertation instead adopts a human-centred approach. It proposes the Deception Decoder; a multimodal, systematic, and topological framework designed to support general users in identifying AI-generated misinformation and disinformation across text, image, and video. The framework was developed through a comparative synthesis of existing models, supplemented by a content analysis of GenAI-video, and refined through a small-scale focus group session. While initial testing indicates promising improvements, further research is required to confirm its generalisability across user groups, and sustained effectiveness over time.
- Abstract(参考訳): ジェネレーティブAI(GenAI)は、ニュース消費の仲介者としてソーシャルメディアプラットフォームに依存している現代公共分野における情報の整合性に重大な脅威をもたらす。
現在、ほとんどの研究は、偽陽性、社会的、政治的偏見、回避への感受性に関する懸念が高まっているにもかかわらず、自動化および機械学習に基づく検出方法に向けられている。
この論文は人間中心のアプローチを採用する。
デセプションデコーダ(Deception Decoder)は、テキスト、画像、ビデオにまたがるAI生成の誤情報や偽情報の識別において、一般ユーザを支援するために設計されたマルチモーダル、システマティック、トポロジ的なフレームワークである。
このフレームワークは、既存のモデルの比較合成を通じて開発され、GenAIビデオのコンテンツ分析によって補完され、小規模のフォーカスグループセッションによって洗練されている。
初期テストは有望な改善を示すが、ユーザグループ間の一般化性を確認し、時間とともに有効性を維持するためにはさらなる研究が必要である。
関連論文リスト
- Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - A Practical Synthesis of Detecting AI-Generated Textual, Visual, and Audio Content [4.347187436636075]
AI生成コンテンツの進歩により、大きな言語モデル、拡散ベースのビジュアルジェネレータ、合成オーディオツールが広く採用されている。
これらの発展は、誤情報、著作権侵害、セキュリティの脅威、および公的な信頼の侵食に関する懸念を提起する。
本稿では,AI生成したテキストコンテンツ,視覚コンテンツ,音声コンテンツの検出と緩和を目的とした,幅広い手法について検討する。
論文 参考訳(メタデータ) (2025-04-02T23:27:55Z) - BEYONDWORDS is All You Need: Agentic Generative AI based Social Media Themes Extractor [2.699900017799093]
ソーシャルメディア投稿のテーマ分析は、公開談話に対する大きな理解を提供する。
従来の手法は、構造化されていない大規模なテキストデータの複雑さとニュアンスを捉えるのに苦労することが多い。
本研究では,事前学習した言語モデルからツイートの埋め込みを統合したテーマ分析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:18:37Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Safeguarding Marketing Research: The Generation, Identification, and Mitigation of AI-Fabricated Disinformation [0.26107298043931204]
生成AIは、人間のコントリビューションを忠実に模倣するコンテンツを生成する能力を確立している。
これらのモデルは、世論の操作や認識の歪曲に利用することができ、結果としてデジタルプラットフォームに対する信頼が低下する。
本研究は,マーケティング文献と実践に3つの方法で貢献する。
論文 参考訳(メタデータ) (2024-03-17T13:08:28Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。