論文の概要: The Verification Crisis: Expert Perceptions of GenAI Disinformation and the Case for Reproducible Provenance
- arxiv url: http://arxiv.org/abs/2602.02100v1
- Date: Mon, 02 Feb 2026 13:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.175899
- Title: The Verification Crisis: Expert Perceptions of GenAI Disinformation and the Case for Reproducible Provenance
- Title(参考訳): 検証危機:GenAIの偽情報に対する専門家の認識と再現可能な証明の事例
- Authors: Alexander Loth, Martin Kappes, Marc-Oliver Pahl,
- Abstract要約: 本稿では,AI研究者,政策立案者,偽情報専門家による縦断的専門家意識調査(N=21)の第1波から得られた知見について述べる。
テキスト、画像、オーディオ、ビデオといったマルチモーダルな脅威の重大さを調査し、現在の緩和戦略を評価する。
その結果、ディープフェイクビデオは即時「衝撃」の値を示す一方で、大規模テキスト生成は「印象的断片化」のシステム的リスクをもたらすことが示された。
- 参考スコア(独自算出の注目度): 47.03825808787752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growth of Generative Artificial Intelligence (GenAI) has shifted disinformation production from manual fabrication to automated, large-scale manipulation. This article presents findings from the first wave of a longitudinal expert perception survey (N=21) involving AI researchers, policymakers, and disinformation specialists. It examines the perceived severity of multimodal threats -- text, image, audio, and video -- and evaluates current mitigation strategies. Results indicate that while deepfake video presents immediate "shock" value, large-scale text generation poses a systemic risk of "epistemic fragmentation" and "synthetic consensus," particularly in the political domain. The survey reveals skepticism about technical detection tools, with experts favoring provenance standards and regulatory frameworks despite implementation barriers. GenAI disinformation research requires reproducible methods. The current challenge is measurement: without standardized benchmarks and reproducibility checklists, tracking or countering synthetic media remains difficult. We propose treating information integrity as an infrastructure with rigor in data provenance and methodological reproducibility.
- Abstract(参考訳): 生成人工知能(GenAI)の成長は、情報の偽造から自動化された大規模操作に移行した。
本稿では,AI研究者,政策立案者,偽情報専門家による縦断的専門家意識調査(N=21)の第1波から得られた知見について述べる。
テキスト、画像、オーディオ、ビデオといったマルチモーダルな脅威の重大さを調査し、現在の緩和戦略を評価する。
結果は、ディープフェイクビデオが即時「ショック」の値を示す一方で、大規模なテキスト生成は、特に政治領域において「創発的断片化」と「シンセティックコンセンサス」の体系的なリスクをもたらすことを示している。
この調査は、技術検出ツールに関する懐疑的な点を明らかにしており、専門家は実装の障壁にもかかわらず、プロファイランス標準と規制フレームワークを好んでいる。
GenAIの偽情報研究には再現可能な方法が必要である。
標準ベンチマークや再現性チェックリストがなければ、合成メディアの追跡や対応は難しいままです。
本稿では,情報整合性をデータ証明と方法論再現性において厳密な基盤として扱うことを提案する。
関連論文リスト
- Explainable AI in Big Data Fraud Detection [3.5429848204449694]
本稿では,不正検出とリスク管理のために,説明可能な人工知能(XAI)をビッグデータ分析パイプラインに統合する方法について検討する。
本稿では,分散ストレージシステム,ストリーミングプラットフォーム,高度な不正検出モデルなど,ビッグデータの特徴と主要な分析ツールについて概説する。
グラフおよび時間モデルのスケーラビリティ、リアルタイム処理、説明可能性に関連する重要な研究ギャップを同定する。
本論文は、スケーラブルなXAIにおけるオープンな研究の方向性、プライバシ対応の説明、および説明可能な不正検出システムのための標準化された評価手法で締めくくっている。
論文 参考訳(メタデータ) (2025-12-17T23:40:54Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - A Practical Synthesis of Detecting AI-Generated Textual, Visual, and Audio Content [4.347187436636075]
AI生成コンテンツの進歩により、大きな言語モデル、拡散ベースのビジュアルジェネレータ、合成オーディオツールが広く採用されている。
これらの発展は、誤情報、著作権侵害、セキュリティの脅威、および公的な信頼の侵食に関する懸念を提起する。
本稿では,AI生成したテキストコンテンツ,視覚コンテンツ,音声コンテンツの検出と緩和を目的とした,幅広い手法について検討する。
論文 参考訳(メタデータ) (2025-04-02T23:27:55Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods [13.14749943120523]
テキストが人工知能(AI)によって作成されたかどうかを知ることは、その信頼性を決定する上で重要である。
AIGT検出に対する最先端のアプローチには、透かし、統計学的およびスタイリスティック分析、機械学習分類などがある。
AIGTテキストがどのようなシナリオで「検出可能」であるかを判断するために、結合する健全な要因についての洞察を提供することを目指している。
論文 参考訳(メタデータ) (2024-06-21T18:31:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。