論文の概要: The Generative AI Paradox: GenAI and the Erosion of Trust, the Corrosion of Information Verification, and the Demise of Truth
- arxiv url: http://arxiv.org/abs/2601.00306v1
- Date: Thu, 01 Jan 2026 10:58:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.369951
- Title: The Generative AI Paradox: GenAI and the Erosion of Trust, the Corrosion of Information Verification, and the Demise of Truth
- Title(参考訳): 創発的AIパラドックス:GenAIと信頼の侵食、情報検証の腐食、真実の軽視
- Authors: Emilio Ferrara,
- Abstract要約: Generative AI(GenAI)は、テキスト、画像、オーディオ、ビデオを生成する。
本稿では, 人工現実を層状スタック(コンテンツ, アイデンティティ, インタラクション, 機関)として定式化する。
- 参考スコア(独自算出の注目度): 8.970269049715933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (GenAI) now produces text, images, audio, and video that can be perceptually convincing at scale and at negligible marginal cost. While public debate often frames the associated harms as "deepfakes" or incremental extensions of misinformation and fraud, this view misses a broader socio-technical shift: GenAI enables synthetic realities; coherent, interactive, and potentially personalized information environments in which content, identity, and social interaction are jointly manufactured and mutually reinforcing. We argue that the most consequential risk is not merely the production of isolated synthetic artifacts, but the progressive erosion of shared epistemic ground and institutional verification practices as synthetic content, synthetic identity, and synthetic interaction become easy to generate and hard to audit. This paper (i) formalizes synthetic reality as a layered stack (content, identity, interaction, institutions), (ii) expands a taxonomy of GenAI harms spanning personal, economic, informational, and socio-technical risks, (iii) articulates the qualitative shifts introduced by GenAI (cost collapse, throughput, customization, micro-segmentation, provenance gaps, and trust erosion), and (iv) synthesizes recent risk realizations (2023-2025) into a compact case bank illustrating how these mechanisms manifest in fraud, elections, harassment, documentation, and supply-chain compromise. We then propose a mitigation stack that treats provenance infrastructure, platform governance, institutional workflow redesign, and public resilience as complementary rather than substitutable, and outline a research agenda focused on measuring epistemic security. We conclude with the Generative AI Paradox: as synthetic media becomes ubiquitous, societies may rationally discount digital evidence altogether.
- Abstract(参考訳): Generative AI(GenAI)は、テキスト、画像、オーディオ、ビデオを生成する。
公の議論は、関連する害を「深み」や「偽情報」や「詐欺」の漸進的な拡張とみなすことが多いが、この見解は、より広範な社会技術的シフトを欠いている: GenAIは、合成現実、一貫性、対話性、潜在的にパーソナライズされた情報環境を可能にし、コンテンツ、アイデンティティ、社会的相互作用が共同で製造され、相互に強化される。
本研究は, 分離された合成人工物の生産に限らず, 合成内容, 合成同一性, 合成相互作用など, 共有てんかんの進行的侵食, 制度的検証の実施が容易になり, 監査が困難になることを論じる。
この論文は
一 合成現実を層状スタック(コンテンツ、アイデンティティ、相互作用、機関)として定式化すること。
(二)個人的、経済的、情報的、社会技術的リスクにまたがるGenAIの分類を拡大する。
三 GenAI(コスト崩壊、スループット、カスタマイズ、マイクロセグメンテーション、証明ギャップ、信頼侵食)の質的な変化を明示すること。
(iv)最近のリスク実現(2023-2025)を、詐欺、選挙、ハラスメント、文書化、サプライチェーンの妥協においてこれらのメカニズムがどのように現れるかを示すコンパクトなケースバンクに合成する。
次に,実証的基盤,プラットフォームガバナンス,制度的ワークフローの再設計,公共のレジリエンスを代替可能ではなく補完的なものとして扱うための緩和スタックを提案し,疫学的安全性の測定に焦点をあてた研究課題を概説する。
人工メディアがユビキタスになると、社会はデジタルエビデンスを完全に取り除くことができる。
関連論文リスト
- The Synthetic Mirror -- Synthetic Data at the Age of Agentic AI [0.0]
合成データは人工的に生成され、実世界のデータを模倣または補足する。
本稿では,合成データ生成に起因したプライバシとポリシー作成の意義について考察する。
論文 参考訳(メタデータ) (2025-06-15T02:10:02Z) - A Conjecture on a Fundamental Trade-Off between Certainty and Scope in Symbolic and Generative AI [0.0]
論文では、AIシステムにおける証明可能な正しさと広範なデータマッピング能力の基本的なトレードオフを定式化する予想を紹介している。
この暗黙のトレードオフを明確化し、厳密な検証にオープンにすることで、この予想は、エンジニアリングの野望とAIに対する哲学的な期待の両方を大きく変えた。
論文 参考訳(メタデータ) (2025-06-11T19:18:13Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - The Age of Synthetic Realities: Challenges and Opportunities [85.058932103181]
我々は、有害な合成生成を識別し、それらを現実と区別することのできる法医学的手法の開発における重要な必要性を強調した。
我々の焦点は、画像、ビデオ、オーディオ、テキストなどの様々なメディアの形式にまで及んでいる。
この研究は、AI生成技術の急速な進歩と、法科学の基本原理に対する影響により、最も重要である。
論文 参考訳(メタデータ) (2023-06-09T15:55:10Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。