論文の概要: Three Lenses on the AI Revolution: Risk, Transformation, Continuity
- arxiv url: http://arxiv.org/abs/2510.12859v1
- Date: Tue, 14 Oct 2025 14:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.366395
- Title: Three Lenses on the AI Revolution: Risk, Transformation, Continuity
- Title(参考訳): AI革命に関する3つのレンズ:リスク、変革、継続性
- Authors: Masoud Makrehchi,
- Abstract要約: 人工知能(AI)は、歴史的技術革命の継続とそれに伴う潜在的破壊の両方として出現している。
この論文は、AIを3つのレンズで同時に見る必要がある、と論じている:textitriskは、その不可逆性とグローバルな外部性において、核技術に類似している、textittransformationは、生産性と労働の再編成を推進している汎用技術として産業革命と平行している、textitcontinuityは、パーソナルコンピューティングからインターネット、モバイルまで、50年間のコンピュータ革命の範囲を拡大している。
- 参考スコア(独自算出の注目度): 1.5567685129899713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has emerged as both a continuation of historical technological revolutions and a potential rupture with them. This paper argues that AI must be viewed simultaneously through three lenses: \textit{risk}, where it resembles nuclear technology in its irreversible and global externalities; \textit{transformation}, where it parallels the Industrial Revolution as a general-purpose technology driving productivity and reorganization of labor; and \textit{continuity}, where it extends the fifty-year arc of computing revolutions from personal computing to the internet to mobile. Drawing on historical analogies, we emphasize that no past transition constituted a strict singularity: disruptive shifts eventually became governable through new norms and institutions. We examine recurring patterns across revolutions -- democratization at the usage layer, concentration at the production layer, falling costs, and deepening personalization -- and show how these dynamics are intensifying in the AI era. Sectoral analysis illustrates how accounting, law, education, translation, advertising, and software engineering are being reshaped as routine cognition is commoditized and human value shifts to judgment, trust, and ethical responsibility. At the frontier, the challenge of designing moral AI agents highlights the need for robust guardrails, mechanisms for moral generalization, and governance of emergent multi-agent dynamics. We conclude that AI is neither a singular break nor merely incremental progress. It is both evolutionary and revolutionary: predictable in its median effects yet carrying singularity-class tail risks. Good outcomes are not automatic; they require coupling pro-innovation strategies with safety governance, ensuring equitable access, and embedding AI within a human order of responsibility.
- Abstract(参考訳): 人工知能(AI)は、歴史的技術革命の継続とそれに伴う潜在的破壊の両方として出現している。
本稿では、AIを3つのレンズで同時に見る必要がある: \textit{risk}、その不可逆性とグローバルな外部性において、核技術に類似する \textit{transformation}、産業革命を生産性と労働の組織化を促進する汎用技術として並行する \textit{continuity}、パーソナルコンピューティングからインターネット、モバイルまで、50年にわたるコンピュータ革命の範囲を広げる \textit{continuity}。
歴史的類推に基づいて、我々は過去の移行が厳格な特異点を構成しないことを強調した。
革命の繰り返しパターン – 使用層における民主化,生産層での集中,コスト低下,パーソナライゼーションの深化 – を調べて,AI時代におけるこれらのダイナミクスの強化状況を示す。
専門的な分析は、会計、法律、教育、翻訳、広告、およびソフトウェア工学が、日常的な認知がコモディティ化され、人間の価値が判断、信頼、倫理的責任へとシフトするにつれてどのように作り直されているかを示している。
最前線では、モラルAIエージェントを設計するという課題が、堅牢なガードレールの必要性、モラルの一般化のメカニズム、創発的なマルチエージェントダイナミクスのガバナンスを強調している。
AIは特異なブレークでも、単なる漸進的な進歩でもないと結論付けます。
進化的かつ革命的であり、中央的な効果で予測可能であるが、特異性クラスの尾のリスクを持つ。
イノベーション推進戦略と安全ガバナンスを結合し、公平なアクセスを確保し、AIを人間の責任の順序に組み込む必要がある。
関連論文リスト
- A Theory of Information, Variation, and Artificial Intelligence [0.0]
実証研究の活発化は、生成AIの普及が情報、創造性、文化生産に顕著な均質化効果をもたらすことを示唆している。
本稿では、特殊領域内の知識を平らにする非常に均質化が、その知識をそれら全体で再結合可能な一貫したモジュールに同時にレンダリングする、と論じる。
この論文は、この緊張を解決するのに必要な認知的および制度的な足場を概説し、生成的AIがイノベーションの道具になるか、均質化されるかを決定する決定的な変数であると主張した。
論文 参考訳(メタデータ) (2025-08-20T16:21:13Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - Balancing Creativity and Automation: The Influence of AI on Modern Film Production and Dissemination [0.0]
本研究は,3つの目的を通じて,AIが現代映画に与える影響について検討する。
最適な人間とAIの関係を定義し、創造性と自動化のバランスをとり、倫理的ガイドラインを開発する。
発見は、AI駆動市場における監視資本主義のリスクと、ディープフェイク技術の倫理的ジレンマを強調している。
論文 参考訳(メタデータ) (2025-04-27T15:21:38Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - Boardwalk Empire: How Generative AI is Revolutionizing Economic Paradigms [0.0]
深層生成モデル — 生成的および深層学習技術の統合 — は、既存のデータを分析することを越えて、新たなデータの作成に長けている。
設計、最適化、革新のサイクルを自動化することで、ジェネレーティブAIは、コア産業プロセスを変えようとしている。
金融セクターでは、リスクアセスメント、トレーディング戦略、予測を変革し、その大きな影響を示している。
論文 参考訳(メタデータ) (2024-10-19T20:57:16Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。