論文の概要: Making AI Inevitable: Historical Perspective and the Problems of Predicting Long-Term Technological Change
- arxiv url: http://arxiv.org/abs/2508.16692v1
- Date: Thu, 21 Aug 2025 21:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.126753
- Title: Making AI Inevitable: Historical Perspective and the Problems of Predicting Long-Term Technological Change
- Title(参考訳): AIを必然化する - 歴史的展望と長期的技術変化予測の課題-
- Authors: Mark Fisher, John Severini,
- Abstract要約: 人工知能が人間の社会に変革をもたらすかどうかについて、深い意見の相違に焦点が当てられている。
この研究は、この議論において2つの基本的なキャンプを区別することから始まる。
これは、転換論者または懐疑的な立場を正当化するために使われる幅広い異なる議論を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study demonstrates the extent to which prominent debates about the future of AI are best understood as subjective, philosophical disagreements over the history and future of technological change rather than as objective, material disagreements over the technologies themselves. It focuses on the deep disagreements over whether artificial general intelligence (AGI) will prove transformative for human society; a question that is analytically prior to that of whether this transformative effect will help or harm humanity. The study begins by distinguishing two fundamental camps in this debate. The first of these can be identified as "transformationalists," who argue that continued AI development will inevitably have a profound effect on society. Opposed to them are "skeptics," a more eclectic group united by their disbelief that AI can or will live up to such high expectations. Each camp admits further "strong" and "weak" variants depending on their tolerance for epistemic risk. These stylized contrasts help to identify a set of fundamental questions that shape the camps' respective interpretations of the future of AI. Three questions in particular are focused on: the possibility of non-biological intelligence, the appropriate time frame of technological predictions, and the assumed trajectory of technological development. In highlighting these specific points of non-technical disagreement, this study demonstrates the wide range of different arguments used to justify either the transformationalist or skeptical position. At the same time, it highlights the strong argumentative burden of the transformationalist position, the way that belief in this position creates competitive pressures to achieve first-mover advantage, and the need to widen the concept of "expertise" in debates surrounding the future development of AI.
- Abstract(参考訳): この研究は、AIの未来に関する顕著な議論が、客観的であるよりも、技術変革の歴史と未来について、主観的で哲学的な意見の相違として最もよく理解されているかを示している。
人工知能(AGI)が人間の社会にトランスフォーメーションをもたらすかどうかについての深い意見の相違に焦点が当てられている。
この研究は、この議論において2つの基本的なキャンプを区別することから始まる。
これらのうちの1つは「変革主義者」と同一視され、継続的なAI開発は必然的に社会に重大な影響を及ぼすと論じている。
彼らは「懐疑的」であり、AIがそのような高い期待に応えられるか、生きられるかという不信から、より折衝的なグループだ。
各キャンプは、疫病リスクに対する耐性に応じて、さらなる「強い」および「弱い」変種を認める。
これらのスタイル化されたコントラストは、キャンプのAIの未来に対する解釈を形作る基本的な質問のセットを特定するのに役立つ。
特に、非生物学的インテリジェンスの可能性、技術的予測の適切な時間枠、技術開発の軌跡が想定される3つの疑問に焦点が当てられている。
非技術的不一致のこれらの特定の点を強調するために、この研究は変換論者または懐疑的な立場を正当化するために使われる幅広い異なる議論を示す。
同時に、トランスフォーメーション主義的な立場の強い議論的な負担、この立場の信念が第一の優位性を達成するための競争的な圧力を生み出す方法、そしてAIの今後の発展に関する議論において「専門家」の概念を広げる必要性を強調している。
関連論文リスト
- The Societal Impact of Foundation Models: Advancing Evidence-based AI Policy [14.679051711850393]
論文は、AIの時代において、テクノロジーと社会がどのように共進化し、3つのテーマを中心に組織されたかを説明している。
第一に、概念的フレーミング(conceptual framing)は、幅広い経済において基盤モデルの基礎となる能力、リスク、サプライチェーンである。
第二に、概念的基盤を豊かにする実証的な洞察: モデルレベルでの評価と組織レベルでのインデックスを通じて生成される透明性。
第3に、理解から行動への転換:基礎モデルの社会的影響の優れた理解は、エビデンスベースのAIポリシーを前進させる。
論文 参考訳(メタデータ) (2025-06-29T07:16:48Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Artificial Intelligence from Idea to Implementation. How Can AI Reshape the Education Landscape? [0.0]
論文は、AI技術が理論的構成から、教育的アプローチや学生のエンゲージメントを変える実践的なツールへとどのように移行してきたかを示す。
このエッセイは、教育におけるAIの可能性について議論し、技術的進歩と社会的意味の両方を考慮するバランスのとれたアプローチの必要性を強調することで締めくくられている。
論文 参考訳(メタデータ) (2024-07-14T04:40:16Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Recognition of All Categories of Entities by AI [20.220102335024706]
本稿では,オントロジ・セクテットを包括的技術地図として見るための新たな議論的選択肢を提案する。
近い将来、AIは人間と同じ程度に様々な実体を認識できるようになると予測しています。
論文 参考訳(メタデータ) (2022-08-13T08:00:42Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。