論文の概要: AI Consciousness and Existential Risk
- arxiv url: http://arxiv.org/abs/2511.19115v1
- Date: Mon, 24 Nov 2025 13:48:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.225014
- Title: AI Consciousness and Existential Risk
- Title(参考訳): AIの意識と現実的リスク
- Authors: Rufin VanRullen,
- Abstract要約: AIでは、存在リスクは、人間性を根絶する能力と目的の両方を持つ人工システムによって引き起こされる仮説上の脅威を意味する。
AI意識と生存リスクという2つの質問は、前者が後者に関係しているかのように、時に混同される。
この見解は、意識と知性の共通した混同に由来すると説明します。
しかし、いずれの方向にも、意識が生存リスクに影響を与えるような偶然のシナリオがある。
- 参考スコア(独自算出の注目度): 8.264344308830797
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In AI, the existential risk denotes the hypothetical threat posed by an artificial system that would possess both the capability and the objective, either directly or indirectly, to eradicate humanity. This issue is gaining prominence in scientific debate due to recent technical advancements and increased media coverage. In parallel, AI progress has sparked speculation and studies about the potential emergence of artificial consciousness. The two questions, AI consciousness and existential risk, are sometimes conflated, as if the former entailed the latter. Here, I explain that this view stems from a common confusion between consciousness and intelligence. Yet these two properties are empirically and theoretically distinct. Arguably, while intelligence is a direct predictor of an AI system's existential threat, consciousness is not. There are, however, certain incidental scenarios in which consciousness could influence existential risk, in either direction. Consciousness could be viewed as a means towards AI alignment, thereby lowering existential risk; or, it could be a precondition for reaching certain capabilities or levels of intelligence, and thus positively related to existential risk. Recognizing these distinctions can help AI safety researchers and public policymakers focus on the most pressing issues.
- Abstract(参考訳): AIでは、存在リスクは、人間性を根絶するために直接的または間接的に、能力と目的の両方を持つ人工システムによって引き起こされる仮説上の脅威を意味する。
この問題は、最近の技術進歩とメディアの報道の増加により、科学的な議論で注目を集めている。
並行して、AIの進歩は、人工意識の潜在的な出現に関する憶測や研究を引き起こした。
AI意識と生存リスクという2つの質問は、前者が後者に関係しているかのように、時に混同される。
ここでは、この見解は意識と知性の共通した混同に由来すると説明する。
しかし、これらの2つの性質は経験的かつ理論的に異なる。
知性はAIシステムの実在する脅威の直接的な予測要因であることは間違いないが、意識はそうではない。
しかし、いずれの方向にも、意識が生存リスクに影響を与えるような偶然のシナリオがある。
意識はAIアライメントの手段と見なすことができ、それによって存在リスクを低くすることができる; あるいは、特定の能力や知能レベルに達するための前提条件であり、したがって存在リスクに肯定的な関係がある。
これらの区別を認識すれば、AIの安全性研究者や公共政策立案者が最も厳しい問題に集中するのに役立つ。
関連論文リスト
- AI Awareness [8.537898577659401]
我々は、メタ認知、自己認識、社会的認識、状況認識を含む、AI認知の新たな展望を考察する。
AIの安全性、アライメント、より広範な倫理的懸念など、AIの認識に関連するリスクについて議論する。
論文 参考訳(メタデータ) (2025-04-25T16:03:50Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - AI Consciousness and Public Perceptions: Four Futures [0.0]
我々は、未来の人間社会が高度なAIシステムを意識していると広く信じているかどうかを調査する。
私たちは、AIの苦悩、人間の非エンパワーメント、地政学的な不安定、そして人間の絶望の4つの大きなリスクを特定します。
この論文は、意識的なAIを意図的に創出することを目的とした研究を避けるための主要な推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-08-08T22:01:57Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積的な視点は、AIリスクに関する一見互換性のない視点を調整できる、と氏は主張する。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。