論文の概要: Two Types of AI Existential Risk: Decisive and Accumulative
- arxiv url: http://arxiv.org/abs/2401.07836v2
- Date: Tue, 6 Feb 2024 21:50:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:09:43.253692
- Title: Two Types of AI Existential Risk: Decisive and Accumulative
- Title(参考訳): AI既存リスクの2つのタイプ:決定的かつ累積的
- Authors: Atoosa Kasirzadeh
- Abstract要約: 本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積仮説は、インクリメンタルなAIリスクが徐々に収束し、トリガーイベントが不可逆的な崩壊をもたらすまでレジリエンスを損なう、沸騰するカエルのシナリオを示唆している。
- 参考スコア(独自算出の注目度): 3.5051464966389116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The conventional discourse on existential risks (x-risks) from AI typically
focuses on abrupt, dire events caused by advanced AI systems, particularly
those that might achieve or surpass human-level intelligence. These events have
severe consequences that either lead to human extinction or irreversibly
cripple human civilization to a point beyond recovery. This discourse, however,
often neglects the serious possibility of AI x-risks manifesting incrementally
through a series of smaller yet interconnected disruptions, gradually crossing
critical thresholds over time. This paper contrasts the conventional "decisive
AI x-risk hypothesis" with an "accumulative AI x-risk hypothesis." While the
former envisions an overt AI takeover pathway, characterized by scenarios like
uncontrollable superintelligence, the latter suggests a different causal
pathway to existential catastrophes. This involves a gradual accumulation of
critical AI-induced threats such as severe vulnerabilities and systemic erosion
of econopolitical structures. The accumulative hypothesis suggests a boiling
frog scenario where incremental AI risks slowly converge, undermining
resilience until a triggering event results in irreversible collapse. Through
systems analysis, this paper examines the distinct assumptions differentiating
these two hypotheses. It is then argued that the accumulative view reconciles
seemingly incompatible perspectives on AI risks. The implications of
differentiating between these causal pathways -- the decisive and the
accumulative -- for the governance of AI risks as well as long-term AI safety
are discussed.
- Abstract(参考訳): AIからの現実的リスク(xリスク)に関する従来の談話は、一般的には、高度なAIシステム、特に人間レベルの知性を達成したり、超えたりすることによる、突発的で恐ろしい出来事に焦点を当てている。
これらの出来事は、人類の絶滅に繋がる深刻な結果をもたらすか、あるいは不可逆的に人間の文明を回復の限界まで破壊する。
しかし、この談話はしばしば、より小さく相互接続された一連の混乱を通じて徐々に現れるai x-リスクの深刻な可能性を無視し、徐々に臨界しきい値を超えていく。
本稿では,従来の「決定的ai x-risk仮説」と「蓄積的ai x-risk仮説」を対比する。
前者は、制御不能な超知能のようなシナリオを特徴とする、AIによる過剰な乗っ取り経路を想定しているが、後者は、実在する災害に対する別の因果経路を示唆している。
これには、深刻な脆弱性やエコノポリティカルな構造の体系的侵食など、AIによって引き起こされる脅威が徐々に蓄積される。
累積仮説は、インクリメンタルaiのリスクがゆっくりと収束し、引き起こされる事象が不可逆的な崩壊に至るまでレジリエンスを損なう、沸騰するカエルシナリオを示唆する。
システム分析を通じて,これら2つの仮説を区別する明確な仮定について検討する。
累積的な視点は、AIリスクに関する一見互換性のない視点を一致させる、と論じられている。
これらの因果経路 – 決定的かつ累積的 – との違いが,AIリスクのガバナンスや長期的なAI安全性に与える影響について論じる。
関連論文リスト
- The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Capsa: A Unified Framework for Quantifying Risk in Deep Neural Networks [142.67349734180445]
ディープニューラルネットワークにリスク認識を提供する既存のアルゴリズムは複雑でアドホックである。
ここでは、リスク認識でモデルを拡張するためのフレームワークであるcapsaを紹介します。
論文 参考訳(メタデータ) (2023-08-01T02:07:47Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - How Do AI Timelines Affect Existential Risk? [0.0]
超知能AI(ASI)作成の遅れは、AIアライメント問題に人類が取り組む時間を増やすことによって、全体の生存リスクを減少させる可能性がある。
ASIは、ほとんどのリスクを減らすことができるため、ASIの作成の遅れは、他の既存のリスクを増大させる可能性がある。
戦争やハードウェアのオーバーハングといった他の要因は、AIのリスクを増大させ、認知の強化はAIのリスクを減少させる可能性がある。
論文 参考訳(メタデータ) (2022-08-30T15:49:11Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。