論文の概要: How Do AI Timelines Affect Existential Risk?
- arxiv url: http://arxiv.org/abs/2209.05459v1
- Date: Tue, 30 Aug 2022 15:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:06:45.760324
- Title: How Do AI Timelines Affect Existential Risk?
- Title(参考訳): AIのタイムラインは既存のリスクにどのように影響するか?
- Authors: Stephen McAleese
- Abstract要約: 超知能AI(ASI)作成の遅れは、AIアライメント問題に人類が取り組む時間を増やすことによって、全体の生存リスクを減少させる可能性がある。
ASIは、ほとんどのリスクを減らすことができるため、ASIの作成の遅れは、他の既存のリスクを増大させる可能性がある。
戦争やハードウェアのオーバーハングといった他の要因は、AIのリスクを増大させ、認知の強化はAIのリスクを減少させる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Superhuman artificial general intelligence could be created this century and
would likely be a significant source of existential risk. Delaying the creation
of superintelligent AI (ASI) could decrease total existential risk by
increasing the amount of time humanity has to work on the AI alignment problem.
However, since ASI could reduce most risks, delaying the creation of ASI
could also increase other existential risks, especially from advanced future
technologies such as synthetic biology and molecular nanotechnology.
If AI existential risk is high relative to the sum of other existential risk,
delaying the creation of ASI will tend to decrease total existential risk and
vice-versa.
Other factors such as war and a hardware overhang could increase AI risk and
cognitive enhancement could decrease AI risk. To reduce total existential risk,
humanity should take robustly positive actions such as working on existential
risk analysis, AI governance and safety, and reducing all sources of
existential risk by promoting differential technological development.
- Abstract(参考訳): 超人的な人工知能は、今世紀中に生み出される可能性があり、存在リスクの重要な源になるだろう。
超知能AI(ASI)作成の遅れは、AIアライメント問題に人類が取り組む時間を増やすことによって、全体の生存リスクを減少させる可能性がある。
しかし、AISはほとんどのリスクを低減できるため、AISの作成の遅れは、特に合成生物学や分子ナノテクノロジーといった先進的な技術から、他の既存のリスクを増大させる可能性がある。
AI存在リスクが他の存在リスクの総和と比較して高い場合、AISの作成が遅れると、全体の存在リスクと逆転が減少する傾向にある。
戦争やハードウェアのオーバーハングといった他の要因は、AIのリスクを増大させ、認知の強化はAIのリスクを減少させる可能性がある。
総合的な存在リスクを減らすために、人間は、存在リスク分析、AIガバナンス、安全に取り組むこと、そして、異なる技術開発を促進することで存在リスクのすべての源を減らすことなど、強固にポジティブな行動をとるべきである。
関連論文リスト
- Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積仮説は、インクリメンタルなAIリスクが徐々に収束し、トリガーイベントが不可逆的な崩壊をもたらすまでレジリエンスを損なう、沸騰するカエルのシナリオを示唆している。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - On the Unimportance of Superintelligence [0.0]
スーパーインテリジェンスのリスクを軽減するため、資源配分の優先順位を分析します。
第1部は、外部に接続されていない超知能が脅威を及ぼさないことを観察する。
第2部では、バイオテクノロジーが周辺システムに高いリスクを負うことを提案する。
論文 参考訳(メタデータ) (2021-08-30T01:23:25Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。