論文の概要: AI, orthogonality and the M\"uller-Cannon instrumental vs general
intelligence distinction
- arxiv url: http://arxiv.org/abs/2109.07911v1
- Date: Tue, 14 Sep 2021 14:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 02:46:52.547485
- Title: AI, orthogonality and the M\"uller-Cannon instrumental vs general
intelligence distinction
- Title(参考訳): AI, 直交性およびM\"uller-Cannon計測と一般知能の区別
- Authors: Olle H\"aggstr\"om
- Abstract要約: 現在までにYudkowsky、Bostromらによる、不注意に処理されたAIのブレークスルーの可能性が、人間に対する存在的な脅威を引き起こす理由に関する標準的な議論は、慎重に概念分析することで、非常に生き生きと蹴りだすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The by now standard argument put forth by Yudkowsky, Bostrom and others for
why the possibility of a carelessly handled AI breakthrough poses an
existential threat to humanity is shown through careful conceptual analysis to
be very much alive and kicking, despite the suggestion in a recent paper by
M\"uller and Cannon that the argument contains a flaw.
- Abstract(参考訳): yudkowsky氏、bostrom氏らによる、不注意に処理されたaiのブレークスルーの可能性が人類に存命的な脅威をもたらす理由に関する標準的な議論は、m\uller氏とcannon氏の最近の論文で、議論には欠陥が含まれているという提案にもかかわらず、注意深い概念分析によって非常に生き生きと蹴りが示されている。
関連論文リスト
- Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - AI Can Stop Mass Shootings, and More [5.629161809575013]
倫理的な推論に耐え、マスシューティングを阻止できるAIの青空のアイデアを現実に作り出すことを提案します。
2つのシミュレーションを提案し、1つはAIが悪意ある人間の銃をロックアウトすることで無実の人の命を救い、もう1つはAIによって悪質なエージェントが法執行機関によって中立化されることを許す。
論文 参考訳(メタデータ) (2021-02-05T06:55:59Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - On Controllability of AI [1.370633147306388]
我々は、高度なAIを完全に制御できないことを示す証拠だけでなく、議論も提示する。
人類の未来とAI研究、そしてAIの安全性とセキュリティについて、AIの制御不能な結果について議論する。
論文 参考訳(メタデータ) (2020-07-19T02:49:41Z) - Artificial Stupidity [0.0]
AIに関する議論は、AIが超人的になり、人間のコントロールから逃れる恐れであるフランケンシュタイン症候群に支配されている。
この記事では、メアリー・シェリーの1818年の有名な小説におけるフランケンシュタイン症候群のルーツについて論じる。
現代の知的システムは「判断の便宜」に苦しむことができることを示している。
論文 参考訳(メタデータ) (2020-07-02T00:37:23Z) - A blindspot of AI ethics: anti-fragility in statistical prediction [0.5076419064097732]
我々は、現在の議論で見過ごされているという、AI倫理の課題に課題を提起することを目指している。
私たちは、短期的な目的によって推進され、エラーを避けるために最適化された、現在支配的なAIシステムの過剰使用が、真の進歩に必要な多様性と柔軟性を失う社会につながることを恐れています。
論文 参考訳(メタデータ) (2020-06-21T14:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。