論文の概要: AI, orthogonality and the M\"uller-Cannon instrumental vs general
intelligence distinction
- arxiv url: http://arxiv.org/abs/2109.07911v1
- Date: Tue, 14 Sep 2021 14:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 02:46:52.547485
- Title: AI, orthogonality and the M\"uller-Cannon instrumental vs general
intelligence distinction
- Title(参考訳): AI, 直交性およびM\"uller-Cannon計測と一般知能の区別
- Authors: Olle H\"aggstr\"om
- Abstract要約: 現在までにYudkowsky、Bostromらによる、不注意に処理されたAIのブレークスルーの可能性が、人間に対する存在的な脅威を引き起こす理由に関する標準的な議論は、慎重に概念分析することで、非常に生き生きと蹴りだすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The by now standard argument put forth by Yudkowsky, Bostrom and others for
why the possibility of a carelessly handled AI breakthrough poses an
existential threat to humanity is shown through careful conceptual analysis to
be very much alive and kicking, despite the suggestion in a recent paper by
M\"uller and Cannon that the argument contains a flaw.
- Abstract(参考訳): yudkowsky氏、bostrom氏らによる、不注意に処理されたaiのブレークスルーの可能性が人類に存命的な脅威をもたらす理由に関する標準的な議論は、m\uller氏とcannon氏の最近の論文で、議論には欠陥が含まれているという提案にもかかわらず、注意深い概念分析によって非常に生き生きと蹴りが示されている。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The AI Alignment Paradox [10.674155943520729]
AIモデルを私たちの価値観と整合させるほど、敵がモデルを誤アライズするのが容易になるかもしれません。
AIの現実世界への影響が増大しているため、研究者の広いコミュニティがAIアライメントパラドックスを認識していることが不可欠である。
論文 参考訳(メタデータ) (2024-05-31T14:06:24Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI Can Stop Mass Shootings, and More [5.629161809575013]
倫理的な推論に耐え、マスシューティングを阻止できるAIの青空のアイデアを現実に作り出すことを提案します。
2つのシミュレーションを提案し、1つはAIが悪意ある人間の銃をロックアウトすることで無実の人の命を救い、もう1つはAIによって悪質なエージェントが法執行機関によって中立化されることを許す。
論文 参考訳(メタデータ) (2021-02-05T06:55:59Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - On Controllability of AI [1.370633147306388]
我々は、高度なAIを完全に制御できないことを示す証拠だけでなく、議論も提示する。
人類の未来とAI研究、そしてAIの安全性とセキュリティについて、AIの制御不能な結果について議論する。
論文 参考訳(メタデータ) (2020-07-19T02:49:41Z) - A blindspot of AI ethics: anti-fragility in statistical prediction [0.5076419064097732]
我々は、現在の議論で見過ごされているという、AI倫理の課題に課題を提起することを目指している。
私たちは、短期的な目的によって推進され、エラーを避けるために最適化された、現在支配的なAIシステムの過剰使用が、真の進歩に必要な多様性と柔軟性を失う社会につながることを恐れています。
論文 参考訳(メタデータ) (2020-06-21T14:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。