論文の概要: AI Risk Skepticism, A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2303.03885v1
- Date: Thu, 16 Feb 2023 16:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 03:39:34.914178
- Title: AI Risk Skepticism, A Comprehensive Survey
- Title(参考訳): AIリスク懐疑論 - 総合的な調査
- Authors: Vemir Michael Ambartsoumean, Roman V. Yampolskiy
- Abstract要約: この研究は、このトピックに関する異なる視点を考慮に入れ、科学で現れた他の形態の懐疑論と類似している。
我々は、AIの危険性に関する様々な懐疑論を、関係する誤った思考の種類によって分類する。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this thorough study, we took a closer look at the skepticism that has
arisen with respect to potential dangers associated with artificial
intelligence, denoted as AI Risk Skepticism. Our study takes into account
different points of view on the topic and draws parallels with other forms of
skepticism that have shown up in science. We categorize the various skepticisms
regarding the dangers of AI by the type of mistaken thinking involved. We hope
this will be of interest and value to AI researchers concerned about the future
of AI and the risks that it may pose. The issues of skepticism and risk in AI
are decidedly important and require serious consideration. By addressing these
issues with the rigor and precision of scientific research, we hope to better
understand the objections we face and to find satisfactory ways to resolve
them.
- Abstract(参考訳): この徹底的な研究で、人工知能に関連する潜在的な危険性に関して生じた懐疑論、すなわちaiリスク懐疑論について詳しく調べました。
本研究は,その話題に関する異なる視点を考慮に入れ,科学に現れた他の形態の懐疑論と類似している。
我々は、AIの危険性に関する様々な懐疑論を、関係する誤った思考の種類によって分類する。
AIの将来とそれが引き起こすリスクについて、AI研究者にとって、これが関心と価値になることを期待しています。
aiにおける懐疑論とリスクの問題は決定的に重要であり、真剣に検討する必要がある。
科学的研究の厳密さと正確さでこれらの問題に対処することで、我々は直面する異論をより深く理解し、それらを解決するための適切な方法を見つけることを望んでいる。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - AI Consciousness and Public Perceptions: Four Futures [0.0]
我々は、未来の人間社会が高度なAIシステムを意識していると広く信じているかどうかを調査する。
私たちは、AIの苦悩、人間の非エンパワーメント、地政学的な不安定、そして人間の絶望の4つの大きなリスクを特定します。
この論文は、意識的なAIを意図的に創出することを目的とした研究を避けるための主要な推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-08-08T22:01:57Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - AI Risk Skepticism [3.198144010381572]
まず、さまざまなタイプのAIリスク懐疑主義を分類し、その根本原因を分析します。
結論として,少なくとも人工知能研究者の間では,aiリスク懐疑論の低減に成功している可能性がある介入アプローチを提案する。
論文 参考訳(メタデータ) (2021-05-02T23:29:36Z) - AI Research Considerations for Human Existential Safety (ARCHES) [6.40842967242078]
負の言葉で言えば、我々は人類が次の世紀のAI開発から直面する現実的なリスクを問う。
Emphprepotenceという,仮説AI技術の鍵となる性質
その後、既存の安全に対する潜在的な利益のために、現代の研究方向の集合が検討される。
論文 参考訳(メタデータ) (2020-05-30T02:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。