論文の概要: Arguments about Highly Reliable Agent Designs as a Useful Path to
Artificial Intelligence Safety
- arxiv url: http://arxiv.org/abs/2201.02950v1
- Date: Sun, 9 Jan 2022 07:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 16:47:51.590537
- Title: Arguments about Highly Reliable Agent Designs as a Useful Path to
Artificial Intelligence Safety
- Title(参考訳): 人工知能の安全性のための高信頼性エージェント設計の課題
- Authors: Issa Rice, David Manheim
- Abstract要約: HRAD(Highly Reliable Agent Designs)は、最も議論の的かつ野心的なアプローチの一つである。
我々は,(1)付随効用,(2)脱融合,(3)正確な仕様,(4)予測の議論をタイトルにした。
本稿では,出版・非公式文献のレビューに基づいて,その前提と主張を論じるとともに,その話題に関する立場を述べた専門家も紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Several different approaches exist for ensuring the safety of future
Transformative Artificial Intelligence (TAI) or Artificial Superintelligence
(ASI) systems, and proponents of different approaches have made different and
debated claims about the importance or usefulness of their work in the near
term, and for future systems. Highly Reliable Agent Designs (HRAD) is one of
the most controversial and ambitious approaches, championed by the Machine
Intelligence Research Institute, among others, and various arguments have been
made about whether and how it reduces risks from future AI systems. In order to
reduce confusion in the debate about AI safety, here we build on a previous
discussion by Rice which collects and presents four central arguments which are
used to justify HRAD as a path towards safety of AI systems.
We have titled the arguments (1) incidental utility,(2) deconfusion, (3)
precise specification, and (4) prediction. Each of these makes different,
partly conflicting claims about how future AI systems can be risky. We have
explained the assumptions and claims based on a review of published and
informal literature, along with consultation with experts who have stated
positions on the topic. Finally, we have briefly outlined arguments against
each approach and against the agenda overall.
- Abstract(参考訳): 将来のトランスフォーメーション人工知能(tai)やasi(artificial superintelligence)システムの安全性を確保するために、いくつかの異なるアプローチが存在しており、異なるアプローチの支持者は、近未来における彼らの仕事の重要性や有用性、将来のシステムについて異論を唱えている。
高い信頼性を持つエージェントデザイン(hrad)は、マシンインテリジェンス研究所などによって提唱された最も議論の的となっている野心的なアプローチの1つであり、将来のaiシステムからリスクを低減させるかどうかについて様々な議論がなされている。
AIの安全性に関する議論の混乱を軽減するため、ここでは、AIシステムの安全性への道筋としてHRADを正当化するために使用される4つの中心的な議論を集め、提示するライスによる以前の議論に基づいて構築する。
我々は,(1)付随効用,(2)脱融合,(3)正確な仕様,(4)予測の議論をタイトルにした。
これらのそれぞれが、将来のAIシステムがいかに危険であるかについて、部分的に矛盾する主張をしている。
我々は,出版文献と非公式文献のレビューと,その話題に関する立場を述べた専門家との相談に基づいて,仮定と主張を説明してきた。
最後に,それぞれのアプローチに対する議論と,アジェンダ全体に対する議論を概説した。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Modeling Transformative AI Risks (MTAIR) Project -- Summary Report [0.0]
このレポートは、Cottier氏とShah氏による以前の図に基づいており、いくつかの説明とともに、視覚的に重要な不一致(クラックス)をいくつか説明した。
このモデルは、アナロジーと人工知能に関する一般的な以前の信念による推論に関する議論から始まる。
さまざまなパスのモデルをレイアウトし、ハイレベルなマシンインテリジェンスのためのテクノロジーと、これらのシステムの能力の進歩のモデルを構築している。
このモデルは、学習した最適化の問題や、機械学習システムがメザ最適化を作成するかどうかについても特に注目している。
論文 参考訳(メタデータ) (2022-06-19T09:11:23Z) - X-Risk Analysis for AI Research [24.78742908726579]
我々は、AI x-riskの分析方法のガイドを提供する。
まず、今日のシステムの安全性についてレビューする。
次に,今後のシステムの安全性に長期的影響を与える戦略について議論する。
論文 参考訳(メタデータ) (2022-06-13T00:22:50Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Hard Choices in Artificial Intelligence [0.8594140167290096]
この曖昧さは数学的形式主義だけでは解決できないことを示す。
この曖昧さは数学的形式主義だけでは解決できないことを示す。
論文 参考訳(メタデータ) (2021-06-10T09:49:34Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Transdisciplinary AI Observatory -- Retrospective Analyses and
Future-Oriented Contradistinctions [22.968817032490996]
本稿では、本質的に学際的なAI観測アプローチの必要性を動機づける。
これらのAI観測ツールに基づいて、我々はAIの安全性に関する短期的な学際的ガイドラインを提示する。
論文 参考訳(メタデータ) (2020-11-26T16:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。