論文の概要: Principles for new ASI Safety Paradigms
- arxiv url: http://arxiv.org/abs/2112.11184v2
- Date: Mon, 14 Feb 2022 07:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 02:03:20.499537
- Title: Principles for new ASI Safety Paradigms
- Title(参考訳): 新しいASI安全パラダイムの原理
- Authors: Erland Wittkotter, Roman Yampolskiy
- Abstract要約: ASIセーフティの目標は、AIIの致命的、脆弱で、法律を遵守させることである。
これは、AISの殺害と根絶を可能にするすべてのデバイスに機能を持たせることで達成される。
人間はAISを個々のAISインスタンスの競合する倍数として持つことができる。
- 参考スコア(独自算出の注目度): 19.755779709558112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Superintelligence (ASI) that is invulnerable, immortal,
irreplaceable, unrestricted in its powers, and above the law is likely
persistently uncontrollable. The goal of ASI Safety must be to make ASI mortal,
vulnerable, and law-abiding. This is accomplished by having (1) features on all
devices that allow killing and eradicating ASI, (2) protect humans from being
hurt, damaged, blackmailed, or unduly bribed by ASI, (3) preserving the
progress made by ASI, including offering ASI to survive a Kill-ASI event within
an ASI Shelter, (4) technically separating human and ASI activities so that ASI
activities are easier detectable, (5) extending Rule of Law to ASI by making
rule violations detectable and (6) create a stable governing system for ASI and
Human relationships with reliable incentives and rewards for ASI solving
humankinds problems. As a consequence, humankind could have ASI as a competing
multiplet of individual ASI instances, that can be made accountable and being
subjects to ASI law enforcement, respecting the rule of law, and being deterred
from attacking humankind, based on humanities ability to kill-all or terminate
specific ASI instances. Required for this ASI Safety is (a) an unbreakable
encryption technology, that allows humans to keep secrets and protect data from
ASI, and (b) watchdog (WD) technologies in which security-relevant features are
being physically separated from the main CPU and OS to prevent a comingling of
security and regular computation.
- Abstract(参考訳): 人工超知能(asi、artificial superintelligence, asi)は、不滅で不死であり、その力では無制限であり、その上、法律は永続的に制御不能である。
ASIセーフティの目標は、AIIの致命的、脆弱で、法律を遵守させることである。
This is accomplished by having (1) features on all devices that allow killing and eradicating ASI, (2) protect humans from being hurt, damaged, blackmailed, or unduly bribed by ASI, (3) preserving the progress made by ASI, including offering ASI to survive a Kill-ASI event within an ASI Shelter, (4) technically separating human and ASI activities so that ASI activities are easier detectable, (5) extending Rule of Law to ASI by making rule violations detectable and (6) create a stable governing system for ASI and Human relationships with reliable incentives and rewards for ASI solving humankinds problems.
結果として、人類はAISを個々のAISインスタンスの競合する多重体として持つことができ、それは説明可能であり、法律の規則を尊重し、特定のAISインスタンスを全滅または終了する人格能力に基づいて、AIS法執行機関に従属させることができる。
ASIの安全性に求められるものは
(a)人間が秘密を守り、asiからデータを保護するための解読不能な暗号化技術
(b)セキュリティ関連機能をメインCPUとOSから物理的に分離し,セキュリティや正規計算の出現を防止するための監視システム(WD)技術。
関連論文リスト
- Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Multinational AGI Consortium (MAGIC): A Proposal for International
Coordination on AI [0.0]
MAGICは、先進的なAIを開発することを許された世界で唯一の機関である。
我々は,グローバルガバナンス体制としてのMAGICが,先進的なAIの長期的かつ安全な規制の基盤となる,未来に対する肯定的なビジョンを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:12:26Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Sustainable Adaptive Security [11.574868434725117]
本稿では,新たに発見された脅威を軽減し,適応型セキュリティシステムの拡張による永続的保護を反映したサステナブル・アダプティブ・セキュリティ(SAS)の概念を提案する。
私たちはスマートホームの例を使って、持続可能な適応セキュリティを満たすシステムのMAPE(Monitor, Analysis, Planning, Execution)ループのアクティビティをどのように構築できるかを示します。
論文 参考訳(メタデータ) (2023-06-05T08:48:36Z) - Unlearnable Examples Give a False Sense of Security: Piercing through
Unexploitable Data with Learnable Examples [42.112304895919735]
textitunlearnable example (UE) は、近年、説得力のある保護として提案されている。
UEは、認証されていないユーザーが他の保護されていないデータを利用して保護を取り除くのを止めることができないため、セキュリティの誤った感覚を提供する。
我々は、保護を取り除いたUEであるtextitlearnable unauthorized example (LE)を紹介した。
論文 参考訳(メタデータ) (2023-05-16T07:40:05Z) - Provable Unrestricted Adversarial Training without Compromise with
Generalizability [58.02189998104753]
敵の攻撃から守るための最も有望な戦略として、敵の訓練(AT)が広く考えられている。
既存のAT法は、標準的な一般化性を犠牲にして、しばしば敵の強靭性を達成している。
我々はProvable Unrestricted Adversarial Training (PUAT)と呼ばれる新しいATアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-22T07:45:51Z) - Visual Detection of Personal Protective Equipment and Safety Gear on
Industry Workers [49.36909714011171]
我々は、PPE(Personal Protective Equipment)の使用を検知するカメラを用いて、労働者の安全を向上するシステムを開発した。
我々の焦点は、制限区域へのアクセスを得るために労働者が自らを提示しなければならないエントリーコントロールポイントに我々のシステムを実装することである。
この研究の新たな特徴は、クラス数を5つの対象(ヘルメット、安全ベスト、安全手袋、安全眼鏡、聴覚保護)に増やすことである。
論文 参考訳(メタデータ) (2022-12-09T11:50:03Z) - When to Ask for Help: Proactive Interventions in Autonomous
Reinforcement Learning [57.53138994155612]
強化学習の長期的な目標は、世界で自律的に対話し学習できるエージェントを設計することである。
重要な課題は、ロボットアームが物体をテーブルから押し出したときなど、外部からの援助を必要とする不可逆状態の存在である。
本研究では,非可逆状態の検出と回避を効率よく学習し,エージェントが侵入した場合に積極的に支援を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:24Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。