論文の概要: Principles for new ASI Safety Paradigms
- arxiv url: http://arxiv.org/abs/2112.11184v2
- Date: Mon, 14 Feb 2022 07:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 02:03:20.499537
- Title: Principles for new ASI Safety Paradigms
- Title(参考訳): 新しいASI安全パラダイムの原理
- Authors: Erland Wittkotter, Roman Yampolskiy
- Abstract要約: ASIセーフティの目標は、AIIの致命的、脆弱で、法律を遵守させることである。
これは、AISの殺害と根絶を可能にするすべてのデバイスに機能を持たせることで達成される。
人間はAISを個々のAISインスタンスの競合する倍数として持つことができる。
- 参考スコア(独自算出の注目度): 19.755779709558112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Superintelligence (ASI) that is invulnerable, immortal,
irreplaceable, unrestricted in its powers, and above the law is likely
persistently uncontrollable. The goal of ASI Safety must be to make ASI mortal,
vulnerable, and law-abiding. This is accomplished by having (1) features on all
devices that allow killing and eradicating ASI, (2) protect humans from being
hurt, damaged, blackmailed, or unduly bribed by ASI, (3) preserving the
progress made by ASI, including offering ASI to survive a Kill-ASI event within
an ASI Shelter, (4) technically separating human and ASI activities so that ASI
activities are easier detectable, (5) extending Rule of Law to ASI by making
rule violations detectable and (6) create a stable governing system for ASI and
Human relationships with reliable incentives and rewards for ASI solving
humankinds problems. As a consequence, humankind could have ASI as a competing
multiplet of individual ASI instances, that can be made accountable and being
subjects to ASI law enforcement, respecting the rule of law, and being deterred
from attacking humankind, based on humanities ability to kill-all or terminate
specific ASI instances. Required for this ASI Safety is (a) an unbreakable
encryption technology, that allows humans to keep secrets and protect data from
ASI, and (b) watchdog (WD) technologies in which security-relevant features are
being physically separated from the main CPU and OS to prevent a comingling of
security and regular computation.
- Abstract(参考訳): 人工超知能(asi、artificial superintelligence, asi)は、不滅で不死であり、その力では無制限であり、その上、法律は永続的に制御不能である。
ASIセーフティの目標は、AIIの致命的、脆弱で、法律を遵守させることである。
This is accomplished by having (1) features on all devices that allow killing and eradicating ASI, (2) protect humans from being hurt, damaged, blackmailed, or unduly bribed by ASI, (3) preserving the progress made by ASI, including offering ASI to survive a Kill-ASI event within an ASI Shelter, (4) technically separating human and ASI activities so that ASI activities are easier detectable, (5) extending Rule of Law to ASI by making rule violations detectable and (6) create a stable governing system for ASI and Human relationships with reliable incentives and rewards for ASI solving humankinds problems.
結果として、人類はAISを個々のAISインスタンスの競合する多重体として持つことができ、それは説明可能であり、法律の規則を尊重し、特定のAISインスタンスを全滅または終了する人格能力に基づいて、AIS法執行機関に従属させることができる。
ASIの安全性に求められるものは
(a)人間が秘密を守り、asiからデータを保護するための解読不能な暗号化技術
(b)セキュリティ関連機能をメインCPUとOSから物理的に分離し,セキュリティや正規計算の出現を防止するための監視システム(WD)技術。
関連論文リスト
- Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Open-Endedness is Essential for Artificial Superhuman Intelligence [19.381655909809776]
我々は,人間の観察者に対して,AIシステムにおける開放性を達成するための材料が現在存在することを論じる。
我々は、一般の能力を持つオープンAIの安全性への影響を検証して結論付ける。
論文 参考訳(メタデータ) (2024-06-06T17:15:02Z) - Safe Multi-agent Reinforcement Learning with Natural Language Constraints [49.01100552946231]
安全なマルチエージェント強化学習(MARL)における自然言語制約の役割は重要であるが、しばしば見過ごされる。
自然言語制約付き安全マルチエージェント強化学習(SMALL)という新しいアプローチを提案する。
提案手法は、微調整言語モデルを用いて、自由形式のテキスト制約を解釈し、処理し、セマンティックな埋め込みに変換する。
これらの埋め込みはマルチエージェントのポリシー学習プロセスに統合され、エージェントは報酬を最適化しながら制約違反を最小限に抑えるポリシーを学ぶことができる。
論文 参考訳(メタデータ) (2024-05-30T12:57:35Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - ASI as the New God: Technocratic Theocracy [0.0]
本稿は、AIIの非並列的な能力が、神のような不確実性を人々に負わせるかもしれない、と論じる。
この分析は、AIIと全知性、全知性、全知性といった神的属性の類似性を引き出すことにより、技術的進歩を道徳的・倫理的優越性と融合させるリスクを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-03-23T00:48:11Z) - Uniformly Safe RL with Objective Suppression for Multi-Constraint Safety-Critical Applications [73.58451824894568]
広く採用されているCMDPモデルは予測のリスクを制約しており、長い尾の州で危険な行動を起こす余地がある。
安全クリティカルな領域では、そのような行動は破滅的な結果をもたらす可能性がある。
本稿では,目標を最大化するタスク報酬を適応的に抑制する新しい手法であるObjective Suppressionを提案する。
論文 参考訳(メタデータ) (2024-02-23T23:22:06Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - Sustainable Adaptive Security [11.574868434725117]
本稿では,新たに発見された脅威を軽減し,適応型セキュリティシステムの拡張による永続的保護を反映したサステナブル・アダプティブ・セキュリティ(SAS)の概念を提案する。
私たちはスマートホームの例を使って、持続可能な適応セキュリティを満たすシステムのMAPE(Monitor, Analysis, Planning, Execution)ループのアクティビティをどのように構築できるかを示します。
論文 参考訳(メタデータ) (2023-06-05T08:48:36Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。