論文の概要: Shutdown Safety Valves for Advanced AI
- arxiv url: http://arxiv.org/abs/2603.07315v1
- Date: Sat, 07 Mar 2026 19:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.288002
- Title: Shutdown Safety Valves for Advanced AI
- Title(参考訳): 高度なAIのためのシャットダウン安全弁
- Authors: Vincent Conitzer,
- Abstract要約: 高度な人工知能に関する一般的な懸念の一つは、それをオフにするのを防ぐことだ。
本稿では,この問題に対処するための非正統な提案について論じる。
- 参考スコア(独自算出の注目度): 32.940397210858364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One common concern about advanced artificial intelligence is that it will prevent us from turning it off, as that would interfere with pursuing its goals. In this paper, we discuss an unorthodox proposal for addressing this concern: give the AI a (primary) goal of being turned off (see also papers by Martin et al., and by Goldstein and Robinson). We also discuss whether and under what conditions this would be a good idea.
- Abstract(参考訳): 高度な人工知能に関する一般的な懸念の一つは、その目標を追求するのを妨げるため、それをオフにしないことです。
本稿では,この問題に対処するための非正統な提案について議論する。AIをオフにする(Martin et al と Goldstein と Robinson の論文も参照)。
また、どのような条件下でこれが良いアイデアになるかどうかについても議論する。
関連論文リスト
- Why AI Safety Requires Uncertainty, Incomplete Preferences, and Non-Archimedean Utilities [42.55442413239192]
我々は、AIシステムが人間の価値観と一致し、安全であることを保証する方法を研究している。
AI支援問題は、人間が実用機能を最大限に活用するのに役立つAIエージェントを設計することに関わる。
シャットダウン問題は、シャットダウンボタンを押した時にシャットダウンするAIエージェントの設計に関わる。
論文 参考訳(メタデータ) (2025-12-29T14:47:05Z) - Ethics through the Facets of Artificial Intelligence [0.0]
懸念は、AIのぼやけた理解、どのように使用できるか、社会でどのように解釈されたかに起因している、と我々は主張する。
本稿では,AI利用の倫理的評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2025-07-22T21:21:37Z) - Giving AI a voice: how does AI think it should be treated? [0.0]
この章には、AIの権利と倫理に関するトピックに関する、人間とAIの簡単な会話が含まれている。
AIがテーブルにもたらす新しい質問やアングルは、私たちがこれまで考えていなかったかもしれない。
論文 参考訳(メタデータ) (2025-04-21T07:59:17Z) - The Partially Observable Off-Switch Game [7.567880819525154]
さまざまな目標を達成すれば、AIがオフスイッチを無効にできる可能性がある。
非対称情報を用いた閉鎖問題のゲーム理論モデルであるPartially Observable Off-Switch Game (PO-OSG) を導入する。
最適なプレイでは、完全に合理的な人間を支援するAIエージェントでさえ、シャットダウンを避けることがある。
論文 参考訳(メタデータ) (2024-11-25T14:09:48Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Low impact agency: review and discussion [0.0]
強力な人工知能は、AIがその目標を追求して世界を大きく変えることを決断した場合、現実的な脅威となる。
低影響の人工知能の望みは、AIがそれをしないよう動機づけることである。
論文 参考訳(メタデータ) (2023-03-06T13:55:42Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。