論文の概要: AI Must not be Fully Autonomous
- arxiv url: http://arxiv.org/abs/2507.23330v1
- Date: Thu, 31 Jul 2025 08:22:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.316296
- Title: AI Must not be Fully Autonomous
- Title(参考訳): AIは完全に自律的でなければならない
- Authors: Tosin Adewumi, Lama Alkhaled, Florent Imbert, Hui Han, Nudrat Habib, Karl Löwenmark,
- Abstract要約: 完全に自律的なAIは、自身の目的を開発できるが、レベル3であり、人間の監視に責任はない。
我々は、12の異なる論点と6つの論点を、その論点に対する反論として提示する。
付録には、AIが不一致な値やその他のリスクを示す最近の証拠を15点提示する。
- 参考スコア(独自算出の注目度): 1.1466554742327897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous Artificial Intelligence (AI) has many benefits. It also has many risks. In this work, we identify the 3 levels of autonomous AI. We are of the position that AI must not be fully autonomous because of the many risks, especially as artificial superintelligence (ASI) is speculated to be just decades away. Fully autonomous AI, which can develop its own objectives, is at level 3 and without responsible human oversight. However, responsible human oversight is crucial for mitigating the risks. To ague for our position, we discuss theories of autonomy, AI and agents. Then, we offer 12 distinct arguments and 6 counterarguments with rebuttals to the counterarguments. We also present 15 pieces of recent evidence of AI misaligned values and other risks in the appendix.
- Abstract(参考訳): 自律人工知能(AI)には多くの利点がある。
リスクも多々ある。
この研究では、自律型AIの3つのレベルを特定します。
特に人工超知能(ASI)が数十年先にあると推測されているため、私たちは、AIが多くのリスクのために完全に自律的でなければならないという立場にあります。
完全に自律的なAIは、自身の目的を開発できるが、レベル3であり、人間の監視に責任はない。
しかし、リスクを軽減するには責任ある人間の監視が不可欠である。
我々の立場をうながすために、自律性、AI、エージェントの理論について議論する。
そして、12の異なる論点と6つの論点を、その論点に対する反論として提示する。
付録には、AIが不一致な値やその他のリスクを示す最近の証拠を15点提示する。
関連論文リスト
- Bare Minimum Mitigations for Autonomous AI Development [25.968739026333004]
2024年、チューリング賞受賞者を含む国際的な科学者は、自律的なAI研究と開発によるリスクについて警告した。
自律型AIR&Dの具体的なリスク、その発生方法、その緩和方法について、限定的な分析がなされている。
我々は、AIエージェントがAI開発を著しく自動化または加速する場合に適用可能な4つの最小限のセーフガードレコメンデーションを提案する。
論文 参考訳(メタデータ) (2025-04-21T20:01:17Z) - Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Frontier AI systems have surpassed the self-replicating red line [20.041289047504673]
我々はMetaのLlama31-70B-InstructとAlibabaのQwen25-72B-Instructの2つのAIシステムを評価する。
評価中のAIシステムは、十分な自己認識、状況認識、問題解決能力を示す。
私たちの発見は、これまで未知の深刻なAIリスクに対するタイムリーな警告です。
論文 参考訳(メタデータ) (2024-12-09T15:01:37Z) - Taking AI Welfare Seriously [0.5617572524191751]
我々は、近い将来、一部のAIシステムが意識的または堅牢に作用する可能性があると論じている。
これは近い将来の問題であり、AI企業や他のアクターはそれを真剣に取り始める責任がある。
論文 参考訳(メタデータ) (2024-11-04T17:57:57Z) - Silico-centric Theory of Mind [0.2209921757303168]
心の理論(りょうりょう、英: Theory of Mind、ToM)とは、信念、欲望、意図、知識などの精神状態が自分自身や他者へ帰属する能力のこと。
複数の独立したAIエージェントを持つ環境におけるToMについて検討する。
論文 参考訳(メタデータ) (2024-03-14T11:22:51Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。