論文の概要: Artificial Intelligent Disobedience: Rethinking the Agency of Our Artificial Teammates
- arxiv url: http://arxiv.org/abs/2506.22276v1
- Date: Fri, 27 Jun 2025 14:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.242537
- Title: Artificial Intelligent Disobedience: Rethinking the Agency of Our Artificial Teammates
- Title(参考訳): 人工知能の不服従:我々のチームメイト組織を再考する
- Authors: Reuth Mirsky,
- Abstract要約: 本稿では、AIチームメイトの代理店を知的不服従を含むよう拡張することを主張する。
AIエージェンシーのスケールを導入し、AI自律性を独立した研究対象として扱うことの重要性を強調する代表的な例を使用する。
- 参考スコア(独自算出の注目度): 3.7692411550925677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence has made remarkable strides in recent years, achieving superhuman performance across a wide range of tasks. Yet despite these advances, most cooperative AI systems remain rigidly obedient, designed to follow human instructions without question and conform to user expectations, even when doing so may be counterproductive or unsafe. This paper argues for expanding the agency of AI teammates to include \textit{intelligent disobedience}, empowering them to make meaningful and autonomous contributions within human-AI teams. It introduces a scale of AI agency levels and uses representative examples to highlight the importance and growing necessity of treating AI autonomy as an independent research focus in cooperative settings. The paper then explores how intelligent disobedience manifests across different autonomy levels and concludes by proposing initial boundaries and considerations for studying disobedience as a core capability of artificial agents.
- Abstract(参考訳): 近年、人工知能は目覚ましい進歩を遂げ、様々なタスクで超人的なパフォーマンスを実現している。
しかし、これらの進歩にもかかわらず、ほとんどの協力型AIシステムは厳格に従順であり、疑わしくなく人間の指示に従うように設計され、ユーザーの期待に応えている。
本稿では、AIチームメイトの代理店を「textit{intelligent disobedience}」に拡大し、人間-AIチーム内で有意義かつ自律的な貢献をするための権限を与える。
AI機関のスケールを導入し、代表的な例を使って、協力的な設定における独立した研究焦点として、AI自律性を扱うことの重要性と必要性を強調している。
この論文は、知的不服従が様々な自律レベルにまたがってどのように現れるのかを考察し、人工エージェントのコア能力としての不服従を研究するための初期境界と考察を提案して結論づける。
関連論文リスト
- The Ultimate Test of Superintelligent AI Agents: Can an AI Balance Care and Control in Asymmetric Relationships? [11.29688025465972]
シェパードテストは、超知能人工エージェントの道徳的および関係的な次元を評価するための新しい概念テストである。
私たちは、AIが知的エージェントを操作、育む、そして機器的に使用しない能力を示すときに、重要な、潜在的に危険な、知能のしきい値を越えることを主張する。
これには、自己利益と従属エージェントの幸福の間の道徳的なトレードオフを評価する能力が含まれる。
論文 参考訳(メタデータ) (2025-06-02T15:53:56Z) - The Philosophic Turn for AI Agents: Replacing centralized digital rhetoric with decentralized truth-seeking [0.0]
AI技術に直面すると、個人はますますAIエージェントに頼り、生活の複雑化をナビゲートするようになる。
本稿では、AI意思決定支援システムによって引き起こされる基本的なジレンマに対処する。
論文 参考訳(メタデータ) (2025-04-24T19:34:43Z) - A Basis for Human Responsibility in Artificial Intelligence Computation [0.0]
人工知能の最近の進歩は、AIの自律性の境界に関する疑問を再燃させた。
本稿では,GPT-4におけるアライメント研究センター実験の分析を通して,これらの境界について検討する。
思考実験とその対策を検討することで、人間のアクティベーションと目的の定義の必要性が、AIが人間によって開始された行動に固有の依存にどのように依存しているかを啓蒙する。
論文 参考訳(メタデータ) (2025-01-21T20:59:48Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI and the Sense of Self [0.0]
我々は、自己の認知的感覚と、責任ある行動につながる自律的な意思決定におけるその役割に焦点を当てる。
著者らは、AIエージェントのよりリッチな計算モデルを構築することに、より研究的な関心を抱くことを期待している。
論文 参考訳(メタデータ) (2022-01-07T10:54:06Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。