論文の概要: Exploring the Constraints on Artificial General Intelligence: A
Game-Theoretic No-Go Theorem
- arxiv url: http://arxiv.org/abs/2209.12346v2
- Date: Thu, 9 Nov 2023 23:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 18:40:33.087365
- Title: Exploring the Constraints on Artificial General Intelligence: A
Game-Theoretic No-Go Theorem
- Title(参考訳): 人工知能の制約を探る:ゲーム理論のno-go定理
- Authors: Mehmet S. Ismail
- Abstract要約: 本稿では,人間エージェントと潜在的スーパーヒューマンマシンエージェントとの戦略的相互作用を捉えるゲーム理論フレームワークを提案する。
私の分析は、超人的AIの理論的発展を形作ることのできるコンテキストの理解に寄与します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of increasingly sophisticated artificial intelligence (AI)
systems have sparked intense debate among researchers, policymakers, and the
public due to their potential to surpass human intelligence and capabilities in
all domains. In this paper, I propose a game-theoretic framework that captures
the strategic interactions between a human agent and a potential superhuman
machine agent. I identify four key assumptions: Strategic Unpredictability,
Access to Machine's Strategy, Rationality, and Superhuman Machine. The main
result of this paper is an impossibility theorem: these four assumptions are
inconsistent when taken together, but relaxing any one of them results in a
consistent set of assumptions. Two straightforward policy recommendations
follow: first, policymakers should control access to specific human data to
maintain Strategic Unpredictability; and second, they should grant select AI
researchers access to superhuman machine research to ensure Access to Machine's
Strategy holds. My analysis contributes to a better understanding of the
context that can shape the theoretical development of superhuman AI.
- Abstract(参考訳): 高度な人工知能(AI)システムの出現は、研究者、政策立案者、一般大衆の間で激しい議論を引き起こしている。
本稿では,人間エージェントと潜在的超人的マシンエージェントとの戦略的相互作用を捉えるゲーム理論の枠組みを提案する。
戦略的な予測不可能性、機械の戦略へのアクセス、合理性、超人的な機械である。
この論文の主な結果は不合理性定理(英語版)であり、これら4つの仮定は互いに一致しないが、いずれの仮定も緩和すると一貫した仮定となる。
第1に、政策立案者は戦略的な予測不可能性を維持するために特定の人間データへのアクセスを制御すべきであり、第2に、一部のai研究者にスーパーヒューマンマシン研究へのアクセスを許可し、マシンの戦略に確実にアクセスすること。
私の分析は、超人的AIの理論的発展を形作ることのできるコンテキストの理解に寄与します。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Artificial Intelligence: Arguments for Catastrophic Risk [0.0]
我々は、AIが破滅的なリスクにどう影響するかを示すために、2つの影響力ある議論をレビューする。
電力探究の問題の最初の議論は、先進的なAIシステムが危険な電力探究行動に関与する可能性が高いと主張している。
第2の主張は、人間レベルのAIの開発が、さらなる進歩を早めるだろう、というものである。
論文 参考訳(メタデータ) (2024-01-27T19:34:13Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Learning to Make Adherence-Aware Advice [9.197904496216598]
本稿では,人間の従順性を考慮した逐次意思決定モデルを提案する。
最適なアドバイスポリシーを学習し、重要なタイムスタンプでのみアドバイスを行う学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-10-01T23:15:55Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Explainable Artificial Intelligence Approaches: A Survey [0.22940141855172028]
人工知能ベースの「ブラックボックス」システム/モデルからの決定の説明力の欠如は、ハイステークアプリケーションでAIを採用するための重要な障害です。
相互ケーススタディ/タスクにより、一般的なXAI(Explainable Artificial Intelligence)手法を実証します。
競争優位性を多角的に分析します。
我々はXAIを媒体として、責任や人間中心のAIへの道を推奨する。
論文 参考訳(メタデータ) (2021-01-23T06:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。