論文の概要: Exploring the Constraints on Artificial General Intelligence: A
Game-Theoretic No-Go Theorem
- arxiv url: http://arxiv.org/abs/2209.12346v2
- Date: Thu, 9 Nov 2023 23:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 18:40:33.087365
- Title: Exploring the Constraints on Artificial General Intelligence: A
Game-Theoretic No-Go Theorem
- Title(参考訳): 人工知能の制約を探る:ゲーム理論のno-go定理
- Authors: Mehmet S. Ismail
- Abstract要約: 本稿では,人間エージェントと潜在的スーパーヒューマンマシンエージェントとの戦略的相互作用を捉えるゲーム理論フレームワークを提案する。
私の分析は、超人的AIの理論的発展を形作ることのできるコンテキストの理解に寄与します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of increasingly sophisticated artificial intelligence (AI)
systems have sparked intense debate among researchers, policymakers, and the
public due to their potential to surpass human intelligence and capabilities in
all domains. In this paper, I propose a game-theoretic framework that captures
the strategic interactions between a human agent and a potential superhuman
machine agent. I identify four key assumptions: Strategic Unpredictability,
Access to Machine's Strategy, Rationality, and Superhuman Machine. The main
result of this paper is an impossibility theorem: these four assumptions are
inconsistent when taken together, but relaxing any one of them results in a
consistent set of assumptions. Two straightforward policy recommendations
follow: first, policymakers should control access to specific human data to
maintain Strategic Unpredictability; and second, they should grant select AI
researchers access to superhuman machine research to ensure Access to Machine's
Strategy holds. My analysis contributes to a better understanding of the
context that can shape the theoretical development of superhuman AI.
- Abstract(参考訳): 高度な人工知能(AI)システムの出現は、研究者、政策立案者、一般大衆の間で激しい議論を引き起こしている。
本稿では,人間エージェントと潜在的超人的マシンエージェントとの戦略的相互作用を捉えるゲーム理論の枠組みを提案する。
戦略的な予測不可能性、機械の戦略へのアクセス、合理性、超人的な機械である。
この論文の主な結果は不合理性定理(英語版)であり、これら4つの仮定は互いに一致しないが、いずれの仮定も緩和すると一貫した仮定となる。
第1に、政策立案者は戦略的な予測不可能性を維持するために特定の人間データへのアクセスを制御すべきであり、第2に、一部のai研究者にスーパーヒューマンマシン研究へのアクセスを許可し、マシンの戦略に確実にアクセスすること。
私の分析は、超人的AIの理論的発展を形作ることのできるコンテキストの理解に寄与します。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Attaining Human`s Desirable Outcomes in Human-AI Interaction via Structural Causal Games [34.34801907296059]
人間とAIの相互作用において、顕著なゴールは、AIエージェントの助けを借りて、人間が望ましい結果を達成することである。
我々は、人間とAIの対話プロセスを形式化するために、構造因果ゲーム(SCG)と呼ばれる理論的枠組みを用いる。
我々は、AIエージェントを操り、人間に望ましい結果を得るための、SCGに対する事前政治介入と呼ばれる戦略を導入する。
論文 参考訳(メタデータ) (2024-05-26T14:42:49Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Learning to Make Adherence-Aware Advice [8.419688203654948]
本稿では,人間の従順性を考慮した逐次意思決定モデルを提案する。
最適なアドバイスポリシーを学習し、重要なタイムスタンプでのみアドバイスを行う学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-10-01T23:15:55Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Explainable Artificial Intelligence Approaches: A Survey [0.22940141855172028]
人工知能ベースの「ブラックボックス」システム/モデルからの決定の説明力の欠如は、ハイステークアプリケーションでAIを採用するための重要な障害です。
相互ケーススタディ/タスクにより、一般的なXAI(Explainable Artificial Intelligence)手法を実証します。
競争優位性を多角的に分析します。
我々はXAIを媒体として、責任や人間中心のAIへの道を推奨する。
論文 参考訳(メタデータ) (2021-01-23T06:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。