論文の概要: Scenarios and branch points to future machine intelligence
- arxiv url: http://arxiv.org/abs/2302.14478v3
- Date: Thu, 2 Mar 2023 13:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 17:32:02.583391
- Title: Scenarios and branch points to future machine intelligence
- Title(参考訳): シナリオと分岐点が未来のマシンインテリジェンスへ
- Authors: Koichi Takahashi
- Abstract要約: 我々は、将来のマシンインテリジェンスに関する4つの主要な結果に対するシナリオと分岐点について議論する。
本研究では,(1)自律性の制約,(2)自己構造の改善能力の制約,(3)熱力学的効率の制約,(4)物理的インフラの更新の制約,(5)相対的優位性の制約,(6)局所性に対する制約の6つを同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We discuss scenarios and branch points to four major possible consequences
regarding future machine intelligence; 1) the singleton scenario where the
first and only super-intelligence acquires a decisive strategic advantage, 2)
the multipolar scenario where the singleton scenario is not technically denied
but political or other factors in human society or multi-agent interactions
between the intelligent agents prevent a single agent from gaining a decisive
strategic advantage, 3) the ecosystem scenario where the singleton scenario is
denied and many autonomous intelligent agents operate in such a way that they
are interdependent and virtually unstoppable, and 4) the upper-bound scenario
where cognitive capabilities that can be achieved by human-designed intelligent
agents or their descendants are inherently limited to the sub-human level. We
identify six major constraints that can form branch points to these scenarios;
(1) constraints on autonomy, (2) constraints on the ability to improve
self-structure, (3) constraints related to thermodynamic efficiency, (4)
constraints on updating physical infrastructure, (5) constraints on relative
advantage, and (6) constraints on locality.
- Abstract(参考訳): 我々は、将来のマシンインテリジェンスに関する4つの主要な結果に対するシナリオと分岐点について議論する。
1) 第一および唯一の超知能が決定的な戦略的優位性を得るシングルトンシナリオ。
2 シングルトンシナリオが技術的に否定されるのではなく、人間の社会における政治的その他の要因、または知的エージェント間のマルチエージェント相互作用が単一のエージェントが決定的な戦略的優位性を得るのを妨げる多極性シナリオ。
3)シングルトンシナリオが否定され,多数の自律型知的エージェントが相互依存的かつ事実上停止不能な方法で運用されるエコシステムシナリオ
4) 人間の設計した知的エージェントやその子孫によって達成される認知能力が本質的に人間以下のレベルに限定される上界シナリオ。
本研究では,(1)自律性の制約,(2)自己構造の改善能力の制約,(3)熱力学的効率の制約,(4)物理的インフラの更新の制約,(5)相対的優位性の制約,(6)局所性に対する制約の6つを同定する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial Intelligence and Dual Contract [2.1756081703276]
独立したQ-ラーニングアルゴリズムを備えた2つのプリンシパルが1つのエージェントと対話するモデルを開発する。
その結果、AIプリンシパルの戦略的行動は、利益の整合性に決定的に左右されることがわかった。
論文 参考訳(メタデータ) (2023-03-22T07:31:44Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - Exploring the Constraints on Artificial General Intelligence: A
Game-Theoretic No-Go Theorem [0.0]
本稿では,人間エージェントと潜在的スーパーヒューマンマシンエージェントとの戦略的相互作用を捉えるゲーム理論フレームワークを提案する。
私の分析は、超人的AIの理論的発展を形作ることのできるコンテキストの理解に寄与します。
論文 参考訳(メタデータ) (2022-09-25T23:17:20Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Learning Behavioral Soft Constraints from Demonstrations [31.34800444313487]
本稿では,状態,行動,状態特徴に対する暗黙の厳密な制約を学習するための新しい逆強化学習法を提案する。
本手法は,エージェント設計者による明示的なモデリングを必要とせず,人的制約や欲求を暗黙的に学習することを可能にする。
論文 参考訳(メタデータ) (2022-02-21T18:09:56Z) - Making Human-Like Trade-offs in Constrained Environments by Learning
from Demonstrations [30.738257457765755]
本稿では,実証実験から暗黙の硬さと柔らかい制約を学習するための新しい逆強化学習法を提案する。
次に、制約学習法を用いて、競合する目的を編成する新しいシステムアーキテクチャを実装します。
提案するエージェントは,軌道長,違反した制約数,総報酬について評価し,エージェントアーキテクチャが汎用的かつ高い性能を示すことを示す。
論文 参考訳(メタデータ) (2021-09-22T20:12:01Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。