論文の概要: AI & Human Co-Improvement for Safer Co-Superintelligence
- arxiv url: http://arxiv.org/abs/2512.05356v1
- Date: Fri, 05 Dec 2025 01:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.861285
- Title: AI & Human Co-Improvement for Safer Co-Superintelligence
- Title(参考訳): AIとヒューマン・コインプロビテーション : より安全なコスーパーインテリジェンスのための
- Authors: Jason Weston, Jakob Foerster,
- Abstract要約: 我々は、人類にとってより達成可能なより良いゴールは、共同改善を最大化することである、と主張する。
具体的には、人間の研究者と協力してAI研究を行うAIシステムの能力を改善することを目的としている。
- 参考スコア(独自算出の注目度): 34.07423327792328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-improvement is a goal currently exciting the field of AI, but is fraught with danger, and may take time to fully achieve. We advocate that a more achievable and better goal for humanity is to maximize co-improvement: collaboration between human researchers and AIs to achieve co-superintelligence. That is, specifically targeting improving AI systems' ability to work with human researchers to conduct AI research together, from ideation to experimentation, in order to both accelerate AI research and to generally endow both AIs and humans with safer superintelligence through their symbiosis. Focusing on including human research improvement in the loop will both get us there faster, and more safely.
- Abstract(参考訳): 自己改善は、現在AIの分野でエキサイティングな目標だが、危険に満ちており、完全に達成するには時間がかかるかもしれない。
我々は、人類にとってより達成可能なより良いゴールは、共同改善を最大化することである、と主張する。
具体的には、AI研究を加速し、共生を通じてより安全な超知能を持つAIと人間の両方を一般に支援するために、人間の研究者と協力してAI研究を行うAIシステムの能力を改善することを目的としている。
人間の研究改善をループに含めることに集中すれば、より速く、より安全にそこに到達できます。
関連論文リスト
- Human-AI Complementarity: A Goal for Amplified Oversight [2.7005766101211663]
本稿では,人間の監視の質を向上させるためにAIを活用する方法について検討する。
AIレーティングと人間のレーティングをAIレーダの信頼性に基づいて組み合わせた方が、どちらも頼りにしているよりも優れていることが分かりました。
論文 参考訳(メタデータ) (2025-10-30T14:11:52Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - Positive AI: Key Challenges in Designing Artificial Intelligence for
Wellbeing [0.5461938536945723]
多くの人々は、AIが自分の生活に与える影響をますます心配しています。
AIの進歩を確実にするために、一部の研究者はAIを統治する鍵となる目的として「幸福」を提案した。
この記事では、幸福のためにAIを設計する際の重要な課題に対処する。
論文 参考訳(メタデータ) (2023-04-12T12:43:00Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。