論文の概要: NeuroAI for AI Safety
- arxiv url: http://arxiv.org/abs/2411.18526v1
- Date: Wed, 27 Nov 2024 17:18:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:27:57.991739
- Title: NeuroAI for AI Safety
- Title(参考訳): AI安全のためのニューロAI
- Authors: Patrick Mineault, Niccolò Zanichelli, Joanne Zichen Peng, Anton Arkhipov, Eli Bingham, Julian Jara-Ettinger, Emily Mackevicius, Adam Marblestone, Marcelo Mattar, Andrew Payne, Sophia Sanborn, Karen Schroeder, Zenna Tavares, Andreas Tolias,
- Abstract要約: 一般知能を持つ唯一のエージェントは人間である。
神経科学は、現在未調査で未使用の技術的AI安全性の重要な鍵を握るかもしれない。
我々は神経科学に触発されたAI安全性へのいくつかの道のりを強調し、批判的に評価する。
- 参考スコア(独自算出の注目度): 1.9573653858862774
- License:
- Abstract: As AI systems become increasingly powerful, the need for safe AI has become more pressing. Humans are an attractive model for AI safety: as the only known agents capable of general intelligence, they perform robustly even under conditions that deviate significantly from prior experiences, explore the world safely, understand pragmatics, and can cooperate to meet their intrinsic goals. Intelligence, when coupled with cooperation and safety mechanisms, can drive sustained progress and well-being. These properties are a function of the architecture of the brain and the learning algorithms it implements. Neuroscience may thus hold important keys to technical AI safety that are currently underexplored and underutilized. In this roadmap, we highlight and critically evaluate several paths toward AI safety inspired by neuroscience: emulating the brain's representations, information processing, and architecture; building robust sensory and motor systems from imitating brain data and bodies; fine-tuning AI systems on brain data; advancing interpretability using neuroscience methods; and scaling up cognitively-inspired architectures. We make several concrete recommendations for how neuroscience can positively impact AI safety.
- Abstract(参考訳): AIシステムがますます強力になるにつれて、安全なAIの必要性が高まっている。
人間はAIの安全性にとって魅力的なモデルである。汎用知能を持つ唯一の既知のエージェントとして、以前の経験から著しく逸脱した条件の下でも、堅牢に行動し、世界を安全に探索し、実用学を理解し、本質的な目標を達成するために協力することができる。
インテリジェンスと協力と安全メカニズムが組み合わさると、持続的な進歩と幸福をもたらす可能性がある。
これらの性質は、その実装する脳のアーキテクチャと学習アルゴリズムの機能である。
そのため、神経科学は、現在未調査で未使用の技術的AI安全性の重要な鍵を握る可能性がある。
このロードマップでは、脳の表現、情報処理、アーキテクチャをエミュレートすること、脳のデータと身体を模倣することによる堅牢な感覚と運動システムの構築、脳データに基づく微調整AIシステム、神経科学手法による解釈可能性の向上、認知にインスパイアされたアーキテクチャのスケールアップ、といった、神経科学にインスパイアされたAI安全性へのいくつかのパスを強調し、批判的に評価する。
我々は、神経科学がAIの安全性に肯定的な影響を及ぼす方法について、いくつかの具体的なレコメンデーションを行っている。
関連論文リスト
- Artificial Intelligence without Restriction Surpassing Human Intelligence with Probability One: Theoretical Insight into Secrets of the Brain with AI Twins of the Brain [20.956507640605093]
人工知能(AI)は、将来的には人間の知性を上回るように進化するのか?
本稿では、理論上、神経科学のための新しい細胞レベルのAI技術を持つ新しいAIツインが、脳とその機能システムに近似できることを示す。
本稿では,70年前にFrank Rosenblatt氏がAIの可能性について行った予想の有効性を間接的に証明する。
論文 参考訳(メタデータ) (2024-12-04T13:17:44Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Advancing Perception in Artificial Intelligence through Principles of
Cognitive Science [6.637438611344584]
我々は、周囲の信号を入力として取り、それを処理して環境を理解する、知覚の認知機能に焦点を当てる。
我々は、認知科学にインスパイアされたAIシステムを構築するために、AIに一連の方法を提案する。
論文 参考訳(メタデータ) (2023-10-13T01:21:55Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - To Root Artificial Intelligence Deeply in Basic Science for a New
Generation of AI [1.0152838128195467]
人工知能の野望の1つは、人工知能を基礎科学に深く根ざすことである。
本稿では,今後20年間の人工知能研究の課題について述べる。
論文 参考訳(メタデータ) (2020-09-11T22:38:38Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。