論文の概要: Open Questions in Creating Safe Open-ended AI: Tensions Between Control
and Creativity
- arxiv url: http://arxiv.org/abs/2006.07495v1
- Date: Fri, 12 Jun 2020 22:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:14:58.306005
- Title: Open Questions in Creating Safe Open-ended AI: Tensions Between Control
and Creativity
- Title(参考訳): 安全なオープンエンドAIを作るためのオープンな質問 - コントロールとクリエイティビティの緊張
- Authors: Adrien Ecoffet and Jeff Clune and Joel Lehman
- Abstract要約: オープンエンド進化と人工生命は、オープンエンドAIの理解に大きく貢献している。
本稿では、オープンエンドAIには、オープンエンドシステムの創造性を生産的かつ予測的に制御できるかどうかという、独自の安全性上の課題がある、と論じる。
- 参考スコア(独自算出の注目度): 15.60659580411643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial life originated and has long studied the topic of open-ended
evolution, which seeks the principles underlying artificial systems that
innovate continually, inspired by biological evolution. Recently, interest has
grown within the broader field of AI in a generalization of open-ended
evolution, here called open-ended search, wherein such questions of
open-endedness are explored for advancing AI, whatever the nature of the
underlying search algorithm (e.g. evolutionary or gradient-based). For example,
open-ended search might design new architectures for neural networks, new
reinforcement learning algorithms, or most ambitiously, aim at designing
artificial general intelligence. This paper proposes that open-ended evolution
and artificial life have much to contribute towards the understanding of
open-ended AI, focusing here in particular on the safety of open-ended search.
The idea is that AI systems are increasingly applied in the real world, often
producing unintended harms in the process, which motivates the growing field of
AI safety. This paper argues that open-ended AI has its own safety challenges,
in particular, whether the creativity of open-ended systems can be productively
and predictably controlled. This paper explains how unique safety problems
manifest in open-ended search, and suggests concrete contributions and research
questions to explore them. The hope is to inspire progress towards creative,
useful, and safe open-ended search algorithms.
- Abstract(参考訳): 人工生命は、生物学的進化にインスパイアされた、継続的に革新する人工システムの基礎となる原理を探求するオープンエンド進化のトピックを、長い間研究してきた。
近年、オープン・エンド・サーチ(open-ended search)と呼ばれるオープン・リミテッド・サーチ(open-ended search)と呼ばれるオープン・リミテッド・サーチの一般化において、より広い分野のaiへの関心が高まっている。
例えば、オープンエンド検索は、ニューラルネットワークの新しいアーキテクチャ、強化学習アルゴリズム、または最も野心的な目標は、人工知能を設計することだ。
本稿では、オープンエンド進化と人工生命は、オープンエンドaiの理解に多くの貢献をしており、特にオープンエンド検索の安全性に焦点をあてている。
その考え方は、AIシステムは現実世界にますます適用され、その過程で意図しない害をもたらすことが多く、AIの安全性の高まりを動機付けている。
本稿では、オープンエンドAIには、特にオープンエンドシステムの創造性を生産的かつ予測的に制御できるかどうかという、独自の安全性上の課題がある、と論じる。
本稿では,オープンエンド検索におけるユニークな安全性問題がどのように現れるかを説明し,具体的なコントリビューションと研究課題を提案する。
目標は、クリエイティブで有用で安全なオープンエンド検索アルゴリズムへの進歩を促すことだ。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Open-Endedness is Essential for Artificial Superhuman Intelligence [19.381655909809776]
我々は,人間の観察者に対して,AIシステムにおける開放性を達成するための材料が現在存在することを論じる。
我々は、一般の能力を持つオープンAIの安全性への影響を検証して結論付ける。
論文 参考訳(メタデータ) (2024-06-06T17:15:02Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Open-world Machine Learning: A Review and New Outlooks [83.6401132743407]
本稿では,新たなオープンワールド機械学習パラダイムを包括的に紹介することを目的としている。
研究者がそれぞれの分野でより強力なAIシステムを構築するのを支援し、人工知能の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T06:25:26Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - A Survey on Neural Open Information Extraction: Current Status and
Future Directions [87.30702606041407]
Open Information extract (OpenIE) は、大規模コーパスからの関係事実のドメインに依存しない発見を容易にする。
我々は、最先端のニューラルなOpenIEモデル、その設計決定、強み、弱点について概観する。
論文 参考訳(メタデータ) (2022-05-24T02:24:55Z) - An Initial Look at Self-Reprogramming Artificial Intelligence [0.0]
我々は、最初の完全自己プログラミングAIシステムを開発し、実験的に検証する。
AIベースのコンピュータコード生成をAI自体に適用することで、ニューラルネットワークのソースコードを継続的に修正し書き換えるアルゴリズムを実装します。
論文 参考訳(メタデータ) (2022-04-30T05:44:34Z) - Creative AI Through Evolutionary Computation: Principles and Examples [16.8615211682877]
人口ベースの検索技術により、現実世界の実践的な問題に対する創造的な解決策を見つけることができる。
進化的計算は、おそらく「次の深層学習」である
論文 参考訳(メタデータ) (2020-08-04T19:53:39Z) - Enhanced POET: Open-Ended Reinforcement Learning through Unbounded
Invention of Learning Challenges and their Solutions [20.671903144896742]
Paired Open-Ended Trailblazer (POET)は、独自の課題を生成し解決するアルゴリズムである。
POETはアルゴリズム自体の限界のため、その完全な創造可能性を示すことができなかった。
我々は、元のアルゴリズムに2つの新しいイノベーションを導入し、実証的に検証し、また、その潜在能力を解明するために設計された2つの外部イノベーションを紹介します。
論文 参考訳(メタデータ) (2020-03-19T01:35:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。