論文の概要: Dynamic Cognition Applied to Value Learning in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2005.05538v6
- Date: Tue, 24 Aug 2021 01:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:08:57.199392
- Title: Dynamic Cognition Applied to Value Learning in Artificial Intelligence
- Title(参考訳): 人工知能における価値学習に応用した動的認知
- Authors: Nythamar de Oliveira and Nicholas Kluge Corr\^ea
- Abstract要約: この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Experts in Artificial Intelligence (AI) development predict that advances in
the development of intelligent systems and agents will reshape vital areas in
our society. Nevertheless, if such an advance isn't done with prudence, it can
result in negative outcomes for humanity. For this reason, several researchers
in the area are trying to develop a robust, beneficial, and safe concept of
artificial intelligence. Currently, several of the open problems in the field
of AI research arise from the difficulty of avoiding unwanted behaviors of
intelligent agents, and at the same time specifying what we want such systems
to do. It is of utmost importance that artificial intelligent agents have their
values aligned with human values, given the fact that we cannot expect an AI to
develop our moral preferences simply because of its intelligence, as discussed
in the Orthogonality Thesis. Perhaps this difficulty comes from the way we are
addressing the problem of expressing objectives, values, and ends, using
representational cognitive methods. A solution to this problem would be the
dynamic cognitive approach proposed by Dreyfus, whose phenomenological
philosophy defends that the human experience of being-in-the-world cannot be
represented by the symbolic or connectionist cognitive methods. A possible
approach to this problem would be to use theoretical models such as SED
(situated embodied dynamics) to address the values learning problem in AI.
- Abstract(参考訳): 人工知能(AI)開発の専門家は、インテリジェントシステムとエージェントの開発の進歩が、我々の社会における重要な領域を形作ると予測している。
しかし、そのような進歩が慎重さで行われなければ、それは人類にとって否定的な結果をもたらす可能性がある。
このため、この分野の何人かの研究者は、堅牢で有益で安全な人工知能の概念を開発しようとしている。
現在、AI研究の分野におけるいくつかのオープンな問題は、インテリジェントエージェントの望ましくない振る舞いを避けることの難しさと、そのようなシステムが何をするかを規定することによるものである。
直交論で論じられているように、aiが単に知性のために道徳的な好みを発達させることは期待できないという事実を考えると、人工知能エージェントが人間の価値観に合致する価値を持っていることは最も重要である。
おそらくこの難しさは、表現的認知手法を用いて、目的、価値、目的を表現している問題に対処する方法に由来する。
この問題の解決策は、ドレフュスが提唱した動的認知的アプローチであり、その現象論的哲学は、世界にいる人間の経験は象徴的あるいは接続主義的な認知的手法では表現できないことを擁護している。
この問題に対する可能なアプローチは、SED(situated embodied dynamics)のような理論モデルを使用して、AIにおける価値学習問題に対処することだ。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Scaling Artificial Intelligence for Digital Wargaming in Support of
Decision-Making [0.0]
マルチモデルアプローチと次元不変の観察抽象化を含む階層的強化学習フレームワークを開発し,実装している。
AI対応システムを前進させることで、全ドメイン認識を強化し、意思決定サイクルのスピードと品質を改善し、新しい行動コースの推奨を提供し、敵の行動に迅速に対抗できるようになります。
論文 参考訳(メタデータ) (2024-02-08T21:51:07Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Suffering Toasters -- A New Self-Awareness Test for AI [0.0]
現在のインテリジェンステストはすべて、インテリジェンスの存在や欠如を示すには不十分である、と我々は主張する。
人工自己認識のための新しい手法を提案し,その実装の概要を述べる。
論文 参考訳(メタデータ) (2023-06-29T18:58:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Modelos din\^amicos aplicados \`a aprendizagem de valores em
intelig\^encia artificial [0.0]
この地域の数人の研究者が、人間と環境の保存のための堅牢で有益な、安全なAIの概念を開発した。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
おそらくこの難しさは、認知的手法を使って価値を表現するという問題に対処する方法から来ています。
論文 参考訳(メタデータ) (2020-07-30T00:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。