論文の概要: Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain
- arxiv url: http://arxiv.org/abs/2402.06673v1
- Date: Wed, 7 Feb 2024 14:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 13:39:01.226050
- Title: Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain
- Title(参考訳): 人間のような知性への説明可能なAIの進化:人工脳への道のり
- Authors: Yongchen Zhou, Richard Jiang
- Abstract要約: 説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
- 参考スコア(独自算出の注目度): 0.7770029179741429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The intersection of Artificial Intelligence (AI) and neuroscience in
Explainable AI (XAI) is pivotal for enhancing transparency and interpretability
in complex decision-making processes. This paper explores the evolution of XAI
methodologies, ranging from feature-based to human-centric approaches, and
delves into their applications in diverse domains, including healthcare and
finance. The challenges in achieving explainability in generative models,
ensuring responsible AI practices, and addressing ethical implications are
discussed. The paper further investigates the potential convergence of XAI with
cognitive sciences, the development of emotionally intelligent AI, and the
quest for Human-Like Intelligence (HLI) in AI systems. As AI progresses towards
Artificial General Intelligence (AGI), considerations of consciousness, ethics,
and societal impact become paramount. The ongoing pursuit of deciphering the
mysteries of the brain with AI and the quest for HLI represent transformative
endeavors, bridging technical advancements with multidisciplinary explorations
of human cognition.
- Abstract(参考訳): 説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では、機能ベースから人間中心のアプローチまで、XAI方法論の進化を考察し、医療や金融など様々な分野における応用を考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
本稿では、認知科学へのXAIの潜在的収束、感情知能AIの発展、AIシステムにおけるヒューマン・ライク・インテリジェンス(HLI)の探求について検討する。
AIが人工知能(AGI)へと進むにつれ、意識、倫理、社会的影響の考慮が最重要となる。
aiによる脳のミステリーの解読とhliの探求の継続は、トランスフォーメーションな取り組みであり、人間の認知に関する多分野の探究と技術進歩を橋渡ししている。
関連論文リスト
- A call for embodied AI [0.8242650459951482]
我々は、人工知能の次の基本ステップとして、エンボディードAIを提案する。
Embodied AIの範囲を広げることで、認知アーキテクチャに基づく理論的枠組みを導入する。
このフレームワークはFristonのアクティブな推論原則と一致しており、EAI開発に対する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-06T09:11:20Z) - Advancing Perception in Artificial Intelligence through Principles of
Cognitive Science [6.637438611344584]
我々は、周囲の信号を入力として取り、それを処理して環境を理解する、知覚の認知機能に焦点を当てる。
我々は、認知科学にインスパイアされたAIシステムを構築するために、AIに一連の方法を提案する。
論文 参考訳(メタデータ) (2023-10-13T01:21:55Z) - Agency and legibility for artists through Experiential AI [12.941266914933454]
Experiential AIは、AIを具体的で明示的なものにするという課題に対処する、新たな研究分野である。
本稿では,創造的データ探索を目的とした経験的AIシステムの実証事例について報告する。
実験的なAIがアーティストの妥当性とエージェンシーを高める方法について論じる。
論文 参考訳(メタデータ) (2023-06-04T11:00:07Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Conscious AI [6.061244362532694]
人工知能の最近の進歩は、分類タスクの人間規模のスピードと精度を達成しました。
現在のシステムは、パターンを認識して分類する必要はない。
AIが直感や共感を必要とするより複雑なタスクに進むためには、メタシンキング、創造性、共感などの能力が人間の自己認識や意識に似ています。
論文 参考訳(メタデータ) (2021-05-12T15:53:44Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。