論文の概要: Explainable Artificial Intelligence and Machine Learning: A reality
rooted perspective
- arxiv url: http://arxiv.org/abs/2001.09464v1
- Date: Sun, 26 Jan 2020 15:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 19:10:05.330595
- Title: Explainable Artificial Intelligence and Machine Learning: A reality
rooted perspective
- Title(参考訳): 説明可能な人工知能と機械学習:現実に根ざした視点
- Authors: Frank Emmert-Streib, Olli Yli-Harja, and Matthias Dehmer
- Abstract要約: 説明可能なAIとは何か,という議論があります。
我々は、希望的な思考ではなく、物理学以外の科学理論に関連して、現実的な基礎的特性を提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are used to the availability of big data generated in nearly all fields of
science as a consequence of technological progress. However, the analysis of
such data possess vast challenges. One of these relates to the explainability
of artificial intelligence (AI) or machine learning methods. Currently, many of
such methods are non-transparent with respect to their working mechanism and
for this reason are called black box models, most notably deep learning
methods. However, it has been realized that this constitutes severe problems
for a number of fields including the health sciences and criminal justice and
arguments have been brought forward in favor of an explainable AI. In this
paper, we do not assume the usual perspective presenting explainable AI as it
should be, but rather we provide a discussion what explainable AI can be. The
difference is that we do not present wishful thinking but reality grounded
properties in relation to a scientific theory beyond physics.
- Abstract(参考訳): 私たちは、技術進歩の結果として、ほぼすべての科学分野で生成されたビッグデータの可用性に慣れています。
しかし、そのようなデータの解析には大きな課題がある。
これらのうちの1つは、人工知能(AI)や機械学習手法の説明可能性に関するものである。
現在、これらの手法の多くは動作機構に関して不透明であり、そのためブラックボックスモデルと呼ばれており、特に深層学習法が顕著である。
しかし、これは健康科学や刑事司法を含む多くの分野において深刻な問題となり、説明可能なaiを支持する議論が進められている。
本稿では、説明可能なAIを本来あるべきものであると仮定するのではなく、説明可能なAIが何であるかを議論する。
違いは、我々は希望的な思考ではなく、物理学を超えた科学的理論に関連する現実的性質を提示していることである。
関連論文リスト
- AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Artificial Intelligence for Science in Quantum, Atomistic, and Continuum Systems [268.585904751315]
科学のためのAI(AI4Science)として知られる新しい研究領域
領域は、物理世界(波動関数と電子密度)、原子(分子、タンパク質、物質、相互作用)、マクロ(流体、気候、地下)まで理解することを目的としている。
主要な課題は、物理第一原理、特に対称性を深層学習法によって自然システムで捉える方法である。
論文 参考訳(メタデータ) (2023-07-17T12:14:14Z) - Reliable AI: Does the Next Generation Require Quantum Computing? [71.84486326350338]
デジタルハードウェアは、最適化、ディープラーニング、微分方程式に関する問題の解決に本質的に制約されていることを示す。
対照的に、Blum-Shub-Smale マシンのようなアナログコンピューティングモデルは、これらの制限を克服する可能性を示している。
論文 参考訳(メタデータ) (2023-07-03T19:10:45Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Brittle AI, Causal Confusion, and Bad Mental Models: Challenges and
Successes in the XAI Program [17.52385105997044]
ディープニューラルネットワーク駆動モデルは、ベンチマークの自律性タスクにおいて、人間レベルのパフォーマンスを上回っている。
しかし、これらのエージェントの根底にあるポリシーは容易には解釈できない。
本稿では,これらの取組みの起源を論じ,情報の増幅と今後の課題について提案する。
論文 参考訳(メタデータ) (2021-06-10T05:21:10Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。