論文の概要: Artificial Intelligence is stupid and causal reasoning won't fix it
- arxiv url: http://arxiv.org/abs/2008.07371v1
- Date: Mon, 20 Jul 2020 22:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:24:43.453491
- Title: Artificial Intelligence is stupid and causal reasoning won't fix it
- Title(参考訳): 人工知能は愚かで因果推論は解決しない
- Authors: John Mark Bishop
- Abstract要約: Judea Pearl氏が提案するキーは、推論を因果推論と関連付けることで置き換えることだ。
AIマシーンが因果関係を把握できないというほどではないが、AIマシーン – 準計算 – はまったく理解できない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Neural Networks have reached Grandmaster and even super-human
performance across a variety of games: from those involving perfect-information
(such as Go) to those involving imperfect-information (such as Starcraft). Such
technological developments from AI-labs have ushered concomitant applications
across the world of business - where an AI brand tag is fast becoming
ubiquitous. A corollary of such widespread commercial deployment is that when
AI gets things wrong - an autonomous vehicle crashes; a chatbot exhibits racist
behaviour; automated credit scoring processes discriminate on gender etc. -
there are often significant financial, legal and brand consequences and the
incident becomes major news. As Judea Pearl sees it, the underlying reason for
such mistakes is that, 'all the impressive achievements of deep learning amount
to just curve fitting'. The key, Judea Pearl suggests, is to replace reasoning
by association with causal-reasoning - the ability to infer causes from
observed phenomena. It is a point that was echoed by Gary Marcus and Ernest
Davis in a recent piece for the New York Times: 'we need to stop building
computer systems that merely get better and better at detecting statistical
patterns in data sets - often using an approach known as Deep Learning - and
start building computer systems that from the moment of their assembly innately
grasp three basic concepts: time, space and causality'. In this paper,
foregrounding what in 1949 Gilbert Ryle termed a category mistake, I will offer
an alternative explanation for AI errors: it is not so much that AI machinery
cannot grasp causality, but that AI machinery - qua computation - cannot
understand anything at all.
- Abstract(参考訳): 人工ニューラルネットワークは、完璧情報(Goなど)を含むものから不完全情報(Starcraftなど)を含むものまで、さまざまなゲームでグランドマスターや超人的なパフォーマンスに達している。
AI-labsによるこのような技術開発は、ビジネスの世界で共用的なアプリケーションを生み出している — AIブランドタグが急速に普及している。
自動運転車がクラッシュする、チャットボットが人種差別的行動を示す、クレジット自動スコア付けのプロセスが性別などを差別するなど、aiが間違った状況に陥ると、経済的、法的、ブランド的な影響が大きくなり、インシデントが大きなニュースになる。
ジュデア・パール(Judea Pearl)が見ているように、そのようなミスの根底にある理由は、「深層学習の素晴らしい成果は、ただのカーブフィッティングである」ということである。
Judea Pearl氏が示唆する鍵は、因果推論(因果推論)と関連づけることで推論を置き換えることだ。
ニューヨーク・タイムズの最近の記事で、ゲイリー・マーカスとアーネスト・デイビス(Ernest Davis)が「我々はデータセットの統計的パターン(しばしばDeep Learningと呼ばれるアプローチを使って)をより良く、より良く検出するコンピュータシステムの構築を止め、組み立ての瞬間から、時間、空間、因果性という3つの基本的な概念を自然に把握するコンピュータシステムの構築を開始する必要がある」と記している。
本稿では,1949年にギルバート・ライル(Gilbert Ryle)が「カテゴリーミス」と呼んだことを前提として,AIの誤りに対する別の説明を行う。
関連論文リスト
- Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Reliable AI: Does the Next Generation Require Quantum Computing? [71.84486326350338]
デジタルハードウェアは、最適化、ディープラーニング、微分方程式に関する問題の解決に本質的に制約されていることを示す。
対照的に、Blum-Shub-Smale マシンのようなアナログコンピューティングモデルは、これらの制限を克服する可能性を示している。
論文 参考訳(メタデータ) (2023-07-03T19:10:45Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Hybrid Intelligence [4.508830262248694]
今後数十年間、人間と機械の間の労働分業の最も可能性の高いパラダイムはハイブリッド・インテリジェンスであると主張する。
このコンセプトは、人間の知性とAIの相補的な強みを利用することを目標とし、それぞれが個別にできることよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-03T08:56:09Z) - Why AI is Harder Than We Think [0.0]
人工知能の分野は、楽観的な予測と膨大な投資の期間の間に数回サイクルしている。
私は、AI研究者によって行われた一般的な仮定で4つの誤認を説明します。
結論として、人間のような常識を身につける機械の長年の挑戦など、これらの誤解によって引き起こされたオープンな質問について論じる。
論文 参考訳(メタデータ) (2021-04-26T20:39:18Z) - A clarification of misconceptions, myths and desired status of
artificial intelligence [0.0]
我々は,機械学習と統計学に関して,AIの望ましい現状と現状を考察する。
私たちの議論は、AIを取り巻く曖昧さのベールを解明して、その真の数量を見ることを目的としています。
論文 参考訳(メタデータ) (2020-08-03T17:22:53Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z) - Explainable Artificial Intelligence and Machine Learning: A reality
rooted perspective [0.0]
説明可能なAIとは何か,という議論があります。
我々は、希望的な思考ではなく、物理学以外の科学理論に関連して、現実的な基礎的特性を提示する。
論文 参考訳(メタデータ) (2020-01-26T15:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。