論文の概要: Beneficial and Harmful Explanatory Machine Learning
- arxiv url: http://arxiv.org/abs/2009.06410v2
- Date: Thu, 25 Feb 2021 16:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 08:47:15.035955
- Title: Beneficial and Harmful Explanatory Machine Learning
- Title(参考訳): 有益で有害な説明型機械学習
- Authors: Lun Ai and Stephen H. Muggleton and C\'eline Hocquette and Mark
Gromowski and Ute Schmid
- Abstract要約: 本稿では,単純な2人ゲームにおける学習理論の解説効果について検討する。
認知科学文献に基づく機械説明の有害性を特定するための枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.223556562214077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the recent successes of Deep Learning in AI there has been increased
interest in the role and need for explanations in machine learned theories. A
distinct notion in this context is that of Michie's definition of Ultra-Strong
Machine Learning (USML). USML is demonstrated by a measurable increase in human
performance of a task following provision to the human of a symbolic machine
learned theory for task performance. A recent paper demonstrates the beneficial
effect of a machine learned logic theory for a classification task, yet no
existing work to our knowledge has examined the potential harmfulness of
machine's involvement for human comprehension during learning. This paper
investigates the explanatory effects of a machine learned theory in the context
of simple two person games and proposes a framework for identifying the
harmfulness of machine explanations based on the Cognitive Science literature.
The approach involves a cognitive window consisting of two quantifiable bounds
and it is supported by empirical evidence collected from human trials. Our
quantitative and qualitative results indicate that human learning aided by a
symbolic machine learned theory which satisfies a cognitive window has achieved
significantly higher performance than human self learning. Results also
demonstrate that human learning aided by a symbolic machine learned theory that
fails to satisfy this window leads to significantly worse performance than
unaided human learning.
- Abstract(参考訳): 近年のAIにおけるディープラーニングの成功を踏まえ、機械学習理論における役割と説明の必要性への関心が高まっている。
この文脈における別の概念は、ミケーのウルトラストロング機械学習(USML)の定義である。
USMLは、タスクパフォーマンスのための記号機械学習理論の人間への提供に続くタスクの人的パフォーマンスの計測可能な増加によって実証される。
近年の研究では、学習中の人間の理解に対する機械の関与の潜在的有害性について、既存の知識に対する研究は行われていないが、機械学習論理理論が分類タスクに有益であることを示す。
本稿では,単純な2人遊びの文脈における機械学習理論の解説効果について検討し,認知科学文献に基づく機械説明の有害性を特定する枠組みを提案する。
このアプローチは、2つの定量化可能な境界からなる認知窓を含み、ヒトの臨床試験から収集された実証的な証拠によって支持される。
定量的・定性的な結果から,認知窓を満たすシンボリックマシン学習理論によって支援された人間学習は,人間の自己学習よりも有意に高いパフォーマンスを達成した。
結果は、このウィンドウを満足できないシンボリックマシン学習理論によって支援される人間の学習が、人間の学習を知らない人よりもはるかに悪いパフォーマンスをもたらすことを示した。
関連論文リスト
- A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Explanatory machine learning for sequential human teaching [5.706360286474043]
複雑化を伴う概念のシーケンシャルな教育が人間の理解に有益であることを示す。
本稿では,既存の理解度の定義に基づいて,逐次的指導が理解に及ぼす影響の枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:23:46Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Quality Metrics for Transparent Machine Learning With and Without Humans
In the Loop Are Not Correlated [0.0]
心理物理学の手法を用いて,解釈可能なコンピュータビジョンアルゴリズムの品質について検討する。
この結果から,心理物理学的な実験により,機械学習における透明性の堅牢な品質評価が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-07-01T12:30:51Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Five Points to Check when Comparing Visual Perception in Humans and
Machines [26.761191892051]
情報処理を人間と機械で比較する作業が増えている。
本稿では,実験の設計,実施,解釈の方法を提案する。
3つのケーススタディを通じて、これらのアイデアを実証し、適用する。
論文 参考訳(メタデータ) (2020-04-20T16:05:36Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。