論文の概要: Learning from AI: An Interactive Learning Method Using a DNN Model
Incorporating Expert Knowledge as a Teacher
- arxiv url: http://arxiv.org/abs/2306.02257v1
- Date: Sun, 4 Jun 2023 04:22:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:07:41.167409
- Title: Learning from AI: An Interactive Learning Method Using a DNN Model
Incorporating Expert Knowledge as a Teacher
- Title(参考訳): AIから学ぶ: 教師としての知識を取り入れたDNNモデルを用いた対話型学習法
- Authors: Kohei Hattori, Tsubasa Hirakawa, Takayoshi Yamashita, Hironobu
Fujiyoshi
- Abstract要約: 視覚的説明は、深層学習による判断の根拠を可視化するためのアプローチである。
そこで本研究では,アテンションマップを用いたモデルに専門家の知識を取り入れた手法を提案する。
被験者による評価実験の結果,提案手法を用いた学習は従来手法よりも効率的であることが示唆された。
- 参考スコア(独自算出の注目度): 7.964052580720558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual explanation is an approach for visualizing the grounds of judgment by
deep learning, and it is possible to visually interpret the grounds of a
judgment for a certain input by visualizing an attention map. As for
deep-learning models that output erroneous decision-making grounds, a method
that incorporates expert human knowledge in the model via an attention map in a
manner that improves explanatory power and recognition accuracy is proposed. In
this study, based on a deep-learning model that incorporates the knowledge of
experts, a method by which a learner "learns from AI" the grounds for its
decisions is proposed. An "attention branch network" (ABN), which has been
fine-tuned with attention maps modified by experts, is prepared as a teacher.
By using an interactive editing tool for the fine-tuned ABN and attention maps,
the learner learns by editing the attention maps and changing the inference
results. By repeatedly editing the attention maps and making inferences so that
the correct recognition results are output, the learner can acquire the grounds
for the expert's judgments embedded in the ABN. The results of an evaluation
experiment with subjects show that learning using the proposed method is more
efficient than the conventional method.
- Abstract(参考訳): 視覚的説明は、深層学習による判断の根拠を可視化するためのアプローチであり、注意マップを可視化することにより、ある入力に対する判断の根拠を視覚的に解釈することができる。
誤った意思決定基盤を出力する深層学習モデルについて,説明力と認識精度を向上する手法として,アテンションマップを介して専門家の知識をモデルに組み込む手法を提案する。
本研究では,専門家の知識を取り入れたディープラーニングモデルに基づいて,学習者が「AIから学習する」方法を提案する。
アテンションブランチネットワーク(ABN)は、専門家が修正したアテンションマップを微調整したもので、教師として準備されている。
微調整されたABNとアテンションマップの対話的編集ツールを用いて、アテンションマップを編集し、推論結果を変更することで学習する。
注意マップを繰り返し編集し、正しい認識結果が出力されるように推論することにより、学習者は、ABNに埋め込まれた専門家の判断の根拠を得ることができる。
被験者による評価実験の結果,提案手法を用いた学習は従来の方法よりも効率的であることが判明した。
関連論文リスト
- Leveraging Pedagogical Theories to Understand Student Learning Process with Graph-based Reasonable Knowledge Tracing [11.082908318943248]
本稿では,これらの問題に対処するためのグラフベースの合理的知識追跡手法GRKTを紹介する。
本稿では,知識検索,記憶強化,知識学習・鍛造の3段階モデリングプロセスを提案する。
論文 参考訳(メタデータ) (2024-06-07T10:14:30Z) - Interaction as Explanation: A User Interaction-based Method for Explaining Image Classification Models [1.3597551064547502]
コンピュータビジョンでは、説明可能なAI(xAI)手法は「ブラックボックス」問題を緩和しようとする。
従来のxAI手法は、モデル予測に影響を与える入力特徴の可視化に重点を置いている。
本稿では,画像分類モデルのユーザ理解を深めるインタラクションベースのxAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T14:26:00Z) - A Survey of Explainable Knowledge Tracing [14.472784840283099]
本稿では,KTアルゴリズムの解釈可能性について詳細に解析する。
説明可能な知識追跡のための現在の評価方法が不足している。
本稿では,教育関係者の視点から評価手法について考察する。
論文 参考訳(メタデータ) (2024-03-12T03:17:59Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Predicting and Understanding Human Action Decisions during Skillful
Joint-Action via Machine Learning and Explainable-AI [1.3381749415517021]
本研究では、教師付き機械学習と説明可能な人工知能を用いて、人間の意思決定をモデル化し、予測し、理解する。
長期記憶ネットワークは、専門家と初心者アクターのターゲット選択決定を予測するために訓練された。
論文 参考訳(メタデータ) (2022-06-06T16:54:43Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Introspective Learning by Distilling Knowledge from Online
Self-explanation [36.91213895208838]
本稿では,オンライン自己説明から知識を抽出し,イントロスペクティブ学習の実装を提案する。
イントロスペクティブ学習法で訓練されたモデルは、標準学習法で訓練されたモデルよりも優れていた。
論文 参考訳(メタデータ) (2020-09-19T02:05:32Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z) - A Review on Intelligent Object Perception Methods Combining
Knowledge-based Reasoning and Machine Learning [60.335974351919816]
物体知覚はコンピュータビジョンの基本的なサブフィールドである。
最近の研究は、物体の視覚的解釈のインテリジェンスレベルを拡大するために、知識工学を統合する方法を模索している。
論文 参考訳(メタデータ) (2019-12-26T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。