論文の概要: Weakly Supervised Multi-task Learning for Concept-based Explainability
- arxiv url: http://arxiv.org/abs/2104.12459v1
- Date: Mon, 26 Apr 2021 10:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:58:56.519850
- Title: Weakly Supervised Multi-task Learning for Concept-based Explainability
- Title(参考訳): 概念に基づく説明可能性のための弱教師付きマルチタスク学習
- Authors: Catarina Bel\'em, Vladimir Balayan, Pedro Saleiro, Pedro Bizarro
- Abstract要約: マルチタスク学習を活用して,意思決定タスクの予測を共同で学習するニューラルネットワークを訓練する。
克服すべき主な課題は、コンセプトラベルの不足と共同学習の2つです。
不均一な品質のラベルを組み合わせることで、両タスクのパフォーマンスを向上させることができることを示す。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In ML-aided decision-making tasks, such as fraud detection or medical
diagnosis, the human-in-the-loop, usually a domain-expert without technical ML
knowledge, prefers high-level concept-based explanations instead of low-level
explanations based on model features. To obtain faithful concept-based
explanations, we leverage multi-task learning to train a neural network that
jointly learns to predict a decision task based on the predictions of a
precedent explainability task (i.e., multi-label concepts). There are two main
challenges to overcome: concept label scarcity and the joint learning. To
address both, we propose to: i) use expert rules to generate a large dataset of
noisy concept labels, and ii) apply two distinct multi-task learning strategies
combining noisy and golden labels. We compare these strategies with a fully
supervised approach in a real-world fraud detection application with few golden
labels available for the explainability task. With improvements of 9.26% and of
417.8% at the explainability and decision tasks, respectively, our results show
it is possible to improve performance at both tasks by combining labels of
heterogeneous quality.
- Abstract(参考訳): MLが支援する不正検出や診断などの意思決定タスクでは、ヒューマン・イン・ザ・ループは、技術的MLの知識を持たないドメインエキスパートであり、モデルの特徴に基づく低レベルの説明ではなく、高レベルの概念に基づく説明を好む。
忠実な概念に基づく説明を得るためには、前例説明可能性タスク(すなわち、マルチラベル概念)の予測に基づいて、共同学習して決定タスクを予測するニューラルネットワークを訓練するために、マルチタスク学習を利用する。
克服すべき主な課題は、コンセプトラベルの不足と共同学習の2つだ。
i) ノイズの多い概念ラベルの大規模なデータセットを生成するために専門家ルールを使用すること,2) ノイズの多い概念ラベルとゴールデンなラベルを組み合わせた2つの異なるマルチタスク学習戦略を適用することを提案する。
実世界の不正検出アプリケーションにおいて,これらの戦略を,説明可能性タスクに利用できるゴールデンラベルがほとんどない完全教師付きアプローチと比較した。
説明性および意思決定性では, 9.26%, 417.8%の改善がみられ, 不均一な品質のラベルを組み合わせることで, 両タスクのパフォーマンス向上が図られた。
関連論文リスト
- Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - State2Explanation: Concept-Based Explanations to Benefit Agent Learning
and User Understanding [15.503872709445249]
シーケンシャルな意思決定設定で概念を定義するデシラタをコントリビュートする。
本稿では,RLエージェントの意思決定に関する概念に基づく説明が,エージェントの学習率をいかに向上させるかを検討する。
我々は、状態-作用ペア間の結合埋め込みモデルを学ぶことを含む統合フレームワーク、State2Explanation(S2E)をコントリビュートする。
論文 参考訳(メタデータ) (2023-09-21T20:55:21Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Multi-Task Consistency for Active Learning [18.794331424921946]
不整合に基づくアクティブラーニングは、アノテーションに対する情報的サンプルの選択に有効であることが証明されている。
本稿では,オブジェクト検出とセマンティックセグメンテーションという2つの複合視覚タスクのための,新しいマルチタスク能動学習戦略を提案する。
提案手法は、利用可能なデータのわずか67%を使用して、完全にトレーニングされたパフォーマンスの95%を達成している。
論文 参考訳(メタデータ) (2023-06-21T17:34:31Z) - Rethinking Label Smoothing on Multi-hop Question Answering [87.68071401870283]
MHQA (Multi-Hop Question Answering) は質問応答において重要な分野である。
本研究では,マルチホップ推論の性能を制限する主要な要因を解析する。
学習プロセスに不確実性を組み込んだ新しいラベル平滑化手法F1 Smoothingを提案する。
論文 参考訳(メタデータ) (2022-12-19T14:48:08Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Cross-Task Knowledge Distillation in Multi-Task Recommendation [41.62428191434233]
マルチタスク学習は、さまざまなタイプのユーザフィードバックを予測するために、現実世界のレコメンデータで広く利用されている。
本稿では,3つの手順からなるクロスタスク知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-20T16:15:19Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Multi-task Learning by Leveraging the Semantic Information [14.397128692867799]
タスク間の意味的条件関係を探索し,マルチタスク学習におけるラベル情報の利用を提案する。
また,分析結果から,意味分布と協調してラベル分布の発散を制御する具体的アルゴリズムが導かれる。
論文 参考訳(メタデータ) (2021-03-03T17:36:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。