論文の概要: Knowledge-Augmented Explainable and Interpretable Learning for Anomaly Detection and Diagnosis
- arxiv url: http://arxiv.org/abs/2412.00146v1
- Date: Thu, 28 Nov 2024 23:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:49:32.964985
- Title: Knowledge-Augmented Explainable and Interpretable Learning for Anomaly Detection and Diagnosis
- Title(参考訳): 異常検出・診断のための知識強化型説明可能・解釈型学習
- Authors: Martin Atzmueller, Tim Bohne, Patricia Windler,
- Abstract要約: この章は、理解可能性、透明性、そして究極的には計算的センスメイキングを強化するために、知識に富んだ説明可能で解釈可能な学習に焦点を当てている。
異常検出と診断の領域における様々なアプローチと手法を実証する。
- 参考スコア(独自算出の注目度): 0.10241134756773229
- License:
- Abstract: Knowledge-augmented learning enables the combination of knowledge-based and data-driven approaches. For anomaly detection and diagnosis, understandability is typically an important factor, especially in high-risk areas. Therefore, explainability and interpretability are also major criteria in such contexts. This chapter focuses on knowledge-augmented explainable and interpretable learning to enhance understandability, transparency and ultimately computational sensemaking. We exemplify different approaches and methods in the domains of anomaly detection and diagnosis - from comparatively simple interpretable methods towards more advanced neuro-symbolic approaches.
- Abstract(参考訳): 知識強化学習は知識ベースとデータ駆動アプローチの組み合わせを可能にする。
異常検出と診断では、特に高リスク領域において、理解可能性が重要な要素である。
したがって、このような文脈では説明可能性や解釈可能性も主要な基準となっている。
この章は、理解可能性、透明性、そして究極的には計算的センスメイキングを強化するために、知識に富んだ説明可能で解釈可能な学習に焦点を当てている。
我々は、比較的単純な解釈可能な方法からより高度な神経-記号的アプローチまで、異常検出と診断の領域における様々なアプローチと手法を例示する。
関連論文リスト
- Aligning Characteristic Descriptors with Images for Human-Expert-like Explainability [0.0]
法執行機関や医療診断のようなミッションクリティカルな領域では、ディープラーニングモデルのアウトプットを説明・解釈する能力が不可欠である。
本稿では,特徴記述子を用いたモデル決定手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T15:47:18Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - A general-purpose method for applying Explainable AI for Anomaly
Detection [6.09170287691728]
説明可能なAI(XAI)の必要性は十分に確立されているが、教師付き学習パラダイム以外では比較的公表されていない。
本稿では、教師なし異常検出のタスクに説明可能性と解釈可能性を適用するための原則的なアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2022-07-23T17:56:01Z) - UIILD: A Unified Interpretable Intelligent Learning Diagnosis Framework
for Intelligent Tutoring Systems [8.354034992258482]
深層学習の強力な表現学習能力と心理メトリクスの解釈可能性から,統合的解釈可能な知的学習診断(UIILD)フレームワークが有用である。
本稿では,2チャンネル学習診断機構 LDM-ID と3チャンネル学習診断機構 LDM-HMI を提案する。
論文 参考訳(メタデータ) (2022-07-07T07:04:22Z) - NeuralSympCheck: A Symptom Checking and Disease Diagnostic Neural Model
with Logic Regularization [59.15047491202254]
症状検査システムは、患者に症状を問い合わせ、迅速で手頃な価格の医療評価を行う。
本稿では,論理正則化を用いたニューラルネットワークの教師付き学習に基づく新しい手法を提案する。
以上の結果から,本手法は診断回数や症状が大きい場合の診断精度において,最も優れた方法であることがわかった。
論文 参考訳(メタデータ) (2022-06-02T07:57:17Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - Challenges for cognitive decoding using deep learning methods [0.7476901945542384]
認知的復号法では、研究者は脳の領域の表現を、その領域の活動から識別できる認知状態を特定することによって特徴づけることを目指している。
ディープラーニング(DL)手法は、複雑なデータの汎用的な表現を学習する未整合能力とともに、認知的復号化に非常に有望である。
本稿では,近年の人工知能と伝達学習の進歩を活用して,これらの課題に対処することを提案する。
論文 参考訳(メタデータ) (2021-08-16T05:01:14Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。