論文の概要: Challenges facing the explainability of age prediction models: case
study for two modalities
- arxiv url: http://arxiv.org/abs/2303.06640v1
- Date: Sun, 12 Mar 2023 11:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:46:23.076573
- Title: Challenges facing the explainability of age prediction models: case
study for two modalities
- Title(参考訳): 年齢予測モデルの説明可能性に直面する課題:二つの様相のケーススタディ
- Authors: Mikolaj Spytek, Weronika Hryniewska-Guzik, Jaroslaw Zygierewicz, Jacek
Rogala, Przemyslaw Biecek
- Abstract要約: 脳波信号と肺X線に基づく年齢予測における説明可能な人工知能(XAI)の利用について検討した。
我々は、これらのモダリティのモデルを説明する新しい手法のさらなる研究を促進するために、年齢予測モデルを共有している。
- 参考スコア(独自算出の注目度): 4.000351859705655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The prediction of age is a challenging task with various practical
applications in high-impact fields like the healthcare domain or criminology.
Despite the growing number of models and their increasing performance, we
still know little about how these models work. Numerous examples of failures of
AI systems show that performance alone is insufficient, thus, new methods are
needed to explore and explain the reasons for the model's predictions.
In this paper, we investigate the use of Explainable Artificial Intelligence
(XAI) for age prediction focusing on two specific modalities, EEG signal and
lung X-rays. We share predictive models for age to facilitate further research
on new techniques to explain models for these modalities.
- Abstract(参考訳): 年齢の予測は、医療領域や犯罪学のようなハイインパクトな分野における様々な実践的な応用において難しい課題である。
モデルの増加とパフォーマンスの増加にもかかわらず、これらのモデルがどのように機能するかはほとんど分かっていません。
AIシステムの失敗例は、パフォーマンスだけでは不十分であることを示しているため、モデルの予測の理由を探索し説明するためには、新しい方法が必要である。
本稿では,脳波信号と肺X線の2つの特性に着目し,年齢予測にXAI(Explainable Artificial Intelligence)を用いることを検討した。
我々は、年齢予測モデルを共有し、これらのモダリティのモデルを説明する新しい手法のさらなる研究を促進する。
関連論文リスト
- Learning-based Models for Vulnerability Detection: An Extensive Study [3.1317409221921144]
我々は、最先端の学習ベースアプローチの2つのタイプを広範かつ包括的に調査する。
本稿では,シーケンスベースモデルの優先度と,グラフベースモデルの限定能力について実験的に検証する。
論文 参考訳(メタデータ) (2024-08-14T13:01:30Z) - Recent Advances in Predictive Modeling with Electronic Health Records [71.19967863320647]
EHRデータを予測モデリングに利用すると、その特徴からいくつかの課題が生じる。
深層学習は、医療を含む様々な応用においてその優位性を示している。
論文 参考訳(メタデータ) (2024-02-02T00:31:01Z) - Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Assessing the Performance of Automated Prediction and Ranking of Patient
Age from Chest X-rays Against Clinicians [4.795478287106675]
深層学習は、胸部X線から患者の年齢を正確に推定することを可能にしている。
本稿では,放射線科医と最先端のディープラーニングモデルの比較研究について述べる。
我々は,脳卒中患者の年齢による1.8M胸部X線の異種データベースを用いてモデルを訓練し,モデル精度の限界について検討した。
論文 参考訳(メタデータ) (2022-07-04T10:09:48Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Global and Local Interpretation of black-box Machine Learning models to
determine prognostic factors from early COVID-19 data [0.0]
新型コロナウイルスの血液検査データを、一般的な機械学習モデルを用いて分析する。
我々は,現在最先端の局所的解釈可能性技術とシンボリックメタモデリングを用いて,解釈可能な結論を導出する。
我々は、新型コロナウイルスの機械学習モデルの数学的表現を見つけるために、象徴的メタモデリングと呼ばれる最新の手法の1つを探求する。
論文 参考訳(メタデータ) (2021-09-10T20:00:47Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。