論文の概要: survex: an R package for explaining machine learning survival models
- arxiv url: http://arxiv.org/abs/2308.16113v2
- Date: Tue, 21 Nov 2023 15:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 04:51:12.374746
- Title: survex: an R package for explaining machine learning survival models
- Title(参考訳): survex: 機械学習サバイバルモデルを説明するためのRパッケージ
- Authors: Miko{\l}aj Spytek and Mateusz Krzyzi\'nski and Sophie Hanna Langbein
and Hubert Baniecki and Marvin N. Wright and Przemys{\l}aw Biecek
- Abstract要約: 本稿では,人工知能技術を適用して生存モデルを説明するためのフレームワークであるsurvex Rパッケージを紹介する。
提案するソフトウェアの能力は生存モデルの理解と診断を含んでおり、その改善につながる可能性がある。
- 参考スコア(独自算出の注目度): 8.028581359682239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their flexibility and superior performance, machine learning models
frequently complement and outperform traditional statistical survival models.
However, their widespread adoption is hindered by a lack of user-friendly tools
to explain their internal operations and prediction rationales. To tackle this
issue, we introduce the survex R package, which provides a cohesive framework
for explaining any survival model by applying explainable artificial
intelligence techniques. The capabilities of the proposed software encompass
understanding and diagnosing survival models, which can lead to their
improvement. By revealing insights into the decision-making process, such as
variable effects and importances, survex enables the assessment of model
reliability and the detection of biases. Thus, transparency and responsibility
may be promoted in sensitive areas, such as biomedical research and healthcare
applications.
- Abstract(参考訳): 柔軟性と優れたパフォーマンスのため、機械学習モデルは従来の統計生存モデルを補完し、性能を向上することが多い。
しかし、その普及は、内部操作や予測の根拠を説明するユーザーフレンドリーなツールの欠如によって妨げられている。
この問題に取り組むため,我々はsurvex rパッケージを紹介する。このパッケージは,説明可能な人工知能技術を適用して生存モデルを説明するための凝集フレームワークを提供する。
提案するソフトウェアの能力は生存モデルの理解と診断を含んでおり、その改善につながる可能性がある。
可変効果や重要度といった意思決定プロセスに関する洞察を明らかにすることで、survexはモデルの信頼性の評価とバイアスの検出を可能にする。
したがって、透明性と責任は、バイオメディカル研究や医療応用のような繊細な分野で促進される。
関連論文リスト
- Robust Neural Information Retrieval: An Adversarial and Out-of-distribution Perspective [111.58315434849047]
ニューラルネットワーク検索モデル(IR)モデルの堅牢性は、大きな注目を集めている。
我々は、IRの堅牢性を多面的概念とみなし、敵攻撃、アウト・オブ・ディストリビューション(OOD)シナリオ、パフォーマンスのばらつきに対してその必要性を強調している。
我々は,既存の手法,データセット,評価指標について詳細な議論を行い,大規模言語モデルの時代における課題や今後の方向性に光を当てる。
論文 参考訳(メタデータ) (2024-07-09T16:07:01Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - QXAI: Explainable AI Framework for Quantitative Analysis in Patient
Monitoring Systems [9.29069202652354]
定量的分析のための説明可能なAI(QXAI)フレームワークは、回帰および分類タスクのポストホックモデル説明可能性と本質的な説明可能性によって提案される。
我々は,センサデータに基づく心拍数予測と身体活動の分類を行うために,人工ニューラルネットワーク (ANN) と注意に基づく双方向LSTM (BiLSTM) モデルを採用した。
論文 参考訳(メタデータ) (2023-09-19T03:50:30Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。