論文の概要: survex: an R package for explaining machine learning survival models
- arxiv url: http://arxiv.org/abs/2308.16113v2
- Date: Tue, 21 Nov 2023 15:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 04:51:12.374746
- Title: survex: an R package for explaining machine learning survival models
- Title(参考訳): survex: 機械学習サバイバルモデルを説明するためのRパッケージ
- Authors: Miko{\l}aj Spytek and Mateusz Krzyzi\'nski and Sophie Hanna Langbein
and Hubert Baniecki and Marvin N. Wright and Przemys{\l}aw Biecek
- Abstract要約: 本稿では,人工知能技術を適用して生存モデルを説明するためのフレームワークであるsurvex Rパッケージを紹介する。
提案するソフトウェアの能力は生存モデルの理解と診断を含んでおり、その改善につながる可能性がある。
- 参考スコア(独自算出の注目度): 8.028581359682239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their flexibility and superior performance, machine learning models
frequently complement and outperform traditional statistical survival models.
However, their widespread adoption is hindered by a lack of user-friendly tools
to explain their internal operations and prediction rationales. To tackle this
issue, we introduce the survex R package, which provides a cohesive framework
for explaining any survival model by applying explainable artificial
intelligence techniques. The capabilities of the proposed software encompass
understanding and diagnosing survival models, which can lead to their
improvement. By revealing insights into the decision-making process, such as
variable effects and importances, survex enables the assessment of model
reliability and the detection of biases. Thus, transparency and responsibility
may be promoted in sensitive areas, such as biomedical research and healthcare
applications.
- Abstract(参考訳): 柔軟性と優れたパフォーマンスのため、機械学習モデルは従来の統計生存モデルを補完し、性能を向上することが多い。
しかし、その普及は、内部操作や予測の根拠を説明するユーザーフレンドリーなツールの欠如によって妨げられている。
この問題に取り組むため,我々はsurvex rパッケージを紹介する。このパッケージは,説明可能な人工知能技術を適用して生存モデルを説明するための凝集フレームワークを提供する。
提案するソフトウェアの能力は生存モデルの理解と診断を含んでおり、その改善につながる可能性がある。
可変効果や重要度といった意思決定プロセスに関する洞察を明らかにすることで、survexはモデルの信頼性の評価とバイアスの検出を可能にする。
したがって、透明性と責任は、バイオメディカル研究や医療応用のような繊細な分野で促進される。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Self-eXplainable AI for Medical Image Analysis: A Survey and New Outlooks [9.93411316886105]
Self-eXplainable AI (S-XAI)は、ディープラーニングモデルのトレーニングプロセスに説明可能性を直接組み込む。
本稿では、説明可能性の望ましい特性と、説明品質を評価するための既存の評価方法について概説する。
論文 参考訳(メタデータ) (2024-10-03T09:29:28Z) - Subgroup Analysis via Model-based Rule Forest [0.0]
モデルベースDeep Rule Forests (mobDRF)は、データから透明なモデルを抽出するために設計された解釈可能な表現学習アルゴリズムである。
高齢者の認知機能低下の要因を明らかにするためにmobDRFを適用し,サブグループ分析と局所モデル最適化の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-27T13:40:15Z) - Robust Neural Information Retrieval: An Adversarial and Out-of-distribution Perspective [111.58315434849047]
ニューラルネットワーク検索モデル(IR)モデルの堅牢性は、大きな注目を集めている。
我々は、IRの堅牢性を多面的概念とみなし、敵攻撃、アウト・オブ・ディストリビューション(OOD)シナリオ、パフォーマンスのばらつきに対してその必要性を強調している。
我々は,既存の手法,データセット,評価指標について詳細な議論を行い,大規模言語モデルの時代における課題や今後の方向性に光を当てる。
論文 参考訳(メタデータ) (2024-07-09T16:07:01Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。