論文の概要: When will the mist clear? On the Interpretability of Machine Learning
for Medical Applications: a survey
- arxiv url: http://arxiv.org/abs/2010.00353v1
- Date: Thu, 1 Oct 2020 12:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:35:01.428263
- Title: When will the mist clear? On the Interpretability of Machine Learning
for Medical Applications: a survey
- Title(参考訳): 霧はいつ晴れますか。
医療応用における機械学習の解釈可能性に関する調査
- Authors: Antonio-Jes\'us Banegas-Luna, Jorge Pe\~na-Garc\'ia, Adrian Iftene,
Fiorella Guadagni, Patrizia Ferroni, Noemi Scarpato, Fabio Massimo Zanzotto,
Andr\'es Bueno-Crespo, Horacio P\'erez-S\'anchez
- Abstract要約: 医学に適用された現在の機械学習モデル、フレームワーク、データベース、その他の関連ツールを分析します。
利用可能な証拠から、ANN、LR、SVMが好ましいモデルであることが観察されている。
本稿では,その解釈可能性,性能,必要な入力データについて論じる。
- 参考スコア(独自算出の注目度): 0.056212519098516295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence is providing astonishing results, with medicine being
one of its favourite playgrounds. In a few decades, computers may be capable of
formulating diagnoses and choosing the correct treatment, while robots may
perform surgical operations, and conversational agents could interact with
patients as virtual coaches. Machine Learning and, in particular, Deep Neural
Networks are behind this revolution. In this scenario, important decisions will
be controlled by standalone machines that have learned predictive models from
provided data. Among the most challenging targets of interest in medicine are
cancer diagnosis and therapies but, to start this revolution, software tools
need to be adapted to cover the new requirements. In this sense, learning tools
are becoming a commodity in Python and Matlab libraries, just to name two, but
to exploit all their possibilities, it is essential to fully understand how
models are interpreted and which models are more interpretable than others. In
this survey, we analyse current machine learning models, frameworks, databases
and other related tools as applied to medicine - specifically, to cancer
research - and we discuss their interpretability, performance and the necessary
input data. From the evidence available, ANN, LR and SVM have been observed to
be the preferred models. Besides, CNNs, supported by the rapid development of
GPUs and tensor-oriented programming libraries, are gaining in importance.
However, the interpretability of results by doctors is rarely considered which
is a factor that needs to be improved. We therefore consider this study to be a
timely contribution to the issue.
- Abstract(参考訳): 人工知能は驚くべき結果をもたらしています。
数十年後には、コンピューターは診断を定式化し正しい治療を選択することができ、ロボットは外科手術を行うことができ、会話エージェントは仮想コーチとして患者と対話することができる。
機械学習と、特にDeep Neural Networksは、この革命の背後にある。
このシナリオでは、提供されたデータから予測モデルを学んだスタンドアロンマシンによって重要な決定が制御されます。
医学における最も難しいターゲットは、がんの診断と治療だが、この革命を始めるためには、ソフトウェアツールを新しい要件に適合させる必要がある。
この意味では、学習ツールはpythonとmatlabライブラリのコモディティになりつつあるが、それらの可能性をすべて活用するには、モデルがどのように解釈され、どのモデルが他のライブラリよりも解釈しやすいかを十分に理解する必要がある。
本研究では、現在の機械学習モデル、フレームワーク、データベース、その他の関連するツールを医学(特にがん研究)に適用して分析し、その解釈可能性、性能、必要な入力データについて議論する。
利用可能な証拠から、ANN、LR、SVMが好ましいモデルであることが観察されている。
さらに、GPUとテンソル指向プログラミングライブラリの急速な開発によってサポートされているCNNの重要性が高まっている。
しかし、医師による結果の解釈性が改善すべき要因であると考えることはまれである。
そこで本研究では,この問題に対するタイムリーな貢献とみなす。
関連論文リスト
- Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - EndToEndML: An Open-Source End-to-End Pipeline for Machine Learning Applications [0.2826977330147589]
機械学習モデルの事前処理、トレーニング、評価、可視化が可能なWebベースのエンドツーエンドパイプラインを提案する。
本ライブラリは,マルチモーダル・マルチセンサ・データセットの認識,分類,クラスタリング,および予測を支援する。
論文 参考訳(メタデータ) (2024-03-27T02:24:38Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Explainable AI for Bioinformatics: Methods, Tools, and Applications [1.6855835471222005]
説明可能な人工知能(XAI)は、ブラックボックスモデルの不透明さを軽減することを目的とした新興分野である。
本稿では,バイオインフォマティクスに着目した説明可能性の重要性について論じる。
論文 参考訳(メタデータ) (2022-12-25T21:00:36Z) - Explainable, Domain-Adaptive, and Federated Artificial Intelligence in
Medicine [5.126042819606137]
我々は、AIによる医療意思決定における特定の課題に対処する3つの主要な方法論的アプローチに焦点を当てる。
ドメイン適応と転送学習により、AIモデルをトレーニングし、複数のドメインにわたって適用することができる。
フェデレーテッド・ラーニングは、機密性の高い個人情報を漏らさずに大規模なモデルを学習することを可能にする。
論文 参考訳(メタデータ) (2022-11-17T03:32:00Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - SIBILA: A novel interpretable ensemble of general-purpose machine
learning models applied to medical contexts [0.0]
SIBILAは、機械学習とディープラーニングモデルのアンサンブルである。
これは、最も関連する入力特徴を特定するために、様々な解釈可能性アルゴリズムを適用している。
2つの医学ケーススタディに適用され、分類問題における予測能力を示している。
論文 参考訳(メタデータ) (2022-05-12T17:23:24Z) - Importance measures derived from random forests: characterisation and
extension [0.2741266294612776]
この論文は、機械学習アルゴリズムの特定のファミリーによって構築されたモデルの解釈可能性を改善することを目的としている。
これらのモデルを解釈するためにいくつかのメカニズムが提案されており、この理論に沿ってそれらの理解を改善することを目指している。
論文 参考訳(メタデータ) (2021-06-17T13:23:57Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。