論文の概要: An Explainable AI System for the Diagnosis of High Dimensional
Biomedical Data
- arxiv url: http://arxiv.org/abs/2107.01820v1
- Date: Mon, 5 Jul 2021 07:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 15:26:25.361097
- Title: An Explainable AI System for the Diagnosis of High Dimensional
Biomedical Data
- Title(参考訳): 高次元生体医学データの診断のための説明可能なaiシステム
- Authors: Alfred Ultsch, J\"org Hoffmann, Maximilian R\"ohnert, Malte Von Bonin,
Uta Oelschl\"agel, Cornelia Brendel, Michael C. Thrun
- Abstract要約: 本稿では,クラスタの分類(診断)が可能なALPODSという新しいAI手法を提案する。
特定サブ集団に対しては、ドメインエキスパートの典型的な言語で表現されるファジィ推論ルールが生成される。
これらのルールに基づいた可視化手法により、人間の専門家はAIシステムが使用する推論を理解することができる。
- 参考スコア(独自算出の注目度): 4.15623340386296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical state of the art flow cytometry data samples consists of measures of
more than 100.000 cells in 10 or more features. AI systems are able to diagnose
such data with almost the same accuracy as human experts. However, there is one
central challenge in such systems: their decisions have far-reaching
consequences for the health and life of people, and therefore, the decisions of
AI systems need to be understandable and justifiable by humans. In this work,
we present a novel explainable AI method, called ALPODS, which is able to
classify (diagnose) cases based on clusters, i.e., subpopulations, in the
high-dimensional data. ALPODS is able to explain its decisions in a form that
is understandable for human experts. For the identified subpopulations, fuzzy
reasoning rules expressed in the typical language of domain experts are
generated. A visualization method based on these rules allows human experts to
understand the reasoning used by the AI system. A comparison to a selection of
state of the art explainable AI systems shows that ALPODS operates efficiently
on known benchmark data and also on everyday routine case data.
- Abstract(参考訳): アートフローサイトメトリーデータサンプルの典型的な状態は、10以上の特徴を持つ100,000以上の細胞からなる。
aiシステムは、人間のエキスパートとほぼ同じ精度でこれらのデータを診断することができる。
しかし、そのようなシステムには1つの大きな課題がある。彼らの決定は人々の健康と生活に広範囲の影響を与えるため、aiシステムの決定は人間によって理解され、正当化される必要がある。
本研究では,高次元データにおけるクラスタ,すなわちサブポピュレーションに基づくケースの分類(診断)が可能な,ALPODSと呼ばれる新しいAI手法を提案する。
ALPODSはその決定を、人間の専門家にとって理解しやすい形で説明することができる。
特定された部分集団に対しては、ドメインエキスパートの典型的な言語で表現されるファジィ推論ルールが生成される。
これらのルールに基づいた可視化手法により、aiシステムが使用する推論を理解することができる。
アート説明可能なAIシステムの状態の選択と比較すると、ALPODSは既知のベンチマークデータや日常的なケースデータでも効率的に動作する。
関連論文リスト
- A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Process Knowledge-Infused AI: Towards User-level Explainability,
Interpretability, and Safety [25.027558410886407]
パーソナライズされた健康や食品レコメンデーションのための自己管理のような、高価値でセンシティブな、あるいは安全に重要なアプリケーションでは、その採用はありそうにない。
AIシステムは専門家が設定したガイドラインや明確なプロセスに従う必要がある。
AIシステムのユーザは、ユーザが理解可能な説明をする必要がある。
論文 参考訳(メタデータ) (2022-06-09T14:09:37Z) - A Human-Centric Assessment Framework for AI [11.065260433086024]
説明可能なAIシステムをどのように評価すべきかに関して合意された基準はない。
チューリングテストに触発されて,人間中心のアセスメントフレームワークを導入する。
このセットアップは、広範囲の人間中心のAIシステムアセスメントのためのフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-05-25T12:59:13Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。