論文の概要: Explainable AI for Bioinformatics: Methods, Tools, and Applications
- arxiv url: http://arxiv.org/abs/2212.13261v1
- Date: Sun, 25 Dec 2022 21:00:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:52:35.433217
- Title: Explainable AI for Bioinformatics: Methods, Tools, and Applications
- Title(参考訳): バイオインフォマティクスのための説明可能なAI:方法、ツール、応用
- Authors: Md. Rezaul Karim, Tanhim Islam, Oya Beyan, Christoph Lange, Michael
Cochez, Dietrich Rebholz-Schuhmann and Stefan Decker
- Abstract要約: 説明可能な人工知能(XAI)は、ブラックボックスモデルの不透明さを軽減することを目的とした新興分野である。
本稿では,バイオインフォマティクスに着目した説明可能性の重要性について論じる。
- 参考スコア(独自算出の注目度): 1.6855835471222005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial intelligence(AI) systems based on deep neural networks (DNNs) and
machine learning (ML) algorithms are increasingly used to solve critical
problems in bioinformatics, biomedical informatics, and precision medicine.
However, complex DNN or ML models that are unavoidably opaque and perceived as
black-box methods, may not be able to explain why and how they make certain
decisions. Such black-box models are difficult to comprehend not only for
targeted users and decision-makers but also for AI developers. Besides, in
sensitive areas like healthcare, explainability and accountability are not only
desirable properties of AI but also legal requirements -- especially when AI
may have significant impacts on human lives. Explainable artificial
intelligence (XAI) is an emerging field that aims to mitigate the opaqueness of
black-box models and make it possible to interpret how AI systems make their
decisions with transparency. An interpretable ML model can explain how it makes
predictions and which factors affect the model's outcomes. The majority of
state-of-the-art interpretable ML methods have been developed in a
domain-agnostic way and originate from computer vision, automated reasoning, or
even statistics. Many of these methods cannot be directly applied to
bioinformatics problems, without prior customization, extension, and domain
adoption. In this paper, we discuss the importance of explainability with a
focus on bioinformatics. We analyse and comprehensively overview of
model-specific and model-agnostic interpretable ML methods and tools. Via
several case studies covering bioimaging, cancer genomics, and biomedical text
mining, we show how bioinformatics research could benefit from XAI methods and
how they could help improve decision fairness.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)と機械学習(ML)アルゴリズムに基づく人工知能(AI)システムは、バイオインフォマティクス、バイオメディカルインフォマティクス、精密医療における重要な問題を解決するためにますます利用されている。
しかし、必然的に不透明でブラックボックスメソッドとして認識される複雑なDNNまたはMLモデルは、なぜ、どのように決定するかを説明できないかもしれない。
このようなブラックボックスモデルは、ターゲットユーザや意思決定者だけでなく、AI開発者にとっても理解が難しい。
さらに、医療のような繊細な分野では、説明可能性と説明責任はAIの望ましい特性であるだけでなく、法的要件でもある。
説明可能な人工知能(XAI)は、ブラックボックスモデルの不透明性を緩和し、AIシステムが透明性でどのように意思決定するかを解釈できるようにすることを目的とした、新興分野である。
解釈可能なmlモデルは、どのように予測を行い、モデルの結果に影響を与える要因を説明することができる。
最先端の解釈可能なML手法の大部分は、ドメインに依存しない方法で開発され、コンピュータビジョン、自動推論、統計からもたらされている。
これらの手法の多くは、事前のカスタマイズ、拡張、ドメイン適用なしに、バイオインフォマティクス問題に直接適用することはできない。
本稿では,バイオインフォマティクスを中心とした説明可能性の重要性について論じる。
モデル固有およびモデル非依存の解釈可能なML手法とツールの解析と概観を行った。
バイオイメージング、がんゲノム学、バイオメディカルテキストマイニングに関するいくつかのケーススタディにより、バイオインフォマティクス研究がXAI手法の利点や、意思決定の公平性向上にどのように役立つかを示す。
関連論文リスト
- An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - Interpretable Medical Imagery Diagnosis with Self-Attentive
Transformers: A Review of Explainable AI for Health Care [2.7195102129095003]
ビジョントランスフォーマー(ViT)は、自己注意モジュールの恩恵を受け、最先端のコンピュータビジョンモデルとして登場した。
ディープラーニングモデルは複雑で、しばしば"ブラックボックス"として扱われる。
本稿では、最近のViTの進歩と、ViTの意思決定プロセスを理解するための解釈的アプローチを要約する。
論文 参考訳(メタデータ) (2023-09-01T05:01:52Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - OAK4XAI: Model towards Out-Of-Box eXplainable Artificial Intelligence
for Digital Agriculture [4.286327408435937]
我々は農業における知識を説明するために農業コンピューティングオントロジー(AgriComO)を構築した。
XAIは、意思決定と訓練されたAIモデルに対して、人間に理解可能な説明を提供しようとしている。
論文 参考訳(メタデータ) (2022-09-29T21:20:25Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。