論文の概要: Deep Transparent Prediction through Latent Representation Analysis
- arxiv url: http://arxiv.org/abs/2009.07044v2
- Date: Sun, 20 Sep 2020 22:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 02:32:54.024236
- Title: Deep Transparent Prediction through Latent Representation Analysis
- Title(参考訳): 潜時表現解析による深部透明予測
- Authors: D. Kollias, N. Bouas, Y. Vlaxos, V. Brillakis, M. Seferis, I. Kollia,
L. Sukissian, J. Wingate, and S. Kollias
- Abstract要約: 本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper presents a novel deep learning approach, which extracts latent
information from trained Deep Neural Networks (DNNs) and derives concise
representations that are analyzed in an effective, unified way for prediction
purposes. It is well known that DNNs are capable of analyzing complex data;
however, they lack transparency in their decision making, in the sense that it
is not straightforward to justify their prediction, or to visualize the
features on which the decision was based. Moreover, they generally require
large amounts of data in order to learn and become able to adapt to different
environments. This makes their use difficult in healthcare, where trust and
personalization are key issues. Transparency combined with high prediction
accuracy are the targeted goals of the proposed approach. It includes both
supervised DNN training and unsupervised learning of latent variables extracted
from the trained DNNs. Domain Adaptation from multiple sources is also
presented as an extension, where the extracted latent variable representations
are used to generate predictions in other, non-annotated, environments.
Successful application is illustrated through a large experimental study in
various fields: prediction of Parkinson's disease from MRI and DaTScans;
prediction of COVID-19 and pneumonia from CT scans and X-rays; optical
character verification in retail food packaging.
- Abstract(参考訳): 本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
dnnは複雑なデータを分析する能力があることはよく知られているが、意思決定の透明性が欠如しており、予測を正当化したり、その決定が基づいた特徴を視覚化したりすることは容易ではない。
さらに、学習と異なる環境への適応のためには、一般的に大量のデータを必要とする。
これにより、信頼とパーソナライゼーションが重要な問題である医療での使用が困難になる。
透明性と高い予測精度を組み合わせることが,提案手法の目標である。
トレーニングされたDNNから抽出された潜在変数の教師付きDNNトレーニングと教師なし学習の両方が含まれている。
複数のソースからのドメイン適応も拡張として提示され、抽出された潜在変数表現を使用して他の非アノテーション環境での予測を生成する。
mriとdatscansによるパーキンソン病の予測、ctスキャンとx線によるcovid-19と肺炎の予測、小売食品包装における光学的文字の検証など、さまざまな分野の大規模な実験研究で成功した。
関連論文リスト
- Explainable Diagnosis Prediction through Neuro-Symbolic Integration [11.842565087408449]
我々は、診断予測のための説明可能なモデルを開発するために、神経象徴的手法、特に論理ニューラルネットワーク(LNN)を用いている。
私たちのモデル、特に$M_textmulti-pathway$と$M_textcomprehensive$は、従来のモデルよりも優れたパフォーマンスを示します。
これらの知見は、医療AI応用における精度と説明可能性のギャップを埋める神経象徴的アプローチの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-01T22:47:24Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Do Deep Neural Networks Always Perform Better When Eating More Data? [82.6459747000664]
Identically Independent Distribution(IID)とOut of Distribution(OOD)による実験を設計する。
IID条件下では、情報の量は各サンプルの効果度、サンプルの寄与度、クラス間の差がクラス情報の量を決定する。
OOD条件下では、試料のクロスドメイン度が寄与を決定づけ、無関係元素によるバイアス適合はクロスドメインの重要な要素である。
論文 参考訳(メタデータ) (2022-05-30T15:40:33Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Confidence Aware Neural Networks for Skin Cancer Detection [12.300911283520719]
画像からの皮膚癌検出における不確かさを定量化する3つの方法を提案する。
その結果, 予測不確実性推定手法は, リスクや誤予測を予測できることがわかった。
また、アンサンブルアプローチは推論によって不確実性を捉える上でより信頼性が高いことを示す。
論文 参考訳(メタデータ) (2021-07-19T19:21:57Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Interpreting Uncertainty in Model Predictions For COVID-19 Diagnosis [0.0]
新型コロナウイルス(COVID-19)は、一般的なラボスワブ検査に加えて、診断の迅速化に補助ツールを使用する必要性が高まっている。
従来の畳み込みネットワークは、不確実性の捕捉に欠ける予測に点推定を用いる。
ベイジアン畳み込みニューラルネットワークを用いて計算された予測の不確実性を考慮した,不確実性とそのコンポーネントの解釈可能性に対処する可視化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-26T01:27:29Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。