論文の概要: Comparison of attention models and post-hoc explanation methods for
embryo stage identification: a case study
- arxiv url: http://arxiv.org/abs/2205.06546v1
- Date: Fri, 13 May 2022 10:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 20:06:22.442961
- Title: Comparison of attention models and post-hoc explanation methods for
embryo stage identification: a case study
- Title(参考訳): 胚のステージ識別における注意モデルとポストホックな説明法の比較
- Authors: Tristan Gomez, Thomas Fr\'eour, Harold Mouch\`ere
- Abstract要約: 解釈可能なAIの必要性は、IVF分野だけでなく、ディープラーニングコミュニティにおいても高まっている。
この傾向は文献で始まり、著者は汎用的な説明法を評価するために客観的なメトリクスを設計することに集中している。
本稿では,最近提案された胚段階同定問題に適用された目的的忠実度指標の挙動について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important limitation to the development of AI-based solutions for In Vitro
Fertilization (IVF) is the black-box nature of most state-of-the-art models,
due to the complexity of deep learning architectures, which raises potential
bias and fairness issues. The need for interpretable AI has risen not only in
the IVF field but also in the deep learning community in general. This has
started a trend in literature where authors focus on designing objective
metrics to evaluate generic explanation methods. In this paper, we study the
behavior of recently proposed objective faithfulness metrics applied to the
problem of embryo stage identification. We benchmark attention models and
post-hoc methods using metrics and further show empirically that (1) the
metrics produce low overall agreement on the model ranking and (2) depending on
the metric approach, either post-hoc methods or attention models are favored.
We conclude with general remarks about the difficulty of defining faithfulness
and the necessity of understanding its relationship with the type of approach
that is favored.
- Abstract(参考訳): In Vitro Fertilization (IVF)のためのAIベースのソリューションの開発に重要な制限は、ディープラーニングアーキテクチャの複雑さのため、ほとんどの最先端モデルのブラックボックスの性質である。
解釈可能なAIの必要性は、IVF分野だけでなく、一般のディープラーニングコミュニティでも高まっている。
この傾向は文献で始まり、著者は汎用的な説明法を評価するために客観的なメトリクスを設計することに集中している。
本稿では,最近提案された胚段階同定問題に適用された目的的忠実度指標の挙動について検討する。
評価指標を用いて注意モデルとポストホック法をベンチマークし,さらに,(1)指標がモデルランキングの全体的な一致度が低いこと,(2)メトリックアプローチにより,ポストホック法や注意モデルが好まれること,を実証的に示す。
最後に、忠実性を定義することの難しさと、好まれるアプローチの種類との関係を理解する必要性について、一般的なコメントで締めくくります。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Unsupervised discovery of Interpretable Visual Concepts [0.0]
モデルの決定を説明する2つの方法を提案し,グローバルな解釈可能性を高める。
咬合・感性分析(因果性を含む)にインスパイアされた1つの方法
別の方法は、クラス認識順序相関 (Class-Aware Order correlation, CAOC) と呼ばれる新しいメトリクスを用いて、最も重要な画像領域を世界規模で評価する。
論文 参考訳(メタデータ) (2023-08-31T07:53:02Z) - Variance-Preserving-Based Interpolation Diffusion Models for Speech
Enhancement [53.2171981279647]
本稿では,VP-および分散拡散(VE)に基づく拡散法の両方をカプセル化するフレームワークを提案する。
本研究では,拡散モデルで発生する一般的な困難を解析し,性能の向上とモデルトレーニングの容易化を図る。
我々は,提案手法の有効性を示すために,公開ベンチマークを用いたいくつかの手法によるモデルの評価を行った。
論文 参考訳(メタデータ) (2023-06-14T14:22:22Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - MUC-driven Feature Importance Measurement and Adversarial Analysis for
Random Forest [1.5896078006029473]
我々は形式的手法と論理的推論を活用して、ランダムフォレスト(RF)の予測を説明する新しいモデル固有の方法を開発した。
提案手法は, 最小不飽和コア(MUC)を中心に, 特徴重要度, 局所的・グローバル的側面, および対向的サンプル分析に関する包括的ソリューションを提供する。
提案手法はユーザ中心のレポートを作成でき,リアルタイムアプリケーションにレコメンデーションを提供するのに役立つ。
論文 参考訳(メタデータ) (2022-02-25T06:15:47Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z) - Calibrating Healthcare AI: Towards Reliable and Interpretable Deep
Predictive Models [41.58945927669956]
これらの2つの目的は必ずしも相違するものではなく、予測キャリブレーションを利用して両方の目的を満たすことを提案する。
本手法はキャリブレーション駆動型学習法により構成され, 対実的推論に基づく解釈可能性手法の設計にも用いられている。
論文 参考訳(メタデータ) (2020-04-27T22:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。