論文の概要: Comparison of attention models and post-hoc explanation methods for
embryo stage identification: a case study
- arxiv url: http://arxiv.org/abs/2205.06546v1
- Date: Fri, 13 May 2022 10:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 20:06:22.442961
- Title: Comparison of attention models and post-hoc explanation methods for
embryo stage identification: a case study
- Title(参考訳): 胚のステージ識別における注意モデルとポストホックな説明法の比較
- Authors: Tristan Gomez, Thomas Fr\'eour, Harold Mouch\`ere
- Abstract要約: 解釈可能なAIの必要性は、IVF分野だけでなく、ディープラーニングコミュニティにおいても高まっている。
この傾向は文献で始まり、著者は汎用的な説明法を評価するために客観的なメトリクスを設計することに集中している。
本稿では,最近提案された胚段階同定問題に適用された目的的忠実度指標の挙動について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important limitation to the development of AI-based solutions for In Vitro
Fertilization (IVF) is the black-box nature of most state-of-the-art models,
due to the complexity of deep learning architectures, which raises potential
bias and fairness issues. The need for interpretable AI has risen not only in
the IVF field but also in the deep learning community in general. This has
started a trend in literature where authors focus on designing objective
metrics to evaluate generic explanation methods. In this paper, we study the
behavior of recently proposed objective faithfulness metrics applied to the
problem of embryo stage identification. We benchmark attention models and
post-hoc methods using metrics and further show empirically that (1) the
metrics produce low overall agreement on the model ranking and (2) depending on
the metric approach, either post-hoc methods or attention models are favored.
We conclude with general remarks about the difficulty of defining faithfulness
and the necessity of understanding its relationship with the type of approach
that is favored.
- Abstract(参考訳): In Vitro Fertilization (IVF)のためのAIベースのソリューションの開発に重要な制限は、ディープラーニングアーキテクチャの複雑さのため、ほとんどの最先端モデルのブラックボックスの性質である。
解釈可能なAIの必要性は、IVF分野だけでなく、一般のディープラーニングコミュニティでも高まっている。
この傾向は文献で始まり、著者は汎用的な説明法を評価するために客観的なメトリクスを設計することに集中している。
本稿では,最近提案された胚段階同定問題に適用された目的的忠実度指標の挙動について検討する。
評価指標を用いて注意モデルとポストホック法をベンチマークし,さらに,(1)指標がモデルランキングの全体的な一致度が低いこと,(2)メトリックアプローチにより,ポストホック法や注意モデルが好まれること,を実証的に示す。
最後に、忠実性を定義することの難しさと、好まれるアプローチの種類との関係を理解する必要性について、一般的なコメントで締めくくります。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Towards a Unified Framework for Evaluating Explanations [0.6138671548064356]
我々は、モデルと利害関係者の間の仲介者として、本質的に解釈可能なモデルであれ、不透明なブラックボックスモデルであれ、説明が役立ちます。
本稿では,学習者の行動を予測するための解釈可能なニューラルネットワークの例を用いて,これらの基準と具体的な評価手法について述べる。
論文 参考訳(メタデータ) (2024-05-22T21:49:28Z) - A Generalization Theory of Cross-Modality Distillation with Contrastive Learning [49.35244441141323]
クロスモダリティ蒸留は、限られた知識を含むデータモダリティにとって重要なトピックである。
コントラスト学習に基づくクロスモーダルコントラスト蒸留(CMCD)の一般的な枠組みを定式化する。
我々のアルゴリズムは、様々なモダリティやタスクに対して、2-3%のマージンで既存のアルゴリズムを一貫して上回ります。
論文 参考訳(メタデータ) (2024-05-06T11:05:13Z) - A Guide to Feature Importance Methods for Scientific Inference [10.31256905045161]
特徴重要度(FI)法はデータ生成過程(DGP)に有用な洞察を与える
本稿では,グローバルFI手法の解釈の理解を支援するための包括的ガイドとして機能する。
論文 参考訳(メタデータ) (2024-04-19T13:01:59Z) - Unsupervised discovery of Interpretable Visual Concepts [0.0]
モデルの決定を説明する2つの方法を提案し,グローバルな解釈可能性を高める。
咬合・感性分析(因果性を含む)にインスパイアされた1つの方法
別の方法は、クラス認識順序相関 (Class-Aware Order correlation, CAOC) と呼ばれる新しいメトリクスを用いて、最も重要な画像領域を世界規模で評価する。
論文 参考訳(メタデータ) (2023-08-31T07:53:02Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - MUC-driven Feature Importance Measurement and Adversarial Analysis for
Random Forest [1.5896078006029473]
我々は形式的手法と論理的推論を活用して、ランダムフォレスト(RF)の予測を説明する新しいモデル固有の方法を開発した。
提案手法は, 最小不飽和コア(MUC)を中心に, 特徴重要度, 局所的・グローバル的側面, および対向的サンプル分析に関する包括的ソリューションを提供する。
提案手法はユーザ中心のレポートを作成でき,リアルタイムアプリケーションにレコメンデーションを提供するのに役立つ。
論文 参考訳(メタデータ) (2022-02-25T06:15:47Z) - CogME: A Cognition-Inspired Multi-Dimensional Evaluation Metric for Story Understanding [19.113385429326808]
本稿では,物語理解に着目したAIモデルを対象とした認知型多次元評価指標であるCogMEを紹介する。
我々は,タスクの性質を理解することに基づくメトリクスの必要性を論じ,人間の認知過程と密接に整合するように設計されている。
このアプローチは、従来の全体的なスコアを超えて洞察を提供し、より高い認知機能をターゲットにしたより洗練されたAI開発のための道を開く。
論文 参考訳(メタデータ) (2021-07-21T02:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。