論文の概要: Disentangled representations: towards interpretation of sex
determination from hip bone
- arxiv url: http://arxiv.org/abs/2112.09414v1
- Date: Fri, 17 Dec 2021 10:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 22:28:11.686045
- Title: Disentangled representations: towards interpretation of sex
determination from hip bone
- Title(参考訳): 異所性表現 : 股関節からの性決定の解釈に向けて
- Authors: Kaifeng Zou, Sylvain Faisan, Fabrice Heitz, Marie Epain, Pierre
Croisille, Laurent Fanton, S\'ebastien Valette
- Abstract要約: サリエンシマップは ニューラルネットワークを解釈する 一般的な方法になっています
我々は、より良い解釈可能性のための新しいパラダイムを提案する。
法医学における股関節からの自動性決定の文脈におけるこのアプローチの意義について述べる。
- 参考スコア(独自算出の注目度): 1.0775419935941009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By highlighting the regions of the input image that contribute the most to
the decision, saliency maps have become a popular method to make neural
networks interpretable. In medical imaging, they are particularly well-suited
to explain neural networks in the context of abnormality localization. However,
from our experiments, they are less suited to classification problems where the
features that allow to distinguish between the different classes are spatially
correlated, scattered and definitely non-trivial. In this paper we thus propose
a new paradigm for better interpretability. To this end we provide the user
with relevant and easily interpretable information so that he can form his own
opinion. We use Disentangled Variational Auto-Encoders which latent
representation is divided into two components: the non-interpretable part and
the disentangled part. The latter accounts for the categorical variables
explicitly representing the different classes of interest. In addition to
providing the class of a given input sample, such a model offers the
possibility to transform the sample from a given class to a sample of another
class, by modifying the value of the categorical variables in the latent
representation. This paves the way to easier interpretation of class
differences. We illustrate the relevance of this approach in the context of
automatic sex determination from hip bones in forensic medicine. The features
encoded by the model, that distinguish the different classes were found to be
consistent with expert knowledge.
- Abstract(参考訳): 決定に最も寄与する入力画像の領域を強調することで、サリエンシマップはニューラルネットワークを解釈可能にするための一般的な方法となっている。
医用イメージングでは、異常局在の文脈でニューラルネットワークを説明するのに特に適しています。
しかし,本実験では,異なるクラスを区別できる特徴が空間的に相関し,散在し,非自明であるような分類問題にはあまり適していない。
本稿では,解釈性を向上させるための新しいパラダイムを提案する。
この目的のために、ユーザに対して、ユーザが自身の意見を形成できるように、適切かつ容易に解釈可能な情報を提供する。
潜在表現を2つの成分(非可読部分と不連続部分)に分割した不等角変分オートエンコーダを用いる。
後者は、異なる関心のクラスを明示的に表す分類変数を記述している。
与えられた入力サンプルのクラスを提供するのに加えて、そのようなモデルは、潜在表現におけるカテゴリ変数の値を変更することによって、サンプルを与えられたクラスから別のクラスのサンプルに変換することができる。
これによりクラスの違いの解釈が容易になる。
法医学における股関節からの自動性決定の文脈におけるこのアプローチの意義について述べる。
異なるクラスを区別するモデルによって符号化された特徴は、専門家の知識と一致していることがわかった。
関連論文リスト
- Finding Interpretable Class-Specific Patterns through Efficient Neural
Search [43.454121220860564]
本稿では、データから微分パターンを抽出する、本質的に解釈可能なバイナリニューラルネットワークアーキテクチャDNAPSを提案する。
DiffNapsは何十万もの機能にスケーラブルで、ノイズに強い。
3つの生物学的応用を含む人工的および実世界のデータについて、DiffNapsは競合と異なり、常に正確で簡潔で解釈可能なクラス記述を生成する。
論文 参考訳(メタデータ) (2023-12-07T14:09:18Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - A Test Statistic Estimation-based Approach for Establishing
Self-interpretable CNN-based Binary Classifiers [7.424003880270276]
ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
提案手法は自己解釈可能で定量的であり,従来のポストホック・インタプリタビリティ法とは異なり,自己解釈可能で定量的である。
論文 参考訳(メタデータ) (2023-03-13T05:51:35Z) - Neural Representations Reveal Distinct Modes of Class Fitting in
Residual Convolutional Networks [5.1271832547387115]
ニューラル表現の確率モデルを利用して、残余ネットワークがクラスにどのように適合するかを調べる。
調査対象モデルのクラスは均一に適合していないことがわかった。
神経表現の未発見構造は, トレーニング例の堅牢性と, 対向記憶の相関性を示す。
論文 参考訳(メタデータ) (2022-12-01T18:55:58Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Invariant Representations with Stochastically Quantized Neural Networks [5.7923858184309385]
本稿では,ニューラル層とセンシティブ属性間の相互情報の直接計算手法を提案する。
本手法は,公正表現学習における技術状況と良好に比較できることを示す。
論文 参考訳(メタデータ) (2022-08-04T13:36:06Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。