論文の概要: Human-aligned Deep Learning: Explainability, Causality, and Biological Inspiration
- arxiv url: http://arxiv.org/abs/2504.13717v1
- Date: Fri, 18 Apr 2025 14:40:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 15:31:13.991594
- Title: Human-aligned Deep Learning: Explainability, Causality, and Biological Inspiration
- Title(参考訳): ヒューマン・アライン・ディープ・ラーニング:説明可能性、因果性、生物学的吸入
- Authors: Gianluca Carloni,
- Abstract要約: この作業は、ディープラーニング(DL)を人間の推論能力と整合させ、より効率的で解釈可能で堅牢な画像分類を可能にする必要がある。
説明可能性、因果性、生物学的ビジョンの3つの視点からアプローチする。
i) シンプルなアクティベーションは医療画像DLモデルの洞察を欠く; (ii) プロトタイプ部分学習は効果的で、放射線学的に整列; (iii) XAIと因果MLは深く結びついている; (iv) 先行情報なしで弱い因果シグナルを利用でき、性能と解釈性が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aligns deep learning (DL) with human reasoning capabilities and needs to enable more efficient, interpretable, and robust image classification. We approach this from three perspectives: explainability, causality, and biological vision. Introduction and background open this work before diving into operative chapters. First, we assess neural networks' visualization techniques for medical images and validate an explainable-by-design method for breast mass classification. A comprehensive review at the intersection of XAI and causality follows, where we introduce a general scaffold to organize past and future research, laying the groundwork for our second perspective. In the causality direction, we propose novel modules that exploit feature co-occurrence in medical images, leading to more effective and explainable predictions. We further introduce CROCODILE, a general framework that integrates causal concepts, contrastive learning, feature disentanglement, and prior knowledge to enhance generalization. Lastly, we explore biological vision, examining how humans recognize objects, and propose CoCoReco, a connectivity-inspired network with context-aware attention mechanisms. Overall, our key findings include: (i) simple activation maximization lacks insight for medical imaging DL models; (ii) prototypical-part learning is effective and radiologically aligned; (iii) XAI and causal ML are deeply connected; (iv) weak causal signals can be leveraged without a priori information to improve performance and interpretability; (v) our framework generalizes across medical domains and out-of-distribution data; (vi) incorporating biological circuit motifs improves human-aligned recognition. This work contributes toward human-aligned DL and highlights pathways to bridge the gap between research and clinical adoption, with implications for improved trust, diagnostic accuracy, and safe deployment.
- Abstract(参考訳): この作業は、ディープラーニング(DL)を人間の推論能力と整合させ、より効率的で解釈可能で堅牢な画像分類を可能にする必要がある。
説明可能性、因果性、生物学的ビジョンの3つの視点からアプローチする。
導入とバックグラウンドは、作業章に飛び込む前に、この作業を開きます。
まず、医用画像に対するニューラルネットワークの可視化技術を評価し、乳房マス分類のための説明可能な設計法を検証する。
XAIと因果関係の交差点における総合的なレビューでは、過去と将来の研究を組織化するための一般的な足場を導入し、第2の視点の土台を築き上げました。
因果関係において,医用画像の特徴共起を利用した新たなモジュールを提案し,より効果的で説明可能な予測を行う。
CROCODILEは、因果概念、コントラスト学習、特徴の絡み合い、および一般化を強化するための事前知識を統合する一般的なフレームワークである。
最後に、生物の視覚を探求し、人間が物体を認識する方法を調べ、ココレコ(ココレコ)を提案する。
全体として、我々の重要な発見は以下のとおりである。
(i) シンプルな活性化最大化は、医療画像DLモデルに対する洞察を欠いている。
二 原型部分学習が有効で、かつ、放射線学的に整合していること。
三 XAI及び因果MLが深く結びついていること。
(四)弱因果信号は、事前情報なしで利用することができ、性能及び解釈性を向上させることができる。
(v)我々の枠組みは、医療領域とアウト・オブ・ディストリビューション・データにまたがって一般化される。
vi) 生体回路モチーフを組み込むことで, 人間の協調認識が向上する。
この研究は、人間との整合性のあるDLに寄与し、信頼性の向上、診断精度、安全なデプロイメントなど、研究と臨床実践のギャップを埋める経路を強調している。
関連論文リスト
- Knowledge-enhanced Visual-Language Pretraining for Computational Pathology [68.6831438330526]
本稿では,公共資源から収集した大規模画像テキストペアを利用した視覚的表現学習の課題について考察する。
ヒト32組織から病理診断を必要とする4,718の疾患に対して50,470個の情報属性からなる病理知識ツリーをキュレートする。
論文 参考訳(メタデータ) (2024-04-15T17:11:25Z) - Tokensome: Towards a Genetic Vision-Language GPT for Explainable and Cognitive Karyotyping [7.101960527853822]
Tokensomeは、染色体トークン化に基づく新しい視覚言語モデルである。
トケソームは、従来の視覚知覚層から認知的意思決定層へとメソッドを上昇させる。
論文 参考訳(メタデータ) (2024-03-17T03:38:50Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Knowledge Boosting: Rethinking Medical Contrastive Vision-Language
Pre-Training [6.582001681307021]
知識ブースティング・コントラスト・ビジョン・ランゲージ事前学習フレームワーク(KoBo)を提案する。
KoBoは、臨床知識を視覚言語意味一貫性の学習に統合する。
分類,セグメンテーション,検索,意味的関連性を含む8つのタスクに対するフレームワークの効果を検証する実験を行った。
論文 参考訳(メタデータ) (2023-07-14T09:38:22Z) - Multi-task Collaborative Pre-training and Individual-adaptive-tokens
Fine-tuning: A Unified Framework for Brain Representation Learning [3.1453938549636185]
協調的事前学習と個別学習を組み合わせた統合フレームワークを提案する。
提案したMCIATはADHD-200データセット上で最先端の診断性能を実現する。
論文 参考訳(メタデータ) (2023-06-20T08:38:17Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Representation Learning for Networks in Biology and Medicine:
Advancements, Challenges, and Opportunities [18.434430658837258]
我々は,ネットワークを用いたモデリング,分析,学習への表現学習技術の急速な拡大を目の当たりにした。
本論では,ネットワーク生物学と医学の長年の原則が,表現学習の概念的基盤を提供できるという見解を述べる。
位相的特徴を利用してネットワークをコンパクトなベクトル空間に埋め込むアルゴリズムアプローチのスペクトルを合成する。
論文 参考訳(メタデータ) (2021-04-11T00:20:00Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。