論文の概要: Delving into Ipsilateral Mammogram Assessment under Multi-View Network
- arxiv url: http://arxiv.org/abs/2309.02197v1
- Date: Tue, 5 Sep 2023 12:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 14:41:44.086759
- Title: Delving into Ipsilateral Mammogram Assessment under Multi-View Network
- Title(参考訳): マルチビューネットワークによる側方マンモグラフィーの評価
- Authors: Thai Ngoc Toan Truong, Thanh-Huy Nguyen, Ba Thinh Lam, Vu Minh Duy
Nguyen, Hong Phuc Nguyen
- Abstract要約: ミドルフュージョンは最もバランスの取れた効果的なアプローチとして登場し、ディープラーニングモデルの一般化性能を高めている。
本稿では,多視点ネットワーク抽出におけるレイヤ割り当ての重要性を強調した。
- 参考スコア(独自算出の注目度): 1.1374578778690618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many recent years, multi-view mammogram analysis has been focused widely
on AI-based cancer assessment. In this work, we aim to explore diverse fusion
strategies (average and concatenate) and examine the model's learning behavior
with varying individuals and fusion pathways, involving Coarse Layer and Fine
Layer. The Ipsilateral Multi-View Network, comprising five fusion types (Pre,
Early, Middle, Last, and Post Fusion) in ResNet-18, is employed. Notably, the
Middle Fusion emerges as the most balanced and effective approach, enhancing
deep-learning models' generalization performance by +5.29\% (concatenate) and
+5.9\% (average) in VinDr-Mammo dataset and +2.03\% (concatenate) and +3\%
(average) in CMMD dataset on macro F1-Score. The paper emphasizes the crucial
role of layer assignment in multi-view network extraction with various
strategies.
- Abstract(参考訳): 近年、マルチビューマンモグラフィー分析はAIに基づくがん評価に広く焦点が当てられている。
本研究では,多種多様な融合戦略(平均的および連結的)を探求し,粗層と微細層を含む様々な個人と融合経路を用いてモデルの学習行動を検討することを目的とする。
ResNet-18の5つの融合タイプ(Pre, Early, Middle, Last, Post Fusion)からなるIpsilateral Multi-View Networkが採用されている。
特に、ミドルフュージョンは最もバランスよく効果的なアプローチとして現れ、VinDr-Mammoデータセットでは+5.29\%(連結)と+5.9\%(平均)、マクロF1-Score上のCMMDデータセットでは+2.03\%(連結)と+3\%(平均)のディープラーニングモデルの一般化性能を高める。
本稿では,多視点ネットワーク抽出におけるレイヤ割り当ての重要性を強調する。
関連論文リスト
- VLM2Vec: Training Vision-Language Models for Massive Multimodal Embedding Tasks [60.5257456681402]
我々は、幅広い下流タスクを扱える普遍的な埋め込みモデルを構築している。
1 MMEB(Massive Multimodal Embedding Benchmark)は、4 つのメタタスク(分類、視覚的質問応答、マルチモーダル検索、視覚的グラウンド)と36 つのデータセット(20 のトレーニングと16 の評価データセットを含む)と、2 の VLM2Vec (Vision-Language Model -> Vector) を含む。
論文 参考訳(メタデータ) (2024-10-07T16:14:05Z) - How Intermodal Interaction Affects the Performance of Deep Multimodal Fusion for Mixed-Type Time Series [3.6958071416494414]
MTTS(Mixed-type Time Series)は、医療、金融、環境モニタリング、ソーシャルメディアなど、多くの分野で一般的なバイモーダルデータである。
マルチモーダル融合による両モードの統合はMTTSの処理において有望なアプローチである。
MTTS予測のための深層多モード融合手法の総合評価を行った。
論文 参考訳(メタデータ) (2024-06-21T12:26:48Z) - A Comparative Assessment of Multi-view fusion learning for Crop
Classification [3.883984493622102]
この研究は、CropHarvestデータセットにおける作物分類のための異なる融合戦略を評価する。
本稿では,3つの異なるデータセットに対する多視点融合法の比較を行い,テスト領域によって異なる手法が最高の性能を得ることを示す。
論文 参考訳(メタデータ) (2023-08-10T08:03:58Z) - Multimodal Multi-loss Fusion Network for Sentiment Analysis [3.8611070161950902]
本稿では,複数のモードにまたがる特徴エンコーダの最適選択と融合について検討し,感情検出を改善する。
我々は、異なる融合法を比較し、マルチモダリティ融合ネットワークにおけるマルチロストレーニングの影響について検討する。
コンテキストの統合はモデルの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-01T03:54:27Z) - Deep Equilibrium Multimodal Fusion [88.04713412107947]
多重モーダル融合は、複数のモーダルに存在する相補的な情報を統合し、近年多くの注目を集めている。
本稿では,動的多モード核融合プロセスの固定点を求めることにより,多モード核融合に対する新しいDeep equilibrium (DEQ)法を提案する。
BRCA,MM-IMDB,CMU-MOSI,SUN RGB-D,VQA-v2の実験により,DEC融合の優位性が示された。
論文 参考訳(メタデータ) (2023-06-29T03:02:20Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Refined Deep Neural Network and U-Net for Polyps Segmentation [2.2997477356053255]
Inception module, Adaptive Convolutional Neural Network with U-Net model, and PraNet for semantic segmentation of various types of polyps in endoscopic image。
提案手法は,複数実験による精度と効率性を示すとともに,Jaccardインデックス0.765で上位3位にランクインした。
論文 参考訳(メタデータ) (2021-05-31T10:02:52Z) - A novel multimodal fusion network based on a joint coding model for lane
line segmentation [22.89466867866239]
本稿では,情報理論の観点から新しいマルチモーダル融合アーキテクチャを提案する。
LiDARカメラ融合ネットワークを用いた実用性を発揮します。
我々の最適核融合ネットワークは85%以上の車線精度と98.7%以上の全体を達成する。
論文 参考訳(メタデータ) (2021-03-20T06:47:58Z) - MAGNet: Multi-agent Graph Network for Deep Multi-agent Reinforcement
Learning [70.540936204654]
マルチエージェント強化学習のための新しい手法であるMAGnetを提案する。
我々は、最先端のMARLソリューションよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2020-12-17T17:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。