論文の概要: FOAA: Flattened Outer Arithmetic Attention For Multimodal Tumor
Classification
- arxiv url: http://arxiv.org/abs/2403.06339v1
- Date: Sun, 10 Mar 2024 23:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:54:01.921870
- Title: FOAA: Flattened Outer Arithmetic Attention For Multimodal Tumor
Classification
- Title(参考訳): FOAA : マルチモーダル腫瘍分類のためのフレッテ付き外科学的注意
- Authors: Omnia Alwazzan (1 and 2), Ioannis Patras (1 and 2), Gregory Slabaugh
(1 and 2) ((1) School of Electronic Engineering and Computer Science, Queen
Mary University of London, UK, (2) Queen Mary Digital Environment Research
Institute (DERI), London, UK)
- Abstract要約: 我々はFlatted Outer Arithmetic Attention (FOAA)と呼ばれる新しい注意機構を提案する。
FOAAは、各モードの平らな埋め込みから得られるキー、クエリ、値から注目スコアを計算する。
マルチモーダル腫瘍分類のための2つのデータセット上でFOAAを評価し,最先端の結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fusion of multimodal healthcare data holds great promise to provide a
holistic view of a patient's health, taking advantage of the complementarity of
different modalities while leveraging their correlation. This paper proposes a
simple and effective approach, inspired by attention, to fuse discriminative
features from different modalities. We propose a novel attention mechanism,
called Flattened Outer Arithmetic Attention (FOAA), which relies on outer
arithmetic operators (addition, subtraction, product, and division) to compute
attention scores from keys, queries and values derived from flattened
embeddings of each modality. We demonstrate how FOAA can be implemented for
self-attention and cross-attention, providing a reusable component in neural
network architectures. We evaluate FOAA on two datasets for multimodal tumor
classification and achieve state-of-the-art results, and we demonstrate that
features enriched by FOAA are superior to those derived from other fusion
approaches. The code is publicly available at
\href{https://github.com/omniaalwazzan/FOAA}{https://github.com/omniaalwazzan/FOAA}
- Abstract(参考訳): マルチモーダル医療データの融合は、患者の健康の全体像を提供するための大きな約束であり、その相関を利用して異なるモダリティの相補性を活用する。
本稿では,注意に刺激されて,異なる形態の識別特徴を融合させる,シンプルで効果的なアプローチを提案する。
本稿では,キー,クエリ,および各モダリティのフラット化埋め込みから得られる値から注意スコアを計算するために,外部演算演算子(加算,減算,積,分割)に依存する新しい注意機構であるflattened outer arithmetic attention (foaa)を提案する。
我々は、FOAAが自己注意と相互注意のためにどのように実装され、ニューラルネットワークアーキテクチャにおける再利用可能なコンポーネントを提供するかを実証する。
複数モーダル腫瘍分類のための2つのデータセット上でFOAAを評価し, FOAAに富む特徴が他の融合法より優れていることを示す。
コードは \href{https://github.com/omniaalwazzan/FOAA}{https://github.com/omniaalwazzan/FOAA} で公開されている。
関連論文リスト
- Alpha Entropy Search for New Information-based Bayesian Optimization [9.749560288448116]
我々はAlpha Entropy Search (AES)と呼ばれる新しい情報に基づく獲得関数のクラスを導入する。
AESは、KL(Kulback-Leibler)の発散を一般化するα偏差に基づいている。
論文 参考訳(メタデータ) (2024-11-25T17:19:30Z) - FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - Mining Relations among Cross-Frame Affinities for Video Semantic
Segmentation [87.4854250338374]
関連性間の関係を, 単一スケールの内在的相関と多スケールの関係という2つの側面で検討する。
実験により,提案手法は最先端のVSS法に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2022-07-21T12:12:36Z) - Good Visual Guidance Makes A Better Extractor: Hierarchical Visual
Prefix for Multimodal Entity and Relation Extraction [88.6585431949086]
本稿では,視覚的な実体と関係抽出のための階層型ビジュアルプレフィックス融合NeTwork(HVPNeT)を提案する。
視覚的表現をプラグ可能な視覚的接頭辞とみなして, 誤りに敏感な予測決定のためのテキスト的表現を導出する。
3つのベンチマークデータセットの実験により,本手法の有効性が実証され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2022-05-07T02:10:55Z) - A Joint Cross-Attention Model for Audio-Visual Fusion in Dimensional Emotion Recognition [46.443866373546726]
ビデオから抽出した顔と声の融合に基づく次元的感情認識に焦点を当てた。
本稿では, 相補的関係に依拠し, 有意な特徴を抽出する連係関係モデルを提案する。
提案したA-V融合モデルにより,最先端の手法より優れたコスト効率のソリューションが提供される。
論文 参考訳(メタデータ) (2022-03-28T14:09:43Z) - Cross Attentional Audio-Visual Fusion for Dimensional Emotion Recognition [13.994609732846344]
最も効果的な感情認識技術は、多種多様な情報ソースを効果的に活用する。
本稿では,音声視覚(A-V)モダリティ間で有意な特徴を抽出するための相互注意型融合手法を提案する。
その結果、我々のA-V融合モデルは、最先端の融合アプローチよりも優れたコスト効率のアプローチであることが示唆された。
論文 参考訳(メタデータ) (2021-11-09T16:01:56Z) - Deep AUC Maximization for Medical Image Classification: Challenges and
Opportunities [60.079782224958414]
我々は、AUCによる新たな深層学習手法による機会と課題を提示し、議論する(別名、アンダーラインbfディープアンダーラインbfAUC分類)。
論文 参考訳(メタデータ) (2021-11-01T15:31:32Z) - Federated Deep AUC Maximization for Heterogeneous Data with a Constant
Communication Complexity [77.78624443410216]
異種胸部データ検出のための改良型FDAMアルゴリズムを提案する。
本研究は,提案アルゴリズムの通信が機械数に強く依存し,精度レベルにも強く依存していることを示す。
FDAMアルゴリズムのベンチマークデータセットと、異なる組織の医療用胸部X線画像に対する効果を実験により実証した。
論文 参考訳(メタデータ) (2021-02-09T04:05:19Z) - SelfORE: Self-supervised Relational Feature Learning for Open Relation
Extraction [60.08464995629325]
オープンドメイン関係抽出は、自然言語文からオープンドメイン関係事実を抽出するタスクである。
弱い自己教師型信号を利用する自己教師型フレームワークであるSelfOREを提案する。
3つのデータセットの実験結果は、SelfOREの有効性とロバスト性を示している。
論文 参考訳(メタデータ) (2020-04-06T07:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。