論文の概要: AdaTriplet: Adaptive Gradient Triplet Loss with Automatic Margin
Learning for Forensic Medical Image Matching
- arxiv url: http://arxiv.org/abs/2205.02849v1
- Date: Thu, 5 May 2022 12:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 01:49:18.619313
- Title: AdaTriplet: Adaptive Gradient Triplet Loss with Automatic Margin
Learning for Forensic Medical Image Matching
- Title(参考訳): adatriplet: 医用画像マッチングのための自動マージン学習による適応勾配三重項損失
- Authors: Khanh Nguyen and Huy Hoang Nguyen and Aleksei Tiulpin
- Abstract要約: 本稿では、ディープニューラルネットワーク(DNN)を用いた法医学的医用画像マッチング(FMIM)の課題に取り組む。
FMIMは、コンテンツベース画像検索(CBIR)の特殊な例である
FMIMの課題は、CBIRの一般的な場合と比較して、クエリ画像に属する対象が加齢や進行性変性障害の影響を受けやすい点である。
- 参考スコア(独自算出の注目度): 5.169375310624994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper tackles the challenge of forensic medical image matching (FMIM)
using deep neural networks (DNNs). FMIM is a particular case of content-based
image retrieval (CBIR). The main challenge in FMIM compared to the general case
of CBIR, is that the subject to whom a query image belongs may be affected by
aging and progressive degenerative disorders, making it difficult to match data
on a subject level. CBIR with DNNs is generally solved by minimizing a ranking
loss, such as Triplet loss (TL), computed on image representations extracted by
a DNN from the original data. TL, in particular, operates on triplets: anchor,
positive (similar to anchor) and negative (dissimilar to anchor). Although TL
has been shown to perform well in many CBIR tasks, it still has limitations,
which we identify and analyze in this work. In this paper, we introduce (i) the
AdaTriplet loss -- an extension of TL whose gradients adapt to different
difficulty levels of negative samples, and (ii) the AutoMargin method -- a
technique to adjust hyperparameters of margin-based losses such as TL and our
proposed loss dynamically. Our results are evaluated on two large-scale
benchmarks for FMIM based on the Osteoarthritis Initiative and Chest X-ray-14
datasets. The codes allowing replication of this study have been made publicly
available at \url{https://github.com/Oulu-IMEDS/AdaTriplet}.
- Abstract(参考訳): 本稿では,深層ニューラルネットワーク(dnn)を用いた法医学画像マッチング(fmim)の課題に取り組む。
FMIMは、コンテンツベース画像検索(CBIR)の特殊な例である。
FMIMにおける主な課題は、CBIRの一般的な場合と比較して、クエリ画像に属する被写体が加齢や進行性変性障害の影響を受けやすいため、被写体レベルでのデータの一致が困難である点である。
DNNを用いたCBIRは、元のデータからDNNによって抽出された画像表現に基づいて計算されたトリプルト損失(TL)のようなランキング損失を最小限にすることで、一般的に解決される。
特にTLは、アンカー、正(アンカーと似ている)、負(アンカーと似ている)の三重項で動作する。
TLは、多くのCBIRタスクでよく機能することが示されているが、まだ制限があり、我々はこの研究を識別し分析している。
本稿では,本論文を紹介する。
(i)アダトリプレット損失 --勾配が異なる負のサンプルの難易度レベルに適応するtlの拡張。
(II)AutoMargin法は,TLや提案した損失などの余剰損失のハイパーパラメータを動的に調整する手法である。
関節症イニシアチブとChest X-ray-14データセットを用いたFMIMの大規模評価を行った。
この研究の複製を可能にするコードは、 \url{https://github.com/Oulu-IMEDS/AdaTriplet}で公開されている。
関連論文リスト
- SpaRG: Sparsely Reconstructed Graphs for Generalizable fMRI Analysis [8.489318619991534]
深層学習は、精神疾患や個人の特徴に関連する静止状態機能型磁気共鳴イメージング(rsfMRI)のパターンを明らかにするのに役立つ。
しかし、深層学習の発見を解釈する問題は、fMRIによる分析よりも明らかではない。
スパーシフィケーションと自己超越に基づくこれらの課題を緩和するための簡単なアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T18:35:57Z) - CycleINR: Cycle Implicit Neural Representation for Arbitrary-Scale Volumetric Super-Resolution of Medical Data [19.085329423308938]
CycleINRは、3次元医療データの超高解像度化のための新しい拡張インプリシトニューラルネットワーク表現モデルである。
そこで我々は,Slice-wise Noise Level Inconsistency (SNLI) を新たに導入し,Slice-wise noise Level inconsistency (SNLI) を定量的に評価する。
論文 参考訳(メタデータ) (2024-04-07T08:48:01Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Robust T-Loss for Medical Image Segmentation [56.524774292536264]
本稿では,医用画像分割のための新しいロバストな損失関数T-Lossを提案する。
提案した損失は、Student-t分布の負のログ類似度に基づいており、データ内の外れ値の処理を効果的に行うことができる。
実験の結果,T-Lossは2つの医療データセットのダイススコアにおいて従来の損失関数よりも優れていた。
論文 参考訳(メタデータ) (2023-06-01T14:49:40Z) - DS3-Net: Difficulty-perceived Common-to-T1ce Semi-Supervised Multimodal
MRI Synthesis Network [3.9562534927482704]
本稿では,多モードMRI合成ネットワーク(DS3-Net)を提案する。
5%のペアデータしか持たないDS3-Netは、100%ペアデータを利用した最先端の画像翻訳手法と競合し、平均SSIMは0.8947、平均PSNRは23.60である。
論文 参考訳(メタデータ) (2022-03-14T08:22:15Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - FetReg: Placental Vessel Segmentation and Registration in Fetoscopy
Challenge Dataset [57.30136148318641]
Fetoscopy Laser Photocoagulation はツイン・ツー・ツイン・トランスフュージョン症候群(TTTS)の治療に広く用いられている治療法である
これにより、プロシージャ時間と不完全アブレーションが増加し、持続的なTTTSが生じる可能性がある。
コンピュータ支援による介入は、ビデオモザイクによって胎児の視野を広げ、船体ネットワークのより良い視覚化を提供することによって、これらの課題を克服するのに役立つかもしれない。
本稿では,長期フェトスコープビデオからドリフトフリーモザイクを作成することを目的とした,胎児環境のための汎用的でロバストなセマンティックセマンティックセグメンテーションとビデオモザイクアルゴリズムを開発するための大規模マルチセントデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:14:27Z) - Offset Curves Loss for Imbalanced Problem in Medical Segmentation [15.663236378920637]
我々は,輪郭内領域と輪郭内領域の両方を考慮した新しい深層学習モデルを構築した。
提案するオフセット曲線(OsC)損失は3つの主要な適合項からなる。
提案したOsC損失を2次元ネットワークと3次元ネットワークの両方で評価した。
論文 参考訳(メタデータ) (2020-12-04T08:35:21Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - DSU-net: Dense SegU-net for automatic head-and-neck tumor segmentation
in MR images [30.747375849126925]
MRIにおける鼻咽頭癌(NPC)分類のためのDense SegU-net(DSU-net)フレームワークを提案する。
潜在的な消滅段階的問題に対処するために,特徴の伝播と再利用を容易にする高密度ブロックを導入する。
提案するアーキテクチャは,既存の最先端セグメンテーションネットワークよりも優れている。
論文 参考訳(メタデータ) (2020-06-11T09:33:41Z) - Data Augmentation for Histopathological Images Based on
Gaussian-Laplacian Pyramid Blending [59.91656519028334]
データ不均衡は、機械学習(ML)アルゴリズムに影響を及ぼす主要な問題である。
本稿では、HIデータセットを増大させるだけでなく、患者間の変動を分散させる新しいアプローチを提案する。
BreakHisデータセットの実験結果から、文献で示されたDA手法の大多数は、有望な利得を示している。
論文 参考訳(メタデータ) (2020-01-31T22:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。