論文の概要: LoMix: Learnable Weighted Multi-Scale Logits Mixing for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2510.22995v1
- Date: Mon, 27 Oct 2025 04:25:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.44893
- Title: LoMix: Learnable Weighted Multi-Scale Logits Mixing for Medical Image Segmentation
- Title(参考訳): LoMix: 医療画像セグメンテーションのための学習可能な重み付きマルチスケールログ
- Authors: Md Mostafijur Rahman, Radu Marculescu,
- Abstract要約: LoMixは、新しい混合スケール出力を生成する、差別化可能なプラグイン・アンド・プレイモジュールである。
それぞれのトレーニングプロセスをどのようにガイドするかを学ぶ。
全てのオリジナルまたはミュータントマップは、ネットワークパラメータと共最適化されたソフトプラス損失重みが与えられる。
- 参考スコア(独自算出の注目度): 27.68818512667956
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: U-shaped networks output logits at multiple spatial scales, each capturing a different blend of coarse context and fine detail. Yet, training still treats these logits in isolation - either supervising only the final, highest-resolution logits or applying deep supervision with identical loss weights at every scale - without exploring mixed-scale combinations. Consequently, the decoder output misses the complementary cues that arise only when coarse and fine predictions are fused. To address this issue, we introduce LoMix (Logits Mixing), a NAS-inspired, differentiable plug-and-play module that generates new mixed-scale outputs and learns how exactly each of them should guide the training process. More precisely, LoMix mixes the multi-scale decoder logits with four lightweight fusion operators: addition, multiplication, concatenation, and attention-based weighted fusion, yielding a rich set of synthetic mutant maps. Every original or mutant map is given a softplus loss weight that is co-optimized with network parameters, mimicking a one-step architecture search that automatically discovers the most useful scales, mixtures, and operators. Plugging LoMix into recent U-shaped architectures (i.e., PVT-V2-B2 backbone with EMCAD decoder) on Synapse 8-organ dataset improves DICE by +4.2% over single-output supervision, +2.2% over deep supervision, and +1.5% over equally weighted additive fusion, all with zero inference overhead. When training data are scarce (e.g., one or two labeled scans), the advantage grows to +9.23%, underscoring LoMix's data efficiency. Across four benchmarks and diverse U-shaped networks, LoMiX improves DICE by up to +13.5% over single-output supervision, confirming that learnable weighted mixed-scale fusion generalizes broadly while remaining data efficient, fully interpretable, and overhead-free at inference. Our code is available at https://github.com/SLDGroup/LoMix.
- Abstract(参考訳): U字型ネットワークは複数の空間スケールでロジットを出力し、それぞれ異なる粗いコンテキストと細かな詳細を混合する。
しかし、トレーニングは依然としてこれらのロジットを単独で扱う ― 最終、最高解像度のロジットのみを監督するか、あらゆるスケールで同じ損失重みで深い監督を施す ― 混合スケールの組み合わせを探索することなく。
その結果、デコーダ出力は粗い予測と微妙な予測が融合したときにのみ発生する相補的な手がかりを見逃す。
この問題に対処するために、NASにインスパイアされた差別化可能なプラグアンドプレイモジュールであるLoMix(Logits Mixing)を導入する。
より正確には、LoMixはマルチスケールデコーダ対数と4つの軽量核融合作用素(加算、乗算、連結、注意に基づく重み付き核融合)を混合し、豊富な合成変異体マップを生成する。
全てのオリジナルまたはミュータントマップには、ネットワークパラメータと共最適化されたソフトプラス損失重みが与えられ、最も有用なスケール、混合、演算子を自動的に発見するワンステップのアーキテクチャ探索を模倣する。
最近のU字型アーキテクチャ(つまり、PVT-V2-B2のバックボーンとEMCADデコーダ)にLoMixをSynapse 8-organデータセットに組み込むことでDICEを+4.2%改善し、より深い監視で+2.2%、均等に重み付けされた加算核融合で+1.5%改善した。
トレーニングデータが不足している場合(例えば、1つまたは2つのラベル付きスキャン)、利点は+9.23%に増加し、LoMixのデータ効率を損なう。
4つのベンチマークと多様なU字型ネットワークで、LoMiXは単一出力の監視よりも最大で+13.5%DICEを改善し、学習可能な混合スケール融合は、データ効率が良く、完全に解釈可能で、推論時にオーバーヘッドのないまま広く一般化することを確認した。
私たちのコードはhttps://github.com/SLDGroup/LoMix.comで利用可能です。
関連論文リスト
- PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - TransXNet: Learning Both Global and Local Dynamics with a Dual Dynamic Token Mixer for Visual Recognition [63.93802691275012]
グローバル・ローカル・ダイナミクスを同時に学習するための軽量なデュアル・ダイナミック・トケン・ミキサー(D-Mixer)を提案する。
我々は、新しいハイブリッドCNN-TransformerビジョンバックボーンネットワークであるTransXNetを設計するために、基本的なビルディングブロックとしてD-Mixerを使用している。
ImageNet-1K分類では、TransXNet-TはSwin-Tを0.3%上回り、計算コストの半分以下である。
論文 参考訳(メタデータ) (2023-10-30T09:35:56Z) - LUMix: Improving Mixup by Better Modelling Label Uncertainty [33.56660038646426]
ディープ・ネットワークはノイズの多いサンプルと正規化技術で訓練するとより一般化できる。
以前のMixupベースの手法は、画像とラベルを線形に組み合わせ、追加のトレーニングデータを生成する。
トレーニング中にラベルの摂動を追加することで、そのような不確実性をモデル化するLUMixを提案する。
論文 参考訳(メタデータ) (2022-11-29T00:47:55Z) - MIXER: Multiattribute, Multiway Fusion of Uncertain Pairwise Affinities [45.00178262932004]
本稿では,不確実なペア親和性を直接処理できるマルチウェイ融合アルゴリズムを提案する。
最初のペア関係を必要とする既存の作業とは対照的に、我々のMIXERアルゴリズムはペア親和性によって提供される付加情報を活用することにより精度を向上する。
論文 参考訳(メタデータ) (2022-10-15T19:19:57Z) - CoSMix: Compositional Semantic Mix for Domain Adaptation in 3D LiDAR
Segmentation [62.259239847977014]
我々は,点雲UDA,すなわちコンポジション・セマンティック・ミックス(CoSMix)に対する試料混合の新しい手法を提案する。
CoSMixは2分岐対称ネットワークで構成されており、ラベル付き合成データ(ソース)と現実世界の非競合点雲(ターゲット)を同時に処理することができる。
我々はCoSMixを2つの大規模データセット上で評価し、最先端の手法よりも大きなマージンで優れていることを示した。
論文 参考訳(メタデータ) (2022-07-20T09:33:42Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z) - StackMix: A complementary Mix algorithm [26.99020412895196]
StackMix: 各入力は2つのイメージの連結として表示され、ラベルは2つの1ホットラベルの平均となります。
StackMixと既存のMix拡張を組み合わせることで、さまざまなベンチマークで大幅に向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T10:15:24Z) - FMix: Enhancing Mixed Sample Data Augmentation [5.820517596386667]
近年,Mixed Sample Data Augmentation (MSDA) が注目されている。
ここでは、MixUpがCutMixのように学習した関数を歪めていることを示す。
低周波画像にしきい値を適用したランダムなバイナリマスクを用いたMSDAであるFMixを提案する。
論文 参考訳(メタデータ) (2020-02-27T11:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。