論文の概要: RankSEG-RMA: An Efficient Segmentation Algorithm via Reciprocal Moment Approximation
- arxiv url: http://arxiv.org/abs/2510.15362v1
- Date: Fri, 17 Oct 2025 06:45:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.498827
- Title: RankSEG-RMA: An Efficient Segmentation Algorithm via Reciprocal Moment Approximation
- Title(参考訳): RankSEG-RMA: 相互モーメント近似による効率的なセグメンテーションアルゴリズム
- Authors: Zixun Wang, Ben Dai,
- Abstract要約: 新たな一貫したセグメンテーションフレームワークである RankSEG が提案されており、それぞれ Dice と IoU のメトリクスを最適化するために特別に設計された RankDice と RankIoU が含まれている。
第一に、RankDice は O(d log d) の相当な定数係数を持つ O(d log d) の複雑性を持ち(d はピクセル数を表す)、一方 RankIoU は O(d2) よりも高い複雑さを示し、実用的な応用を制限している。
本稿では,RanseGの相互モーメント近似(RMA)を用いて,これらの2つの欠点を克服する。
- 参考スコア(独自算出の注目度): 4.689945062721168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation labels each pixel in an image with its corresponding class, and is typically evaluated using the Intersection over Union (IoU) and Dice metrics to quantify the overlap between predicted and ground-truth segmentation masks. In the literature, most existing methods estimate pixel-wise class probabilities, then apply argmax or thresholding to obtain the final prediction. These methods have been shown to generally lead to inconsistent or suboptimal results, as they do not directly maximize segmentation metrics. To address this issue, a novel consistent segmentation framework, RankSEG, has been proposed, which includes RankDice and RankIoU specifically designed to optimize the Dice and IoU metrics, respectively. Although RankSEG almost guarantees improved performance, it suffers from two major drawbacks. First, it is its computational expense-RankDice has a complexity of O(d log d) with a substantial constant factor (where d represents the number of pixels), while RankIoU exhibits even higher complexity O(d^2), thus limiting its practical application. For instance, in LiTS, prediction with RankSEG takes 16.33 seconds compared to just 0.01 seconds with the argmax rule. Second, RankSEG is only applicable to overlapping segmentation settings, where multiple classes can occupy the same pixel, which contrasts with standard benchmarks that typically assume non-overlapping segmentation. In this paper, we overcome these two drawbacks via a reciprocal moment approximation (RMA) of RankSEG with the following contributions: (i) we improve RankSEG using RMA, namely RankSEG-RMA, reduces the complexity of both algorithms to O(d) while maintaining comparable performance; (ii) inspired by RMA, we develop a pixel-wise score function that allows efficient implementation for non-overlapping segmentation settings.
- Abstract(参考訳): セマンティックセグメンテーション(Semantic segmentation)は、画像中の各ピクセルを対応するクラスにラベル付けし、通常、予測された接地トラスセグメンテーションマスクと接地トラスセグメンテーションマスクの重なりを定量化するために、Intersection over Union (IoU) とDiceメトリクスを用いて評価される。
文献では、既存のほとんどの手法はピクセル単位のクラス確率を推定し、最終的な予測を得るためにargmaxまたはしきい値を適用する。
これらの手法は、セグメンテーションの指標を直接最大化しないため、一般に矛盾または準最適結果をもたらすことが示されている。
この問題に対処するために、新しい一貫したセグメンテーションフレームワークである RankSEG が提案され、それぞれDice と IoU のメトリクスを最適化するために特別に設計された RankDice と RankIoU が含まれている。
RankSEGはパフォーマンスの向上をほぼ保証しているが、2つの大きな欠点に悩まされている。
まず、RankDice の計算費用は O(d log d) の複雑性(d はピクセル数を表す)であり、一方 RankIoU は O(d^2) よりも高い複雑さを示し、実用的な応用を制限している。
例えば LiTS では RankSEG での予測は argmax ルールの 0.01 秒に比べて 16.33 秒である。
第二に、RangSEGは重なり合うセグメンテーション設定にのみ適用でき、複数のクラスが同じピクセルを占有できる。
本稿では,RanSEGの相互モーメント近似(RMA)による2つの欠点を,次のような貢献で克服する。
(i)RangeSEG-RMAを用いたRangeSEGの改良,すなわちRangeSEG-RMAは,両アルゴリズムの複雑さをO(d)に低減し,同等の性能を維持する。
(II) RMAにインスパイアされ, 重なり合わないセグメンテーション設定を効率的に実装できる画素ワイズスコア関数を開発した。
関連論文リスト
- AHDMIL: Asymmetric Hierarchical Distillation Multi-Instance Learning for Fast and Accurate Whole-Slide Image Classification [51.525891360380285]
AHDMILは非対称な階層的蒸留マルチインスタンス学習フレームワークである。
2段階のトレーニングプロセスを通じて、無関係なパッチを排除します。
分類性能と推論速度の両方において、従来の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-07T07:47:16Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - A Greedy Strategy for Graph Cut [95.2841574410968]
GGCと呼ばれるグラフカットの問題を解決するための欲求戦略を提案する。
これは、各データサンプルがクラスタと見なされる状態から始まり、2つのクラスタを動的にマージする。
GGCはサンプル数に関してほぼ線形な計算複雑性を持つ。
論文 参考訳(メタデータ) (2024-12-28T05:49:42Z) - Deep Gaussian mixture model for unsupervised image segmentation [1.3654846342364308]
多くのタスクにおいて、十分なピクセルレベルのラベルを得るのは非常に困難である。
本稿では,ガウス混合モデル(GMM)と教師なしディープラーニング技術を組み合わせた手法を提案する。
マルチシーケンスMRI画像における梗塞領域分割の例について, 様々な実験において本手法の利点を実証する。
論文 参考訳(メタデータ) (2024-04-18T15:20:59Z) - RankSEG: A Consistent Ranking-based Framework for Segmentation [5.166970737490847]
我々はベイズ則やDice-/IoU-校正を含むDice/IoUメトリクスに関するセグメンテーションの理論的基礎を確立する。
ベイズのセグメンテーションルールのプラグインルールにインスパイアされた新しい一貫したランキングベースのフレームワークであるRandDice/RankIoUを提案する。
論文 参考訳(メタデータ) (2022-06-27T07:12:31Z) - Rank-based Non-dominated Sorting [0.0]
我々は、高額な支配比較を避けるために、ソート安定性と順序情報を利用した非支配的なソート手法であるランクソートを導入する。
2つのアルゴリズム的変種が提案されている: 1つはRandOrdinal (RO) で、支配性を決定するために順序付き階数比較(英語版)(ordinal rank comparisons)を用いており、O(N) 空間を必要とする。
NSGA2アルゴリズムと合成ベンチマークを用いた実験シミュレーションにおいて,提案手法の有効性を他の手法と比較した。
論文 参考訳(メタデータ) (2022-03-25T13:59:42Z) - Distribution-aware Margin Calibration for Semantic Segmentation in
Images [78.65312390695038]
ジャカードインデックス(ジャカードインデックス、Intersection-over-Union、IoU)は、画像セマンティックセグメンテーションにおいて最も重要な評価指標の一つである。
IoUスコアの直接最適化は非常に困難である。
学習目的として直接使用できるマージン校正法を提案し,データ分散に対するIoUの一般化を改良する。
論文 参考訳(メタデータ) (2021-12-21T22:38:25Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Pseudo-Convolutional Policy Gradient for Sequence-to-Sequence
Lip-Reading [96.48553941812366]
唇読解は唇運動系列から音声内容を推測することを目的としている。
seq2seqモデルの伝統的な学習プロセスには2つの問題がある。
本稿では,これら2つの問題に対処するために,PCPGに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。