論文の概要: Beyond one-hot encoding? Journey into compact encoding for large multi-class segmentation
- arxiv url: http://arxiv.org/abs/2510.00667v1
- Date: Wed, 01 Oct 2025 08:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.196502
- Title: Beyond one-hot encoding? Journey into compact encoding for large multi-class segmentation
- Title(参考訳): ワンホットエンコーディングを超えて? 大規模マルチクラスセグメンテーションのためのコンパクトエンコーディングへの旅
- Authors: Aaron Kujawa, Thomas Booth, Tom Vercauteren,
- Abstract要約: 本稿では,クラス数の対数化に要する計算複雑性とメモリ要求を低減するために,一点符号化の代わりに二項符号化方式のファミリを提案する。
3次元MRI画像に基づく108種類の脳機能解析のユースケースに本手法を適用した。
- 参考スコア(独自算出の注目度): 3.731545953583865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents novel methods to reduce computational and memory requirements for medical image segmentation with a large number of classes. We curiously observe challenges in maintaining state-of-the-art segmentation performance with all of the explored options. Standard learning-based methods typically employ one-hot encoding of class labels. The computational complexity and memory requirements thus increase linearly with the number of classes. We propose a family of binary encoding approaches instead of one-hot encoding to reduce the computational complexity and memory requirements to logarithmic in the number of classes. In addition to vanilla binary encoding, we investigate the effects of error-correcting output codes (ECOCs), class weighting, hard/soft decoding, class-to-codeword assignment, and label embedding trees. We apply the methods to the use case of whole brain parcellation with 108 classes based on 3D MRI images. While binary encodings have proven efficient in so-called extreme classification problems in computer vision, we faced challenges in reaching state-of-the-art segmentation quality with binary encodings. Compared to one-hot encoding (Dice Similarity Coefficient (DSC) = 82.4 (2.8)), we report reduced segmentation performance with the binary segmentation approaches, achieving DSCs in the range from 39.3 to 73.8. Informative negative results all too often go unpublished. We hope that this work inspires future research of compact encoding strategies for large multi-class segmentation tasks.
- Abstract(参考訳): 本研究は,多数のクラスを持つ医用画像セグメント化における計算・メモリ要件を低減させる新しい手法を提案する。
調査対象のすべてのオプションで最先端のセグメンテーション性能を維持する上での課題を、奇妙に観察する。
標準学習ベースのメソッドは通常、クラスラベルのワンホット符号化を使用する。
計算複雑性とメモリ要求はクラス数とともに線形に増加する。
本稿では,クラス数の対数化に要する計算複雑性とメモリ要求を低減するために,一点符号化の代わりに二項符号化方式のファミリを提案する。
バニラバイナリエンコーディングに加えて、エラー訂正出力符号(ECOC)、クラス重み付け、ハード/ソフトデコーディング、クラス-コードワード代入、ラベル埋め込みツリーの効果について検討する。
3次元MRI画像に基づく108種類の脳機能解析のユースケースに本手法を適用した。
バイナリエンコーディングは、コンピュータビジョンにおけるいわゆる極端な分類問題において効率的であることが証明されているが、我々は、バイナリエンコーディングによって最先端のセグメンテーション品質に達することの難しさに直面した。
Dice similarity Coefficient (DSC) = 82.4 (2.8) と比較して, DSC を 39.3 から 73.8 の範囲で達成し, 分割性能の低下を報告した。
インフォーマルなネガティブな結果は、あまりにも頻繁に公表される。
この研究が、大規模な多クラスセグメンテーションタスクのためのコンパクトエンコーディング戦略の今後の研究に拍車をかけることを願っている。
関連論文リスト
- Fast correlated decoding of transversal logical algorithms [67.01652927671279]
大規模計算には量子エラー補正(QEC)が必要であるが、かなりのリソースオーバーヘッドが発生する。
近年の進歩により、論理ゲートからなるアルゴリズムにおいて論理キュービットを共同で復号化することにより、症候群抽出ラウンドの数を削減できることが示されている。
ここでは、回路を介して伝播する関連する論理演算子製品を直接復号することで、回路の復号化の問題を修正する。
論文 参考訳(メタデータ) (2025-05-19T18:00:00Z) - HER-Seg: Holistically Efficient Segmentation for High-Resolution Medical Images [12.452415054883256]
高分解能セグメンテーションは、微細な形態的詳細を抽出することにより、正確な疾患診断に重要である。
既存の階層型エンコーダ・デコーダフレームワークは、様々な医学的セグメンテーションタスクにおいて顕著な適応性を示している。
我々はHER-Segと呼ばれる高解像度医用画像分割のための全体的効率のよいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-08T16:48:57Z) - Approximate Size Targets Are Sufficient for Accurate Semantic Segmentation [52.239136918460616]
相対的なオブジェクトサイズ分布に近似するバイナリクラスタグを拡張することで、オフザシェルフアーキテクチャはセグメンテーション問題を解決することができる。
平均予測に対するゼロ回避KL偏差損失は、標準画素精度の監督に匹敵するセグメンテーション精度を生成する。
我々のアイデアはPASCAL VOC上で、近似オブジェクトサイズの人間のアノテーションを用いて検証されている。
論文 参考訳(メタデータ) (2025-03-10T06:02:13Z) - Decoding at the Speed of Thought: Harnessing Parallel Decoding of Lexical Units for LLMs [57.27982780697922]
大規模言語モデルは、自然言語の理解と生成において例外的な能力を示した。
しかし、それらの生成速度は、その復号過程の本質的にシーケンシャルな性質によって制限される。
本稿では,データ駆動方式で実装された新しいデコーディング手法であるLexical Unit Decodingを紹介する。
論文 参考訳(メタデータ) (2024-05-24T04:35:13Z) - Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - SC-VAE: Sparse Coding-based Variational Autoencoder with Learned ISTA [0.6770292596301478]
そこで本研究では,ISTA (SC-VAE) を用いたスパース符号化に基づくVAEを新たに導入し,スパース符号化を可変オートエンコーダフレームワークに統合する。
2つの画像データセットに対する実験により、我々のモデルは、最先端の手法と比較して、画像再構成結果の改善を実現していることが示された。
論文 参考訳(メタデータ) (2023-03-29T13:18:33Z) - Does Configuration Encoding Matter in Learning Software Performance? An
Empirical Study on Encoding Schemes [5.781900408390438]
この研究は、5つのシステム、7つのモデル、3つの符号化スキームをカバーし、105件の調査に繋がった。
ソフトウェアのパフォーマンス学習において広く使われている符号化方式,すなわちラベル,スケールラベル,ワンホット符号化を実証的に比較した。
その結果,(1)ケースで最高の符号化方式を見つけるための試行錯誤は,いくつかのモデルやシステムで最大400時間以上の時間を要する場合が多いこと,(2)スケールされたラベル符号化が異なるモデルよりも精度が低い場合,(2)スケールされたラベル符号化は一般的に最も正確な結果をもたらすこと,(3)逆に,スケールされたラベル符号化は高い傾向にあることがわかった。
論文 参考訳(メタデータ) (2022-03-30T01:46:27Z) - Storing Encoded Episodes as Concepts for Continual Learning [22.387008072671005]
継続的な学習アプローチで直面する2つの大きな課題は、データの保存における破滅的な忘れとメモリ制限である。
本稿では,ニューラルスタイルトランスファーを用いたオートエンコーダを訓練し,画像のエンコードと保存を行う,認知にインスパイアされたアプローチを提案する。
ベンチマークデータセットの最先端手法に比べて,分類精度は13~17%向上し,ストレージスペースは78%削減した。
論文 参考訳(メタデータ) (2020-06-26T04:15:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。