論文の概要: Towards Agnostic and Holistic Universal Image Segmentation with Bit Diffusion
- arxiv url: http://arxiv.org/abs/2601.02881v1
- Date: Tue, 06 Jan 2026 10:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.885677
- Title: Towards Agnostic and Holistic Universal Image Segmentation with Bit Diffusion
- Title(参考訳): ビット拡散を用いた非依存的・ホロスティックなユニバーサル画像分割に向けて
- Authors: Jakob Lønborg Christensen, Morten Rieger Hannemose, Anders Bjorholm Dahl, Vedrana Andersen Dahl,
- Abstract要約: 本稿では,ユニバーサルイメージセグメンテーションのための拡散型フレームワークを提案する。
位置認識型パレットと2Dグレーのコード注文によって性能が向上することを示す。
提案した改善と大規模事前訓練や迅速な条件付けを組み合わせることで、競争モデルが実現できると考えています。
- 参考スコア(独自算出の注目度): 9.184659875364689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a diffusion-based framework for universal image segmentation, making agnostic segmentation possible without depending on mask-based frameworks and instead predicting the full segmentation in a holistic manner. We present several key adaptations to diffusion models, which are important in this discrete setting. Notably, we show that a location-aware palette with our 2D gray code ordering improves performance. Adding a final tanh activation function is crucial for discrete data. On optimizing diffusion parameters, the sigmoid loss weighting consistently outperforms alternatives, regardless of the prediction type used, and we settle on x-prediction. While our current model does not yet surpass leading mask-based architectures, it narrows the performance gap and introduces unique capabilities, such as principled ambiguity modeling, that these models lack. All models were trained from scratch, and we believe that combining our proposed improvements with large-scale pretraining or promptable conditioning could lead to competitive models.
- Abstract(参考訳): 本稿では,マスクベースのフレームワークに頼らずに非依存のセグメンテーションを可能とし,その代わりに全セグメンテーションを包括的に予測する,普遍的な画像セグメンテーションのための拡散ベースのフレームワークを提案する。
この離散的な設定において重要な拡散モデルへのいくつかの重要な適応を示す。
特に、2Dグレーのコード順序付き位置認識パレットがパフォーマンスを向上させることを示す。
離散データには、最終的なtanhアクティベーション関数の追加が不可欠である。
拡散パラメータの最適化において、シグモイド損失重み付けは、使用する予測型に関係なく、常に代替よりも優れており、x-予測に着目する。
私たちの現在のモデルは、まだ主要なマスクベースのアーキテクチャを超えていませんが、パフォーマンスギャップを狭め、それらのモデルに欠けている、原則化されたあいまいさモデリングのようなユニークな機能を導入しています。
すべてのモデルがゼロからトレーニングされ、提案された改善と大規模事前訓練や迅速な条件付けを組み合わせることで、競争モデルに繋がる可能性があると信じています。
関連論文リスト
- VFMF: World Modeling by Forecasting Vision Foundation Model Features [67.09340259579761]
本稿では,視覚基礎モデルの特徴空間における自己回帰フローマッチングを行う生成予測器を提案する。
この潜伏情報の方がPCAベースの代替案よりも効果的であることを示す。
一致したアーキテクチャと計算により、本手法はすべてのモダリティにおける回帰よりもシャープで正確な予測を生成する。
論文 参考訳(メタデータ) (2025-12-12T02:10:05Z) - LEAF: Latent Diffusion with Efficient Encoder Distillation for Aligned Features in Medical Image Segmentation [2.529281336118734]
本稿では,潜伏拡散モデルに基づく医療画像分割モデルLEAFを提案する。
微調整の過程では,元のノイズ予測パターンをセグメントマップの直接予測に置き換える。
また, コンボリューション層の隠れ状態と, 変圧器を用いた視覚エンコーダの特徴とを一致させるために, 特徴蒸留法を用いる。
論文 参考訳(メタデータ) (2025-07-24T09:08:04Z) - Generalized Interpolating Discrete Diffusion [65.74168524007484]
仮面拡散はその単純さと有効性のために一般的な選択である。
ノイズ発生過程の設計において、より柔軟性の高い離散拡散(GIDD)を補間する新しいファミリを一般化する。
GIDDの柔軟性をエクスプロイトし、マスクと均一ノイズを組み合わせたハイブリッドアプローチを探索し、サンプル品質を向上する。
論文 参考訳(メタデータ) (2025-03-06T14:30:55Z) - [MASK] is All You Need [28.90875822599164]
離散状態モデルを用いてMasked Generative と Non-autoregressive Diffusion を接続する。
離散状態モデルで[MASK]を活用することで、Masked Generative と Non-autoregressive Diffusion モデルを橋渡しできる。
論文 参考訳(メタデータ) (2024-12-09T18:59:56Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。