論文の概要: Falcon: Fractional Alternating Cut with Overcoming Minima in Unsupervised Segmentation
- arxiv url: http://arxiv.org/abs/2504.05613v1
- Date: Tue, 08 Apr 2025 01:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:57.842777
- Title: Falcon: Fractional Alternating Cut with Overcoming Minima in Unsupervised Segmentation
- Title(参考訳): ファルコン:非監督セグメンテーションにおける最小限の限界を克服した分断代替カット
- Authors: Xiao Zhang, Xiangyu Han, Xiwen Lai, Yao Sun, Pei Zhang, Konrad Kording,
- Abstract要約: 速度と精度を大幅に向上させる最適化に基づくKウェイ正規化カットを提案する。
実験によると、ファルコンは6つの広く認識されているベンチマークで、既存の最先端の手法を平均2.5%上回っている。
Falconは、教師なしのセグメンテーションと教師なしのセグメンテーションのギャップを狭め、現実世界のアプリケーションのスケーラビリティを高め、密集した予測ベースのビジョントレーニングの道を開くことができる。
- 参考スコア(独自算出の注目度): 6.782025571738425
- License:
- Abstract: Today's unsupervised image segmentation algorithms often segment suboptimally. Modern graph-cut based approaches rely on high-dimensional attention maps from Transformer-based foundation models, typically employing a relaxed Normalized Cut solved recursively via the Fiedler vector (the eigenvector of the second smallest eigenvalue). Consequently, they still lag behind supervised methods in both mask generation speed and segmentation accuracy. We present a regularized fractional alternating cut (Falcon), an optimization-based K-way Normalized Cut without relying on recursive eigenvector computations, achieving substantially improved speed and accuracy. Falcon operates in two stages: (1) a fast K-way Normalized Cut solved by extending into a fractional quadratic transformation, with an alternating iterative procedure and regularization to avoid local minima; and (2) refinement of the resulting masks using complementary low-level information, producing high-quality pixel-level segmentations. Experiments show that Falcon not only surpasses existing state-of-the-art methods by an average of 2.5% across six widely recognized benchmarks (reaching up to 4.3\% improvement on Cityscapes), but also reduces runtime by around 30% compared to prior graph-based approaches. These findings demonstrate that the semantic information within foundation-model attention can be effectively harnessed by a highly parallelizable graph cut framework. Consequently, Falcon can narrow the gap between unsupervised and supervised segmentation, enhancing scalability in real-world applications and paving the way for dense prediction-based vision pre-training in various downstream tasks. The code is released in https://github.com/KordingLab/Falcon.
- Abstract(参考訳): 今日の教師なしのイメージセグメンテーションアルゴリズムは、しばしば亜最適にセグメンテーションする。
現代のグラフカットに基づくアプローチは、トランスフォーマーベースの基礎モデルからの高次元の注意マップに依存しており、通常、フィドラーベクトル(第2の最小固有値の固有ベクトル)を介して、緩和された正規化カットを用いて再帰的に解かれる。
その結果、マスク生成速度とセグメンテーション精度の両方において、教師付き手法をまだ遅れている。
我々は、再帰的固有ベクトル計算に頼ることなく、最適化に基づくKウェイ正規化カット(Falcon)を提案する。
ファルコンは,(1) 局所最小化を避けるために反復的手順と正規化を交互に行い, 高速なKウェイ正規化カットを2段階に分け, 2) 補足的な低レベル情報を用いてマスクを改良し, 高品質な画素レベルのセグメンテーションを創出する。
実験によると、Falconは6つの広く認識されているベンチマーク(Cityscapesで最大4.3\%の改善)で、既存の最先端メソッドを平均2.5%上回るだけでなく、従来のグラフベースのアプローチと比較してランタイムを約30%削減している。
これらの結果から,基礎モデルにおける意味情報は,高度に並列化可能なグラフカットフレームワークによって効果的に活用できることが示唆された。
その結果、Falconは教師なしのセグメンテーションと教師なしのセグメンテーションのギャップを狭め、現実世界のアプリケーションのスケーラビリティを向上し、さまざまな下流タスクで密集した予測ベースのビジョンをトレーニングする道を開くことができる。
コードはhttps://github.com/KordingLab/Falconで公開されている。
関連論文リスト
- Optimizing Tensor Computation Graphs with Equality Saturation and Monte Carlo Tree Search [0.0]
モンテカルロ木探索を用いて優れた表現を構築するテンソルグラフ書き換え手法を提案する。
提案手法は,既存の手法と比較して,ニューラルネットワークの推論速度を最大11%向上させる。
論文 参考訳(メタデータ) (2024-10-07T22:22:02Z) - Highway Graph to Accelerate Reinforcement Learning [18.849312069946993]
強化学習アルゴリズムは訓練効率の低下に苦慮することが多い。
状態遷移をモデル化するためのハイウェイグラフを導入する。
提案手法は,既存のRLアルゴリズムよりもはるかに高速に学習する。
論文 参考訳(メタデータ) (2024-05-20T02:09:07Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - One-step Bipartite Graph Cut: A Normalized Formulation and Its
Application to Scalable Subspace Clustering [56.81492360414741]
両部グラフの1ステップ正規化カットを、特に線形時間複雑性で実施する方法を示す。
本稿では、まず、正規化制約付き一段階二分グラフカット基準を特徴付けるとともに、そのトレース問題に対する等価性を理論的に証明する。
このカット基準を、適応アンカー学習、二部グラフ学習、一段階正規化二部グラフ分割を同時にモデル化するスケーラブルなサブスペースクラスタリングアプローチに拡張する。
論文 参考訳(メタデータ) (2023-05-12T11:27:20Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Simple Contrastive Graph Clustering [41.396185271303956]
既存の手法を改善するための単純なコントラストグラフクラスタリング(SCGC)アルゴリズムを提案する。
我々のアルゴリズムは、最近のコントラストの高いディープクラスタリング競合よりも、平均して7倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-05-11T06:45:19Z) - Dissecting Supervised Constrastive Learning [24.984074794337157]
高容量エンコーダで構成された線形マップのソフトマックススコアよりもクロスエントロピーを最小化することは、教師付き学習タスクでニューラルネットワークを訓練するための最も一般的な選択肢である。
コントラスト目的の教師付き変種を通して等しく(あるいはそれ以上)識別表現を得るために、エンコーダを直接最適化することができることを示す。
論文 参考訳(メタデータ) (2021-02-17T15:22:38Z) - Fast and Accurate Neural CRF Constituency Parsing [16.90190521285297]
この研究は、高速で正確なCRF行列計算を示す。
我々は、GPU上の大きなテンソル演算による損失に対する内部アルゴリズムをバッチ化し、効率的なバックプロパゲーションによる計算の外部アルゴリズムを避ける。
PTB, CTB5.1, CTB7の2段CRFは, w/o と w/BERT の両設定において,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2020-08-09T14:38:48Z) - Gradient Centralization: A New Optimization Technique for Deep Neural
Networks [74.935141515523]
勾配集中(GC)は、勾配ベクトルをゼロ平均とする集中化によって、勾配を直接操作する。
GCは、制約された損失関数を持つ射影勾配降下法とみなすことができる。
GCは実装が非常に簡単で、1行のコードだけで既存のグラデーションベースのDNNに簡単に組み込める。
論文 参考訳(メタデータ) (2020-04-03T10:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。