論文の概要: FLIM Networks with Bag of Feature Points
- arxiv url: http://arxiv.org/abs/2602.20845v1
- Date: Tue, 24 Feb 2026 12:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.747522
- Title: FLIM Networks with Bag of Feature Points
- Title(参考訳): 特徴点のバッグ付きFLIMネットワーク
- Authors: João Deltregia Martinelli, Marcelo Luis Rodrigues Filho, Felipe Crispim da Rocha Salvagnini, Gilson Junior Soares, Jefersson A. dos Santos, Alexandre X. Falcão,
- Abstract要約: FLIM(Feature Learning from Image Markers)は、バックプロパゲーションのないいくつかの代表画像の識別領域上のユーザ描画マーカーからエンコーダフィルタを推定する。
FLIM-Bag of Feature Points (FLIM-BoFP) はフィルタ推定法としてかなり高速である。
- 参考スコア(独自算出の注目度): 37.246787461927525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional networks require extensive image annotation, which can be costly and time-consuming. Feature Learning from Image Markers (FLIM) tackles this challenge by estimating encoder filters (i.e., kernel weights) from user-drawn markers on discriminative regions of a few representative images without traditional optimization. Such an encoder combined with an adaptive decoder comprises a FLIM network fully trained without backpropagation. Prior research has demonstrated their effectiveness in Salient Object Detection (SOD), being significantly lighter than existing lightweight models. This study revisits FLIM SOD and introduces FLIM-Bag of Feature Points (FLIM-BoFP), a considerably faster filter estimation method. The previous approach, FLIM-Cluster, derives filters through patch clustering at each encoder's block, leading to computational overhead and reduced control over filter locations. FLIM-BoFP streamlines this process by performing a single clustering at the input block, creating a bag of feature points, and defining filters directly from mapped feature points across all blocks. The paper evaluates the benefits in efficiency, effectiveness, and generalization of FLIM-BoFP compared to FLIM-Cluster and other state-of-the-art baselines for parasite detection in optical microscopy images.
- Abstract(参考訳): 畳み込みネットワークは画像アノテーションを必要とするため、コストと時間を要する。
FLIM(Feature Learning from Image Markers)は、いくつかの代表的な画像の識別領域上のユーザ描画マーカーからエンコーダフィルタ(カーネル重み付け)を従来の最適化なしで推定することで、この問題に対処する。
適応デコーダと組み合わされたこのようなエンコーダは、バックプロパゲーションなしで完全に訓練されたFLIMネットワークを含む。
以前の研究では、既存の軽量モデルよりも大幅に軽量である、SAD(Salient Object Detection)の有効性が実証されている。
本研究ではFLIM SODを再検討し,FLIM-BoFP (FLIM-BoFP) を導入した。
以前のアプローチであるFLIM-Clusterは、各エンコーダブロックのパッチクラスタリングを通じてフィルタを導出し、計算オーバーヘッドとフィルタ位置の制御を減らした。
FLIM-BoFPはこのプロセスを合理化し、入力ブロックで単一のクラスタリングを実行し、特徴点の袋を作成し、すべてのブロックにまたがってマッピングされた特徴点から直接フィルタを定義する。
光学顕微鏡画像における寄生虫検出のためのFLIM-Clusterや他の最先端のベースラインと比較して,FLIM-BoFPの効率性,有効性,一般化の利点について検討した。
関連論文リスト
- Visual Multi-Object Tracking with Re-Identification and Occlusion Handling using Labeled Random Finite Sets [10.618186767487993]
本稿では、オブジェクトの出現と隠蔽を解消するオンライン視覚多目的追跡(MOT)アルゴリズムを提案する。
我々の解は、ラベル付きランダム有限集合 (LRFS) フィルタリングアプローチに基づいている。
本稿では,トラックの重なり合う部分とそのサイズを考慮したファジィ検出モデルを提案する。
論文 参考訳(メタデータ) (2024-07-11T21:15:21Z) - Building Brain Tumor Segmentation Networks with User-Assisted Filter Estimation and Selection [42.62139206176152]
複数のFLIM実行から最も関連性の高いフィルタを推定・選択するためのユーザ支援手法であるMulti-Step (MS) FLIMを提案する。
MS-FLIMは第1の畳み込み層にのみ使用され、既にFLIMよりも改善されていることを示している。
We build a simple U-shaped encoder-decoder network, named sU-Net, for glioblastoma segmentation using T1Gd and FLAIR MRI scans。
論文 参考訳(メタデータ) (2024-03-19T14:11:26Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Unsharp Mask Guided Filtering [53.14430987860308]
本論文の目的は,フィルタ中の構造伝達の重要性を強調した画像フィルタリングである。
アンシャープマスキングにインスパイアされたガイドフィルタの新しい簡易な定式化を提案する。
我々の定式化は低域フィルタに先立ってフィルタを楽しみ、単一の係数を推定することで明示的な構造伝達を可能にする。
論文 参考訳(メタデータ) (2021-06-02T19:15:34Z) - Data Agnostic Filter Gating for Efficient Deep Networks [72.4615632234314]
現在のフィルタプルーニング法は主に特徴写像を利用してフィルタの重要なスコアを生成し、より小さなスコアのプルーンを生成する。
本稿では,Daggerモジュールと呼ばれる補助的ネットワークを用いてプルーニングを誘導するデータフィルタプルーニング手法を提案する。
さらに,特定のFLOP制約でプルーネフィルタを支援するために,明示的なFLOPを意識した正規化を活用して,プルーニングフィルタを直接対象のFLOPに向けて推進する。
論文 参考訳(メタデータ) (2020-10-28T15:26:40Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。