論文の概要: Msmsfnet: a multi-stream and multi-scale fusion net for edge detection
- arxiv url: http://arxiv.org/abs/2404.04856v3
- Date: Mon, 12 May 2025 08:55:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 14:13:11.976624
- Title: Msmsfnet: a multi-stream and multi-scale fusion net for edge detection
- Title(参考訳): エッジ検出のためのマルチストリーム・マルチスケール融合ネットMsmsfnet
- Authors: Chenguang Liu, Chisheng Wang, Feifei Dong, Xiayang Xiao, Xin Su, Chuanhua Zhu, Dejin Zhang, Qingquan Li,
- Abstract要約: エッジ検出は、ImageNetデータセット上のバックボーンネットワークのトレーニング済み重量に大きく依存する。
我々は、エッジ検出のための新しいネットワークアーキテクチャ、マルチストリームおよびマルチスケールフュージョンネット(msmsfnet)を考案した。
すべてのモデルをスクラッチからトレーニングすることで、我々のモデルは3つの公開データセットで最先端のエッジ検出器より優れています。
- 参考スコア(独自算出の注目度): 6.1932429715357165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge detection is a long-standing problem in computer vision. Despite the efficiency of existing algorithms, their performance, however, rely heavily on the pre-trained weights of the backbone network on the ImageNet dataset. The use of pre-trained weights in previous methods significantly increases the difficulty to design new models for edge detection without relying on existing well-trained ImageNet models, as pre-training the model on the ImageNet dataset is expensive and becomes compulsory to ensure the fairness of comparison. Besides, the pre-training and fine-tuning strategy is not always useful and sometimes even inaccessible. For instance, the pre-trained weights on the ImageNet dataset are unlikely to be helpful for edge detection in Synthetic Aperture Radar (SAR) images due to strong differences in the statistics between optical images and SAR images. Moreover, no dataset has comparable size to the ImageNet dataset for SAR image processing. In this work, we study the performance achievable by state-of-the-art deep learning based edge detectors in publicly available datasets when they are trained from scratch, and devise a new network architecture, the multi-stream and multi-scale fusion net (msmsfnet), for edge detection. We show in our experiments that by training all models from scratch, our model outperforms state-of-the-art edge detectors in three publicly available datasets. We also demonstrate the efficiency of our model for edge detection in SAR images, where no useful pre-trained weight is available. Finally, We show that our model is able to achieve competitive performance on the BSDS500 dataset when the pre-trained weights are used.
- Abstract(参考訳): エッジ検出は、コンピュータビジョンにおける長年の問題である。
しかし、既存のアルゴリズムの効率にもかかわらず、その性能はImageNetデータセット上のバックボーンネットワークのトレーニング済み重量に大きく依存している。
従来手法における事前学習重量の使用は,ImageNetデータセットでの事前学習が高価であり,比較の公正性を確保するために強制的になるため,既存のよく訓練されたImageNetモデルに頼ることなく,エッジ検出のための新しいモデルを設計する難しさを著しく高める。
さらに、事前訓練と微調整の戦略は必ずしも有用ではなく、時にはアクセスできないこともある。
例えば、ImageNetデータセットのトレーニング済み重量は、光学画像とSAR画像の統計に強い違いがあるため、合成開口レーダ(SAR)画像のエッジ検出に役立ちそうにない。
さらに、SAR画像処理用のImageNetデータセットに匹敵するサイズを持つデータセットは存在しない。
本研究では,最先端の深層学習に基づくエッジ検出装置をスクラッチからトレーニングした際の公開データセットで実現可能な性能について検討し,エッジ検出のための新しいネットワークアーキテクチャ,マルチストリームおよびマルチスケールフュージョンネット(msmsfnet)を考案した。
実験では、すべてのモデルをスクラッチからトレーニングすることで、3つの公開データセットで最先端のエッジ検出器よりも優れています。
また,SAR画像におけるエッジ検出のためのモデルの有効性を示す。
最後に,トレーニング済み重みを用いた場合のBSDS500データセット上での競合性能を示す。
関連論文リスト
- Shelf-Supervised Cross-Modal Pre-Training for 3D Object Detection [52.66283064389691]
最先端の3Dオブジェクト検出器は、しばしば大量のラベル付きデータセットで訓練される。
近年の研究では、ラベル付きデータによる自己教師付き事前学習が、ラベル付きラベルによる検出精度を向上させることが示されている。
組合わせRGBとLiDARデータからゼロショット3Dバウンディングボックスを生成するためのシェルフ制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-14T15:21:57Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Data Filtering Networks [67.827994353269]
本研究では、大規模な未処理データセットをフィルタリングする第2ステップにおいて、データフィルタリングネットワーク(DFN)を学習する問題について検討する。
我々の重要な発見は、フィルタリングのためのネットワークの品質が下流タスクのパフォーマンスと異なることである。
我々の知見に基づいて、最先端の画像テキストデータセットを誘導する新しいデータフィルタリングネットワークを構築した。
論文 参考訳(メタデータ) (2023-09-29T17:37:29Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Tiny and Efficient Model for the Edge Detection Generalization [0.0]
提案するTiny and Efficient Edge Detector(TEED)は,パラメータが5,8Kドルの軽量畳み込みニューラルネットワークである。
BIPEDデータセットのトレーニングには30分以上かかり、各エポックは5分未満である。
提案したモデルは訓練が容易で,予測されたエッジマップはクオリティが高く,初期のごく一部のエポック内に急速に収束する。
論文 参考訳(メタデータ) (2023-08-12T05:23:36Z) - Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Impact of Scaled Image on Robustness of Deep Neural Networks [0.0]
生画像のスケーリングはアウト・オブ・ディストリビューションデータを生成するため、ネットワークを騙すための敵攻撃の可能性がある。
本研究では,ImageNet Challengeデータセットのサブセットを複数でスケーリングすることで,Scaling-DistortionデータセットのImageNet-CSを提案する。
論文 参考訳(メタデータ) (2022-09-02T08:06:58Z) - Out of Distribution Detection on ImageNet-O [0.0]
Out of Distribution(OOD)検出は、マシンラーニングシステムを堅牢化するための重要な部分である。
ImageNet-Oデータセットは、ImageNetトレーニングされたディープニューラルネットワークの堅牢性をテストする上で重要なツールである。
我々は ImageNet-O 上で OOD 検出手法の比較解析を行うことを目標としている。
論文 参考訳(メタデータ) (2022-01-23T20:02:08Z) - Change Detection from Synthetic Aperture Radar Images via Graph-Based
Knowledge Supplement Network [36.41983596642354]
画像変化検出のためのグラフベースの知識補足ネットワーク(GKSNet)を提案する。
より具体的には、既存のラベル付きデータセットから識別情報を付加的な知識として抽出する。
提案手法を検証するために,4つのSARデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-01-22T02:50:50Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - The Role of Pre-Training in High-Resolution Remote Sensing Scene
Classification [0.0]
我々は、新しいデータセットをスクラッチからトレーニングすることで、ImageNetで事前トレーニングされたモデルに匹敵する結果が得られることを示す。
多くの場合、最良の表現はドメイン内データを使った事前学習の第2ラウンドで得られる。
論文 参考訳(メタデータ) (2021-11-05T18:30:54Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - Self-supervised Audiovisual Representation Learning for Remote Sensing Data [96.23611272637943]
遠隔センシングにおける深層ニューラルネットワークの事前学習のための自己教師型アプローチを提案する。
ジオタグ付きオーディオ記録とリモートセンシングの対応を利用して、これは完全にラベルなしの方法で行われる。
提案手法は,既存のリモートセンシング画像の事前学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-02T07:50:50Z) - Data augmentation and pre-trained networks for extremely low data
regimes unsupervised visual inspection [0.0]
MVTec ADデータセットで利用可能なデータの量を変化させる際に、事前訓練済みの深い特徴に基づく3つのアプローチを比較する。
これらの手法はほとんどの場合、小さなサンプルサイズに対して堅牢であるが、元の画像空間でデータ拡張を使用することで大きなメリットを享受できることが示されている。
論文 参考訳(メタデータ) (2021-06-02T16:37:20Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。