論文の概要: Recursively Refined R-CNN: Instance Segmentation with Self-RoI
Rebalancing
- arxiv url: http://arxiv.org/abs/2104.01329v1
- Date: Sat, 3 Apr 2021 07:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:39:47.470809
- Title: Recursively Refined R-CNN: Instance Segmentation with Self-RoI
Rebalancing
- Title(参考訳): Recursly Refined R-CNN:Self-RoI Rebalancingによるインスタンスセグメンテーション
- Authors: Leonardo Rossi, Akbar Karimi, Andrea Prati
- Abstract要約: 本稿では,ループ機構を導入することで重複を回避するR-CNN(R3$-CNN)を提案する。
実験では,重みのループ機構の特定のエンコーディングに注目し,推論時に使用する必要がある。
このアーキテクチャは、最近提案されたHTCモデルを超えることができ、パラメータの数を著しく削減できる。
- 参考スコア(独自算出の注目度): 2.4634850020708616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Within the field of instance segmentation, most of the state-of-the-art deep
learning networks rely nowadays on cascade architectures, where multiple object
detectors are trained sequentially, re-sampling the ground truth at each step.
This offers a solution to the problem of exponentially vanishing positive
samples. However, it also translates into an increase in network complexity in
terms of the number of parameters. To address this issue, we propose
Recursively Refined R-CNN ($R^3$-CNN) which avoids duplicates by introducing a
loop mechanism instead. At the same time, it achieves a quality boost using a
recursive re-sampling technique, where a specific IoU quality is utilized in
each recursion to eventually equally cover the positive spectrum. Our
experiments highlight the specific encoding of the loop mechanism in the
weights, requiring its usage at inference time. The $R^3$-CNN architecture is
able to surpass the recently proposed HTC model, while reducing the number of
parameters significantly. Experiments on COCO minival 2017 dataset show
performance boost independently from the utilized baseline model. The code is
available online at https://github.com/IMPLabUniPr/mmdetection/tree/r3_cnn.
- Abstract(参考訳): インスタンスセグメンテーションの分野において、最先端のディープラーニングネットワークのほとんどは、現在カスケードアーキテクチャに依存しており、複数のオブジェクト検出器が順次トレーニングされ、各ステップで基底真理を再サンプリングしている。
これにより、指数関数的に正のサンプルを消滅する問題の解が得られる。
しかし、パラメータの数の観点からするとネットワークの複雑さも増大する。
この問題に対処するため,ループ機構を導入して重複を回避するRecursively Refined R-CNN(R^3$-CNN)を提案する。
同時に、再帰的再サンプリング技術を用いて、各再帰において特定のIoU品質を利用して、最終的に正のスペクトルを均等にカバーする品質向上を実現する。
実験では,重みのループ機構の特定のエンコーディングに注目し,推論時に使用する必要がある。
R^3$-CNNアーキテクチャは、最近提案されたHTCモデルを超えることができ、パラメータの数を著しく削減できる。
COCO Minival 2017データセットの実験では、使用済みベースラインモデルとは独立してパフォーマンスが向上した。
コードはhttps://github.com/implabunipr/mmdetection/tree/r3_cnnで入手できる。
関連論文リスト
- RecursiveDet: End-to-End Region-based Recursive Object Detection [19.799892459080485]
Sparse R-CNNのような領域ベースのオブジェクト検出器は通常、複数のカスケード境界ボックスデコードステージを持つ。
本稿では,復号段階の一般的な設定は実際には冗長であることを示す。
RecusiveDetは、より少ないモデルパラメータで明らかなパフォーマンス向上を達成することができる。
論文 参考訳(メタデータ) (2023-07-25T16:22:58Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Efficient and Robust Mixed-Integer Optimization Methods for Training
Binarized Deep Neural Networks [0.07614628596146598]
二元活性化関数と連続または整数重み付きディープニューラルネットワーク(BDNN)について検討する。
BDNNは、古典的な混合整数計画解法により、大域的最適性に解けるような、有界な重み付き混合整数線形プログラムとして再構成可能であることを示す。
トレーニング中にBDNNの堅牢性を強制するロバストモデルが初めて提示される。
論文 参考訳(メタデータ) (2021-10-21T18:02:58Z) - Single-stream CNN with Learnable Architecture for Multi-source Remote
Sensing Data [16.810239678639288]
マルチソースリモートセンシングデータ共同分類のための,深層畳み込みニューラルネットワーク(CNN)に基づく効率的なフレームワークを提案する。
提案手法は,最新のCNNモデルを任意のマルチソースリモートセンシングデータセットに理論的に調整することができる。
実験により,提案したシングルストリームCNNの有効性が示された。
論文 参考訳(メタデータ) (2021-09-13T16:10:41Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Recurrence-free unconstrained handwritten text recognition using gated
fully convolutional network [2.277447144331876]
制約のない手書きテキスト認識は、ほとんどのドキュメント分析タスクの主要なステップです。
LSTM細胞を使用する別の方法の1つは、畳み込み層を多用して長期記憶損失を補うことである。
我々は、よく知られたCNN+LSTMアーキテクチャの再発のない代替であるGated Fully Convolutional Networkアーキテクチャを紹介します。
論文 参考訳(メタデータ) (2020-12-09T10:30:13Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Recognizing Long Grammatical Sequences Using Recurrent Networks
Augmented With An External Differentiable Stack [73.48927855855219]
リカレントニューラルネットワーク(RNN)は、シーケンスモデリング、生成、予測に広く使われているディープアーキテクチャである。
RNNは、非常に長いシーケンスに対してあまり一般化せず、多くの重要な時間的処理や時系列予測問題に適用性を制限する。
これらの欠点に対処する方法の1つは、スタックのような外部の異なるメモリ構造とRNNを結合することである。
本稿では,重要なアーキテクチャと状態更新機構を備えたメモリ拡張RNNを改良する。
論文 参考訳(メタデータ) (2020-04-04T14:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。