論文の概要、ライセンス

# (参考訳) バウンディングボックスによるサルエント物体検出 [全文訳有]

Salient Object Detection via Bounding-box Supervision ( http://arxiv.org/abs/2205.05245v1 )

ライセンス: CC BY 4.0
Mengqi He, Jing Zhang, Wenxin Yu(参考訳) 完全教師付き塩分検出モデルの成功は、多数のピクセル単位のラベルに依存する。 本稿では,ラベル付け作業の軽減を図るため,バウンディングボックスに基づく弱教師付きサリエンシ検出について検討する。 境界ボックスアノテーションを考慮すれば、境界ボックス内のピクセルには広範なラベリングノイズが含まれている可能性がある。 しかし、大量の背景が除外されているため、前景境界ボックス領域は、より複雑な背景を含まないため、収穫した前景領域のみを用いて手作りの特徴に基づく塩分検出を行うことができる。 従来の手工芸品の特徴が十分に表現されていないため, ノイズの多いサリエンシマップに導かれるため, さらに, 予測構造を正規化するために, 構造に配慮した自己監督的損失を導入する。 また、バウンディングボックス外の画素は背景であるべきであり、正確な背景領域を正確にローカライズするために部分クロスエントロピー損失関数を用いることができる。 6つのベンチマークRGBサリエンシデータセットの実験結果から,本モデルの有効性が示された。

The success of fully supervised saliency detection models depends on a large number of pixel-wise labeling. In this paper, we work on bounding-box based weakly-supervised saliency detection to relieve the labeling effort. Given the bounding box annotation, we observe that pixels inside the bounding box may contain extensive labeling noise. However, as a large amount of background is excluded, the foreground bounding box region contains a less complex background, making it possible to perform handcrafted features-based saliency detection with only the cropped foreground region. As the conventional handcrafted features are not representative enough, leading to noisy saliency maps, we further introduce structure-aware self-supervised loss to regularize the structure of the prediction. Further, we claim that pixels outside the bounding box should be background, thus partial cross-entropy loss function can be used to accurately localize the accurate background region. Experimental results on six benchmark RGB saliency datasets illustrate the effectiveness of our model.
公開日: Wed, 11 May 2022 03:03:26 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
SALIENT OBJECT DETECTION VIA BOUNDING-BOX SUPERVISION バウンディングボックスによるサルエント物体検出 0.44
Mengqi He1 Jing Zhang1 メングチhe1 Jing Zhang1 0.48
Wenxin Yu2 1 Australian National University, Australia, 2 Southwest University of Science and Technology, China ウェンジンyu2 オーストラリア国立大学(Australian National University, Australia, 2 Southwest University of Science and Technology, China) 0.67
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 5 4 2 5 0 1 v 5 4 2 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
ABSTRACT The success of fully supervised saliency detection models depends on a large number of pixel-wise labeling. ABSTRACT 完全教師付き塩分検出モデルの成功は、多数のピクセル単位のラベルに依存する。 0.55
In this paper, we work on bounding-box based weakly-supervised saliency detection to relief the labeling effort. 本稿では,バウンディングボックスに基づく弱教師付き塩分検出法について検討し,ラベリング作業を緩和する。 0.55
Given the bounding box annotation, we observe that pixels inside the bounding box may contains extensive labeling noise. 境界ボックスアノテーションを考慮すれば、境界ボックス内のピクセルには広範なラベリングノイズが含まれている可能性がある。 0.59
However, as the large amount of background is excluded, the foreground bounding box region contains less complex background, making it possible to perform handcrafted features based saliency detection with only the cropped foreground region. しかし、大量の背景が除外されるため、前景境界ボックス領域は複雑な背景を含まないため、前景の切り抜き領域のみを用いて、手作りの特徴に基づく塩分検出が可能となる。 0.73
As the conventional handcrafted features are not representative enough, leading to noisy saliency maps, we further introduce structure-aware self-supervised loss to regularize the structure of the prediction. 従来の手工芸品の特徴が十分に表現されていないため, ノイズの多いサリエンシマップに導かれるため, さらに, 予測構造を正規化するために, 構造に配慮した自己監督的損失を導入する。 0.57
Further, we claim that pixels outside bounding box should be background, thus partial cross-entropy loss function can be used to accurately localize the accurate background region. さらに、バウンディングボックス外の画素は背景であるべきであり、正確な背景領域を正確にローカライズするために部分クロスエントロピー損失関数が使用できると主張する。 0.67
Experimental results on six benchmark RGB saliency dataset illustrate effectiveness of our model. 6つのベンチマークRGBサリエンシデータセットの実験結果から,本モデルの有効性が示された。 0.60
Index Terms— Weakly supervised learning, Bounding- 指標項 -弱教師付き学習, 境界- 0.57
box annotation, Structure-aware self-supervised loss box アノテーション、構造対応の自己管理損失 0.61
1. INTRODUCTION Salient object detection aims to localize the full scope of the salient foreground, which is usually defined as a binary segmentation task. 1.導入 salient object detectionは、通常バイナリセグメンテーションタスクとして定義されるsalient foregroundの全スコープをローカライズすることを目的としている。 0.71
Most of the conventional techniques are fully-supervised [1, 2, 3], where the pixel-wise annotations are needed as supervision to train a mapping from input image space to output saliency space. 従来の手法のほとんどは[1, 2, 3] 完全に教師ありであり、ピクセル毎のアノテーションは入力画像空間からサリエンシー空間へのマッピングをトレーニングするための監督として必要である。 0.60
We find that the strong dependency of pixel-wise labeling pose both efficiency and budget challenges for existing fully-supervised saliency detection techniques. 従来の完全教師付き塩分検出手法では,ピクセル単位のラベリングの強い依存が効率と予算上の課題であることがわかった。 0.45
To relief the labeling effort, some un/weaklysupervised learning based salient object detection techniques [4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14] are introduced, which aim to learn saliency from easy-to-obtain labeling, including image-level labels [5], scribbles [4, 13], bounding box supervisions [12] or noisy labeling [9, 7, 6, 8, 14]. ラベル付け作業を軽減するために,画像レベルラベル[5],スクリブル[4,13],バウンディングボックス監督[12],あるいはノイズラベル[9,7,7,8,8,14]を含む,分かり易いラベル付けから塩分を学習することを目的とした,非教師あり学習型サルエント物体検出技術[4,5,7,7,8,9,11,13,14 ]を導入した。 0.77
In this paper, we present a new bounding box supervision based weakly-supervised saliency detection model. 本稿では,弱教師付き塩分検出モデルに基づく新しい境界ボックス監督手法を提案する。 0.69
The advantage of bounding-box supervision is that the background of bounding-box annotation is pure background. バウンディングボックス管理の利点は、バウンディングボックスアノテーションの背景が純粋なバックグラウンドであることである。
訳抜け防止モード: バウンディングの利点 - ボックスの監督は 境界の背景 - ボックスアノテーションは純粋な背景です。
0.64
Although there still exists background region within the 背景の地域は 今もありますが 0.65
Image bndBox 画像 bndボックス 0.72
GrabCut Fig. 1. グラブカット 図1。 0.34
Given image (“Image”) and it’s bounding box annotation (“bndBox”), GrabCut leads to an pseudo segmentation result (“GrabCut”), serving as pseudo label for the proposed weakly supervised saliency detection model. 画像(“画像”)とバウンディングボックスアノテーション(“bndBox”)が与えられたとき、GrabCutは擬似セグメンテーション結果(“GrabCut”)を導き、提案されている弱教師付き唾液検出モデルの擬似ラベルとして機能する。 0.80
bounding-box foreground annotation, the significantly reduced background region makes it possible to perform conventional handcrafted feature based saliency detection methods on the cropped foreground region. バウンディングボックスフォアグラウンドアノテーションは、背景領域が著しく減少するため、切り抜かれたフォアグラウンド領域で従来の手作り特徴量に基づく塩分検出を行うことができる。
訳抜け防止モード: 境界 - ボックスフォアグラウンドアノテーション、バックグラウンド領域の大幅な削減 切削前景領域において従来の手作り特徴量に基づく塩分検出手法を実行できる。
0.80
In Fig 1, we show the generated pseudo label by combining bounding-box annotation with the conventional handcrafted feature based method, which clearly show it’s superiority. 図1では、バウンディングボックスアノテーションと従来の手作りの特徴に基づく手法を組み合わせることにより、生成された擬似ラベルを示す。 0.66
As a deep neural network can fit any types of noise [15], directly using the generated pseudo label as ground truth will lead to biased model, over-fitting on the noisy pseudo label. ディープニューラルネットワークはあらゆるタイプのノイズ [15] に適合するので、生成された疑似ラベルを基底真理として直接使用するとバイアスモデルとなり、ノイズの多い疑似ラベルに過剰フィットする。 0.70
To further constrain the structure of the prediction, we present structure-aware self-supervised loss function. 予測の構造をさらに制約するため,構造認識型自己教師付き損失関数を提案する。 0.68
The main goal of this loss function is constrain the prediction with structure well-aligned with the input image. この損失関数の主な目標は、入力画像とよく一致した構造で予測を制限することである。 0.74
In this way, we aim to obtain structure accurate predictions (see Fig 3). このようにして、構造的正確な予測を求める(図3参照)。 0.77
2. RELATED WORK Fully-supervised Saliency models: The main focus of fullysupervised saliency detection models is to achieve effective feature aggregation [16] [17] [18]. 2.関連作業 all-supervised saliency models: all-supervised saliency detection modelの主な焦点は、効果的なフィーチャーアグリゲーション[16][17][18]を達成することである。 0.77
Due to the use of stride operation, the resulting saliency maps are usually with low resolution. ストライド演算を使用するため、結果として得られるサリエンシマップは通常低解像度である。 0.71
To produce structure accurate saliency prediction, some method use edge supervision to learn more feature about the object boundary to refine the saliency predictions using better structure of the object [19] [20] [21]. 構造を正確に予測するために, エッジ監視を用いて, 対象境界に関するより詳細な特徴を学習し, 対象[19][20][21]のより優れた構造を用いて, 精度予測を洗練させる手法がある。 0.80
Weakly-supervised Saliency models: The goal of weaklysupervised saliency detection is to relief the labeling effort [4, 13, 5]. weaklysupervised saliency model: weaklysupervised saliency detectionの目標はラベル付け作業[4,13,5]を緩和することである。 0.82
Given bounding box supervision, They use mask to create the persudo mask,such as GrabCut [23]. 境界ボックスの監視を前提として、GrabCut[23]のようなPersudoマスクを作成するためにマスクを使用する。
訳抜け防止モード: バウンディングボックスの監視を前提に、マスクを使う GrabCut [23 ] のような Persudo マスクを作成する。
0.77
[24] use the crossing line of the bounding box as supervision prior. [24] 前もって、境界箱の交差線を監督として使用します。 0.58
英語(論文から抽出)日本語訳スコア
Fig. 2. Given bounding box annotation yi, we first generate pseudo saliency maps gi via GrabCut. 図2。 境界ボックスアノテーション yi が与えられたら、まず GrabCut を介して擬似唾液マップ gi を生成する。 0.62
Then, we design saliency prediction network(SPN) to regress the saliency map with the above pseudo saliency maps as supervision (Lspn). そこで,我々は,上記の擬似唾液マップを監督(Lspn)として,唾液度予測ネットワーク(SPN)を設計した。 0.73
Due to labeling noise, we introduce a foreground structureaware loss Lf ore, namely the smoothness loss [22] to further constrain the structure of the salient foreground (regions within the bounding box area). ラベル付けノイズにより,前景の構造認識損失Lf ore,すなわち滑らかさ損失[22]を導入し,前景の構造(境界ボックス領域内の領域)をさらに制約する。 0.75
As the background of the pseudo saliency map is accurate, we introduce background loss Lback using the partial cross-entropy loss to constrain model prediction in the background bounding box area. 擬似給与マップの背景が正確であるので,背景境界ボックス領域におけるモデル予測を制約するために,部分クロスエントロピー損失を用いた背景損失lbackを導入する。 0.86
3. OUR METHOD 3.1. 3.その方法 3.1. 0.50
Overview In this paper, we study weakly-supervised saliency detection with bounding-box supervision. 概要 本稿では,バウンディングボックス監視による弱教師付き塩分検出について検討する。 0.62
Specifically, given bounding-box supervision of the training dataset, model is trained to accurately produce saliency maps for testing images. 特に、トレーニングデータセットのバウンディングボックスの監督を前提として、モデルは、画像をテストするためのサリエンシーマップを正確に生成するように訓練される。 0.52
Let’s define the training data set as: D = {xi, yi}N i=1 of size N, where xi and yi are the input RGB image and it’s corresponding bounding box supervision, and i indexes the images. d = {xi, yi}n i=1 of size n, ここで xi と yi は入力 rgb イメージであり、対応するバウンディングボックスの監督であり、イメージをインデックス化する。
訳抜け防止モード: トレーニングデータセットを次のように定義しましょう。 サイズ n の yi}n i=1 である。 xiとyiは入力rgb画像です そしてそれは、それに対応するバウンディングボックスの監督だ。 画像をインデックス化します
0.69
To generate yi, each salient non-overlap salient instance is annotated with separated bounding box, and we generate one single bounding box for the overlapped salient instances. yiを生成するには、各salient non-overlap salientインスタンスに分離されたバウンディングボックスをアノテートし、重複するsalientインスタンスに対して1つのバウンディングボックスを生成する。 0.60
In this way, the foreground of yi contains different level of noise depending on the position and shape of the bounding box, and the background of yi is accurate background. このように、yiの前景は、バウンディングボックスの位置や形状によって異なるレベルのノイズを含み、yiの背景は正確な背景である。 0.64
Four main steps are included in our method: (1) a persudo saliency map generator which use the Grabcut to generate pseudo saliency maps given bounding box supervision; (2) a saliency prediction network (SPN) to produce a saliency map, which is supervised with above pseudo saliency maps; (3) structure-aware loss to optimize the foreground predictions; (4) partial-cross entropy based background loss to optimize the background prediction. 提案手法では,(1)グラブカットを用いて境界ボックスに与えられた擬似塩分マップを生成するペルスド塩分マップ生成装置,(2)塩分予測ネットワーク(spn)により,上記擬似塩分マップを監督する塩分マップを生成する方法,(3)前景予測を最適化するための構造認識損失,(4)背景予測を最適化する部分クロスエントロピーベースの背景損失の4つのステップが組み込まれている。 0.83
3.2. Persudo Saliency Map Generator via GrabCut 3.2. GrabCut を用いたPersudo Saliency Map Generator 0.61
Given bounding box supervision, we first generate pseudo saliency maps with Grabcut (see Fig 1). 境界ボックスの監督を考えると、まずグラブカットによる擬似給与マップを生成する(図1参照)。 0.64
Compared with the direct bounding box supervision yi, the generated pseudo saliency map gi is more accurate in structure, making it suitable to serve as pseudo label for saliency prediction. 直接バウンディングボックス監督yiと比較して,生成した擬似サリエンシーマップgiは構造的に精度が高く,サリエンシー予測のための擬似ラベルとして適している。 0.70
Specifically, we repeat the Grabcut operation several times until we 具体的には、Grabcut操作を何度も繰り返します。 0.58
obtain a reasonably accurate pseudo label. 合理的に正確な擬似ラベルを得る。 0.61
3.3. Saliency Prediction Network 3.3. 塩分予測ネットワーク 0.49
Following the conventional fully-supervised saliency detection, we design a “saliency prediction network” to generate saliency maps. 従来の完全教師付きサリエンシ検出に続いて,サリエンシ予測ネットワークを設計し,サリエンシマップを生成する。 0.58
Specifically, we take the ResNet50 as backbone. 具体的には、ResNet50をバックボーンとしています。 0.58
Given the backbone feature fθ1(x) = {sk}4 k=1 (θ1 is parameters of the encoder (the backbone model), the saliency prediction network aims to generate saliency map s = fθ(x), where θ = {θ1, θ2} with θ2 as parameters of the decoder. バックボーンの特徴 fθ1(x) = {sk}4 k=1(θ1 はエンコーダのパラメータ(バックボーンモデル)を考えると、サリエンシ予測ネットワークはサリエンシ写像 s = fθ(x) をデコーダのパラメータとして θ2 で生成することを目的としている。 0.75
Specifically, we feed each sk to a 3 × 3 convolutional layer to generate new backbone feature {s(cid:48) k=1 of same channel size C = 64. 具体的には、各skを3×3の畳み込み層に供給し、同じチャネルサイズC = 64の新しいバックボーン特徴 {s(cid:48) k=1を生成する。 0.75
Then, we adopt decoder from [25], which takes {s(cid:48) k}4 k=1). 次に、[25]からデコーダを採用し、{s(cid:48) k}4 k=1 を取る。 0.78
Note that, we define parameters of the above 4 copies of 3 × 3 convolutional layers as part of parameters within θ1. ここでは、3×3の畳み込み層の上の4つのコピーのパラメータをθ1内のパラメータの一部として定義する。 0.70
k}4 k=1 as input and generate s = fθ2 ({s(cid:48) k}4 k=1 入力として s = fθ2 ({s(cid:48)) を生成する。 0.67
k}4 Given saliency prediction si, we first design task related loss function, aiming to regress the pseudo salienncy map gi from GrabCut. k}4 まず, 課題関連損失関数を設計し, GrabCut の擬似唾液マップ gi を回帰することを目的とした。 0.56
Specifically, we adopt the symmetric crossentropy loss [26], which is proven relative robust to labeling noise: 具体的には、ラベリングノイズに対してロバストである対称的クロスエントロピー損失[26]を採用する。 0.69
Lspn = αLce(s, g) + βLce(g, s), Lspn = αLce(s, g) + βLce(g, s) 0.44
(1) where Lce is the cross-entropy loss, α and β are used to weigh the contribution of each loss, and empirically we set α = β = 1 in this paper. 1) lce がクロスエントロピー損失である場合、α と β は各損失の寄与度を測るために用いられ、経験的に α = β = 1 を本論文で定める。 0.80
s and g are the model prediction and pseudo saliency map with GrabCut. s と g は GrabCut を用いたモデル予測と擬似唾液マップである。 0.84
3.4. Foreground Structure Constrain 3.4. 前景構造制約 0.50
Although GrabCut can generate relatively better pseudo label compared with the original bounding box supervision, the complex saliency foreground leads to noisy supervision after GrabCut. GrabCutは、元のバウンディングボックスの監督よりも比較的優れた擬似ラベルを生成することができるが、複雑なサリエンシのフォアグラウンドは、GrabCutの後、ノイズの多い監督に繋がる。
訳抜け防止モード: GrabCutはオリジナルのバウンディングボックスの監督よりも比較的優れた擬似ラベルを生成することができる。 GrabCutの後、複雑なサラレンシーフォアグラウンドは騒々しい監視に繋がる。
0.64
To constrain the prediction within the foreground bounding box region, we adopt smoothness loss [22] to produce structure accurate prediction. 前景境界ボックス領域内の予測を制約するために、滑らかさ損失[22]を採用し、構造的正確な予測を生成する。
訳抜け防止モード: 前景境界ボックス領域内の予測を制約する。 滑らかさ損失[22]を採用する. 構造を正確に予測するのです
0.74
The smoothness loss is defined as: 滑らかさの損失は次のように定義される。 0.51
Lf ore = Ψ(|∂dsu,v|e−α|∂d(y·Iu,v)|), Lf ore = ψ(|∂dsu,v|e−α|∂d(y·iu,v)|) 0.38
(2) (cid:88) (2) (cid:88) 0.41
(cid:88) u,v (cid:88) u.v. 0.38
d∈−→x ,−→y √ d∂−→x,−→y √ 0.33
s2 + 1e−6 to avoid calculatwhere Ψ is defined as Ψ(s) = ing the square root of zero, Iu,v is the image intensity value at pixel (u, v), d indicates the partial derivatives on the −→x and −→y directions. 計算を避けるために s2 + 1e−6 は 0 の平方根を成す s(s) = と定義されるが、Iu,v はピクセル (u, v) における画像強度値であり、d は −→x および −→y 方向の部分微分を表す。 0.80
Different with the conventional smoothness loss in [22], we introduce gate y to the calculation of smoothness loss to pay attention to the bounding box foreground region inspired by [4]. 従来の [22] の平滑性損失と異なり, [4] に触発された境界ボックス前景領域に注意を払うために, 平滑性損失の計算にゲート y を導入する。 0.84
3.5. Background Accuracy Constrain 3.5. 背景精度の制約 0.54
As background of the bounding box supervision is accurate background for saliency prediction, we adopt partial crossentropy loss to constrain accuracy of prediction within the 境界箱監督の背景は正当性予測の正確な背景であるため、内部の予測の精度を抑えるために部分的クロスエントロピー損失を採用する。
訳抜け防止モード: 境界ボックス監視の背景は、塩分予測の正確な背景である。 部分的なクロスエントロピーの損失を 予測の正確さを制約する
0.82
英語(論文から抽出)日本語訳スコア
Table 1. Performance comparison with benchmark saliency detection models. 表1。 ベンチマーク・サリエンシ検出モデルによる性能比較 0.67
DUT [28] HKU-IS [29] DUT[28] HKU-IS[29] 0.41
PASCAL-S [30] PASCAL-S[30] 0.41
SOD [31] DUTS [5] SOD[31] DUTS[5] 0.41
ECSSD [27] SCRN [32] F3Net [33] ITSD [34] PAKRN [35] MSFNet [36] CTDNet[37] VST[38] GTSOD [39] SSAL [4] WSS [5] C2S [40] SCWS [13] ECSSD[27] SCRN [32] F3Net [33] ITSD [34] PAKRN [35] MSFNet [36] CTDNet[37] VST[38] GTSOD [39] SSAL [4] WSS [5] C2S [40] SCWS [13] 0.44
Method Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ .885 .833 .900 .040 .920 .910 .933 .041 .837 .749 .847 .056 .916 .894 .935 .034 .869 .833 .892 .063 .817 .790 .829 .087 .888 .852 .920 .035 .919 .921 .943 .036 .839 .766 .864 .053 .917 .910 .952 .028 .861 .835 .898 .062 .824 .814 .850 .077 .886 .841 .917 .039 .920 .916 .943 .037 .842 .767 .867 .056 .921 .906 .950 .030 .860 .830 .894 .066 .836 .829 .867 .076 .900 .876 .935 .033 .928 .930 .951 .032 .853 .796 .888 .050 .923 .919 .955 .028 .859 .856 .898 .068 .833 .836 .866 .074 .877 .855 .927 .034 .915 .927 .951 .033 .832 .772 .873 .050 .909 .913 .957 .027 .849 .855 .900 .064 .813 .822 .852 .077 .893 .862 .928 .034 .925 .928 .950 .032 .844 .779 .874 .052 .919 .915 .954 .028 .861 .856 .901 .064 .829 .832 .858 .074 .896 .842 .918 .037 .932 .911 .943 .034 .850 .771 .869 .058 .928 .903 .950 .030 .873 .832 .900 .067 .854 .833 .879 .065 .908 .875 .942 .029 .935 .935 .962 .026 .858 .797 .892 .051 .930 .922 .964 .023 .877 .855 .915 .054 .860 .860 .898 .061 .803 .747 .865 .062 .863 .865 .908 .061 .785 .702 .835 .068 .865 .858 .923 .047 .798 .773 .854 .093 .750 .743 .801 .108 .748 .633 .806 .100 .808 .774 .801 .106 .730 .590 .729 .110 .822 .773 .819 .079 .701 .691 .687 .187 .698 .635 .687 .152 .805 .718 .845 .071 .773 .665 .810 .082 .869 .837 .910 .053 .784 .806 .813 .130 .770 .741 .799 .117 .841 .818 .901 .049 .879 .894 .924 .051 .813 .751 .856 .060 .883 .892 .938 .038 .821 .815 .877 .078 .782 .791 .833 .090 Ours .796 .715 .821 .070 .856 .838 .873 .069 .792 .695 .812 .072 .855 .826 .882 .057 .748 .760 .772 .147 .740 .704 .758 .119 Method Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ .885 .833 .900 .040 .920 .910 .933 .041 .837 .749 .847 .056 .916 .894 .935 .034 .869 .833 .892 .063 .817 .790 .829 .087 .888 .852 .920 .035 .919 .921 .943 .036 .839 .766 .864 .053 .917 .910 .952 .028 .861 .835 .898 .062 .824 .814 .850 .077 .886 .841 .917 .039 .920 .916 .943 .037 .842 .767 .867 .056 .921 .906 .950 .030 .860 .830 .894 .066 .836 .829 .867 .076 .900 .876 .935 .033 .928 .930 .951 .032 .853 .796 .888 .050 .923 .919 .955 .028 .859 .856 .898 .068 .833 .836 .866 .074 .877 .855 .927 .034 .915 .927 .951 .033 .832 .772 .873 .050 .909 .913 .957 .027 .849 .855 .900 .064 .813 .822 .852 .077 .893 .862 .928 .034 .925 .928 .950 .032 .844 .779 .874 .052 .919 .915 .954 .028 .861 .856 .901 .064 .829 .832 .858 .074 .896 .842 .918 .037 .932 .911 .943 .034 .850 .771 .869 .058 .928 .903 .950 .030 .873 .832 .900 .067 .854 .833 .879 .065 .908 .875 .942 .029 .935 .935 .962 .026 .858 .797 .892 .051 .930 .922 .964 .023 .877 .855 .915 .054 .860 .860 .898 .061 .803 .747 .865 .062 .863 .865 .908 .061 .785 .702 .835 .068 .865 .858 .923 .047 .798 .773 .854 .093 .750 .743 .801 .108 .748 .633 .806 .100 .808 .774 .801 .106 .730 .590 .729 .110 .822 .773 .819 .079 .701 .691 .687 .187 .698 .635 .687 .152 .805 .718 .845 .071 .773 .665 .810 .082 .869 .837 .910 .053 .784 .806 .813 .130 .770 .741 .799 .117 .841 .818 .901 .049 .879 .894 .924 .051 .813 .751 .856 .060 .883 .892 .938 .038 .821 .815 .877 .078 .782 .791 .833 .090 Ours .796 .715 .821 .070 .856 .838 .873 .069 .792 .695 .812 .072 .855 .826 .882 .057 .748 .760 .772 .147 .740 .704 .758 .119 0.31
- - - - Image - - - - 画像 0.50
GT F3Net [1] GT F3Net[1] 0.42
MSFNet [36] MSFNet [36] 0.42
CTDNet[37] CTDNet[37] 0.42
SSAL [4] Ours SSAL[4] 我々の 0.50
Fig. 3. Visual comparison with benchmark saliency detection models, where F3Net [1], MSFNet [36] and CTDNet[37] are fully-supervised saliency detection models, and SSAL [4] is a scribble-supervised weakly-supervised saliency detection model. 図3。 f3net [1], msfnet [36], ctdnet[37] は完全教師付き塩分検出モデルであり, ssal [4] はscribble-supervised weak-supervised saliency detectionモデルである。 0.61
background bounding box region. 背景境界ボックス領域 0.59
Specifically, given bounding box annotation y and model prediction from the saliency prediction network s, we define the background loss as: 具体的には,有界ボックスアノテーション y とサリエンシ予測ネットワーク s からモデル予測を行い,背景損失を次のように定義する。 0.82
Lback = γLce(s ∗ (1 − y), 0), Lback = γLce(s ∗ (1 − y), 0) 0.39
(3) where γ = H∗W H∗W−z (H and W represent image size, z is the number of pixels that are covered in the foreground bounding box), 0 is an all-zero matrix of the same size as s. (3) γ = H∗W H∗W−z (H と W は画像サイズを表し、z は前景境界箱で覆われたピクセルの数) が 0 は s と同じ大きさのゼロ行列である。 0.62
3.6. Training the Model With both the saliency regression loss Lspn, foreground structure loss Lf ore and background accuracy loss Lback, our final loss function is defined as: 3.6. 塩分回帰損失 lspn, 前景構造損失 lf 鉱石, 背景精度損失 lback を用いてモデルを訓練し, 最終損失関数を次のように定義する。 0.57
Lf = Lspn + λ1Lf ore + λ2Lback, Lf = Lspn + λ1Lf ore + λ2Lback 0.44
(4) where λ1 and λ2 is used to control the contribution of the foreground loss and the background loss. (4) λ1 と λ2 は前景の損失と背景の損失の寄与を制御するために使われる。 0.64
Empirically, we set λ1 = λ2 = 1. 経験的に λ1 = λ2 = 1 とする。 0.71
We train our final model for 40 epochs. 最終モデルは40エポックでトレーニングします。 0.62
The saliency prediction network is initialized with ResNet50 pre-trained on ImageNet. サリエンシ予測ネットワークは、ImageNet上で事前トレーニングされたResNet50で初期化される。 0.57
The initial learning rate is 2.5e-4, and the decay epoch is 20 while the decay rate is 0.9. 初期学習率は2.5e-4、崩壊時期は20、崩壊率は0.9である。 0.69
As the training batch size be set up to 16 on a PC with an NVIDIA GeForce GTX 1080ti GPU, the training process of the network takes 8 hours. トレーニングバッチのサイズは、nvidia geforce gtx 1080ti gpuを搭載したpc上で16に設定できるため、ネットワークのトレーニングプロセスには8時間を要する。 0.81
4. EXPERIMENTAL RESULTS 4.1. 実験結果 4.1. 0.31
Setup Data set: We train our models using the DUTS training dataset [5] D = {xi, yi}N i=1 of size N = 10, 553, and test on six other widely used datasets: the DUTS testing dataset, ECSSD [27], DUT [28], HKU-IS [29], PASCAL-S [30] and the SOD testing dataset [31]. データセットの設定: DUTSトレーニングデータセット [5] D = {xi, yi}N i=1 of size N = 10, 553を使用してモデルをトレーニングし、他の広く使用されているデータセットとして、DUTSテストデータセット、ECSSD [27]、DUT [28]、HKU-IS [29]、PASCAL-S [30]、SODテストデータセット [31]を使用する。 0.84
The supervision yi in our case is bounding box annotation. 私たちの場合の監督yiはバウンディングボックスアノテーションです。 0.50
Evaluation Metrics: Four evaluation metrics are used, including Mean Absolute Error (MAE M), Mean F-measure (Fβ), mean E-measure (Eξ) and the S-measure Sα [41] 評価指標: 平均絶対誤差(mae m)、平均f-測定(fβ)、平均e-測定(e)、s-測定sα[41]の4つの評価指標が使用される。
訳抜け防止モード: 評価指標 : 平均絶対誤差(MAE M)を含む4つの評価指標を用いる。 平均 F - 測度(Fβ)、平均 E - 測度(E) S-測度 Sα [41 ]
0.82
4.2. Performance Comparison Quantitative comparison: We show performance of our model in Table 1, where models in the top two blocks are fully supervised models (models in the middle block are transformer [42] based), and models in the last block (not “Ours”) are weakly supervised models. 4.2. 性能比較 定量的比較: 表1では、上位2ブロックのモデルは完全に教師付きモデル(中間ブロックのモデルはtransform [42]ベース)であり、最後のブロックのモデル("ours"ではなく)は弱い教師付きモデルである。
訳抜け防止モード: 4.2. 性能比較定量的比較 : 表1におけるモデルの性能を示す。 上位2ブロックのモデルは完全な教師付きモデル(中間ブロックのモデルはtransformer [42 ]ベース)である。 そして、最後のブロック(“私たちの”ではなく)のモデルは、弱い監督されたモデルです。
0.58
Performance comparison show competitive performance of our model, leading to an alternative weakly supervised saliency detection model. 性能比較は,本モデルの競合性能を示し,弱教師付き塩分濃度検出モデルを実現する。 0.80
Qualitative comparison: We compare predictions of our model with four benchmark models and show results in Fig. 3, which further explain that with both the foreground and background constrains, our weakly supervised model can obtain relative structure accurate predictions. 質的比較:我々のモデルの予測を4つのベンチマークモデルと比較し、その結果を図3に示す。
訳抜け防止モード: 質的比較 : 我々のモデルの予測を4つのベンチマークモデルと比較する 図3で結果を示します 前景と背景の制約により、我々の弱い教師付きモデルは、相対的構造を正確に予測することができる。
0.86
Running time comparison: As both the foreground and background related loss are only used during training. 実行時間比較: 前景と背景の両方の損失はトレーニング時にのみ使用される。 0.79
At 0.70
英語(論文から抽出)日本語訳スコア
DUTS [5] ECSSD [27] DUTS[5] ECSSD[27] 0.42
DUT [28] Method Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ BndBox .642 .514 .673 .167 .683 .620 .712 .185 .671 .533 .701 .149 .683 .597 .722 .167 .621 .608 .669 .232 .625 .552 .669 .203 .795 .707 .814 .071 .856 .834 .871 .069 .787 .681 .800 .075 .852 .820 .874 .059 .745 .751 .762 .151 .733 .689 .747 .120 .787 .715 .823 .069 .854 .846 .883 .068 .778 .687 .806 .070 .851 .835 .892 .055 .733 .749 .760 .157 .724 .694 .750 .124 Ours .796 .715 .821 .070 .856 .838 .873 .069 .792 .695 .812 .072 .855 .826 .882 .057 .748 .760 .772 .147 .740 .704 .758 .119 DUT[28] Method Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ Sα ↑ Fβ ↑ Eξ ↑ M ↓ BndBox .642 .514 .673 .167 .683 .620 .712 .185 .671 .533 .701 .149 .683 .597 .722 .167 .621 .608 .669 .232 .625 .552 .669 .203 .795 .707 .814 .071 .856 .834 .871 .069 .787 .681 .800 .075 .852 .820 .874 .059 .745 .751 .762 .151 .733 .689 .747 .120 .787 .715 .823 .069 .854 .846 .883 .068 .778 .687 .806 .070 .851 .835 .892 .055 .733 .749 .760 .157 .724 .694 .750 .124 Ours .796 .715 .821 .070 .856 .838 .873 .069 .792 .695 .812 .072 .855 .826 .882 .057 .748 .760 .772 .147 .740 .704 .758 .119 0.37
GCut FGCut HKU-IS [29] ガウトFGCut HKU-IS[29] 0.46
PASCAL-S [30] PASCAL-S[30] 0.41
SOD [31] Table 2. SOD[31] 表2。 0.57
Performance of ablation study related experiments. アブレーション研究関連実験の性能 0.69
Image GT BndBox 画像 GT bndボックス 0.61
GCut FGCut Ours ガッツ FGCut 我々の 0.48
Fig. 4. Visual comparison of the ablation study related experiments, where each model (“BndBox”, “GCut” and “FGCut”) is introduced in the ablation study section. 図4。 各モデル(BndBox,GCut,FGCut)をアブレーション研究部に導入したアブレーション研究関連実験を視覚的に比較した。
訳抜け防止モード: 図4。 各モデル(「BndBox」)に関するアブレーション研究の視覚的比較 アブレーション研究部では「GCut」と「FGCut」が紹介されている。
0.65
test time, we can produce saliency maps with the saliency prediction network, leading to an average inference time of 0.02s/image, which is comparable with existing techniques. テスト時間では、サリエンシ予測ネットワークでサリエンシマップを作成できるため、既存の手法に匹敵する0.02s/imageの平均推定時間が得られる。 0.69
4.3. Ablation Study 4.3. アブレーション研究 0.52
We conducted further experiments to explain the contribution of each component of the proposed model, and show performance of the related experiments in Table 2. 提案モデルの各コンポーネントの寄与を説明するためのさらなる実験を行い,関連する実験の性能を表2に示す。 0.77
Training directly with bounding box supervision yi: Given bounding box supervision, a straight-forward solution is training directly with the binary bounding box as supervision. 境界ボックスの監視 yi: 境界ボックスの監督が与えられた場合、直接フォワードのソリューションは、監督としてバイナリ境界ボックスを直接トレーニングする。 0.68
We show it’s performance as “BndBox”. パフォーマンスを“bndbox”として示しています。 0.75
Training directly with pseudo label from GrabCut: With the refined pseudo label gi using GrabCut, we can train another model with gi as pseudo label directly. grabcut の pseudo label を直接トレーニングする: grabcut を使用した改良された pseudo label gi では,gi を pseudo label として,別のモデルを直接トレーニングすることができる。
訳抜け防止モード: GrabCutからの擬似ラベルによる直接学習 : GrabCut を用いた改良擬似ラベル gi では,gi を擬似ラベルとしてトレーニングすることができる。
0.77
The performance is shown as “GCut”. パフォーマンスは"GCut"として表示されます。 0.69
Contribution of foreground structure loss: We further add the foreground structure loss to “GCut”, leading to “FGCut”. 前景構造損失の寄与: さらに「GCut」に前景構造損失を加え、「FGCut」に導く。 0.66
Analysis: As shown in Table 2, directly training with bounding box supervision yields unsatisfactory results, where the model learns to regress the bounding box region (see “BndBox” in Fig 4). 分析:表2に示すように、バウンディングボックスの監督による直接トレーニングは、モデルがバウンディングボックス領域の回帰を学ぶという不満足な結果をもたらす(図4の“BndBox”を参照)。 0.78
Although the pseudo saliency map with GrabCut is noisy, the model based on it can still generate reasonable predictions (see “GCut” in both Table 2 and Fig 4.). GrabCut の擬塩分マップはうるさいが、それに基づくモデルは依然として妥当な予測を生成することができる(表 2 と図 4 の "GCut" を参照)。 0.76
Then, with the proposed foreground and background loss as constrains (Lf ore and Lback), we obtain better performance with more accurte structures. そして,提案する前景と背景損失を制約として (lf ore と lback) として,より正確な構造でより良い性能を得る。 0.77
4.4. Model Analysis 4.4. モデル分析 0.59
We analyse the model further to explain the advantage and limitations of the proposed method. 提案手法の利点と限界を説明するために,モデルをさらに分析する。 0.81
Impact of the maximum training epoch: We set the maximum epoch as 40 in this paper. 最大トレーニング期間の影響:本論文では最大エポックを40に設定した。 0.74
As proven in existing noisy labeling literature that longer training time is harmful for noisy labeling setting. 既存のノイズラベリング文献で証明されているように、長いトレーニング時間はノイズラベリング設定に有害である。
訳抜け防止モード: 学習時間が長い既存のノイズラベル文学で証明されていること 騒がしいラベル設定には 有害です。
0.66
We further performed experiments with both longer and shorter training epochs, and observed similar conclusion. さらに,より長く短いトレーニング期間で実験を行い,同様の結論を得た。 0.78
We will investigate the optimal training epochs for better performance. 我々は,パフォーマンス向上のための最適トレーニング期間について検討する。 0.62
Impact of the feat channel C for new backbonf feature generation in the “saliency prediction network”: For dimension reduction, we feed the backbone feature {sk}4 k=1 to four different 3 × 3 convolutional layers to generate the new backbone feature {s(cid:48) k=1 of channel size C = 64. 次元減少のために、バックボーン特徴 {sk}4 k=1 を 4 つの異なる 3 × 3 個の畳み込み層に供給し、チャネルサイズ C = 64 の新しいバックボーン特徴 {s(cid:48) k=1 を生成する。
訳抜け防止モード: サリエンシ予測ネットワーク」における新しいバックボンフ特徴生成に対するオープニングチャネルCの影響 : 次元縮小のために, 背骨の特徴 { sk}4 k=1 を4つの異なる3×3畳み込み層に供給する。 to generate the new backbone feature { s(cid:48 ) k=1 of channel size C = 64。
0.87
We find that model performance is influenced with C. The larger C leads to better overall performance. モデルパフォーマンスはCの影響を受けています。 0.39
However, the size of the model is also significantly enlarged. しかし、モデルのサイズも大幅に拡大されている。 0.77
To achieve trade off between model performance and training/testing time, we set C = 64. モデルパフォーマンスとトレーニング/テスト時間のトレードオフを達成するために、C = 64を設定しました。
訳抜け防止モード: モデル性能とトレーニング/テスト時間のトレードオフを実現する。 C = 64 とする。
0.79
We will investigate the optimal C in the future. 今後最適なCについて検討する。 0.54
Edge detection as auxiliary task for prediction structure recovery: [4] introduced auxiliary edge detection module to their weakly supervised learning framework for structure recovery. 構造復元の補助タスクとしてのエッジ検出: [4] 構造復元のための弱教師付き学習フレームワークに補助エッジ検出モジュールを導入した。 0.79
We have tried the same strategy and observed no significant performance improvement in our setting. 我々は同じ戦略を試し、我々の設定では大きなパフォーマンス改善は見つからなかった。 0.74
As a multi-task learning framework, the convergence rate of each task is especially important for the final performance, and more sophisticated multi-task learning solution is important to fully explore the contribution of auxiliary edge detection for weakly supervised learning. マルチタスク学習フレームワークとして、各タスクの収束率は最終性能に特に重要であり、より洗練されたマルチタスク学習ソリューションは、弱教師付き学習に対する補助エッジ検出の貢献を十分に探求するために重要である。 0.80
k}4 5. CONCLUSION k}4 5.コンキュレーション 0.57
In this paper, we introduce a bounding box based weakly supervised saliency detection model. 本稿では,境界ボックスに基づく弱教師付き唾液度検出モデルを提案する。 0.75
Due to the different accuracy of foreground and background, we introduce two sets of loss functions to constrain the predictions within the foreground and background bounding box regions. 前景と背景の精度が異なるため,前景と背景バウンディングボックス領域内の予測を制限する2つの損失関数を導入する。 0.71
Experimental results explain the superiority of the proposed solution, leading to an alternative for weakly supervised saliency detection. 実験結果から,提案手法の優越性が説明され,塩分濃度の弱い検出方法が提案されている。 0.59
However, we observe that model performance is sensitive to the maximum training epochs. しかし,モデルの性能は最大トレーニングエポックに敏感である。 0.59
Longer training will lead to over-fitting on noisy labeling, while shorter training may lead to less effective model. 長いトレーニングはノイズラベリングに過剰な適合をもたらすが、短いトレーニングはより効果的でないモデルをもたらす。 0.68
More research on optimal training mechanism for noisy label learning should be investigated. ノイズラベル学習の最適学習機構についてさらに検討する。 0.53
英語(論文から抽出)日本語訳スコア
6. REFERENCES [1] Qingming Huang Jun Wei, Shuhui Wang, “F3net: Fusion, feedback 6.参考文献 [1] Qingming Huang Jun Wei, Shuhui Wang, “F3net: Fusion, feedback” 0.60
and focus for salient object detection,” in AAAI, 2020. と、2020年のaaaiで述べている。 0.28
[2] Bo Wang, Quan Chen, Min Zhou, Zhiqiang Zhang, Xiaogang Jin, and Kun Gai, “Progressive feature polishing network for salient object detection.,” in AAAI, 2020, pp. 12128–12135. [2] Bo Wang, Quan Chen, Min Zhou, Zhiqiang Zhang, Xiaogang Jin, Kun Gai, “Progressive feature polishing network for salient object detection.”, AAAI, 2020, pp. 12128–12135。
訳抜け防止モード: [2]ボー・ワン、クァン・チェン、ミン・ジュ Zhiqiang Zhang, Xiaogang Jin, Kun Gai, “Progressive feature polishing network for salient object detection ”。 AAAI, 2020, pp. 12128–12135。
0.71
[3] Jun Wei, Shuhui Wang, Zhe Wu, Chi Su, Qingming Huang, and Qi Tian, “Label decoupling framework for salient object detection,” in CVPR, June 2020. CVPRの2020年6月号によると、[3]Jun Wei, Shuhui Wang, Zhe Wu, Chi Su, Qingming Huang, Qi Tian, “Label decoupling framework for salient object detection”。 0.83
[4] Jing Zhang, Xin Yu, Aixuan Li, Peipei Song, Bowen Liu, and Yuchao Dai, “Weakly-supervised salient object detection via scribble annotations,” in CVPR, 2020. [4]Jing Zhang, Xin Yu, Aixuan Li, Peipei Song, Bowen Liu, and Yuchao Dai, “Weakly-supervised salient object detection via scribble annotations” in CVPR, 2020。
訳抜け防止モード: [4 ]ジン・チャン、シン・ユ、アジュアン・リー、 Peipei Song, Bowen Liu, and Yuchao Dai, “Wakly - scribbleアノテーションによる有能な物体検出を監督する”。 CVPR、2020年。
0.69
[5] Lijun Wang, Huchuan Lu, Yifan Wang, Mengyang Feng, Dong Wang, Baocai Yin, and Xiang Ruan, “Learning to detect salient objects with image-level supervision,” in CVPR, 2017, pp. 136–145. [5] wang, huchuan lu, yifan wang, mengyang feng, dong wang, baocai yin, xiang ruan, “learning to detect salient objects with image-level supervisor” cvpr, 2017 pp. 136–145 に記載されている。 0.78
[6] Duc Tam Nguyen, Maximilian Dax, Chaithanya Kumar Mummadi, Thi-Phuong-Nhung Ngo, Thi Hoai Phuong Nguyen, Zhongyu Lou, and Thomas Brox, “Deepusps: Deep robust unsupervised saliency prediction via self-supervision,” in NeurIPS, 2019, pp. 204–214. 6] Duc Tam Nguyen, Maximilian Dax, Chaithanya Kumar Mummadi, Thi-Phuong-Nhung Ngo, Thi Hoai Phuong Nguyen, Zhongyu Lou, Thomas Brox, “Deepusps: Deep robust unsupervised saliency prediction via self-supervision”, NeurIPS, 2019, pp. 204–214。 0.44
[7] Jing Zhang, Tong Zhang, Yuchao Dai, Mehrtash Harandi, and Richard Hartley, “Deep unsupervised saliency detection: A multiple noisy labeling perspective,” in CVPR, 2018, pp. 9029–9038. Jing Zhang, Tong Zhang, Yuchao Dai, Mehrtash Harandi, Richard Hartley, “Deep unsupervised saliency detection: A multiple noisy labeling perspective” in CVPR, 2018, pp. 9029–9038。
訳抜け防止モード: 《7 ] ジン・チャン, トン・チャン, ユチャオ・ダイ, mehrtash harandi, richard hartley, “deep unsupervised saliency detection: a multiple noise labeling perspective” cvpr、2018年、p.9029-9038。
0.64
[8] Jing Zhang, Jianwen Xie, and Nick Barnes, “Learning noise-aware encoder-decoder from noisy labels by alternating back-propagation for saliency detection,” in ECCV, 2020. 8]jing zhang氏、jianwen xie氏、nick barnes氏は、2020年のeccvで、“サリエンシ検出のためのバックプロパゲーションを交互に行うことで、ノイズを検知したエンコーダデコーダをノイズラベルから学習する”。
訳抜け防止モード: [8 ]Jing Zhang、Jianwen Xie、Nick Barnes 『学習ノイズ-認識エンコーダ-ノイズラベルからのデコーダ』 alternating~ -ECCV,2020では「唾液濃度検出の伝播」が報告された。
0.62
[9] Dingwen Zhang, Junwei Han, and Yu Zhang, [9]Dingwen Zhang、Junwei Han、Yu Zhang 0.32
“Supervision by fusion: Towards unsupervised learning of deep salient object detector,” in ICCV, 2017, pp. 4048–4056. ICCV, 2017, pp. 4048–4056. “Supervision by fusion: Towards unsupervised learning of Deep Salient object detector”. ICCV, 2017. 4048–4056
訳抜け防止モード: 「核融合による監督 : 深層物質検知器の教師なし学習を目指して」 ICCV, 2017, pp. 4048–4056。
0.71
[10] Guanbin Li, Yuan Xie, and Liang Lin, “Weakly supervised salient ob- [10]Guanbin Li,Yuan Xie,Liang Lin, “Weakly supervised salient ob-” 0.38
ject detection using image labels,” in AAAI, 2018. 2018年、aaaiの“ject detection using image labels”。 0.34
[11] Yu Zeng, Yunzhi Zhuge, Huchuan Lu, Lihe Zhang, Mingyang Qian, and Yizhou Yu, “Multi-source weak supervision for saliency detection,” in CVPR, 2019, pp. 6074–6083. [11]Yu Zeng, Yunzhi Zhuge, Huchuan Lu, Lihe Zhang, Mingyang Qian, Yizhou Yu, “Multi-source weak surveillance for saliency detection” in CVPR, 2019, pp. 6074-6083.
訳抜け防止モード: 11 ]ユ・ゼン、ユンシー・ズーゲ、ユチュアン・ル lihe zhang氏, mingyang qian氏, yizhou yu氏, “saliency detectionのためのマルチソース弱い監督” cvpr、2019年、p.6074-6083。
0.60
[12] Yuxuan Liu, Pengjie Wang, Ying Cao, Zijian Liang, and Rynson W. H. Lau, “Weakly-supervised salient object detection with saliency bounding boxes,” TIP, pp. 4423–4435, 2021. 12]Yuxuan Liu, Pengjie Wang, Ying Cao, Zijian Liang, and Rynson W. H. Lau, “Weakly-supervised salient object detection with saliency bounding box”, TIP, pp. 4423–4435, 2021。
訳抜け防止モード: 12 ]ユキサン・リウ、ペンジー・ワン、ヤン・カオ、 zijian liang, and rynson w. h. lau, “weakly - supervised salient object detection with saliency bounding box” (英語) tip , pp 4423-4435 , 2021 。
0.68
[13] Siyue Yu, Bingfeng Zhang, Jimin Xiao, and Eng Gee Lim, “Structureconsistent weakly supervised salient object detection with local saliency coherence,” in AAAI, 2021, pp. 3234–3242. [13]Siyue Yu, Bingfeng Zhang, Jimin Xiao, Eng Gee Lim, “Structureconsistent weaklysupervised salient object detection with local saliency coherence” in AAAI, 2021, pp. 3234–3242。
訳抜け防止モード: 《13歳]シユエ・ユ,ビンフェン・ジャン,ジミン・シャオ, そしてeng gee limは、”構造的に弱い教師付きサルエント物体検出と局所的な塩分コヒーレンス”だ。 aaai , 2021 , pp. 3234-3242 において。
0.50
[14] Jing Zhang, Yuchao Dai, Tong Zhang, Mehrtash Harandi, Nick Barnes, and Richard Hartley, “Learning saliency from single noisy labelling: A robust model fitting perspective,” TPAMI, vol. [14]Jing Zhang, Yuchao Dai, Tong Zhang, Mehrtash Harandi, Nick Barnes, Richard Hartley, “Learning saliency from single noisy labelling: A robust model fit perspective”, TPAMI, vol.
訳抜け防止モード: 14 ] チャン・チャン、ユチャオ・ダイ、トン・チャン、 mehrtash harandi, nick barnes, richard hartley, “learning saliency from single noise labelling: a robust model fit perspective, ” tpami, vol. ](英語)
0.61
43, no. 8, pp. 2866– 2873, 2020. 43, no. 8, pp. 2866–2873, 2020。 0.85
[15] Chuan Guo, Geoff Pleiss, Yu Sun, and Kilian Q. Weinberger, “On calibration of modern neural networks,” in ICML, 2017, pp. 1321– 1330. [15] Chuan Guo, Geoff Pleiss, Yu Sun, and Kilian Q. Weinberger, “On calibration of modern neural network” in ICML, 2017, pp. 1321–1330。
訳抜け防止モード: [15 ]中安弘、Geoff Pleiss、Yu Sun、 Kilian Q. Weinbergerは曰く、“現代のニューラルネットワークの校正について”。 ICML、2017年、p.1321-1330。
0.72
[16] Zuyao Chen, Qianqian Xu, Runmin Cong, and Qingming Huang, “Global context-aware progressive aggregation network for salient object detection,” in AAAI, 2020, pp. 10599–10606. [16]zuyao chen, qianqian xu, runmin cong, and qingming huang, “global context-aware progressive aggregation network for salient object detection” in aaai, 2020, pp. 10599–10606. (英語)
訳抜け防止モード: [16] チェン チェン キアンキアン xu ランミン コング qingming huang氏: “グローバルコンテキスト - 突出したオブジェクト検出のための漸進的アグリゲーションネットワーク”。 aaai , 2020 , pp . 10599–10606。
0.72
[17] Xiaoning Zhang, Tiantian Wang, Jinqing Qi, Huchuan Lu, and Gang Wang, “Progressive attention guided recurrent network for salient object detection,” in CVPR, 2018, pp. 714–722. [17]Xiaoning Zhang, Tiantian Wang, Jinqing Qi, Huchuan Lu, Gang Wang, “Progressive attention guided recurrent network for salient object detection” in CVPR, 2018, pp. 714–722。
訳抜け防止モード: [17]Xiaoning Zhang, Tiantian Wang, Jinqing Qi, Huchuan LuとGang Wangは、“プログレッシブアテンションは、有能な物体検出のためのリカレントネットワークをガイドした”。 CVPR, 2018, pp. 714–722。
0.76
[18] Youwei Pang, Xiaoqi Zhao, Lihe Zhang, and Huchuan Lu, “Multiscale interactive network for salient object detection,” in CVPR, 2020, pp. 9413–9422. He18] Youwei Pang, Xiaoqi Zhao, Lihe Zhang, and Huchuan Lu, “Multiscale interactive network for salient object detection” in CVPR, 2020, pp. 9413–9422。
訳抜け防止モード: 18 ] youwei pang, xiaoqi zhao, lihe zhang そしてhuchuan luは、”salient object detectionのためのマルチスケールインタラクティブネットワーク”だ。 cvpr、2020年、p.9413-9422。
0.64
[19] Siyue Yu, Bingfeng Zhang, Jimin Xiao, and Eng Gee Lim, “Structureconsistent weakly supervised salient object detection with local saliency coherence,” in AAAI, 2021. [19]2021年、AAAIのSyue Yu, Bingfeng Zhang, Jimin Xiao, Eng Gee Lim, “Structureconsistent weakly supervised salient object detection with local saliency coherence”。
訳抜け防止モード: 《19歳]シユエ・ユ,ビンフェン・ジャン,ジミン・シャオ, そしてeng gee limは、”構造的に弱い教師付きサルエント物体検出と局所的な塩分コヒーレンス”だ。 昭和2021年(2021年)。
0.46
[20] Wenguan Wang, Shuyang Zhao, Jianbing Shen, Steven CH Hoi, and Ali Borji, “Salient object detection with pyramid attention and salient edges,” in CVPR, 2019, pp. 1448–1457. Wenguan Wang, Shuyang Zhao, Jianbing Shen, Steven CH Hoi, Ali Borji, “Salient object detection with pyramid attention and salient edges” in CVPR, 2019, pp. 1448–1457. [20] Wenguan Wang, Shuyang Zhao, Jianbing Shen, Steven CH Hoi, and Ali Borji。
訳抜け防止モード: [20]ウェングアン・ワン、周陽、ジャンビン・シェン Steven CH Hoi,Ali Borji両氏は,“ピラミッドの注意と健全なエッジによる健全な物体検出”について述べている。 CVPR, 2019, pp. 1448-1457。
0.69
[21] Jia-Xing Zhao, Jiang-Jiang Liu, Deng-Ping Fan, Yang Cao, Jufeng Yang, and Ming-Ming Cheng, “Egnet: Edge guidance network for salient object detection,” in ICCV, 2019, pp. 8779–8788. [21]Jia-Xing Zhao, Jiang-Jiang Liu, Deng-Ping Fan, Yang Cao, Jufeng Yang, Ming-Ming Cheng, “Egnet: Edge guidance network for salient object detection” in ICCV, 2019, pp. 8779–8788。
訳抜け防止モード: 〔21〕治阿-清宗、江-江理、 deng - pingファン、yang cao、jufeng yang。 and ming - ming cheng, “egnet: edge guidance network for salient object detection” (英語) iccv, 2019, pp. 8779-8788。
0.66
[22] Yang Wang, Yi Yang, Zhenheng Yang, Liang Zhao, Peng Wang, and Wei Xu, “Occlusion aware unsupervised learning of optical flow,” in CVPR, 2018, pp. 4884–4893. CVPR, 2018, pp. 4884–4893.[22] Yang Wang, Yi Yang, Zhenhenheng Yang, Liang Zhao, Peng Wang, Wei Xu, “Occlusion aware unsupervised learning of optical flow” in CVPR, 2018, pp. 4884–4893.
訳抜け防止モード: [22 ]ヤン・ワン、イ・ヤン、チェン・ヤン Liang Zhao, Peng Wang, Wei Xu, “Occlusion aware unsupervised learning of optical flow”。 CVPR, 2018 , pp. 4884–4893。
0.67
[23] Carsten Rother, Vladimir Kolmogorov, and Andrew Blake, “” grabcut” interactive foreground extraction using iterated graph cuts,” ACM transactions on graphics (TOG), vol. ACM transaction on graphics (TOG) vol.[23] Carsten Rother, Vladimir Kolmogorov, and Andrew Blake, ““” grabcut” Interactive foreground extract using Iterated graph cuts”, ACM transactions on graphics (TOG).
訳抜け防止モード: 23 ]カーステン・ロザー、ウラジーミル・コルモゴロフ、アンドリュー・ブレイク 反復グラフカットを用いた対話型フォアグラウンド抽出 acm transactions on graphics (tog ) , vol。
0.59
23, no. 3, pp. 309–314, 2004. 23, 3, pp. 309-314, 2004。 0.72
[24] Cheng-Chun Hsu, Kuang-Jui Hsu, Chung-Chi Tsai, Yen-Yu Lin, and Yung-Yu Chuang, “Weakly supervised instance segmentation using the bounding box tightness prior,” in NeurIPS, 2019, vol. [24]Cheng-Chun Hsu氏、Kuang-Jui Hsu氏、Chung-Chi Tsai氏、Yen-Yu Lin氏、Yung-Yu Chuang氏は、2019年のNeurIPSで次のように述べている。 0.64
32. [25] Ren´e Ranftl, Katrin Lasinger, David Hafner, Konrad Schindler, and Vladlen Koltun, “Towards robust monocular depth estimation: Mixing datasets for zero-shot cross-dataset transfer,” TPAMI, 2020. 32. [25] ren ́e ranftl, katrin lasinger, david hafner, konrad schindler, vladlen koltun, “towards robust monocular depth estimation: mixing datasets for zero-shot cross-dataset transfer” tpami, 2020” と題されている。 0.62
[26] Yisen Wang, Xingjun Ma, Zaiyi Chen, Yuan Luo, Jinfeng Yi, and James Bailey, “Symmetric cross entropy for robust learning with noisy labels,” in ICCV, 2019. ICCV, 2019で, [26] Yisen Wang, Xingjun Ma, Zaiyi Chen, Yuan Luo, Jinfeng Yi, James Bailey, “Symmetric cross entropy for robust learning with noisy labels” と題された。
訳抜け防止モード: 〔26〕王英泉、真清純、陳在英 yuan luo氏、jinfeng yi氏、james bailey氏、"ノイズラベルによる堅牢な学習のための対称クロスエントロピー" 2019年、iccv。
0.61
[27] Qiong Yan, Li Xu, Jianping Shi, and Jiaya Jia, “Hierarchical saliency [27]イオンヤン、李Xu、ジャンピング・シー、ジヤ・ジア「ヒエラルキー・サリエンシー」 0.58
detection,” in CVPR, 2013, pp. 1155–1162. 検出」はcvpr, 2013 pp. 1155-1162。 0.59
[28] C. Yang, L. Zhang, H. Lu, X. Ruan, and M. Yang, “Saliency detection [28]C. Yang, L. Zhang, H. Lu, X. Ruan, M. Yang, “Saliency detection” 0.46
via graph-based manifold ranking,” in CVPR, 2013, pp. 3166–3173. via graph-based manifold ranking” in cvpr, 2013 pp. 3166–3173. (英語) 0.76
[29] Guanbin Li and Yizhou Yu, “Visual saliency based on multiscale deep [29]guanbin li,yizhou yu,『多スケール深層に基づく視覚塩分』 0.65
features,” in CVPR, 2015, pp. 5455–5463. 特色」はcvpr, 2015 pp. 5455-5463。 0.62
[30] Yin Li, Xiaodi Hou, Christof Koch, James M Rehg, and Alan L Yuille, “The secrets of salient object segmentation,” in CVPR, 2014, pp. 280– 287. [30] Yin Li, Xiaodi Hou, Christof Koch, James M Rehg, and Alan L Yuille, “The Secrets of salient object segmentation” in CVPR, 2014 pp. 280–287。
訳抜け防止モード: [30 ]Yin Li,Xiaodi Hou,Christof Koch, James M Rehg, and Alan L Yuille, “The Secrets of salient object segmentation, ” in CVPR, 2014, pp . 280 – 287.”. インターネット・ムービー・データベース(英語)
0.82
[31] Vida Movahedi and James H Elder, “Design and perceptual validation of performance measures for salient object segmentation,” in CVPR Workshop, 2010, pp. 49–56. [31] vida movahedi と james h elder は,cvpr workshop, 2010, pp. 49-56 において, “salient object segmentation のパフォーマンス指標の設計と知覚の検証” を行った。 0.77
[32] Zhe Wu, Li Su, and Qingming Huang, “Stacked cross refinement netin ICCV, 2019, pp. [32]Zhe Wu, Li Su, and Qingming Huang, “Stacked cross refinement netin ICCV, 2019, pp。
訳抜け防止モード: [32 ]周武、李周、清明黄 積み重ねクロスリファインネットICCV, 2019, pp。
0.47
work for edge-aware salient object detection,” 7264–7273. edge-aware salient object detection" 7264-7273。 0.36
[33] Jun Wei, Shuhui Wang, and Qingming Huang, “F3net: Fusion, feedback and focus for salient object detection,” in AAAI, 2020, pp. 12321– 12328. [33]Jun Wei, Shuhui Wang, Qingming Huang, “F3net: Fusion, feedback and focus for salient object detection” in AAAI, 2020, pp. 12321–12328。
訳抜け防止モード: 〔33歳〕文順、王秀文、王清明。 講演「f3net: fusion, feedback and focus for salient object detection」 aaai , 2020 , pp. 12321 – 12328。
0.70
[34] Huajun Zhou, Xiaohua Xie, Jian-Huang Lai, Zixuan Chen, and Lingxiao Yang, “Interactive two-stream decoder for accurate and fast saliency detection,” in CVPR, 2020, pp. 9141–9150. [34] huajun zhou, xiaohua xie, jian-huang lai, zixuan chen, lingxiao yang, “interactive two-stream decoder for accurate and fast saliency detection” cvpr, 2020, pp. 9141–9150 に記載されている。
訳抜け防止モード: [34 ]Hhuajun Zhou,Xiaohua Xie,Jian-Huang Lai, Zixuan Chen, Lingxiao Yang, “Interactive Two – Stream Decoder for accurate and fast saliency detection” と題している。 CVPR, 2020, pp. 9141-9150。
0.85
[35] Binwei Xu, Haoran Liang, Ronghua Liang, and Peng Chen, “Locate globally, segment locally: A progressive architecture with knowledge review network for salient object detection,” in AAAI, 2021, pp. 3004– 3012. [35] Binwei Xu, Haoran Liang, Ronghua Liang, Peng Chen, “Locate global, segment: A Progress Architecture with knowledge review network for salient object detection”, AAAI, 2021, pp. 3004–3012。
訳抜け防止モード: [35 ]Binwei Xu,Haoran Liang,Ronghua Liang, そしてPeng Chen氏は,“グローバルに,ローカルにセグメンテーションを配置する: 健全なオブジェクト検出のための知識レビューネットワークを備えた,進歩的なアーキテクチャ”だ。 AAAI , 2021 , pp . 3004 – 3012 。
0.82
[36] Miao Zhang, Tingwei Liu, Yongri Piao, Shunyu Yao, and Huchuan Lu, “Auto-msfnet: Search multi-scale fusion network for salient object detection,” in ACM Int. 36] miao zhang、tingwei liu、yongri piao、shuyu yao、huchuan luはacm intで、“auto-msfnet: search multi-scale fusion network for salient object detection”と書いている。 0.74
Conf. Multimedia, 2021, pp. 667–676. Conf マルチメディア、2021年、p.676767。 0.46
[37] Zhirui Zhao, Changqun Xia, Chenxi Xie, and Jia Li, “Complementary trilateral decoder for fast and accurate salient object detection,” in ACM Int. ACM Intの[37]Zhirui Zhao, Changqun Xia, Chenxi Xie, Jia Li, “Complementary trilateral decoder for fast and accurate salient object detection”。
訳抜け防止モード: [37 ]Zhirui Zhao, Changqun Xia, Chenxi Xie, そしてJia Li氏は,“高速かつ正確な正体検出のための補足三辺デコーダ”だ。 ACM Int で。
0.80
Conf. Multimedia, 2021, pp. 4967–4975. Conf マルチメディア、2021年、p.4967-4975。 0.42
[38] Nian Liu, Ni Zhang, Kaiyuan Wan, Ling Shao, and Junwei Han, “Vi- [38]Nian Liu,Ni Zhang,Kayuan Wan,Ling Shao,Junwei Han, “Vi-” 0.39
sual saliency transformer,” in ICCV, 2021, pp. 4722–4732. sual saliency transformer” in iccv, 2021, pp. 4722-4732。 0.39
[39] Jing Zhang, Jianwen Xie, Nick Barnes, and Ping Li, “Learning generative vision transformer with energy-based latent space for saliency prediction,” in NeurIPS, 2021, vol. Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li, “Learning Generative Vision transformer with energy-based latent space for saliency prediction” in NeurIPS, 2021, vol.[39] Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li。
訳抜け防止モード: [39 ]Jing Zhang, Jianwen Xie, Nick Barnes, そしてPing Li氏は,“エネルギーをベースとした生成的視覚変換器の学習 – 給与予測のための潜在空間”だ。 in NeurIPS , 2021 , vol 。
0.80
34. [40] Xin Li, Fan Yang, Hong Cheng, Wei Liu, and Dinggang Shen, “Contour knowledge transfer for salient object detection,” in ECCV, 2018, pp. 355–370. 34. [40]Xin Li, Fan Yang, Hong Cheng, Wei Liu, Dinggang Shen, “Contour knowledge transfer for salient object detection” in ECCV, 2018, pp. 355–370。
訳抜け防止モード: 34. 40 ] 李新、陽ファン、ホンチョン wei liu, and dinggang shen, “salient object detectionのための輪郭知識伝達” eccv , 2018 , pp . 355-370。
0.50
[41] Deng-Ping Fan, Ge-Peng Ji, Xuebin Qin, and Ming-Ming Cheng, “Cognitive vision inspired object segmentation metric and loss function,” SCIENTIA SINICA Informationis, 2021. [41]Deng-Ping Fan, Ge-Peng Ji, Xuebin Qin, Ming-Ming Cheng, “Cognitive Vision inspired Object segmentation metric and Los Function”, SCIENTIA SINICA Informationis, 2021。
訳抜け防止モード: [41 ]Deng-Ping Fan, Ge-Peng Ji, Xuebin Qin, Ming - Ming Cheng, “認知ビジョンはオブジェクトセグメンテーションのメトリクスと損失関数に影響を与えた”。 SCIENTIA SINICA Informationis, 2021年。
0.75
[42] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin, “Attention is all you need,” in NeurIPS, 2017. a b [42] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, s ukasz Kaiser, Illia Polosukhin, “Attention is all you need” in NeurIPS, 2017
訳抜け防止モード: [42 ]Ashish Vaswani,Noam Shazeer,Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, s ukasz Kaiser Illia Polosukhin氏は2017年のNeurIPSで次のように述べている。
0.71
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。