論文の概要、ライセンス

# (参考訳) 個人固定型オブジェクトセグメンテーション : オブジェクトの局在と境界保存 [全文訳有]

Personal Fixations-Based Object Segmentation with Object Localization and Boundary Preservation ( http://arxiv.org/abs/2101.09014v1 )

ライセンス: CC BY 4.0
Gongyang Li and Zhi Liu and Ran Shi and Zheng Hu and Weijie Wei and Yong Wu and Mengke Huang and Haibin Ling(参考訳) 人-コンピュータインタラクションの自然な方法として、修正はインタラクティブなイメージセグメンテーションに有望なソリューションを提供する。 本稿では、PFOS(Personal Fixations-based Object Segmentation)に着目し、適切なデータセットの欠如や修正ベースのインタラクションの曖昧さなど、過去の研究における課題に対処する。 特に,既存の固定化予測データセット上でピクセルレベルのバイナリアノテーションデータを注意深く収集することにより,新しいpfosデータセットを構築する。 そこで, 個人固定の特徴を考慮し, 目視対象を分割する対象局所化と境界保存(OLBP)に基づく新しいネットワークを提案する。 特に、olbpネットワークは、個人固定を解析するためにオブジェクト・ローカライゼーション・モジュール(olm)を使用し、その解釈に基づいて注視されたオブジェクトを見つけ出す。 次に、境界保存モジュール(BPM)は、目視対象の完全性を保護するために追加の境界情報を導入するように設計されている。 さらに,OLBPはボトムアップとトップダウンの混在した方法で構成され,複数の種類の深い監視を行う。 構築されたPFOSデータセットに対する大規模な実験は、提案したOLBPネットワークが17以上の最先端の手法よりも優れていることを示し、提案したOLMおよびBPMコンポーネントの有効性を示す。 構築されたPFOSデータセットと提案されたOLBPネットワークはhttps://github.com/M athLee/OLBPNet4PFOSで利用可能である。

As a natural way for human-computer interaction, fixation provides a promising solution for interactive image segmentation. In this paper, we focus on Personal Fixations-based Object Segmentation (PFOS) to address issues in previous studies, such as the lack of appropriate dataset and the ambiguity in fixations-based interaction. In particular, we first construct a new PFOS dataset by carefully collecting pixel-level binary annotation data over an existing fixation prediction dataset, such dataset is expected to greatly facilitate the study along the line. Then, considering characteristics of personal fixations, we propose a novel network based on Object Localization and Boundary Preservation (OLBP) to segment the gazed objects. Specifically, the OLBP network utilizes an Object Localization Module (OLM) to analyze personal fixations and locates the gazed objects based on the interpretation. Then, a Boundary Preservation Module (BPM) is designed to introduce additional boundary information to guard the completeness of the gazed objects. Moreover, OLBP is organized in the mixed bottom-up and top-down manner with multiple types of deep supervision. Extensive experiments on the constructed PFOS dataset show the superiority of the proposed OLBP network over 17 state-of-the-art methods, and demonstrate the effectiveness of the proposed OLM and BPM components. The constructed PFOS dataset and the proposed OLBP network are available at https://github.com/M athLee/OLBPNet4PFOS.
公開日: Fri, 22 Jan 2021 09:20:47 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE Personal Object 画像個人オブジェクトのIEEEトランザクション 0.62
PROCESSING Fixations-Based Object Localization Liu, Zhi Gongyang 修正に基づくオブジェクトローカライゼーションLiu, Zhi Gongyang 0.76
Boundary IEEE, Ran Shi, and Haibin Weijie Wei, Yong Wu, Mengke Huang, 境界IEEE、Ran Shi、Habin Weijie Wei、Yong Wu、Mengke Huang 0.54
1 Segmentation with Preservation Zheng Hu, Ling 1 保存Zheng Hu, Ling によるセグメンテーション 0.73
and Senior Member, そして、シニアメンバー。 0.45
Li, 1 2 0 2 n a J 2 2 ] V C . 李 1 2 0 2 n a j 2 2 2 ] v c . 0.63
s c [ 1 v 4 1 0 9 0 . s c [ 1 v 4 1 0 9 0 . 0.85
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
as proposed OLBP として OLBP の提案 0.66
human-computer for a interaction, natural Abstract—As way image for solution fixation promising a provides interactive focus In this paper, we segmentation. Human-Computer for a Interaction, natural Abstract — ソリューションフィクスメントを約束する方法として、インタラクティブなフォーカスを提供する。 0.68
on Personal Fixations-based Object Segmentation (PFOS) to address studies, issues in previous such the lack appropriate dataset ambiguity in and the of a new construct In particular, we first fixations-based interaction. パーソナライズドフィクスベースのオブジェクトセグメンテーション(PFOS: Object Segmentation, PFOS)では、以前の研究や、データセットのあいまいさの欠如、新しい構成の欠如といった問題に対処しています。 0.62
annotation collecting pixel-level binary carefully PFOS dataset by prediction dataset, fixation over data such dataset an existing expected is to greatly the line. 予測データセットによる画素レベルのバイナリを慎重に収集するアノテーション 予測データセットによるPFOSデータセット、既存の期待するデータセットに対する固定は、ラインを大幅に短縮する。 0.59
Then, facilitate along the study considering characteristics of fixations, we propose personal Boundary a and Localization Object on based network novel Specifically, objects. そこで, 固定特性を考慮した研究を円滑に進め, ネットワークを具体化した個人境界aと局所オブジェクトを提案する。 0.78
gazed the segment to Preservation (OLBP) the OLBP network utilizes an Object Localization Module (OLM) personal to analyze fixations and locates the gazed objects based on Preservation Module the interpretation. Preservation (OLBP) のセグメントを見つめた OLBP ネットワークは、修正を分析して、Preservation Module に基づいて見渡されたオブジェクトを解釈する Object Localization Module (OLM) を使用している。 0.87
Then, a Boundary boundary additional designed (BPM) introduce information to is objects. 次に、境界境界追加設計(BPM)が is オブジェクトに関する情報を導入します。 0.78
Moreover, OLBP completeness the to of guard the gazed bottom-up in the mixed is organized and top-down manner with on supervision. また、観察されたボトムアップを混合してガードするtoのolbp完全性を整理し、トップダウン方式で監督する。 0.51
Extensive multiple types of the deep experiments proposed constructed PFOS dataset show the superiority of the OLBP network over 17 state-of-the-art methods, and demonstrate of effectiveness the OLM and proposed the BPM components. 提案したPFOSデータセットの多種多様な実験は、OLBPネットワークが17以上の最先端手法よりも優れていることを示し、OLMの有効性を実証し、BPMコンポーネントを提案する。 0.73
The network constructed PFOS dataset and the are available at https://github.com/M athLee/OLBPNet4PFOS. PFOSデータセットはhttps://github.com/M athLee/OLBPNet4PFOSで公開されている。 0.55
segmentaTerms—Personal Index tion, object localization, I. segmentaTerms - Personal Index tion, object localization, I。 0.90
INTRODUCTION F IXATION interaction flexible is a of mechanism the visual human system. イントロダクション f ixation interaction flexible は視覚系のメカニズムの1つである。 0.77
Compared with and click scribble, the bounding fixation box, provides most interconvenient disability, action for patients with hand amyotrophic lateral interaction, eye of kind and (ALS) sclerosis polio. 境界固定箱であるクリックスクリブルと比較すると、最も不都合な障害、手の筋萎縮性側方的相互作用、眼の種類、および(ALS)硬化ポリオに対する作用がある。 0.62
This control i.e. このコントロールi.e. 0.79
interaction the efficiency fixation, can greatly improve of these patients. 効率性固定の相互作用は 患者を大いに改善します 0.76
In addition, fixation is closely perrelated to sonal information such as age [1], [2] and gender [3], [4]. 加えて、固定は年齢[1]、[2]、性別[3]、[4]といった超音波情報と密接に関連している。
訳抜け防止モード: また、固定は年齢[1]などの音情報と密接に関連している。 [ 2 ] and gender [ 3 ], [ 4 ] .
0.78
This individuals may have different perceptions means that different in motivated, Thus [6]. この個人は、動機が違うという認識を持っているかもしれません。 0.41
[5], scene and preferences of a this paper, we pay close attention to personal fixations-based object Hu, Weijie Wei, Yong Wu, and Gongyang Zhi Liu, Li, Zheng CommunicaAdvanced Institute Shanghai are Huang Mengke for with Shanghai University, Shanghai Science, and tion 200444, China, Data and and of Communication Information Engineering, ShangSchool ligongyang@shu.edu.c n; hai University, Shanghai 200444, China (email: liuzhisjtu@163.com; codename1995@shu.edu .cn; huzhen1995@shu.edu.c n; yong huangmengke@shu.edu. cn). [5], scene and preferences of a this paper, we pay close attention to personal fixations-based object Hu, Weijie Wei, Yong Wu, and Gongyang Zhi Liu, Li, Zheng CommunicaAdvanced Institute Shanghai are Huang Mengke for with Shanghai University, Shanghai Science, and tion 200444, China, Data and and of Communication Information Engineering, ShangSchool ligongyang@shu.edu.c n; hai University, Shanghai 200444, China (email: liuzhisjtu@163.com; codename1995@shu.edu .cn; huzhen1995@shu.edu.c n; yong huangmengke@shu.edu. cn). 0.96
wu@shu.edu.cn; NanSchool with of is Ran Shi Science (email: Nanjing and Science of University jing rshi@njust.edu.cn). wu@shu.edu.cn; nanschool with of is ran shi science (email: nanjing and science of university jing rshi@njust.edu.cn) 0.81
Ling Haibin is with the Department Computer Brook hling@cs.stonybrook. edu). ling haibinはコンピュータ部門brook hling@cs.stonybrook. eduに所属している。 0.65
University, Stony Brook, NY 11794, USA (email: Liu Zhi author: Corresponding スタニーブルック大学(ニューヨーク) 11794, USA (Email: Liu Zhi author: Cor correspondinging) 0.74
Engineering, China Stony エンジニアリング、チャイナ・ストーニー 0.72
Computer Technology, of and 210094, Science, コンピュータ技術や 210094、サイエンス、 0.58
interactive preservation. fixations, boundary 対話的保存。 固定 境界 0.54
image Fig. image フィギュア。 0.64
1. image Examples indicate of fixations. 画像 例としては 固定です 0.38
image Some image some 0.75
with fixations ambiguous fall in 固定で あいまいな落ち込み 0.45
fixations. the Green background. 固定だ はあ? 緑の背景。 0.55
dots in each natural manner for is which segmentation, a more interactive segmentation. 点 イン それぞれ 自然な方法は、どのセグメンテーションがよりインタラクティブなセグメンテーションかである。 0.62
image such as scribbles manners typical The of interaction, [7]– [18]–[21] boxes bounding and [12]–[17] clicks [11], for behaviors explicit segmentation, interactive image are withare implicit By out interference. scribbles manners typical the of interaction, [7]– [18]–[21] box bounding and [12]–[17] clicks [11]のような画像は、明示的なセグメンテーションに対して、インタラクティブなイメージは外部の干渉によって暗黙的になる。 0.87
contrast, fixations [22]– interaction [25], and their comes with convenience ambiguity. 対照的に、固定 [22] – 相互作用 [25] は利便性の曖昧さを伴う。 0.80
and scribbles of labels and positive Concretely, negative the are deterministic. ラベルや肯定的な 否定的な説明は決定論的です 0.58
However, fixations clicks are unlabeled when collected. しかし、修正クリックは収集時にラベル付けされない。 0.58
They do not distinguish between positive labels and (i.e. 正のラベルと(すなわち)正のラベルを区別しない。 0.57
negative labels fixations may fall in background some the fixations. 負のラベルの固定は 背景に落ちるかもしれない 0.67
in noise few in 1), Fig. 1 のノイズが少ない場合、図示。 0.60
as shown the a resulting in ambiguous Such interaction makes the fixations-based object segmentation task difficult. 示されるように、aはあいまいに相互作用し、固定子ベースのオブジェクトセグメンテーションタスクを困難にする。 0.52
Recently, with the rise of convolutional neural networks (CNNs), the clicks-based interactive though Even developed. 近年、畳み込みニューラルネットワーク(CNN)の台頭に伴い、クリックベースの対話型が開発された。 0.70
greatly has image segmentation been points fixation and clicking points are similar to some extent, clicks-based methods [12]–[14], [16], [17] cannot be directly applied to fixations-based object segmentation. 画像のセグメンテーションは固定点であり、クリックポイントはある程度類似しており、クリックベースのメソッド [12]–[14], [16], [17] は固定点ベースのオブジェクトセグメンテーションに直接適用できない。
訳抜け防止モード: 画像のセグメンテーションは ポイントの固定であり クリックポイントは ある程度似ています clicks - based method [ 12]–[14 ], [ 16 ] [ 17 ] は固定 -- ベースのオブジェクトセグメンテーション - に直接適用できない。
0.79
main two are that suggest observations The above there object fixations-based of development limit reasons the that suitable First, segmentation. 主な2つは、上記のオブジェクト固定を示唆するもので、開発の限界に基づいて、最初に、セグメンテーションが適している。
訳抜け防止モード: 主な2つは 観察を推奨 上述のオブジェクトの固定 - 開発制限の理由に基づいて、その適切なファースト、セグメンテーション。
0.70
there is not a dataset for the fixations-based object segmentation task, alone dataset let based the personal fixations. 修正ベースのオブジェクトセグメンテーションタスクのためのデータセットは存在しません。 0.52
Second, as aforementioned, on representation ambiguous the of this fixations makes of type which handle to difficult methods interaction by other are based on clicks and scribbles. 第2に、上述したように、表現上の曖昧なこの修正は、他の難しいメソッドのインタラクションを処理する型は、クリックとスクリブルに基づいている。 0.57
Personal To address the first crucial issue, we construct a Segmentation Object Fixations-based which dataset, (PFOS) OSIE dataset fixation extended prediction from the [26]. 最初の重要な問題に対処するために、segmentation object fixations-based which dataset, (pfos) osie dataset fixation extended prediction from the [26]。 0.76
is The dataset contains images, and each image has PFOS 700 15 personal fixation maps collected from 15 subjects with overcome of annotations corresponding objects. データセットには画像が含まれており、それぞれの画像には15の被験者から収集されたpfos 700 15の個人固定マップがあり、アノテーションに対応するオブジェクトを克服している。 0.58
To pixel-level we of fixations, ambiguity effective the propose an network and Boundary Preservation Object Localization based on (OLBP). 画素レベルの固定化のために,ネットワークと境界保存オブジェクトの局所化(OLBP)を効果的に提案する。 0.83
The key idea of OLBP is to locate the gazed objects boundary the then and fixations, of analysis the on based OLBPの鍵となる考え方は、観測対象の時間と固定点の境界をベースとした分析を行うことである。
訳抜け防止モード: OLBPの鍵となる考え方は 目視対象をその時と固定点の境界に配置し 分析をベースとして
0.87
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 2 completeness guard to introduced is information the of the background. 加工 2 導入される完全性ガードは、背景の情報である。 0.65
the and objects gazed to filter structure overall In particular, the of network OLBP is a narrow To architectures. 全体的な構造をフィルタリングするために見つめられたオブジェクト、特にネットワークOLBPのアーキテクチャは狭い。 0.72
top-down and mixture of bottom-up the Object objects, we the gap between fixations and propose Localization Module (OLM) to personal fixations in analyze detail and grasp location information of the gazed objects of location of interpretation on Based individuals. オブジェクトオブジェクトのボトムアップと混合により、固定間のギャップを解消し、個別の固定に対する局所化モジュール(OLM)を提案する。
訳抜け防止モード: top - down と bottom - up オブジェクトオブジェクト。 We the gap between Fixation and proposed Localization Module (OLM) to Personal Fixations in Analysis details 目視対象物の位置情報と解釈対象物の位置情報をベース個人で把握する。
0.82
different the modulates features information, OLM CNN of image in a way. 異なる変調は、ある方法で画像のOLM CNNを特徴付ける。 0.61
bottom-up Moreover, considering the object locathat tion information may involve confusing noise, we propose a Module Preservation Boundary boundary exploit to (BPM) object to information enforce completeness and filter the background of erroneous localization. ボトムアップ さらに、ノイズが混ざったオブジェクトのロカザイト情報を考慮し、情報に完全性を強制し、誤った位置付けの背景をフィルタリングするモジュール保存境界バウンダリエクスプロイト(BPM)を提案する。 0.75
BPM is integrated into the top-down prediction. BPMはトップダウンの予測に統合されます。 0.67
Both OLMs and BPMs employ deep repfeature of capabilities improve to supervision the further the resentation. OLM と BPM はどちらも、反感をさらに監督するために、能力の深い補充を取り入れています。 0.48
In this way, scheme of object localization and boundary preservation applied to the bottomis successfully up top-down structure, and the proposed OLBP network and the of greatly fixationspersonal performance promotes the based segmentation object task. このようにして,ボトムスに適用したオブジェクトの局所化と境界保存のスキームがトップダウン構造に成功し,提案するolbpネットワークと個人的性能が,ベースとなるセグメンテーションオブジェクトタスクを促進する。 0.81
Experimental results on the challenging PFOS dataset demonstrate that OLBP outperforms 17 state-of-the-art methods under various evaluation metrics. 挑戦的なPFOSデータセットの実験結果から,OLBPは様々な評価基準の下で17の最先端手法より優れていることが示された。 0.49
are this work of contributions The follows: summarized • Fixations-based Personal for new dataset We construct a Segmentation Object the on focuses (PFOS), which nat(i.e. まとめ • 固定ベースのパーソナライズによる新しいデータセットのためのパーソナライズ 私たちは、オンフォーカス(pfos)と呼ばれるセグメンテーションオブジェクトを構築します。 0.64
contains dataset interaction ural fixation). dataset interaction ural fixationを含む。 0.69
This freeconstraints, personal view any expandfixations without that ing its applicability. この自由制約は、その適用性を損なうことなく、個人的な見解を拡張できる。 0.55
We believe the PFOS dataset will human-computer fixations-based of boost the research interaction. PFOSデータセットは、人間とコンピュータのフィクスレーションに基づいて、研究の相互作用を促進する。 0.55
Object Localization and Boundary novel a propose We Preservation obgazed the (OLBP) segment to network network, on fixations. オブジェクトのローカライゼーションと境界の新規な提案We Preservationは,ネットワークネットワーク上のOLBPセグメントを固定した。 0.79
personal OLBP The jects based Object Localization Module equipped with the and the Boundary Preservation Module, effectively overcomes from ambiguous difficulties the fixations. personal olbp と境界保存モジュールを備えたjectsベースのオブジェクトローカライズモジュールは、固定の曖昧な困難から効果的に克服する。 0.76
experiments our OLBP evaluate extensive We conduct to state-of-the-art methods network and other on the PFOS dataset. 我々のOLBP評価実験は、PFOSデータセット上で、最先端のメソッドネットワークや他のものに対して実施します。
訳抜け防止モード: OLBPが広範囲に評価する実験 最先端の -- アートメソッドネットワーク PFOSデータセット上の他のもの。
0.60
Comprehensive results demonstrate the superiorthe reveal also network, our OLBP of ity difficulties and dataset. 網羅的な結果から,ネットワーク,OLBP,難易度,データセットの優位性が示された。 0.52
PFOS constructed the challenges and of reviews The rest of the paper is organized as follows: Sec. pfosは課題とレビューを作成し、残りの論文は以下のとおりにまとめられている。 0.61
II task related previous works. II 作業関連作業。 0.48
Then, we formulate the PFOS construct in After in PFOS the Sec. 次に、PFOS Sec における After の PFOS 構造を定式化する。 0.77
III. we IV, that, Sec. III。 私たち4人目よ。 0.58
in network dataset. ネットワークデータセットで 0.69
Sec. V presents the proposed OLBP detail. Sec。 v の提案する olbp の詳細を示す。 0.70
In Sec. VI, we evaluate the performance of the proposed OLBP network and other methods on constructed PFOS dataset. Sec。 VI,提案するOLBPネットワークおよびPFOSデータセットにおける他の手法の性能評価を行った。 0.68
the Sec. VII. in drawn is conclusion the Finally, Sec。 VII。 in drawing is conclusion the last, 0.68
as • • II. として • • II。 0.74
RELATED WORK previous works overview of first section, we this an give In introin Sec. 関連作業 前回の作業概要 第1節では、introin secで紹介する。 0.62
of II-A. Then, we segmentation image interactive segmentation object fixations-based works of duce related in II-B. II-A。 次に,II-B に関係のあるduce のセグメント化画像対話型セグメンテーションオブジェクト固定法を提案する。 0.69
Finally, we Sec. そして最後に、私たちは。 0.56
review some related works boundaryon II-C. Sec. boundaryon ii-c. sec 関連作品のレビュー。 0.58
in segmentation aware セグメンテーション・アウェアメントで 0.64
A. of on Interactive Image Segmentation segmentation. A。 について インタラクティブな画像分割セグメンテーション。 0.67
image Scribbles-based 1) interactive Scribble scribblesof Most interaction. Image Scribbles-based 1) インタラクティブなScribble scribblesof Most Interaction。 0.80
manner traditional a is structures. 伝統的なaは構造です 0.77
GraphCut graph are based methods built [7] It uses methods. GraphCut グラフは[7] 構築されたメソッドです。 0.67
representative is one of the most the maxflow/min-cut theorem to minimize energy with hard function (i.e. 代表は、ハード関数を持つエネルギーを最小化する最大フロー/最小カット定理の1つである。 0.73
constraints. Grady and scribbles) labeled constraints soft et al. 制約。 Grady and scribbles) 制約を軟らかくラベル付けした。 0.70
assign [8] a random walk algorithm to label adopted the to each unlabeled pixel based on the predefined pixels in seed et al. 8]seed et alの予め定義されたピクセルに基づいて、ラベルのない各ピクセルにラベルを付けるランダムウォークアルゴリズムを割り当てる。 0.76
discrete space. In [9], Bai a weighted geodesic proposed video and for is framework, which based distance image fast et al. 離散空間。 9]では、重み付けされた測地線ビデオと、距離画像の高速等をベースとするフレームワークについて述べる。 0.69
matting. Nguyen segmentation and [10] proposed a convex active contour to segment objects, and their model results were with smooth and accurate boundary contour. マット Nguyen segmentation and [10] proposed a convex active contour to segment objects, and their model results were smooth and accurate boundary contour。 0.52
et al. methodology markers a presented [11] Spina to live of segmentation effective for user the reduce intervention Following target objects. など。 method markers a presented [11] spina to live of segmentation ユーザがターゲットオブジェクトに従う介入を減らすのに効果的である。 0.60
the seed propagation strategy, Jian et al. The seed propagation strategy, Jian et al。 0.76
[27] employed adaptive constraint propagation to the adaptively the scribbles information into the whole propagate al. [27] 適応的制約伝搬を用いて、スクリブル情報を全伝搬alに適応させる。 0.73
et view changed Wang Recently, image. etビューは最近wangを変えた。 0.66
their [28] on formulated interactive image segmentation and it as a probabilistic estimation problem, proposing a pairwise likelihood learning based framework. 形式化されたインタラクティブなイメージセグメンテーションの[28]と、それが確率的推定問題であり、ペアワイズな学習ベースのフレームワークを提案する。 0.71
These methods are friendly to the solve cannot they but scribbles, defined clearly ambiguity slow. これらの手法は、明らかに曖昧さを遅く定義したスクリブル以外は解けない。 0.63
is speed their fixations of and usually inference interactive 2) Clicks-based image segmentation. クリックベースのイメージセグメンテーションを高速化し、通常推論をインタラクティブにする。 0.59
a is Click studied classical manner of interaction. a is click study classical manner of interaction(英語) 0.82
It has deeply been clicks negative and positive The era. この時代はネガティブでポジティブなクリックだった。 0.47
learning the in deep Euclidean into are transformed two separate distance maps et al. 深いユークリッドを学習することは、2つの異なる距離写像などに変換される。 0.61
for network input. ネットワーク入力のために 0.81
Xu [12] directly sent RGB image and two distance maps into fully convolutional network. Xu[12]は直接RGBイメージと2つの距離マップを完全な畳み込みネットワークに送信した。 0.74
a al. et with network fusion two-branch a proposed Liew [13] prediction global and local regional refinement. アルだ et with network fusion two-branch a proposed liew [13] prediction global and local regional refinement (特集 ネットワーク・フュージョン) 0.56
In addition to et al. the RGB image and distance maps, Li [14] included clicks in their network input and proposed an end-to-end al. et alの他。 RGB画像と距離マップ、Li[14]は、ネットワーク入力にクリックが含まれ、エンドツーエンドのalを提案した。 0.56
et introduced Jang [16], network. etはjang [16], networkを紹介した。 0.68
segmentation-selecti on In refinement backpropagating the scheme correct mislabeled to the in locations initial segmentation map. segmentation-selecti on In refinement the scheme correct mislabeled to the in location initial segmentation map。 0.80
Different from the concatenation direct of RGB image and interaction maps of al. RGB画像とalの相互作用マップの連結直交との違い。 0.72
et RGB input separately Hu methods, the [17] above designed into image and interaction maps two networks, and feature CNNs a fusion network for interactions. 上の[17]はイメージとインタラクションの2つのネットワークにマップされ、CNNはインタラクションのための融合ネットワークとして機能します。 0.66
have greatly improved the performance of clicks-based interactive image segmentation, but when these methods are applied to fixationswill regions some segmentation, based background be object erroneous problem the To address mistakenly segmented. クリックベースのインタラクティブなイメージセグメンテーションのパフォーマンスは大幅に向上したが、これらのメソッドが固定に適用されると、いくつかのセグメンテーション領域に適用される。 0.64
of boundary localization, we explore the in our BPM information to filter redundant regions and guard the gazed object. 境界ローカライゼーションの分野では、冗長な領域をフィルタリングし、見渡されたオブジェクトを保護するために、BPM情報を調べます。 0.61
segmentation. interactive image 3) Bounding boxes-based coexist, object and background In a the box, target bounding al. セグメンテーション インタラクティブ画像 3) ボックスベースの共存、オブジェクトとバックグラウンド ボックス内では、ターゲットバウンディングal。
訳抜け防止モード: セグメンテーション インタラクティブ画像3) バウンディングボックス-ベース共存,オブジェクト 背景 ボックス内では、ターゲット境界 al である。
0.60
et [18] click. クリックする[18]。 0.52
and Rother which from scribble different is object with and approach, the extended a segmented graph-cut looseness the overcome of the rectangle, namely GrabCut. そして、スクリブルの異なるRotherはオブジェクトとアプローチであり、セグメント化されたグラフカットのゆるさが長方形、すなわちGrabCutのオーバーラップする。 0.72
To et al. [19] bounding box, Lempitsky incorporated the tightness prior into the energy minimization function as hard al. など。 19]バウンディングボックス,lempitskyは,エネルギー最小化関数に先行するタイトネスをハードalとして組み込んだ。 0.48
et [21] Shi object. および[21]Shiオブジェクト。 0.74
target completed to constraints global further 制約を満たした目標 さらにグローバルに 0.76
background 背景 0.77
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 3 region-level coarse-to-fine method with proposed a and pixelet al. 加工 3 a および pixelet al を用いた領域レベルの粗粒化法 0.67
level to Similar segmentation. レベルは類似のセグメンテーション。 0.79
transformed [20] [12], Xu the to bounding box concatenated and distance map it with a network. 変換[20][12], Xu を連結した有界ボックスに変換し、それをネットワークにマッピングする。
訳抜け防止モード: transformed [ 20 ] [ 12 ], Xu は連結された有界ボックスであり、距離はそれをネットワークにマッピングする。
0.85
Alencoder-decoder an into to the RGB image input (i.e. Alencoder-decoder an into to the RGB image input (i。 0.91
similar are and fixation target though bounding box object and background coexist in both interactions), the bounding box-based methods are difficult to transfer to fixations-based segmentation. 同様に、バウンディングボックスオブジェクトとバックグラウンドは両方のインタラクションで共存するが、固定ターゲットは、バウンディングボックスベースのメソッドは、固定ベースのセグメンテーションへの転送が困難である。
訳抜け防止モード: 似たようなものや 固定ターゲットは 両方の相互作用において、バウンディングボックスオブジェクトとバックグラウンド共存) 境界ボックス - ベースのメソッドは固定への転送が難しい - ベースのセグメンテーション。
0.65
object B. Segmentation Fixations-Based Object visual sysin role an plays Fixation human integral the study, early for convenient tem In an interaction. object B。 セグメンテーション・フィグレーションに基づくオブジェクト・サイシンの役割 人間のプレイ・フィグレーションが研究を一体化する。
訳抜け防止モード: object B。 セグメンテーション固定(segmentation fixation) - オブジェクト・ビジュアル・シシンの役割- インタラクションにおける便利なtemの初期化。
0.72
and it is et al. そしてそれは、et alだ。 0.64
an interactive eyegaze-based constructed Sadeghi [29] to segment segmentation system which adopts random walker et al. ランダムウォーカーなどを用いた対話型アイガズ型セグメントセグメンテーションシステムの構築 [29] 0.52
definition the objects. オブジェクトを定義します 0.86
Meanwhile, Mishra [22] gave segmenting is, that segmentation, object fixations-based of containing fixation transformed regions points. 一方、Mishra [22]はセグメンテーションを与え、そのセグメンテーションは、固定変換された領域点を含むオブジェクト固定である。 0.58
They the image to polar coordinate system, and found the optimal contour to fit the target object. 極座標系に画像を送信し、ターゲットオブジェクトに適合する最適な輪郭を見つけました。 0.71
Based the interpretation of visual on et al. et alにおける視覚の解釈に基づいている。 0.62
to symmetry used field, receptive select [30] Kootstra the obtain to center to fixations closer of the object more al. 使用フィールドの対称性のために、receptive select [30] kootstra the get to center to fixation near the object more al。 0.75
et complete segmentation. 完全なセグメンテーションです 0.53
Differently, Li [23] focused on the most salient objects, and they ranked object selecting et al. 異なることに、Li[23]は最も健全なオブジェクトに焦点を合わせ、オブジェクトの選択等をランク付けした。 0.72
[24] Shi [23], Similar fixations. [24]shi [23]、同様の固定。 0.68
on based proposals to distribution analyzed the fixation and proposed three metrics to evaluate the score of each candidate region. 分布に関する提案に基づいて, 修正を解析し, それぞれの候補領域のスコアを評価するための3つの指標を提案した。 0.65
In [31], Tian et al. 31], tian et al. 0.49
first determined the uninterested regions, and used then segment model walk random superpixel-based gazed the to et al. 最初は興味のない領域を 決定し セグメントモデルを使った ランダムな スーパーピクセルベースで to などを見つめた 0.75
fixations integrated Khosravan objects. Khosravanオブジェクトを統合する固定。 0.65
[32] into the medical image segmentation and proposed a Gaze2Segment et al. [32]を医用画像セグメントに挿入し,Gaze2Segment et alを提案した。 0.71
system. Li [25] constructed a dataset where all fixations (i.e. システム Li[25]は、すべての固定(すなわち、)を行うデータセットを構築した。 0.55
constrained fixations), in objects fall and proposed a CNNvisual human simulate based model the system to to segment based fixations. 制約付き固定) オブジェクトが落ちて、CNNvisual Human がシステムに基づいてセグメントベースの固定を行うようシミュレートする。 0.65
objects on fixationsThese studies have promoted the development of based object segmentation. オブジェクトの修正 これらの研究は、ベースオブジェクトセグメンテーションの開発を促進する。 0.74
However, all fixations in [22], the guaranteed are objects, [31] [30], [25], hardly which in fall will in practice. しかし、[22], the guarantee is object, [31] [30], [25] のすべての固定は、実際には秋がそうではない。 0.67
These [22], [25], [30], [31] get methods stuck in the ambiguity of unconstrained fixations, especially of personal fixations. これらの[22], [25], [30], [31] は、制約のない固定、特に個人的固定の曖昧さに固執する手段を得る。 0.75
For [23], [24], they are based on region summary, In accurate obtain cannot and proposal results. 23], [24] については,領域の要約に基づいており,正確な取得不可能と提案結果が得られている。 0.80
of the the above methods cannot solve problem ambiguous fixations, as shown in Fig. 上記の方法のうち、図に示すように曖昧な固定は解決できない。 0.68
1. In this paper, we take advantage of CNNs, and a bottom-up and top-down network propose boundaries. 1. 本稿では,cnnを活用し,ボトムアップとトップダウンのネットワークが境界を提案する。 0.77
Moreover, objects’ and objects to preserve locate construct we special a dataset to promote this direction of i.e. さらに、コンストラクタを保存するオブジェクト’とオブジェクトは、この方向を促進するためにデータセットを特殊化します。 0.67
interactive image segmentation, personal fixations-based object segmentation. インタラクティブ画像セグメンテーション、個人固定に基づくオブジェクトセグメンテーション。 0.79
C. Segmentation C。 セグメンテーション 0.71
Boundary-Aware segmentation idea is widely-used boundary/edge-aware The [33]–[36] and semantic segmentasalient detection in object al. 境界認識セグメンテーションの概念は、オブジェクトalにおける[33]–[36]および意味的セグメンテーション検出を広く用いている。 0.77
modeled et informaboundary the [33], Wang In tion [37]. modeled et informaboundary the [33], Wang In tion [37]. 0.74
an constraint, and included it as adan tion as edge-preserving et al. adan tion として edge-serving et al として含めた制約。 0.73
function. In [34], Wang proditional supervision in loss including boundary and mask posed a two-branch network, objects salient of masks predicting jointly for sub-networks, 機能。 34] では,wang proditional supervision in loss including boundary and mask poseed a two-branch network, are salient of masks salienting by jointly for sub-networks (英語) 0.78
In [35], Wu et al explored the and detecting object boundaries. Wuらは[35]で対象の境界を探索し、検出した。 0.79
and edge interrelations logical binary between segmentation refinement a multi-task and maps network, proposed cross in a edge and features segmentation in which unit features the are al. マルチタスクとマップネットワークのセグメンテーションリファインメント間のエッジ相互関係の論理的バイナリは、エッジ内のクロスを提案し、ユニットがalを特徴付けるセグメンテーションを特徴付ける。 0.79
et focused in fused a cross-task manner. etはクロスタスクの方法で融合した。 0.59
In [36], Zhao on the complementarity between salient edge information and salient object They integrated the local edge information. 36]において、salient edge information と salient object の相補性について zhao は、ローカルな edge information を統合した。 0.71
information location and shallow layers information global of layers the obtain deep then of to salient edge features, and the edge the one-to-one guidance module to features were fed to fuse the complementary region and edge information. 情報位置と浅層情報をグローバルに提供し,その深層から有意なエッジ特徴を得るとともに,特徴への1対1のガイダンスモジュールのエッジを供給し,補完領域とエッジ情報を融合させる。 0.80
In [37], et al. in [37], et al. 0.71
information boundary the introduced Ding as an first to semantic class additional to enable the network be aware of the boundary layout, and then proposed a boundary-aware feature propagation network to control the feature propagation information. Dingに導入された情報境界は、ネットワークが境界レイアウトを認識できるようにセマンティッククラスを追加し、次に特徴伝搬情報を制御するための境界対応特徴伝搬ネットワークを提案する。 0.87
boundary on based learned the in information use astwo In our method, we the boundary (i.e. boundary on based the in information use astwo 我々の方法では、境界(すなわち、境界)を学習する。 0.81
boundary pects: the multi-task structure segmentation and the Boundary Preservation Module. boundary pects: マルチタスク構造セグメンテーションと境界保存モジュール。 0.62
Different predictions) and map boundary learned the integrate [35], [34], from into we prediction the network completeness in BPMs to preserve the of the gazed objects, rather than fuse the segmentation features and boundary features. 異なる予測)とmapバウンダリは、[35], [34] 統合を学び、セグメンテーションの特徴と境界フィーチャを混同するのではなく、bpmsのネットワーク完全性を予測して、注視されたオブジェクトの保存をしました。
訳抜け防止モード: 異なる予測 ) とマップ境界は積分 [35 ] を学習した。 34 ],bpms のネットワーク完全性を予測し,注視されたオブジェクトの保存を行う。 セグメンテーション機能とバウンダリ機能を融合させるよりも。
0.74
Compared with [36], our segmentation in prediction by accompanied is prediction a boundary the supervision boundary and network, uniform prediction the is at multiple employed scales. 36] と比較すると, 随伴予測のセグメンテーションは, 監督境界とネットワークの境界を予測し, isを複数の適用規模で一様予測する。 0.73
Different which uses from [37], the boundary map to control the region of feature propagation, our method uses the boundary map to filter the background our In features. 特徴伝播の領域を制御するための境界マップである[37]との違いは、我々の方法では、背景のIn特徴をフィルタするために境界マップを使用します。 0.78
localization erroneous of use of short, in suitable boundary information is diverse and in-depth, which is for the personal fixations-based object segmentation task. 短距離で適切な境界情報の使用を誤認するローカライゼーションは、個人固定に基づくオブジェクトセグメンテーションタスクである、多様で奥行きがある。 0.75
III. PERSONAL FIXATIONS-BASED OBJECT SEGMENTATION Problem Statement. III。 個人 固定型オブジェクトセグメンテーション問題ステートメント。 0.57
Given image and a an fixation map I personal a person, object fixations-based segmentation FM of segment the gazed objects of this person according to aims to his/her personal FM, producing a binary segmentation map. 与えられた画像と固定マップiが個人を個人化すると、被写体の注視対象を個人fmの目的に応じて分割するオブジェクト固定ベースのセグメンテーションfmが、バイナリセグメンテーションマップを生成する。 0.74
In different individuals generate different general, fixation maps individuals image, which means the observing when same that other words, In objects. 異なる個人が異なる一般性を生成する場合、固定は個々のイメージをマッピングする。
訳抜け防止モード: 異なる個人は異なる一般的なイメージを生成し、固定は個人イメージをマップします。 つまり、他の言葉と同じ時、物体で観察するということです。
0.58
interested in different be may segmentation results of different individuals the same image vary on with the observer. 異なるbeに興味がある場合、異なる個人のセグメンテーション結果 同じイメージが観察者によって異なる場合もあります。 0.67
So, the special characteristic of this task due maps binary multiple has image an is segmentation that ambiguity the fixation maps. したがって、このタスクの特殊特性である二元写像は、固定写像のあいまいさを図示するイセグメンテーションを持つ。 0.65
Although to multiple of fixations the difficulty, makes this task personal fixation map is the only determine information that the gazed objects. 複数の固定が困難であるにもかかわらず、このタスクの個人固定マップは、視線を照らしたオブジェクトに関する情報を判断する唯一の方法である。 0.63
can Applications. can アプリケーション。 0.74
This task has several meaningful applications. このタスクにはいくつかの意味のある応用がある。 0.42
conducive interaction of manner convenient a such First, is development the devices eye-control of special pato for tients with hand disability, ALS and polio, their facilitating lives and improving their quality of life. まず, 手の障害, als, ポリオの親和性, 生活の円滑化, 生活の質の向上のために, 特殊パトをアイコントロールする装置を開発する。 0.46
Second, fixation is illnesses, mental certain diagnose to advantageous as such schizophrenia [38], autism spectrum disorder (ASD) [39] and (SSD) spectrum disorders [40], [41]. 次に,統合失調症 [38] ,自閉症スペクトラム障害 (asd) [39] および (ssd) スペクトラム障害 [40] , [41] のような精神診断を有利に行う。 0.77
This task understands personal the object level, which is to fixations at helpful example, For diagnosis. このタスクは、診断のために有用な例で固定するオブジェクトレベルを個人的に理解する。 0.74
disease of accuracy the improve 正確さの疾患が改善する 0.76
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 4 I DATASET. 加工 4 データセット。 0.53
PFOS (FM) IN THE FALL FIXATIONS IN THE ALL FM REPRESENTS OBJECTS/FOREGROUND. PFOS (FM) in the FALL FIXATIONs in the ALL FM Representents objects/ofre Ground 0.81
UNCONSTRAINED THAT BACKGROUND. THE TABLE CATEGORIES FIXATION MAP OF FM MEANS CONSTRAINED THAT FALL 未整備の土台。 FM手段定位球面のテーブル行列固定マップ 0.36
FIXATIONS IN SOME フィクスメント 院 一部 0.47
PFOS dataset PFOS データセット 0.74
10,500 Constrained 3,683 10,500 制限3,683 0.60
FM (35.1%) FM Unconstrained (64.9%) 6,817 FM(35.1%) FM非拘束(64.9%)6,817 0.76
so foreground, to pay attention to background rather patients with ASD prefer in foreground of proportion their the than than that less be of healthy people. だから 前景 asd患者よりも背景に注意を払うため、健康な人よりも前景に比例する傾向が好まれる。 0.53
segmentation results will DATASET CONSTRUCTION AND TRANSFORMATION IV. セグメンテーションの結果は、データセット構築および変換IVとなる。 0.49
for used prevalently many datasets are there Currently, MIT1003 [42], [26] OSIE and as fixation prediction, such image segmentation, such interactive and SALICON [43], for [44] and PASCAL VOC [45]. 現在使われているデータセットはmit1003 [42], [26] osie であり、固定予測として、interactive や salicon [43] といった画像分割が [44] と pascal voc [45] に対して使われている。 0.71
Howas GrabCut [18], Berkeley object fixations-based personal for dataset there ever, no the is it that task. howas grabcut [18], berkeley object fixations-based personal for dataset there, no it is that task. (英語) 0.68
segmentation Considering for is time-consuming collect way dataset annotations, we propose a to convenient task. セグメンテーションは,データセットアノテーションの収集に要する時間を考慮し,便利なタスクを提案する。 0.72
suitable data from existing datasets for this Obviously, the PFOS dataset must contain fixation data existAmong objects. 既存のデータセットからの適切なデータは、明らかに、pfosデータセットは、既存のオブジェクトの固定データを含む必要がある。 0.57
for annotations pixel-level and the DUTS-OMRON [46], ing datasets, some datasets, such as PASCAL-S [23] and OSIE [26], are potential candidates. アノテーションのピクセルレベルとDUTS-OMRON [46]、ingデータセット、PASCAL-S[23]やOSIE [26]のようないくつかのデータセットは、潜在的な候補である。
訳抜け防止モード: アノテーション ピクセル - level と DUTS - OMRON [ 46 ] PASCAL - S [ 23 ] のようなデータセットを入力します。 OSIE [26 ] は潜在的な候補である。
0.76
The pixel-level annotations of DUTS-OMRON and PASCAL-S are annotations is, that [47]–[49], detection salient for object these on focus attractive visually only most ignore the objects but other objects, which could be fixated by different individuals, in a scene. DUTS-OMRON と PASCAL-S のピクセルレベルのアノテーションは、[47]–[49] というアノテーションであり、これらのオブジェクトは視覚的にほとんどのオブジェクトを無視するだけでなく、異なる個人によって固定できる他のオブジェクトに注目する。 0.80
Therefore, they are not perfect for constructing a of OSIE annotations pixel-level the PFOS dataset. したがって、PFOSデータセットの画素レベルの複数のOSIEアノテーションを構築するには最適ではない。 0.66
Fortunately, attributes. This means semantic can select objects, have that we which interested in, based on personal fixations. 幸いなことに属性。 つまり、セマンティックは、個人的な固定に基づいて、私たちが関心を持っているオブジェクトを選択できる。 0.63
the user is In other words, we the pixel-level ground can create binary (GTs) truths segmentation. 言い換えれば、ピクセルレベルのグラウンドはバイナリ(GT)の真理のセグメンテーションを生成することができる。 0.67
object fixations-based personal for OSIE dataset transform the to fixation prediction So, we our PFOS dataset. オブジェクトの固定ベースのパーソナルなOSIEデータセットは、固定予測に変換します。
訳抜け防止モード: オブジェクトの固定 - OSIEデータセットの個人化による固定予測の変換 So, 当社のPFOSデータセットです。
0.70
For each image in the OSIE dataset, it has corresponding The subjects. OSIEデータセットの各イメージには、対応するテーマがある。 0.67
different semantic and maps fixation of GTs follows: are dataset for detailed steps transformation as Semantic labels collection. GTの異なるセマンティックおよびマップの固定は、セマンティックラベルのコレクションとして詳細なステップ変換のためのデータセットである。 0.60
We 1) get the position of each fixation point from the fixation map, and we collect the semantic corresponding position of label semantic the in each GT. 1)各固定点の位置を固定マップから取得し,各GTにおけるラベルの意味的位置に対応する意味的位置を収集する。 0.76
distillation. As mentioned labels Semantic in I 2) Sec. 蒸留 前述のように、Semantic in I 2) Sec。 0.53
and fall shown in Fig. 図に示されています。 0.47
1, some fixation in the background points collected from Step the same object. ステップから収集したバックグラウンドポイントの一部が同じオブジェクトに固定される。 0.72
For semantic 1, or labels we background. セマンティック1やラベルについては、バックグラウンドです。 0.51
indicates “0” which label semantic discard the keep labels, we semantic same if Then, there are several only one. 意味のラベルがkeepラベルを破棄する“0”を示す。
訳抜け防止モード: は、保持ラベルのセマンティクスが破棄される「0」を表す。 意味が同じなら、いくつかだけ存在する。
0.68
Binary GT creation. 3) Based on the distilled semantic objects gazed the determine can 2, from labels we Step with regions the reserve We GT. バイナリGT作成。 3) 蒸留したセマンティック・オブジェクトを基準として, ディクショナブル・缶2のラベルから, 予備のWe GTの領域をステップする。 0.63
the binary the create and distilled semantic labels in the semantic GT, and set them as foreground. セマンティックGTで生成および蒸留されたセマンティックラベルをバイナリにして、それらをフォアグラウンドとして設定する。
訳抜け防止モード: the binary the create and distilled semantic labels in the semantic gt, それらを前景に設定します。
0.77
We set the regions with the other unrelated background. 他の無関係な背景で地域を設定します。 0.67
as labels semantic A t c e j b u S ラベルの意味として a t c e j b u s 0.62
B t c e j b u S B t c e j b u S 0.85
C t c e j b u S C t c e j b u S 0.85
Image with Examples Fig. 2. fixations, FDM is 例を示す画像。 2. 固定化 fdmは 0.72
fixations of the fixation fixation (複数形 fixations) 0.61
FDM PFOS dataset. FDM PFOSデータセット。 0.84
density map, Green and GT 密度マップ。 緑とGT 0.69
GT each dots image in ground represents gt 地上の各点画像は 0.53
indicate truth. the create convenient this In binary efficiently way, we successfully and GTs PFOS The dataset. 真実を示しろ バイナリで効率的にこれを作成できるので、gts pfosのデータセットを成功させます。
訳抜け防止モード: 真実を示しろ 便利にする バイナリーを効率的に作成する 成功し、GTs PFOS データセット。
0.59
the construct PFOS retains dataset 700 all personal free-view and images 10,500 fixation maps from the OSIE dataset. コンストラクタpfosは、osieデータセットからの個人用フリービューおよびイメージ10,500の固定マップをすべてデータセット700に保持する。 0.60
the In PFOS dataset, the 800 × 600. in pfosデータセットは800 × 600である。 0.71
15 has image resolution image personal Each is maps from fixation and the transformed binary 15 subjects GTs. 画像解像度イメージパーソナライズされた15は、固定からのマップであり、変換されたバイナリ15サブジェクトGTである。 0.58
In the constructed PFOS dataset, there are two categories of fixation maps. 構築されたPFOSデータセットには、フィクスレーションマップの2つのカテゴリがある。 0.64
The first category is that all fixations fall i.e. 第一のカテゴリーは、全ての固定が即ち成り立たないことである。 0.53
map objects/foreground, the in fixation constrained the fixations second The in [25]. map object/foreground, the in fixation musted the fixations second The in [25] 0.79
category is that some fall in the background, namely the unconstrained map. カテゴリは、一部が背景、すなわち制約のないマップに落ちることです。 0.75
We fixation present the details of them in Tab. 私たちはそれらの詳細をタブで表示します。 0.64
I. In our PFOS dataset, and for account fixation the maps unconstrained the 64.9% large hold maps fixation constrained proportion 35.1%. I 当社のPFOSデータセットとアカウント修正では、64.9%の大きなホールドマップ固定は35.1%に制限された。 0.58
The of unconstrained fixation maps increase the ambiguity of our PFOS dataset and make this dataset challenging. 制約のない固定マップは、pfosデータセットの曖昧さを高め、このデータセットを困難にします。 0.59
METHODOLOGY V. this In we first conduct data preprocessing which section, transforms fixation points into fixation density maps in the motivation and overview the present we Sec. MethodOLOGY V. This In first conduct data preprocessing which sections fixation points into fixation density map in the motivation and outline the present Sec。 0.66
V-A. of Then, proposed Object Localization and Boundary Preservation the network (OLBP) in Sec. V-A。 提案するオブジェクトの局在化と境界保存は、secにおけるネットワーク(olbp)である。 0.66
V-B. Next, we give the detailed Object Localization Module formulas the (OLM) and of Module Preservation Boundary the in (BPM) and V-C Sec. V-B。 次に、オブジェクトローカライゼーションモジュールが(OLM)を定式化し、モジュール保存境界が(BPM)とV-C Secを定式化します。 0.68
respectively. Sec. それぞれ。 Sec。 0.71
V-D, Finally, we clarify the implementation details of OLBP network in Sec. V-D, 最後に, SecにおけるOLBPネットワークの実装の詳細を明らかにする。 0.67
V-E. Preprocessing Data A. sparse. V-E. データA.スパースの前処理 0.55
With are map fixation in points fixation The each little valuable only a few pixels per fixation map, too there is arises the information to supply. ポイントフィクスレーションにおけるマップの固定 ポイントフィクスレーションでは、固定マップごとに数ピクセルしか価値がないため、供給する情報も発生します。 0.68
The similar problem in al. 同様の問題はalにある。 0.79
et segmentation. セグメンテーション。 0.34
interactive clicks-based image [12] Xu into transformed distance maps. インタラクティブクリックベースの画像 [12] xu から距離マップへの変換。 0.71
the clicks Euclidean Inspired the Gaussian by this, we employ blur transform the sparse to fixation map (i.e. このことからユークリッドがガウスをインスパイアしたクリックは、スパースを固定写像(すなわち)にぼやけた変換を用いる。 0.55
FM) into the fixation density map (i.e. FM)から固定密度マップ(すなわち)へ。 0.83
FDM): FDM = normin−max(FM (cid:126) Gσ(x, y; σ)), (1) FDM: FDM = normin−max(FM (cid:126) Gσ(x, y; σ)), (1) 0.95
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 5 in the mixed network. 加工 5 ネットワークが混在しています 0.64
OLBP network is organized top-down manner. OLBPネットワークはトップダウン方式である。 0.72
We and bottom-up proposed OLBP Fig. 私たちとボトムアップはOLBP Figを提案しました。 0.43
3. The overall architecture of the normal and dilated several analyzed FDM is each OLM, Then image. 3. 正規および拡張された複数の解析されたFDMの全体構造は、それぞれOLM, then imageである。 0.72
input from an by in features blocks five extract modified VGG-16 of to the block, feature each localization object on features. by in機能ブロックから入力された5つの変更vgg-16をブロックに抽出し、各ローカライゼーションオブジェクトを特徴量に特徴付ける。 0.68
Based the objects location layers in corresponding block the top-down to in determine the of boundary the process, prediction is information to guard the into BPMs is introduced completeness of objects and to filter established. プロセスの境界を決定するためにトップダウンのブロックにあるオブジェクトの位置層に基づいて、予測はBPMへのガードを行う情報であり、オブジェクトの完全性を導入し、確立されたフィルタリングを行う。 0.72
During the localization. We erroneous prediction structure, which contains object segmentation branch and boundary prediction a multi-task of also construct the exploit complementarity between regions and boundaries. ローカライズ中に オブジェクトセグメンテーション分岐と境界予測を含む誤予測構造では、領域と境界間のエクスプロイトの相補性も構成する。 0.56
normin−max(·) (cid:126) where the is normalization, demin-max Gσ(·) notes operator, convolution a filter Gaussian is and with is which parameter deviation. ノルミン-max(·) (cid:126) は正規化であり、デミン-max Gσ(·) 演算子、ガウスフィルタを畳み込み、どのパラメータの偏差があるかを示す。
訳抜け防止モード: normin−max ( · ) ( cid:126 ) は正規化である。 demin - max gσ ( · ) notes operator, convolution a filter gaussian is そして、どのパラメータの偏差です。
0.76
is set standard the σ σ 1◦ dataset the in angle corresponding OSIE to It [26]. is set standard the σ σ 1 = dataset the in angle corresponding OSIE to It [26]. 0.83
visual 800 × 600 default. visual 800 × 600デフォルト。 0.79
pixels is 24 of image by an The effect of Gaussian blur is similar to the receptive field of eye, that is, the center of fixation is with a high resolution and after low resolution. ピクセルはガウスのぼやけの効果により24のイメージであり、眼球の受容野、すなわち固定の中心は高解像度であり、低解像度である。
訳抜け防止モード: ピクセルはガウスぼけの効果による24のイメージであり、目の受容野に似ている という事です 固定の中心は高解像度で、低解像度の後である。
0.69
Thus, a is with surrounding the of fixation performing Gaussian blur and linear transformation on FM, the dense FDM contains more prior information objects. したがって、高密度FDMはより先進的な情報オブジェクトを含むため、ガウスのぼかしとFM上の線形変換を行う固定の周囲にある。 0.77
In this of adopt the paper, we dense FDM rather raw FM. 本論文では,FDMを生のFMより高密度に採用する。 0.74
We than the three present subjects fixations personal the image with an of of Fig. 現在の3つの被験者は、フィグの1つでイメージを個人化しています。 0.48
in dataset PFOS the of 2. データセットPFOSでは2。 0.67
The fixation maps Subject A and Subject B are constrained fixation maps, while the fixation map of Subject C is an unconstrained fixation map. 固定写像 a と被写体 b は拘束固定写像であり、一方被写体 c の固定写像は拘束されていない固定写像である。 0.47
employ the convolutional prediction background branch, to 畳み込み予測の背景ブランチを 0.42
conv4-3 and conv5-3, which are conv3-3, conv2-2, conv1-2, i.e. conv3-3, conv2-2, conv1-2, 0.71
∈Rhi×wi×ci, i = 1, 2, ..., 5}. ∈Rhi×wi×ci, i = 1, 2, ..., 5}。 0.83
Notably, {F(i) : F(i) the as denoted r r H W [hi, wi], i-th i.e. 特に、 {F(i) : F(i) は r r H W [hi, wi], i-th i.e と表される。 0.86
is block, resolution the at feature [ 2i−1 , 2i−1 ] {64, 128, 256, 512, 512}. is block, resolution the at feature [ 2i−1 , 2i−1 ] {64, 128, 256, 512, 512}. 0.95
ci∈{1,2,3,4,5} reality, In and the = 288 × 288 × 3. cici{1,2,3,4,5} 現実は 288 × 288 × 3 である。 0.79
[H, W, C] to set is of resolution input I Object Localization Module. H, W, C] to set is of resolution input I Object Localization Module。 0.69
Although FDM is a probability interaction it is critical that map, reflects intention the of a object explore effectively to important is the the It user. FDMは確率的相互作用であるが、オブジェクトの意図を反映して、重要度を効果的に探索することがItユーザである。 0.78
information when of FDM. FDMのときの情報。 0.74
location However, we construct a CNN-based model for the personal fixations-based object segmentation task, it is natural to directly concatenate FDM are image and the there the network input. 位置は,個人固定型オブジェクトセグメンテーションタスクのためのcnnモデルを構築するが,fdmを画像とネットワーク入力を直接結合することは自然である。 0.75
Since for input three the for channel one FDM, channels for image and only direct concatenation operation may critical interaction drown out the information of FDM. 入力3では for channel 1 fdm となるため、画像のチャンネルと直接結合操作のみのチャンネルが fdm の情報を引き出す可能性がある。 0.73
Based on the above analysis, we propose Localization Module the Object FDM. 上記の分析に基づいて,対象FDMの局所化モジュールを提案する。 0.80
process to explore The structure to convolution is effective [51], meaningful information in CNN features especially with the dilated convolution [52]. 畳み込みを探索するプロセス 畳み込みの構造は有効な[51]、特に拡張畳み込み[52]でCNNの特徴に意味のある情報である。 0.75
Thus, employ several in OLM, we convolutions dilation parallel different rates to with dilated location the personal FDM to obtain object profoundly analyze information, response of group a which maps. そこで,olmを複数使用することにより,個人fdmを拡張した位置と平行なレートで拡張を畳み込み,対象情報を深く分析し,a群に応答する。 0.66
These are [0, 1]hi×wi×ci, which response maps belong to shows they have the same number of channels as the features of image at the i-th of features re-weight applied are They block. これらは[0, 1]hi×wi×ciで、応答マップは、再重み付けされた特徴のi-thの画像の特徴と同じ数のチャネルを持つことを示す。 0.72
image to highlight to the gazed objects at channel-wise and spatialwise. image to highlight to the gazed objects at channel-wise and spacewise. 0.96
To enhance the location presentation of the response maps, we apply deep supervision [53] in OLM. 応答マップの位置表示を強化するために, OLM に深い監督[53] を適用した。 0.75
As presented manner, bottom-up a in performed is OLM the 3, Fig. 以下に示すように、ボトムアップaをolm the 3, figとする。 0.55
in parallel イン parallel~ 0.66
B. and Motivation Network Overview components: critical has three proposed OLBP network The the and prediction extractor, object feature the locator the architecture overall preservation. B。 and motivation network overview components: criticalには3つの提案されているolbp network the and prediction extractor、object feature the locator the architecture total preservationがある。 0.79
boundary network The with in Fig. 境界ネットワーク 図で示す。 0.62
network is of OLBP illustrated 3. ネットワークはOLBPで示される3。 0.79
Feature Extractor. adopt the modIn the OLBP network, we fully connected ified VGG-16 [50], from which the last three denote extractor. 特徴抽出器。 OLBPネットワークでは、最後の3つは抽出子を表すVGG-16[50]を完全接続しました。 0.66
We feature the been have layers removed, as I∈RH×W×C, parameters its initialize its input image as and by the image classification model [50]. 画像分類モデル [50] による入力画像の初期化をパラメータとして, 既往の層をI・RH×W×Cとして除去する。
訳抜け防止モード: We feature the been have layer removed as I∂RH×W×C, parameters its initialize its input image as its input image as 画像分類モデル [50 ] によるものです
0.93
The feature extractor has five convolutional blocks, as shown in Fig. 特徴抽出器は、図に示すように5つの畳み込みブロックを有する。 0.73
3. We operate on block, each in layer convolutional last the of feature map the 3. ブロック上で動作し、各レイヤは、フィーチャーマップの最後に畳み込みます。 0.74
ImageFDMFeature ExtractorPredicted S(1)SegsupConv.⊚ConcatenationConv.+Sigmoid⊗MultiplicationOLM-1O LM-2OLM-3OLM-4OLM-5⊚P-Conv4 blockBPM-4⊚P-Conv5 blockBPM-5Predicted B(1)P-Conv1 blockConv1 blockConv2 blockConv3 blockConv4 blockConv5 block⊚P-Conv3 blockBPM-3⊚P-Conv2 blockBPM-2SegGTBPM-5 Segsup⊚Bound GTDeconv.Max PoolingSegmapBound mapBound supBound supObject LocalizationOLM-1OLM -2OLM-3OLM-4OLM-5Pre dictedBPM-2BPM-3BPM- 4BPM-5B(5)Prediction S(5)bpm⊚⊗OLM-53x3x256,r = 13x3x256,r = 23x3x256,r = 33x3x256,r = 43x3x10243x3x10243x3 x512⊚SegsupS(5)olmRe-weiL ocation analysis unit ImageFDMFeature ExtractorPredicted S(1)SegsupConv.⊚ConcatenationConv.+Sigmoid⊗MultiplicationOLM-1O LM-2OLM-3OLM-4OLM-5⊚P-Conv4 blockBPM-4⊚P-Conv5 blockBPM-5Predicted B(1)P-Conv1 blockConv1 blockConv2 blockConv3 blockConv4 blockConv5 block⊚P-Conv3 blockBPM-3⊚P-Conv2 blockBPM-2SegGTBPM-5 Segsup⊚Bound GTDeconv.Max PoolingSegmapBound mapBound supBound supObject LocalizationOLM-1OLM -2OLM-3OLM-4OLM-5Pre dictedBPM-2BPM-3BPM- 4BPM-5B(5)Prediction S(5)bpm⊚⊗OLM-53x3x256,r = 13x3x256,r = 23x3x256,r = 33x3x256,r = 43x3x10243x3x10243x3 x512⊚SegsupS(5)olmRe-weiL ocation analysis unit 0.37
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 6 DETAILED AND CHANNEL BESIDES, WE OUTPUT KERNEL 加工 6 細部とチャネルに加えて カーネルを出力し 0.55
II KERNEL TABLE EACH OLM. II ケルネル 各olmのテーブル。 0.57
WE THE SIZE OF PARAMETERS PRESENT CONVOLUTIONS. パラメータのサイズが畳み込みを示します。 0.27
DILATED/NORMAL OF NUMBER EACH THE PRESENT SIZE DILATION OF AND RATES THE ALSO (3 × 3, 32) DENOTES INSTANCE, FEATURE. 拡張/正規数 (dilated/normal of number) 現在のサイズ拡張度 (dilation of and rate) 同じく (3 × 3, 32) は、インスタンス、特徴を表す。
訳抜け防止モード: 現状の粒径の希薄/非正規化 And RATEs the ALSO (3 × 3, 32 ) Denotes Instanance, FEATURE 。
0.59
FOR THAT THE 3 × 3 AND 32. 3 × 3 と 32 である。 0.68
CHANNEL SIZE IS THE NUMBER IS Dilation 2×Conv rate (7 × 7, 128) 1/3/5/7 (5 × 5, 256) 1/3/5/7 (5 × 5, 512) 1/3/5/7 (3 × 3, 1024) 1/2/3/4 (3 × 3, 1024) 1/2/3/4 CHANNEL Size IS The NUMBER IS Dilation 2×Conv rate (7 × 7, 128) 1/3/5/7 (5 × 5, 256) 1/3/5/7 (5 × 5, 512) 1/3/5/7 (3 × 3, 1024) 1/2/3/4 (3 × 3, 1024) 1/2/3/4 0.71
Output size [288 × 288 × 128] [144 × 144 × 256] [72 × 72 × 512] [36 × 36 × 1024] [18 × 18 × 1024] Output size [288 × 288 × 128] [144 × 144 × 256] [72 × 72 × 512] [36 × 36 × 1024] [18 × 18 × 1024] 0.85
Dilation conv (3 × 3, 32) (3 × 3, 64) (3 × 3, 128) (3 × 3, 256) (3 × 3, 256) Dilation conv (3 × 3, 32) (3 × 3, 64) (3 × 3, 128) (3 × 3, 256) (3 × 3, 256) 0.85
Aspects OLM-1 OLM-2 OLM-3 OLM-4 OLM-5 特徴 OLM-1 OLM-2 OLM-3 OLM-4 OLM-5 0.49
for extractor of block each after assembled and feature is it description detailed The localization. 各組み立て後ブロックの抽出装置について、特徴はローカライズの詳細である。 0.73
object strong of OLM is study the ablation show V-C. We Sec. OLMの強い対象は、Ablation show V-C. We Sec である。 0.76
presented in of OLM in Sec. OLM in Sec.で紹介。 0.60
VI-C, including a variant of direct concatenation of FDM. VI-CはFDMの直接結合の変種を含む。 0.80
and image Network. イメージネットワーク。 0.53
and Preservation Module Boundary Prediction Since some fixations the background, there may be in fall re-weighted some noise on the feature of OLM. また、モジュール境界予測は背景を固定するため、秋になるとolmの機能に関するノイズが再強調される可能性がある。 0.58
The ambiguity over the fixations great disturbance to the segmentacauses knowledge priori a that is there Fortunately, result. 固定に対する曖昧さは、セグメントに対する大きな混乱を引き起こし、幸運にもaを優先する知識を招きかねない。 0.55
tion the background usually does not have regular boundary. tion 背景は通常、通常の境界を持たない。 0.86
Thus, a we introduce the boundary information into the prediction Boundary Preservation Module network, and propose the to preserve and localization erroneous of background the filter the the of gazed BPM is a momencompleteness objects. そこで,我々は予測境界保存モジュールネットワークに境界情報を導入し,注視されたbpmのフィルタがモメン完全性オブジェクトである背景の保存と局所化の誤用を提案する。 0.78
tous component to purify the segmentation result. セグメンテーション結果を浄化するためのトース成分。 0.57
We also attach the pixel-level segmentation supervision and boundary are Fig. ピクセルレベルのセグメンテーションの監督と境界もfigです。 0.50
in shown to BPM. bpm に表示されます。 0.67
As supervision equipped 3, BPMs between blocks convolutional in the prediction network from full top down. 監督装置として3つのブロック間のBPMは、予測ネットワークの完全なトップダウンから畳み込みます。 0.57
To make use of the boundary information, we to also structure in the network. 境界情報を利用するためには,ネットワークの構成も必要である。 0.72
construct a multi-task prediction the We BPM in of study ablation and formulation elaborate respectively. 研究のアブレーションと定式化について、We BPMのマルチタスク予測を構築します。 0.68
Sec. VI-C, Sec. Sec。 VI-C, Sec。 0.79
V-D and C. Object Localization Module the OLM-5 parts in shown As three main there Fig. V-D C。 オブジェクトローカライゼーションモジュール olm-5 は、3つのメインフィグとして表示されます。 0.69
3, are Object Module: Localization unit, in the analysis location (i.e. 3はオブジェクトモジュールで、分析場所(すなわち、分析場所)にローカライズユニットがある。 0.75
supervifeature re-weighting segmentation Re-wei) and (i.e. Supervifeature re-weighting segmentation Re-wei) および (i。 0.75
location sion Seg sup). 位置 sion seg (sup)。 0.71
is to extract object Its objective information in highlight to and FDM personal objects of F(i) indispensable most OLM image part feature of . オブジェクトを抽出すること F(i) の F(i) の個人オブジェクトのハイライトと FDM の目的情報は .NET の OLM イメージ部分の特徴として必須である。 0.67
is the r of the whole OLBP network. OLBPネットワーク全体のrです。 0.59
∈ RH×W×1 OLM-i, Concretely, in the is first FDM F(i) of resolution the fit downsampled generate to and to r f dm∈Rhi×wi×1 F(i) which formulated is as: F(i) f dm = MaxPool(FDM; W (i) (2) ), ks where MaxPool(·) parameters W (i) pooling with the max , is 2i−1 × 2i−1 ks 2i−1 stride. 具体的には、F(i) f dm = MaxPool(FDM; W (i) (2) , ks where MaxPool(·) parameters W (i) pooling with the max , is 2i−1 × 2i−1 ks 2i−1 stride。
訳抜け防止モード: I ∈ RH×W×1 OLM - i は分解能の第1の FDM F(i ) において、整合された生成物は F(i ) f dm = MaxPool(FDM ; W (i ) ( 2 ) ) と定式化される r f dm⋅Rhi×wi×1 F(i ) に一致する。 ここでMaxPool ( · ) パラメータ W ( i ) を max でプールする。 2i−1 × 2i−1 ks 2i−1 である。
0.81
are kernel with which Then, we unit, which contains the design location analysis dilation different with [52] convolutions dilated parallel four カーネルであり、それは、[52]畳み込み拡張された並列4と異なる設計位置解析拡張を含む。
訳抜け防止モード: is kernel, then, we unit, which 52 ] 並列 4 の畳み込みと異なる設計位置解析のダイレーションを含む
0.71
r(2) loc is r(2) loc は 0.80
), (3) r(2) loc the location ), (3) r(2)位置の特定 0.71
F(2) loc response map, f(2) loc 応答マップ, 0.77
GT OLM-2. feature. GT OLM-2。 機能。 0.72
Image FDM 4. Feature Fig. 画像FDM4。 機能フィギュア。 0.63
visualization in and F(2) is the location-enhanced loc F(i) rates, analyze to f dm, multi-interpretation the obtain and mi = concat(cid:0)Cd(F(i) feature F(i) formulated be unit mi. F(2) は位置強調された loc F(i) レートであり、f dm に解析し、取得をマルチ解釈し、 mi = concat(cid:0)Cd(F(i) ) 特徴 F(i) を単位 mi とする。 0.85
The process as: can this in )(cid:1), F(i) f dm; W (i1) ), Cd(F(i) f dm; W (i2) ), d d Cd(F(i) f dm; W (i3) ), Cd(F(i) f dm; W (i4) d d concat(·) cross-channel is and where concatenation, the Cd(·; W (in) parameters W (in) is the dilated convolution with ) d d {1, 2, 3, 4}. can this in )(cid:1), f(i) f dm; w (i1) ), cd(f(i) f dm; w (i2) ), d d cd(f(i) f dm; w (i3) ), cd(f(i) f dm; w (i4) d d concat(·) cross-channel is and where concatenation, the cd(·; w (in) parameters w (in) is the dilated convolution with ) d d {1, 2, 3, 4, 4}. このプロセスは以下のとおりである。 0.80
∈ Notably, W (in) kernel of comprised are for n d the dilation size, channel resonumber and rate. 特に、構成された W (in) 核は n d のダイレーションサイズ、チャネル共鳴、レートである。 0.58
Considering F(i) , the dilation rates of each unit lution difference of each r are are different and the details presented Tab. f(i) を考えると、各rの単位ルーション差の希釈率は異なり、詳細が示されるタブである。 0.66
II. In this in field without receptive large convolutions dilated unit, the the a computation. II。 受容的な大きな畳み込みのないこの場において、a計算は拡張された単位である。 0.65
parallel increasing the They are performed in F(i) manner, which makes effectively capture the and local mi global location information of the gazed objects. それらの増加はf(i)方式で行われ、注視対象の局所的および局所的なmiグローバルな位置情報を効果的にキャプチャする。 0.71
in F(i) features The multi-scale each complementary are to mi other. f(i) の特徴では、複数スケールの補体は mi の他にある。 0.58
They are blended to produce the location response maps loc∈ [0, 1]hi×wi×ci r(i) via: F(i) int = 2C(F(i) mi; W (i) (4) 2c loc = ψ(C(F(i) r(i) (5) int; W (i) )), c 2C(∗; W (i) F(i) is the interim feature, where are two con) 2c int ψ(·) parameters W (i) is same the with volutional layers the , 2c C(∗; W (i) layer the convolutional is and sigmoid function, ) c 3× 3 parameters W (i) which are kernel with channels. F(i) int = 2C(F(i) mi; W (i) (4) 2c loc = >(C(F(i) r(i) (5) int; W (i) )), c 2C(∗; W (i) ) は中間的特徴であり、2c int(∗; W (i) パラメータ W(i) は , 2c C(∗; W (i) 層は , 2c C(∗; W (i) 層は sigmoid 関数であり、c 3× 3 パラメータ W (i) はチャネルを持つカーネルである。
訳抜け防止モード: これらはブレンドされ、位置応答マップ locjava [0, 0] を生成する。 1]hi×wi×ci r(i ) via : f(i ) int = 2c(f(i ) mi ; w(i ) (4 ) 2c loc = ψ(c(f(i ) r(i ) (5 ) int ; w(i ) ) ) c2c(∗ ; w(i ) f(i ) は中間的特徴である。 ここで、2つのcon ) 2c int ψ ( · ) パラメータ w ( i ) は 2c c(∗ ; w ( i ) の畳み込み層で同じである。 畳み込みisとsgmoid関数の層。 ) c 3× 3 パラメータ w (i ) はチャネルを持つカーネルである。
0.84
with ci c W (i) size and contain kernel channel number, which are 2c in are OLMs. ci c W (i) サイズで、カーネルチャネル番号を含み、2c は OLM である。 0.69
different different Their the shown details in “2×Conv” column with of Tab. 違い 詳細はTabの“2×Conv”カラムで示されています。 0.75
II. completing After the FDM interpretation in location analysuccessfully obtain r(i) sis unit, we loc, which are the protagonists (i.e. II。 完了 位置分析において FDM の解釈が適切に r(i) sis 単位を得ると、私たちは、主人公である (すなわち) loc を得る。 0.71
part. Re-wei) employ feature the of We r(i) and re-weight and spatial-wise, to channel-wise loc loc ∈ Rhi×wi×ci, F(i) receive the which feature is computed ⊗ r(i) (6) loc, where ⊗ is in Re-wei, element-wise multiplication. 一部。 Re-wei) は、We r(i) の関数と、再重み付き空間的に、チャネルワイド loc ∈ Rhi×wi×ci に対して、F(i) は、どの特徴が計算されたかの計算を受け取り、この特徴は Re-wei, element-wise multiplication に含まれる。
訳抜け防止モード: 一部。 re - wei ) we r(i) の特徴を取り入れる and re - weight and spatial - wise, to channel - wise loc loc ∈ rhi×wi×ci, f(i ) は r(i ) (6 ) loc と計算される。 re - wei, element - 賢明な乗法である。
0.62
Besides, to image of and information location, we balance the concatenate F(i) to F(i) feature F(i) and of OLM. さらに,画像と情報の位置について,結合f(i)とf(i)特徴f(i)とolmとのバランスをとる。
訳抜け防止モード: さらに、画像や情報の位置については、連結F(i)とF(i)の特徴F(i)のバランスをとる。 そしてOLM。
0.82
The obtain output the r loc olm of F(i) olm is size phase, training at II. F(i) olm の r loc olm はサイズ位相であり、II で訓練する。 0.59
Notably, shown the in Tab. 特にタブに表示されている。 0.60
(i.e. supervision segmentation pixel-level we apply the Seg sup) to each OLM. (すなわち) 監督セグメンテーション ピクセルレベル 各olmにseg(sup)を適用する。 0.66
In Fig 4, we visualize feature to verify the effecOLM-2, in Concretely, enhancement. 図4では、effecolm-2を具体的に強調するために特徴を可視化する。 0.59
location the of tiveness the location of tiveness 0.82
location-enhanced as: F(i) loc = F(i) r F(i) loc = F(i) r 0.58
re-weighting F(i) at r r における f(i) の重み付け 0.76
in OLM-2 OLM-2 0.76
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 7 conv2-2 As response map. 加工 7 conv2-2 応答マップ。 0.71
by re-weighted the is location the r(2) shown Fig. is の位置を再重み付けすることで、r(2) は fig を示す。 0.64
in response map location 4, the rich contains loc location information the gazed objects. 応答地図4では リッチは 視線のある物体の位置情報を 含んでる 0.69
After of 6 using Eq to conv2-2, we on operation enhancement location the perform F(2) are gazed that observe objects highlighted in the (with loc feature F(i) location-enhanced the darker color). Eqをconv2-2に6回使用した後、動作強調位置F(2)を視認し、(位置F(i)が暗い色を強調した位置で)ハイライトされた物体を観察する。 0.77
In summary, loc contributes of OLM has strong location expression ability and network. 要約すると、olmのloc貢献は強力な位置表現能力とネットワークを持っている。 0.50
prediction segmentation subsequent the to toの後の予測セグメンテーション 0.85
D. Preservation Module d. 保存モジュール 0.73
Boundary Preservation Module Boundary the restrain to is built The part OLM re-weighted the of feature highlighted falsely of the for completeness objects the the preserve of gazed and to BPM-5 prediction. 境界保存モジュール 構築すべき制約 部分 OLMは、見つめられた完全性オブジェクトとBPM-5の予測を誤って強調した機能を再重み付けしました。 0.76
the in Fig. 3, the segmentation shown As connect to succinct, of BPM is structure a but bridge key is it of blocks the convolutional prediction network. フィギュア。 bpm の succinct への接続として示されるセグメンテーションは構造aであるが、ブリッジキーは畳み込み予測ネットワークをブロックするものである。 0.48
{F(i) ∈ Rhi−1×wi−1×ci−1 , i = 2, 3, 4, 5} F(i) Let : denote the p p output feature of each deconvolutional layer in the prediction F(i) convolutional layer a by processed is BMP, network. f(i) ∈ rhi−1×wi−1×ci−1 , i = 2, 3, 4, 5} f(i) let : 予測 f(i) 畳み込み層 a において各デコンボリューション層の p p 出力特徴を表す。
訳抜け防止モード: F(i ) ∈ Rhi−1×wi−1×ci−1, i = 2, 3, 4,5 } F(i)) 予測F(i)畳み込み層aにおける各脱畳み込み層のpp出力特性を、処理によってBMP,ネットワークとする。
0.85
In p boundary mask B(i), which defined to generate the is as: ). p 境界マスク b(i) において、is を次のように生成するために定義される。 0.70
(7) , W (i) B(i) = C(F(i) p c introduce we i∈{2,3,4,5}, of accuracy the increase To B(i) (i.e. (7) , w (i) b(i) = c(f(i) p c は b(i) への増加を精度良く iψ{2,3,4,5} を導入する。 0.87
sup” on the “Bound boundary pixel-level supervision BPM-5 no pixelare there Fig. 境界ピクセルレベルのBPM-5には、そのピクセルは存在しない。 0.63
in 3) in BPM. 3) bpm では。 0.64
Since that employ we level boundary annotations in PFOS dataset, the operation segmentation binary the GT Gs on morphological boundary GT Gb, the to produce as follow: Gb = Dilate(Gs; θ) − Gs, (8) Dilate(∗; θ) operation dilation morphological where the is with 2 is dilation coefficient pixels. したがって、PFOSデータセットにおける境界アノテーションを用いて、GT Gsを形態的境界 GT Gb 上の演算セグメンテーション二項とし、Gb = Dilate(Gs; θ) − Gs, (8) Dilate(∗; θ) 演算ディレーションを、2 がディレーション係数画素であるような形で生成する。 0.79
which θ F(i) the output to generate to concatenated is Then, B(i) p feature F(i) segmentapixel-level put of BPM. そして、B(i) p は F(i) segmentapixel-level put of BPM である。
訳抜け防止モード: 連結する出力を生成する θ F(i ) は、 B(i ) p の特徴 F(i ) segmentapixel - BPM のレベルプット。
0.78
We also the bpm BPMF(i) sup” “Seg such bpm, behind tion on supervision as 5 Fig. また、bpm BPMF(i)sup”の“Seg such bpm, behind tion on supervision as 5 Fig”も取り上げています。 0.81
segmentation 3. boundary in The supervision and the supervision improving cooperate well with each other, the feature representation the gazed objects. セグメンテーション 3. 監督における境界と監督の改善は、注視対象を特徴的に表現し、互いにうまく連携する。 0.53
In this way, we of information boundary introduce novelly the into and BPM, F(i) de-noising and feature bpm carries boundary preservation the capabilities into the prediction network. このようにして、情報境界の我々は、新規にintoとbpmを導入し、f(i)を非通知にし、bpmは予測ネットワークに境界保存機能を持ち込む。
訳抜け防止モード: このようにして 情報境界の私たちは そして、bpm, f(i ) de - noising and feature bpmは、予測ネットワークに機能を境界保存する。
0.65
Implementation Details E. Prediction Network. 詳細は予測ネットワークを参照。 0.60
prediction The network constructed is to gradually top-down in the manner restore resolution. 予測 構築されたネットワークは、リカバリの解決方法において徐々にトップダウンとなる。 0.60
It blocks, convolutional of consists five four BPMs and four layer layers. itブロック、畳み込みは5つのbpmと4つのレイヤからなる。 0.66
A dropout deconvolutional before [61] placed is prevent layer to each the prediction network deconvolutional from overfitting. 61]が配置される前のドロップアウトデコンボリューションは、各予測ネットワークデコンボリューションのオーバーフィットを防止する。 0.61
In addition, we attach the boundary prediction branch network to assist the object segmentathe prediction to network prediction the of parameters initialize branch. さらに、境界予測分岐ネットワークをアタッチして、対象セグメント予測を補助し、パラメータの初期化分岐のネットワーク予測を行う。 0.81
We tion by [62]. We tion by [62]. 0.74
xavier method Overall Loss. xavier メソッド全体の損失。 0.75
As shown in Fig. 3, there are totally 15 losses in the network, OLBP including 10 segmentation losses and L into divided be can loss overall The losses. 図に示すように。 ネットワークには合計15の損失があり、olbpには10のセグメンテーション損失とlが分割されたbeへの分割損失が含まれる。 0.77
boundary 5 on (9) 境界5 オン (9) 0.75
losses OLMs olm, Gs) 損失 OLM olm, Gs) 0.80
predicted Ls(S(i) 予測 Ls(S(i)) 0.83
multi-task L is multi‐task L 0.87
prediction, losses parts: of three 5(cid:88) as: calculated BPMs. 予測、損失部分:3つの5(cid:88)の値:計算BPM。 0.78
on losses and L =[Ls(S(1), Gs) + Ls(B(1), Gb)] + 5(cid:88) i=1 [Ls(S(i) bpm, Gs) + Ls(B(i), Gb)], + i=2 ·) Ls(·, is loss, softmax is segthe the where S(1) boundary map. L = [Ls(S(1), Gs) + Ls(B(1), Gb)] + 5(cid:88) i=1 [Ls(S(i) bpm, Gs) + Ls(B(i), Gb)], + i=2 ·) Ls(·, is loss, softmax is segthe the where S(1) boundary map。 0.78
S(i) the mentation map, and B(1) is predicted olm and S(i) in OLM results segmentation side the bpm present output boundary mask the is respectively. メントマップS(i)とB(1)は、OLM結果のセグメンテーション側において、それぞれbpm現在出力境界マスクaであるolmとS(i)を予測する。 0.74
B(i) and BPM, in i∈{2,3,4,5} for BPM. B(i) と BPM は BPM の i∂{2,3,4,5} である。 0.73
Notably, loss, we each softmax resize the resolutions S(i) of Gs the resolutions of corresponding and Gb to fit olm, S(i) and B(i). 特に損失の場合、各ソフトマックスはgsの解像度 s(i) を対応する解像度と gb を olm, s(i) および b(i) に適合するように再サイズする。 0.70
bpm Training. bpm トレーニング。 0.80
Network into training set and 600 images with 9,000 3,075 fixation constrained fixation maps. トレーニングセットと600の画像に9,000,075個の固定固定マップが組み込まれている。 0.57
The testing 1,500 personal fixations, and 892 unconstrained and exper[63] implemented on Caffe The OLBP network is training data The a NVIDIA Titan X GPU. Caffeに実装された1500の個人的修正と892の制約のないエクスペラ[63]のテストOLBPネットワークは、トレーニングデータであるNVIDIA Titan X GPU。 0.79
imented using of 288 × 288 resized are to testing set and training for and set standard inference. imented use of 288 × 288 resized ismented to testing set and training for and set standard inference。 0.77
We stochastic gradient descent adopt the (SGD) method [64] to optimize our OLBP network for 30,000 8 × 10−8, be it will set learning iterations. 確率的勾配降下は(sgd)手法 [64] を採用し、学習イテレーションを設定するため、3万8×10−8のolbpネットワークを最適化します。 0.72
and rate The to is iterations. and rate The to is iterations. 0.85
14,000 after by divided dropout 10 The ratio, batch size, iteration size, momentum and weight decay are set to 0.5, 1, 8, 0.9 and 0.0001, respectively. 分割ドロップアウト10により、それぞれ比、バッチサイズ、イテレーションサイズ、運動量、重量減衰を0.5, 1, 8, 0.9, 0.0001に設定する。 0.65
separated is dataset PFOS The set training contains testing set. 分離はデータセットpfos セットトレーニングにはテストセットが含まれている。 0.64
The maps, including personal fixation maps unconstrained 5,925 and set 100 of with consists images including 608 constrained fixation maps fixation maps. 個人固定地図5,925とセット100を含むこれらの地図は608の制約付き固定地図固定地図を含む画像で構成されている。 0.68
EXPERIMENTS VI. In this section, we present experiments on comprehensive evaluation metrics the proposed PFOS dataset. 実験 VI。 本稿では,提案するPFOSデータセットの総合評価指標について検討する。 0.68
We in introduce In Sec. 私たちはIn Secを紹介します。 0.59
VI-B, we Sec. VI-B, We Sec。 0.82
VI-A. proposed OLBP netcompare the conduct work with state-of-the-art methods. VI-A。 提案する olbp net は最先端の手法で動作する。 0.54
Then, we ablation studies in Sec. そして、Secで研究を廃止する。 0.53
and personal show some segmentation VI-C present Finally, we Sec. そしてパーソナライズされたvi-cがついに登場した。 0.39
VI-D. in results discussions some on between segmentation fixation-based the connections object and salient object detection in Sec. VI-D. in results discuss some about some on segmentation Fixation based the connection object and salient object detection in Sec。 0.85
VI-E. A. Evaluation Metrics i.e. VI-E。 A。 Evaluation Metrics i.e. 0.75
Jaccard metrics, five We use evaluation (Fβ), (Sλ) weighted F-measure S-measure [65], (Eξ) (wFβ) evaluate to [67], [66], and E-measure different methods. jaccard metrics, 5 we use evaluation (fβ), (sλ) weighted f-measure s-measure [65], (e\) (wfβ) evaluation to [67], [66], e-measure different method。 0.88
mance of J . Jaccard Index called also Jaccard index is can over-union (IoU), which compare similarities binary maps. Jのマンス。 Jaccard index とも呼ばれる Jaccard index は、類似したバイナリマップと比較するOver-union (IoU) である。
訳抜け防止モード: Jのマンス。 Jaccard index とも呼ばれる Jaccard index is over - union (IoU ) 類似のバイナリマップを比較します
0.72
between ences two It is defined as: |S ∩ Gs| J |S ∪ Gs| , = is predicted segmentation S segmentation GT. エンス 2 の間 以下に定義する: |S, Gs| J |S, Gs| , = is predict segmentation S segmentation GT。 0.87
where binary map, the バイナリーは 地図 はあ? 0.39
and (J ), index F-measure the perforintersectionan d differ- そして (J),指数F-穴埋め面積と差異- 0.76
(10) the Gs is (10) Gs は 0.74
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 8 RESULTS QUANTITATIVE 加工 8 結果 定量化 0.57
III TABLE JACCARD INDEX, S-MEASURE, WEIGHTED F-MEASURE, E-MEASURE Segmentation MEANS PERCENTAGE %). III テーブルジャカルドインデックス、S-MeASURE、重み付きF-MeASURE、E-MeASUREセグメンテーション手段 %)。 0.59
SEMANTIC SEGMENTATION METHOD. セマンティクスのセグメンテーション方法。 0.38
Fixations MEANS FIXATIONS-BASED OBJECT SEGMENTATION METHOD. 固定手段ベースの物体区分方法。 0.47
FDM-Guided EMBEDDING DETECTION METHOD. FDMガイド埋め込み検出方法。 0.57
THE BLUE, RED, IN RESULTS THREE ARE REPRESENTS PUBLICATION METHOD 結果3の青 赤は出版方法を表しています 0.41
SEMANTIC BEST セマンティクス・ベスト 0.34
↑ DENOTES デノテ(Denotes) 0.13
SHOWN THE FDM INTO ご覧ください FDMイント 0.49
INCLUDING Semantic Aspects Semantic Segmentation 以下 意味 特徴 セマンティックセグメンテーション 0.52
Clicks Fixations FDM-Guided クリック 固定 FDMガイド 0.69
Semantic Segmentation 意味 セグメンテーション 0.59
FDM-Guided Salient Object Detection Personal FDMガイド 有能な物体検出人 0.67
Fixations Methods † [54] PSPNet17 † [55] SegNet17 † [51] DeepLab18 † [56] EncNet18 † [57] DeepLabV3+18 † HRNetV219 [58] † ISLD18 [14] † [17] FCTSFN19 † [16] BRS19 AVS12 [22] [23] SOS14 [24] GBOS17 † CFPS19 [25] † DeepLabV3+18 [57] † HRNetV219 [58] † [59] CPD19 † GCPA20 [60] OLBP (Ours) 固定 方法 例: [54] pspnet17 , [55] segnet17 , [51] deeplab18 , [56] encnet18 , [57] deeplabv3+18 , hrnetv219 [58] , isld18 [14] , [17] fctsfn19 , [16] brs19 avs12 [22] [23] sos14 [24] gbos17 , cfps19 [25] , deeplabv3+18 [57] , hrnetv219 [58] , [59] cpd19 , gcpa20 [60] olbp (ours)
訳抜け防止モード: 固定 方法 は、 [ 54 ] PSPNet17 は、 [ 55 ] SegNet17 は、 [ 51 ] DeepLab18 は、 [ 56 ] EncNet18 は、 [ 57 ] DeepLabV3 + 18 † HRNetV219 [ 58 ] † ISLD18 [ 14 ] 16 ] BRS19 AVS12 [22 ] [ 23 ] SOS14 [24 ] GBOS17 > CFPS19 [25 ] > DeepLabV3 + 18 [ 57 ] シュ HRNetV219 [ 58 ] シュ [ 59 ] CPD19 シュ GCPA20 [ 60 ] OLBP (我が家)
0.72
similarity binary segof regionS-measure similarity binary segof regionS 0.78
structural and the similarity simultaneously. 構造と類似性も同時に 0.86
Sλ. S-measure the on focuses S-measure segmentation map predicted the between mentation GT. Sλ。 S-measure the on focus S-measure segmentation map predict the between mentation GT。 0.81
the It structural evaluates object-aware (So) aware (Sr) and is defined as: Sλ = λ ∗ So + (1 − λ) ∗ Sr, default. it 構造は object-aware (so) aware (sr) を評価し、sλ = λ ∗ so + (1 − λ) ∗ sr, default と定義されている。 0.87
by to 0.5 set is where λ Fβ. 0.5 までは λ Fβ です 0.71
F-measure is a F-measure weighted harmonic mean of recall, considers which precision and precision recall and is comprehensively. f-measureはf-measure weighted harmonic mean of recallであり、どの精度と正確なリコールを考慮し、包括的なものである。 0.64
as: It defined (1 + β2) × P recision × Recall Fβ = β2 × P recision + Recall where is [48]. 定義は (1 + β2) × p 回分 × recall fβ = β2 × p 回分 + recall where is [48]。 0.74
[47], studies following 0.3 to set previous β2 wFβ. 47] 以前のβ2 wfβ を 0.3 以下で設定した。 0.68
Weighted F-measure has F-measure the Weighted ability to evaluate the non-binary binary map. 重み付きF測度は、非バイナリバイナリマップを評価するための重み付き能力を有する。 0.60
It focuses and on according pixels errors the weights evaluating predicted of and location their their to is formulated neighborhood, which as: (1 + β2) × P recisionw × Recallw wFβ = β2 × P recisionw + Recallw [69]. 1 + β2) × P recisionw × Recallw wFβ = β2 × P recisionw + Recallw [69] である。
訳抜け防止モード: 画素の誤差に基づいて予測される重みに焦点を合わせる。 それらの位置は (1 + β2) と定式化された近傍です ) × P recisionw × Recallw wFβ = β2 × P recisionw + Recallw [69 ]
0.88
[68], previous set is 1 following studies where to β2 E-measure Eξ. [68] 以前の集合は、β2 e-measure e に従えば 1 である。 0.67
E-measure studies. based on is cognitive vision (i.e. 調査研究。 iscognitive vision (i.e.) 0.61
global the and pixel-level) errors local the evaluates It global the and pixel-level) エラーをローカルに評価する 0.88
(12) (13) , (12) (13) , 0.85
, (IN LARGER , (院) ラーガー 0.63
FDM INTO J ↑ 51.0 58.7 52.8 55.5 45.6 46.1 61.2 62.4 62.1 40.9 42.6 38.0 70.5 71.0 58.8 69.2 72.3 73.7 FDMイント J ↑ 51.0 58.7 52.8 55.5 45.6 46.1 61.2 62.4 62.1 40.9 42.6 38.0 70.5 71.0 58.8 69.2 72.3 73.7 0.57
PFOS F-MEASURE THE DATASET ON CLICKS-BASED INTERACTIVE IMAGE Semantic Segmentation MEANS OBJECT SALIENT EMBEDDING BETTER. PFOS F-Mesure the Datasset on CLIcks-based Interactive Image Semantic Segmentation Means Object Salient Embeding BETTER 0.65
THE SUBSCRIPT OF EACH The SubSCRIPT of EACH 0.76
AND SEGMENTATION-BASED METHOD. セグメンテーションベースの方法。 0.32
Clicks MEANS SEGMENTATION METHOD. クリック手段区分方法。 0.42
FDM-Guided Salient Object Detection MEANS GREEN. fdm誘導サルエント物体検出手段は緑色である。 0.54
IS AND † MEANS CNNS-BASED METHOD. ISおよびIS手段CNNベース方法。 0.54
YEAR. PFOS Dataset wFβ ↑ 55.5 66.6 60.5 60.5 53.1 49.0 71.2 69.9 69.1 48.7 51.4 48.0 76.7 78.3 68.6 76.4 78.9 80.0 (i.e. YEAR! PFOS Dataset wFβ ↑ 55.5 66.6 60.5 60.5 53.1 49.0 71.2 69.9 69.1 48.7 51.4 48.0 76.7 78.3 68.6 76.4 78.9 80.0 (i.e. 0.61
introduce to it provide image-level) errors together. イメージレベルの)エラーを一緒に導入する。 0.71
We (cid:16) (cid:17) W(cid:88) H(cid:88) computed could be as: comprehensive more evaluation. We (cid:16) (cid:17) W(cid:88) H(cid:88) 計算は以下の通りである。 0.74
It ◦ ϕs Eξ = 1 2ϕGs ◦ ϕs ◦ ϕGs + ϕs W × H ϕGs y=1 x=1 binary bias matrices distance are where for and segϕGs ϕs map, respectively, segmentation and predicted mentation GT f (·) ◦ the is the Hadamard product, and quadratic form. φs E = 1 2φGs シュ φs シュ φGs + φs W × H φGs y=1 x=1 のバイナリバイアス行列距離は、それぞれ segφGs φs マップの場所と segφGs と segφGs と segφGs と segφGs と segφGs と segation と mentation GT f (·) は、アダマール積と二次形式である。
訳抜け防止モード: φs y = 1 2φGs = 1 2φGs シュ φGs + φs W × H φGs y=1 x=1 2次バイアス行列距離は for と segφGs φs map である。 それぞれ、セグメンテーションと予測累積 GT f ( · ) = はアダマール積、二次形式 である。
0.76
Fβ ↑ 60.2 72.5 66.9 65.3 59.3 53.2 77.9 75.1 74.6 56.6 60.0 58.1 81.3 83.2 75.7 81.7 83.6 84.3 Fβ ↑ 60.2 72.5 66.9 65.3 59.3 53.2 77.9 75.1 74.6 56.6 60.0 58.1 81.3 83.2 75.7 81.7 83.6 84.3 0.43
Sλ ↑ 58.9 70.4 65.7 62.2 61.4 50.7 73.4 72.9 73.0 56.0 57.5 56.7 78.9 79.5 71.3 78.4 80.3 81.1 Sλ ↑ 58.9 70.4 65.7 62.2 61.4 50.7 73.4 72.9 73.0 56.0 57.5 56.7 78.9 79.5 71.3 78.4 80.3 81.1 0.43
Eξ ↑ 64.2 78.4 72.9 69.0 67.8 53.8 82.5 82.8 82.3 65.1 67.8 63.9 87.4 87.6 80.4 86.2 88.1 88.7 Eξ ↑ 64.2 78.4 72.9 69.0 67.8 53.8 82.5 82.8 82.3 65.1 67.8 63.9 87.4 87.6 80.4 86.2 88.1 88.7 0.43
(11) (14) is (11) (14) は 0.81
a f , State-of-the-arts with the B. あ f , Bの最先端技術。 0.68
Comparison Methods. Comparison network OLBP We compare our sestate-of-the-art types of methods, including against three interactive clicks-based methods, segmentation-based mantic segobject methods segmentation image fixations-based and mentation methods. 比較方法。 比較ネットワーク olbp では,インタラクティブクリック方式,セグメンテーション方式,セグメンテーション方式,セグメンテーション方式,メンテーション方式の3つの手法を比較した。 0.71
reasonable a comparison of the first For type of method, we follow [12], [25], which the segconvert mentation problem into the selection problem. 最初のFor型のメソッドの比較を合理的に比較すると、[12], [25] に従い、セグコンバートメント問題を選択問題に導出します。 0.74
Concretely, we i.e. 具体的には、私たちです。 0.46
[54], PSPNet segmentation methods, semantic apply first EncNet [51], [56], DeepLabV3+ [55], DeepLab SegNet [57], and HRNetV2 [58], to then use the fixations to image, and select the gazed objects. [54]、PSPNetセグメンテーションメソッド、セマンティクスは、最初にEncNet [51]、 [56]、DeepLabV3+ [55]、DeepLab SegNet [57]、HRNetV2 [58] を適用し、そのフィクスを使用して画像化し、目に見えるオブジェクトを選択します。 0.76
The second type includes of method type last The and [17], FCTSFN [14], ISLD [16]. 第2の型はメソッド型 last The と [17], FCTSFN [14], ISLD [16] を含む。 0.79
BRS and [24] GBOS SOS AVS of method includes [22], [23], CFPS [25]. brs と [24] gbos sos avs of method は [22], [23], cfps [25] を含む。 0.63
For all the above compared methods, we use the implementations with recommend parameter settings for a fair comparison. 上記のすべての比較メソッドに対して、公正な比較のためにパラメータ設定を推奨する実装を使用します。 0.77
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 9 Image 5. GT Visualization 加工 9 画像5。 GT可視化 0.71
Fig. Ours comparison フィギュア。 私たちの比較 0.54
CFPS SOS on representative methods some CFPS SOS on representative method some 0.84
GBOS to the GBOS へ はあ? 0.61
AVS PFOS dataset. AVS PFOS データセット。 0.76
BRS Zoom-in FCTSFN best the for BRSズームイン FCTSFNがベスト 0.69
ISLD view. EncNet ISLDビュー。 EncNet 0.79
Deeplab SegNet Deeplab SegNet 0.85
segmentation modify we semantic several In addition, (i.e. segmentation modified we semantic severalIn addition, (i.e.) 0.96
DeepLabV3+ and [57] HRNetV2 [58]) and methods (i.e. DeepLabV3+ および [57] HRNetV2 [58]) およびメソッド(すなわち。 0.92
and [59] CPD detection recent methods object salient in FDM [60]) guide by embedding them to object GCPA segmentation. そして[59] cpd検出 fdm [60])ガイドにおける最近のobject salientメソッドは、オブジェクトgcpaセグメンテーションに埋め込みます。 0.77
Two types of comparison methods are thus gennamely FDM-guided semantic segmentation and FDMerated, detection, object salient guided for Specifically, respectively. 2種類の比較法は, FDM誘導セマンティックセマンティックセマンティックセグメンテーションとFDM誘導, 検出, 対象サリエントガイドの2種である。 0.67
(i.e. into features FDM embed DeepLabV3+, low-level we features and features generated from the ASPP) to bridge the encoder and decoder; for HRNetV2, we embed FDM between embed FDM for CPD, we stage second the stage; third and the embed and, into two partial GCPA, we FDM decoders; for into four self refinement modules. (すなわち) fdm embedded deeplabv3+, low-level we produced from the aspp) エンコーダとデコーダを橋渡しするために、hrnetv2 では、fdmを cpd の埋め込み fdm の間に埋め込む。
訳抜け防止モード: (すなわち) FDMを組み込み、DeepLabV3 +, low-level We features and features generated from the ASPP ) エンコーダとデコーダを HRNetV2 の場合。 CPDのための埋め込みFDMの間にFDMを埋め込む。 第2ステージに上がり 2つの部分的なGCPAに組み込み、FDMデコーダを4つの自己改善モジュールに分割します。
0.70
We retrain these modified methods with the same training dataset as our method, and convergence. 修正したメソッドを、メソッドと同じトレーニングデータセットで再トレーニングし、収束させます。 0.59
Notably, better for adjusted their parameters are [70] the binarize to well-known OTSU we use method the other generated probability map of our method CNNsand based methods. 特筆すべきは, [70] パラメータをよく知られた大津へ二値化する方法と, cnnsand法で生成した他の確率マップを用いる方法である。 0.74
Evaluation. Performance Quantitative our evaluate We on methods state-of-the-art 17 and network OLBP other the evaluation metrics. 評価。 性能を定量的に評価 評価指標は、最先端の17とネットワークOLBPである。
訳抜け防止モード: 評価。 評価の質的評価 メソッド-------アート17について そしてネットワークOLBPなどの評価指標も。
0.68
above PFOS dataset using five The quanresults titative are presented in Table III. 5つのquanresultを用いたpfosデータセットの上に表iiiで示す。 0.54
Our OLBP network favorably outperforms all the compared methods in terms of best method the compared with Concretely, different metrics. 私たちのolbpネットワークは、比較したすべてのメソッドを、具体的な異なるメトリクスと比較した最善の方法で上回っています。 0.56
segmentation methods, in fixations-based object CFPS [25] the performance of our method is improved by 3.2%, 2.2% and J , Sλ wFβ, in performance of and respectively. 固定法に基づくCFPS[25]のセグメンテーション法では,本手法の性能は3.2%,2.2%,J ,Sλ wFβ,それぞれ改善された。 0.84
The 3.0% Eξ, [17] FCTSFN than better method our in is and is 5.9% in Fβ. 0%e,[17]fctsfnは、我々のin法より優れており、fβでは5.9%である。
訳抜け防止モード: 3.0 % E , [ 17 ] FCTSFN は我々の入力方法よりも優れている Fβは5.9%である。
0.76
Note than 6.4% better ISLD [14] that the performance of our method far better than that of three traditional is methods AVS [22], SOS [24] and GBOS [24]. 6.4%以上の isld [14] は、従来の3つの avs [22] メソッド、sos [24] メソッド、gbos [24] メソッドよりも性能が優れていることに注意する。 0.72
We attribute to network proposed OLBP the of superiority performance the 我々は,ネットワーク提案したOLBPの優越性能を評価した。 0.63
TABLE IV ROBUSTNESS OF OUR METHOD EVALUATION REPRESENTATIVE METHODS, SUCH AS THE MODIFIED CPD [59], [25] CFPS AND PFOS JACCARD IN TERMS DATASET OF BOLD. CPD[59], [25]CFPS, PFOS JACCARD等の金型表計算方法の評価方法の信頼性に関する表IV
訳抜け防止モード: 表 iv 修正cpd [59 ] など,提案手法の評価手法のロバスト性 [25 ] cfps と pfos jaccard はbold のデータセットという用語で表される。
0.50
NOTABLY, EACH ROW IS SHOWN IN 15% INCREASE THE IN ADDITIONAL NUMBER OF THE TOTAL OF (i.e. 特に、各行は、総数(すなわち、合計)を15%増加させる。 0.40
UNCONSTRAINED NOISE i.e. 15%, 30%, 非連続ノイズ。 15%, 30%, 0.43
THE MODIFIED GCPA [60], ON THE PART OF THE INDEX. 改良GCPA [60], on the part of the INDEX. 0.57
THE OF RESULT “+15% NOISE” MEANS AN UNCONSTRAINED NUMBER OF FIXATION MAP. 結果として“+15%ノイズ”は、制約のない固定マップの数を意味する。 0.39
WE FIXATIONS IN A FIXATIONS) LEVELS, THREE AT 45%. 固定) レベルは 3 で 45% です. 0.37
AND TEST BEST FIXATIONS THE ADD と テストテスト ADD のフィクスメント 0.59
AND SEVERAL Dataset PFOS +15% noise +30% noise +45% noise と 数 データセットPFOS+15%ノイズ+30%ノイズ+45%ノイズ 0.59
OLBP (Ours) 73.7 72.2 71.3 70.3 OLBP 73.7 72.2 71.3 70.3 0.67
GCPA20 [60] 72.3 70.9 70.1 69.7 GCPA20 [60] 72.3 70.9 70.1 69.7 0.59
CFPS19 [25] 70.5 69.6 69.2 68.8 CFPS19 [25] 70.5 69.6 69.2 68.8 0.59
CPD19 [59] 69.2 68.7 68.4 68.1 CPD19 [59] 69.2 68.7 68.4 68.1 0.59
preservation. boundary object localization and the scheme of an get In methods segmentation-based semantic addition, J . 保存。 境界オブジェクトのローカライゼーションとgetのスキーム セグメンテーションに基づくセマンティクス付加、j。 0.57
of be may the that to due in This fact average 51.6% segment all segmentation methods semantic cannot accurately the failure objects, resulting of the object selection process. この事実により、平均51.6%のセグメンテーションメソッドのセマンティクスは、障害オブジェクトを正確に特定できないため、オブジェクトの選択プロセスが引き起こされる。 0.70
in achieve segmentation methods Clicks-based image interactive J , while average our OLBP 61.9% in of an network obtains 73.7% in J . セグメンテーション手法を実現するには、クリックベースの画像対話型jが用いられるが、ネットワークのolbp 61.9%の平均は、j の73.7%を得る。
訳抜け防止モード: in achieve segmentation method Clicks - based image interactive J while ネットワークの平均OLBP 61.9%はJで73.7%を得る。
0.87
This demonstrates that is more robust our method than clicks-based image segmentation methods in interactive Fixations-based fixations. これは,対話型固定法において,クリックベースの画像分割法よりもロバストであることを示す。 0.60
of adapting object ambiguity the three methods traditional contain segmentation methods and 48.0% in J . オブジェクトのあいまいさに対応する3つの方法は、従来のセグメンテーションメソッドと48.0%のjを含んでいる。 0.55
one CNN-based method, obtaining an average of Specifically, we present the results the FDM-guided of modified the including methods, segmentation semantic 1 つの cnn ベースの手法で, 平均値を求め, fdm ガイドによる修正法, セグメンテーションセマンティクスを提示する。
訳抜け防止モード: 1つのCNN - ベースのメソッド 特定の平均値を得る FDM - 修正されたメソッド、セグメンテーションのセマンティックを含む結果を示す。
0.67
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 10 DATASET 加工 10 データセット 0.55
ABLATION PFOS COMPONENT CONTRIBUTES COLUMN OBJECT アブレーションPFOS成分のカラムオブジェクト 0.52
TABLE V PROPOSED OLBP ANALYSES FOR THE ON NETWORK THE (IN PERCENTAGE %). 表 v はオンネットワークの olbp 解析(%)を提案した。 0.46
AS OBSERVED, CAN BE EACH IN OLBP AND ROLE IMPORTANT NETWORK AN PLAYS PERFORMANCE. 観察対象として、オルプ中のCanビー、およびロールイポータントネットワーク、プレイパフォーマンス。 0.39
THE RESULT THE TO BEST IN EACH ENCODER-DECODER NETWORK, OLM: BOLD. The ResuLT THE BEST IN ENCODER-DecoDERNETWO RK, OLM: OLLD. 0.61
BASELINE: IS AND BPM: LOCALIZATION MODULE, PRESERVATION MODULE. BASELINE: IS and BPM: ローカライゼーションモジュール、保存モジュール。 0.60
BOUNDARY BPM OLM 境界 BPM OLM 0.68
J ↑ Sλ ↑ Baseline !∗ 67.2 75.9 1 !∗ 68.0 76.4 2 ! 67.2 75.9 1 !* 68.0 76.4 2 ! 0.58
70.7 78.3 3 ! 70.7 78.3 3 ! 0.65
73.0 80.7 4 ! 73.0 80.7 4 ! 0.65
! 71.4 78.7 5 73.7 81.1 ! ! 71.4 78.7 5 73.7 81.1 ! 0.70
! ! 6 !∗ concatenated. ! ! 6 !∗ が結合する。 0.84
FDM are and image the means !means fed FDM are and image the to network FDMは手段である!FDMが供給される手段であり、そのネットワークを画像化する。 0.73
! ! ↑ wFβ 72.2 72.5 75.0 79.5 75.6 80.0 ! ! ↑ wFβ 72.2 72.5 75.0 79.5 75.6 80.0 0.75
separately. ABLATION RESULTS PERCENTAGE %). 別々に AbLATION RESULTS PERCENTAGE %)。 0.68
THE CORRESPONDING DATASET IS コレポンディング DataSet I 0.31
BOLD. THE VARIANTS (IN ARE BOLD 変種 (以下) 0.47
TABLE VI PFOS THE OLM ON OF THE COLUMN EACH BEST RESULT IN LISTED THE OF STRUCTURES 7. 表 vi pfos カラムのolmオン それぞれの最善の結果は、構造7の一覧である。 0.48
FIG. PRESENTED IN ↑ Sλ J ↑ 80.7 72.7 -0.4 -1.0 80.5 72.6 -0.6 -1.1 80.8 72.8 -0.3 -0.9 80.9 72.9 -0.2 -0.8 81.1 73.7 FIG PRESENTED IN ↑ Sλ J ↑ 80.7 72.7 -0.4 -1.0 80.5 72.6 -0.6 -1.1 80.8 72.8 -0.3 -0.9 80.9 72.9 -0.2 -0.8 81.1 73.7 0.46
↑ wFβ 79.0 -1.0 79.2 -0.8 79.6 -0.4 79.4 -0.6 80.0 ↑ wFβ 79.0 -1.0 79.2 -0.8 79.6 -0.4 79.4 -0.6 80.0 0.40
OLM variants w/o convs dilated w/o multiply concat w/o w/o Seg sup Ours OLM変種 w/o convs 拡張 w/o multiply concat w/o w/o Seg sup Ours 0.67
Image 6. Fig. 画像6。 フィギュア。 0.58
Visual network, whose GT comparisons input the 視覚ネットワークは gt は入力を比較 0.60
is Ba∗ different of concatenated Ba∗+BPM Ba+OLM “Ba∗” variants. は 連結したBa∗ Ba∗+BPM Ba+OLM "Ba∗" 変種。 0.65
is image and FDM. イメージとFDMです。 0.68
Ours baseline the 我々のベースラインは 0.76
DeepLabV3+ and HRNetV2, in Table The III. DeepLabV3+ と HRNetV2, in Table The III 0.93
modified does achieves DeepLabV3+ but performance, promising a vs (e g 71.0% OLBP network our not exceed 73.7% in J ). 修正されたDeepLabV3+は、パフォーマンスが向上し、パフォーマンスが向上する(例えば71.0%のOLBPネットワークは、Jの73.7%を超えない)。
訳抜け防止モード: modified は DeepLabV3 + を達成するが、パフォーマンスは a 対 ( e g 71.0 % OLBP ネットワークを約束する Jでは73.7%を超えない)。
0.70
Although the FDM guidance brings some advantages to HRNetV2, but the modified HRNetV2 still does not perform the well. FDMガイダンスはHRNetV2にいくつかの利点をもたらすが、修正されたHRNetV2はまだうまく機能しない。 0.66
both moddetection, object FDM-guided For salient perform GCPA our ified CPD and well, though OLBP still them (e g 4.5% and 1.4% better outperforms than the modified J , CPD and GCPA in respectively). モジュール検出とオブジェクトFDM誘導の両方 有能なGCPAでは、当社の有意なCDDも実行しますが、OLBPは依然としてそれら(それぞれJ、PD、GCPAよりも4.5%、GCPAよりも1.4%優れています)。
訳抜け防止モード: 修正、オブジェクト FDM - Guided 正規にGCPAを実行するために OLBPは依然として (eg 4.5 %) 1.4 %が修正J、PD、GCPAよりも優れています。
0.65
In summary, there is improvement room large a the performance for proposed on challenging is that PFOS PFOS dataset, suggesting dataset the to all compared methods including OLBP. まとめると、PFOS PFOSデータセットは、OLBPを含む全ての比較されたメソッドにデータセットを提案する。
訳抜け防止モード: 要約すると、PFOS PFOSデータセットは、挑戦する上で提案する性能が大幅に向上する。 OLBPを含むすべての比較されたメソッドにデータセットを提案する。
0.72
Qualitative Performance Evaluation. 質的なパフォーマンス評価。 0.70
In Fig. 5, we show our OLBP network results representative some of visualization and other methods. フィギュア。 5では,olbpネットワークの結果が可視化と他の手法を代表していることを示す。 0.45
Obviously, the visual segmentation maps of SOS traditional methods GBOS three [24], [24] [22] and AVS the CNN-based method CFPS [25], which are rough. 明らかに、sosの伝統的な手法であるgbos 3 [24], [24] [22], avsのビジュアルセグメンテーションマップは、cnnベースのメソッドであるcfps [25] である。
訳抜け防止モード: 明らかに、SOSの伝統的な方法の視覚的セグメンテーションマップ GBOS 3 [24 ] である。 [ 24 ] [ 22 ] and AVS the CNN - based method CFPS [ 25 ] 粗いな
0.82
However, belongs to as GBOS, SOS and basically same type the AVS, rebackground less and objects the captures brings in gazed of results segmentation in gions. しかし、GBOS、SOS、基本的に同じタイプのAVSに属しており、バックグラウンドは少なくなり、キャプチャーがgionsで結果のセグメンテーションを見つめることになる。 0.56
The gazed objects the clicksbased interactive image segmentation methods BRS [16], FCTSFN [17], and ISLD [14] are partially segmented and [56], EncNet As relatively the the coarse. 視線オブジェクトは、クリックベースのインタラクティブ画像分割方法であるBRS[16]、FCTSFN[17]、ISLD[14]を部分的に分割し、[56]、EncNetを比較的粗くする。
訳抜け防止モード: 視線はクリックベースのインタラクティブ画像分割手法BRS[16 ]を対象とする。 FCTSFN [17 ] と ISLD [14 ] を部分的に分割する そして[ 56 ], EncNet は比較的粗いものだ。
0.85
are details for DeepLab [51] and SegNet [55], the object segmentation maps semantic of them depend on the segmentation results, which are great uncertainty. deeplab [51] と segnet [55] の詳細であり、オブジェクトのセグメンテーションマップの意味はセグメンテーションの結果に依存する。 0.58
This results in their object segmentation bad. その結果、オブジェクトのセグメンテーションが悪くなります。 0.64
sometimes and accurate sometimes are that maps 時に正確で正確な地図は 0.71
w/o dilated convs: of four OLM variants. w/o拡張コンブ:4種類のolm変種。 0.58
Fig. 7. Structures four the multiply: w/o replaced convolutional layer; convolutions are by one w/o image maps response using Re-wei; in feature to re-weight feature and image concatenating without re-weighted feature in Re-wei; Seg sup: without segmentation supervision. フィギュア。 7. structure four the multiply: w/o replaced convolutional layer; convolutions are one w/o image maps response using re-wei; feature to re-weight feature and image concatenating without re-weighted feature in re-wei; seg sup: without segmentation supervisor。 0.71
dilated without concat: w/o 含まない拡張:w/o 0.48
scheme the equipped with our OLBP network contrast, In is preservation, prewhich boundary of object localization and and fixations comof location cisely analyzes the information maps of “Ours” segmentation pletes the gazed The objects. scheme the equipped with our olbp network contrast, in is preservation, which boundary of object localization and and fixations comof location isisely analysis the information map of ours" segmentation ispleed the objects. (英語) 0.75
in with objects gazed in localized are Fig. ローカライズされたオブジェクトの内はFigです。 0.44
pretty the very 5 interference even fine details, under the of some ambiguous fixations. もっとも5つの干渉は、いくつかの曖昧な修正の下で、細部まで細部まで詳細です。 0.58
Robustness Evaluation. We provide a robustness evaluation methods, representative several and method of includour and modified the [25] CFPS [60], ing modified the GCPA CPD [59], on the test dataset of the PFOS dataset. 堅牢性評価。 PFOSデータセットのテストデータセット上で,[25] CFPS[60] のロバスト性評価方法,代表数,および[25] CFPS[60] を改良し,GCPA CPD[59] を改良した。 0.73
Concretely, i.e. we add the noise, unconstrained fixations, to the fixation at regions background the by map random sampling three on i.e. 具体的に言えば ノイズ、制約なしの固定、 背景の領域の固定に マップ・ランダム・サンプリングの3つを追加します 0.53
percentages different 45%) levels, (15%, 30%, increase in the number unconstrained fixations of the total number of of fixations. パーセンテージの異なる45%) のレベル (15%, 30%) は、固定数の総数の無拘束固定数の増加である。 0.70
The performance of above methods after adding IV. IV を加えた後の上記の手法の性能。 0.75
in presented noise consistently method Our Table are compared outperforms the methods three challenging under situations, showing excellent robustness. 提案手法では,提案手法が3つの難易度を上回り,ロバスト性が良好であることを示す。 0.57
C. Ablation Studies the vital evaluate each We comprehensively our OLBP network. C。 Ablation Studies the vital evaluate each We comprehensively our OLBP network。 0.79
Specifically, in performance to component the contributions of OLM and BPM; 2) the overall assess 1) we usefulness and in OLM; parts three of effectiveness the the 3) The network. 具体的には、パフォーマンスからコンポーネントへの貢献度、olmとbpmの貢献度、2)総合評価、1)olmの有用性、3)ネットワークの有効性の3部分です。 0.63
of BPM and the top-down manner in prediction the with variants are retrained same and hyper-parameters training set as aforementioned settings in Sec. 上述したセッティングとして、BPMと変種による予測におけるトップダウンの方法が、同じトレーニングを受け、ハイパーパラメータのトレーニングセットが設定されます。
訳抜け防止モード: bpm とトップ - 予測のダウン方法 with 変種は同一に再トレーニングされる そして、hyper - parameters training set as above settings in sec。
0.69
V-E, and the dataset. V-Eとデータセット。 0.80
PFOS the on conducted are experiments PFOSは実験である 0.57
contribution of OLM —w/o SegsupSegsupRe-weiLo cation analysis unitOLM —w/o dilated convsSegsupRe-weiLoc ation analysis unitOLM —w/o multiplySegsupRe-wei Location analysis unit⊚OLM —w/o concatSegsupRe-weiLo cation analysis unit⊗ 貢献 ですから OLM -w/o SegsupSegsupRe-weiLo cation analysis unitOLM -w/o dilated convsSegsupRe-weiLoc ation analysis unitOLM -w/o multiplySegsupRe-wei Location analysis unit OLM -w/o concatSegsupRe-weiLo cation analysis unit 0.62
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 11 THE OF PERFORMANCE WITH/WITHOUT BPM ON IN THE NUMBER LOWER BPM IS DIFFERENCE THE BPM. 加工 11 数量低のBPMにおけるパフォーマンスは、BPMとの違いである。 0.68
THE BEST TABLE VII OUTPUT SIDE SEGMENTATION MAPS OF PFOS (IN PERCENTAGE %). The BEST テーブルVII PFOSの出力側区分マス(パーセンテージ%)。 0.66
THE DATASET OF W/O PERFORMANCE THE OF RIGHT CORNER OF W/ THE IT BETWEEN AND PERFORMANCE BOLD. W/Oの右カーナーのW/Oの性能データと性能金型
訳抜け防止モード: W/OにおけるW/Iの右カーナー性能に関するデータセット 性能金型
0.44
RESULT IN EACH COLUMN エイチカラムのリサート 0.32
IS Side outputs IS 側面 outputs 0.80
S(5) bpm S(4) bpm S(3) bpm S(2) bpm S(1) S(5) bpm S(4) bpm S(3) bpm S(2) bpm S(1) 0.85
↑ w/ J ↑ 62.0 69.2 72.6 73.7 73.7 ↑ w/ J sh 62.0 69.2 72.6 73.7 73.7 0.66
BPM (Ours) wFβ Sλ ↑ 67.8 71.6 77.5 75.5 78.9 80.2 79.9 81.1 81.1 80.0 BPM (Ours) wFβ Sλ 67.8 71.6 77.5 75.5 78.9 80.2 79.9 81.1 80.0 0.56
J 60.2 68.2 71.9 72.9 73.0 J 60.2 68.2 71.9 72.9 73.0 0.48
↑ -1.8 -1.0 ↑ -1.8 -1.0 0.53
-0.7 -0.8 -0.7 -0.7 -0.8 -0.7 0.47
w/o BPM Sλ ↑ 70.4 -1.2 76.9 79.8 80.6 80.7 w/o BPM Sλ > 70.4 -1.2 76.9 79.8 80.6 80.7 0.44
-0.6 -0.4 -0.5 -0.6 -0.4 -0.5 0.47
-0.4 wFβ ↑ 66.0 -1.8 74.8 78.3 79.4 79.5 -0.4 wFβ ↑ 66.0 -1.8 74.8 78.3 79.4 79.5 0.47
-0.7 -0.6 -0.5 -0.7 -0.6 -0.5 0.47
-0.5 the Does 1. proposed OLM to contribute and BPM OLBP network? -0.5 does 1. 提案されている olm と bpm olbp network? 0.59
To evaluate proposed of the contribution the OLM and BPM to OLBP three variants: derive network, we “Ba”/“Ba∗”), network baseline network baseline (denoted by network only and OLMs with (“Ba+OLM”), baseline with (“Ba/Ba∗+BPM”). OLMとBPMのOLBPへの貢献を評価するために、ネットワークベースラインネットワークベースライン(ネットワークのみを記述)、OLMを("Ba+OLM")、ベースラインを("Ba/Ba∗+BPM")という3つのバリエーションを導出する。
訳抜け防止モード: OLMとBPMのOLBPへの貢献の3つのバリエーション : ネットワークの導出 We “Ba”/“Ba∗ ”, ネットワークベースラインネットワークベースライン(ネットワークのみで表現する) そして、("Ba+OLM " ) の OLM 、("Ba / Ba∗+BPM " ) のベースラインです。
0.81
only BPMs In particular, we two provide types of baseline network: the first one is an encoder-decoder FDM image concatenated input whose network, the and is “Ba∗”); one the (denoted by second is an encoder-decoder network with the down-sampled FDMs being concatenated to i.e. BPMのみ 特に2つのベースラインネットワークを提供する。1つはエンコーダ-デコーダFDMイメージ結合型入力で、そのネットワークは"Ba∗"で、もう1つは(2つ目はエンコーダ-デコーダネットワークで、ダウンサンプリングされたFDMはi.e.に連結されている。 0.77
each skip-layer (denoted by “Ba”), the image and FDM are quantitative fed in results the report separately. 各スキップ層("Ba"と表記される)、画像とFDMは、別々にレポート結果に定量的に供給される。 0.72
We network to Tab. 私たちはタブにネットワークします。 0.58
V. “Ba∗” network baseline first the that observe We 1st (the J , in obtains only V) in line Tab. V. “Ba∗” ネットワークベースラインは、最初にWe 1st (J は V のみを得る) を Tab 行で観測する。 0.86
and the second 67.2% obtains in 3rd (the network baseline “Ba” V) Tab. 第67.2%は第3(ネットワークベースライン "Ba" V)タブで取得する。 0.77
line J . confirms in This that direct concatenation of the 70.7% image and FDM results in the location information of FDM submerged by image information; by contrast, conbeing features image with FDM catenating scale each benefits at improves object location. J線。 この場合、70.7%の画像とfdmの直接結合は、画像情報によって沈殿したfdmの位置情報をもたらすことが確認される。
訳抜け防止モード: J線。 70.7%のイメージとFDMの直接結合は、画像情報によって水没したFDMの位置情報をもたらす。 conbeing features image with FDM catenating scale each benefits improves object location.
0.70
OLM significantly the performance J 67.2%/70.7% → 73.0% (e g of baseline network the : wFβ 72.2%/75.0% → 79.5%). OLM は J 67.2%/70.7% → 73.0% (ベースラインネットワークの g : wFβ 72.2%/75.0% → 79.5%) を著しく向上させた。 0.70
and This shows the that : remarkable, capture OLM does OLM is of contribution and the OLM, the Comparing location information. その結果, OLM は OLM の貢献であり, OLM は比較位置情報であることがわかった。 0.64
with conbaseline of tribution BPM to networks is slightly inferior J 67.2% → 68.0%; 70.7% → 71.4%), (e g but BPM also : shows its effectiveness to improve performance of “Ba+OLM” 79.5%→ 80.0%). J 67.2% → 68.0%; 70.7% → 71.4% である(例えば BPM は "Ba+OLM" 79.5% → 80.0% のパフォーマンスを向上させる効果を示している)。 0.76
This (e g wFβ : that BPM can demonstrates and filter background of the objects complete further erroneous OLM and localization. この(例 wfβ: bpm はオブジェクトの背景を実証しフィルタリングし、さらに誤った olm とローカライゼーションを完成させることができます。 0.61
With cooperation between BPM, the the performance of the whole network is improved OLBP J , Sλ and in in by in 7.8%/5.0% 5.2%/2.8% 6.5%/3.0% wFβ “Ba∗”/“Ba”. bpm の協力により、ネットワーク全体の性能は olbp j , sλ および in を 7.8%/5.0% 5.2%/2.8% 6.5%/3.0% wfβ “ba∗”/ “ba” で向上した。 0.74
This network the compared with baseline object demonstrates that the scheme bottom-up localization of and top-down boundary preservation is embedded successfully network. このネットワークをベースラインオブジェクトと比較すると,トップダウン境界保存とボトムアップ局所化のスキームがネットワーク内に埋め込まれていることが分かる。 0.70
baseline into the maps of segmentation the Additionally, “Ba∗” shown are the first baseline network “Ba∗” the all segments observe almost that “Ba∗+OLM” OLM, of assistance the With セグメンテーションのマップへのベースライン 上述の "Ba∗" は、最初のベースラインネットワーク "Ba∗" であり、全てのセグメントが With を補助する "Ba∗+OLM" OLM をほぼ観測する。 0.84
variants on based We Fig. We Figをベースとした変種。 0.59
in 6. images. objects in the determines 6. 画像。 determins 内のオブジェクト 0.75
e g a m I T G e g a m I T G 0.85
s r u O e g a m I s r u O e g a m I 0.85
T G s r u O T G s r u O 0.85
e g a m I T G e g a m I T G 0.85
s r u O 0.341 s r u O 0.341 0.72
Visual individuation 視覚 individuation 0.73
0.400 0.222 0.400 0.222 0.59
0.123 Fig. 0.123 フィギュア。 0.51
basic consistency. 8. 基本的な一貫性 8. 0.72
Visual properties The 0.219 0.126 Visual consistency results. 視覚特性 0.219 0.126 視覚的整合性。 0.48
There are two personal segmentation examples of individuation visual systems: visual personal of visual and the mean score. Individuation Visual Systemには視覚的パーソナライズと平均スコアの2つの例がある。 0.61
JS is image each value of JSは各値のイメージです 0.74
the on segobjects gazed objects, gazed the of location and the Finally, with mentation maps clearer. on segobjects lookingd objects, lookingd the location and the Last, with mentation map clearer. 0.67
are much “Ba+OLM” of (i.e. ba+olm”(ba+olm)がとても多い。 0.60
OLBP ours segmentation maps of of the BPM, the help are network) satisfactory. olbp 私たちのbpmのセグメンテーションマップ、ヘルプはネットワーク)が満足できます。 0.63
parts three the effective How 2. are OLM? 第3部 有効な方法 2. OLM は? 0.85
in As location analysis of OLM described in Sec. Sec.InAsにおけるOLMの位置解析 0.58
V-C, consists (i.e. V-C (複数形 V-Cs) 0.51
segmentation and unit, feature re-weighting suRe-wei) (i.e. segmentation and unit, feature re-weighting suRe-wei (i.e.) 0.76
pervision Seg sup). Pervision Seg sup)。 0.67
To effectiveness of the validate the OLM structure OLM, in parts three and the modify we of are convolutions dilated the variants: four provide four a) replaced by one convolutional layer in the analysis location (w/o dilated convs); unit b) without using response maps to (w/o multiply); re-weight image feature Re-wei c) without in Rein feature image and feature re-weighted concatenating (w/o concat); supervision segmentation without and wei d) (w/o sup). OLM 構造 OLM の有効性を検証するために、パート3 と修正は、畳み込みを拡張したものである: 4 は、解析位置 (w/o 拡張凸) において、1 つの畳み込み層 (w/o 乗法) に応答マップを使わずに置き換えられ(w/o 乗法)、再重み付き画像特徴 Re-wei c は、Rein 特徴像と特徴再重み付き連結 (w/o 乗法) を含まない。
訳抜け防止モード: 第3部におけるOLM構造OLMの有効性 変種を拡張した畳み込みです 4 は 4 つの a を提供する) 解析位置 (w/o 拡張凸) において 1 つの畳み込み層に置き換えられる。 ; unit b ) without using response map to ( w/o multiply ) ; re - weight image feature Re - wei c ) without in Rein feature image and features re - weighted concatenating ( w/o concat ) ; security segmentation without and wei d ) ( w/o sup )
0.82
Seg The ablation results are reported in Tab. アブレーション結果のsegをタブで報告する。 0.61
VI, and the detailed structures of the above four OLM variants 7. VIおよび上記の4つのOLM変種7の詳細な構造。 0.74
Fig. presented are in four the performances that discover We the variants Concretely, performance the are worse than ours. フィギュア。 提示されるのは4つのパフォーマンスで、具体的には、パフォーマンスは私たちのものより悪い。 0.53
degradation 73.7% → 72.7%) J (e g w/o dilated convs of validates : FDM thoroughly analyze that convolutions parallel the dilated cannot convolutional layer and one mine sufficient location of w/o multiply information performance drop from FDM. 分解 73.7% → 72.7%) J (e g w/o dilated convs of valids : FDM は、拡張された畳み込みは畳み込み層を平行にできないこと、また、fDM から w/o 乗算情報性能の十分な位置を十分に抽出する。 0.59
The Sλ : 81.1%→ 80.5%) (e g confirms that the location response feature CNN on objects highlight to suitable more are maps sλ : 81.1%→80.5%(例えば、オブジェクトにcnnをハイライトする位置応答は地図である。 0.63
of ですから 0.53
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 12 behind reason The is this them directly. 加工 12 後ろ 理由は、これが直接です。 0.69
using image of than of probability maps, group response maps location that are a information. 確率マップ以上の画像を用いて、情報であるグループ応答マップを配置する。 0.74
Besides, w/o rich object, without texture and color J , concat shows in 0.9% performance brings which penalty location and between balance image is that the information w/o Seg sup important. さらに、w/oリッチオブジェクトはテクスチャと色Jを含まないため、concatは0.9%のパフォーマンスで、どのペナルティ位置とバランス画像の間に、情報w/o Seg supが重要であるかを示す。 0.61
carries performance drop in 0.6% wFβ. 0.6% wfβ で性能が低下する。 0.62
This demonstrates that the segmentation supervision can objects. これはセグメンテーションの監督がオブジェクトを扱えることを示す。 0.58
gazed the representation enhance of top-down manner 3. トップダウン方式3の表現強化を見つめた。 0.61
Is it useful adopt BPM and to the in network? BPMとインネットワークの採用に役立ちますか? 0.69
prediction To investigate the of usefulness the top-down manner in prediction network, the we report BPM maps segmentation output side performance in of of output performance the Tab. 予測ネットワークにおけるトップダウン方式の有用性を検討するために,我々は,タブの出力性能に関して,bpmマップのセグメンテーション出力サイドパフォーマンスを報告する。 0.75
VII. Besides, we also report side w/o BPM in of Tab. VII。 さらに、Tabのサイドw/o BPMも報告します。 0.77
VII to evaluate the importance of BPM. 7.BPMの重要性を評価すること。 0.70
We that the quantitative results of side outputs observe S(2) S(3) (S(5) S(4) incremental are S(1)) and bpm, bpm, terms in bpm, wFβ 67.8% → 75.5% → 78.9% → bpm w/ BPM (e g both of : 79.9%→ 80.0%) Sλ : 70.4%→ 76.9%→ w/o BPM (e g and 79.8% → 80.6% → 80.7%). S(2)S(3)(S(5)S(4)増分はS(1))およびbpm,bpm(bpm, wFβ 67.8% → 75.5% → 78.9% → bpm w/BPM(egは:79.9%→ 80.0%)Sλ : 70.4%→76.9%→w/o BPM(egと79.8% → 80.6% → 80.7%)を観察した。 0.91
This confirms top-down that the differences The network. これは、ネットワークの違いをトップダウンで確認する。 0.68
prediction for useful is manner the BPM BPM w/o w/ also are and performance the between of that Tab. 有用な予測は、BPM BPM w/o w/のやり方と、そのTab間のパフォーマンスです。 0.78
reported in VII. VIIで報告された。 0.57
We discover all the differences are that negative, which shows BPM works well for each side output of the top-down prediction network. トップダウン予測ネットワークのそれぞれのサイドアウトプットでBPMがうまく機能することを示している。
訳抜け防止モード: すべての相違点が負であることに気付きました。 BPMはトップダウン予測ネットワークの各サイドアウトプットでうまく機能します。
0.70
Results Segmentation Personal D. to age and Due that the personal fixations are closely related are objects when gender, different users interested different in difference visual the We scene. 結果のセグメンテーション 個人的d. 年齢と個人的固定が密接に関連していることは、性別、異なる利用者が視覚の違いに関心を持つ場合のオブジェクトである。
訳抜け防止モード: 結果 Segmentation Personal D. to age and due that the personal fixations are close related by objects when 性別、異なるユーザー、異なる視覚性に興味を持っている。
0.78
same the observing define visual individuation. 観察は視覚的識別を定義します 0.62
of different personal systems as visual in visual the presented Some examples of individuation are multiple can 8. 視覚的な視覚的な異なるパーソナルシステムでは、複数のcan 8を分割する例が紹介されている。 0.61
We first part of Fig. observe that there are backgrounds and types different in complex of these objects are users different fixations images. 第1部はfigです これらのオブジェクトの複雑度が異なる背景や型がユーザによって異なる固定イメージであることを確認する。 0.59
The personal of located on different objects, which correspond to the distinctive GTs. 異なる対象に位置する個人は、特有のGTに対応する。 0.64
In addition, we that personal visual systems are discover visual denoted is which scenes, some in consistent also as consistency consistency. さらに,視覚系が視覚的に表現される場面を発見できることを示すとともに,一貫性の整合性も考慮する。 0.69
We show some examples of visual in the second and third parts of Fig. フィグの第2部と第3部における視覚の例を示す。 0.67
8. The images in the second part and sparse objects, and the contain simple backgrounds situation, competitive more contain part third in images the i.e. 8. 第2部の画像とスパースオブジェクト、および単純な背景状況を含む画像は、より競争力のある画像が第3部を含む。 0.82
complex background and partially selected objects. 複雑な背景と部分的に選択されたオブジェクト。 0.58
In both parts, we observe that the locations of different personal fixations are similar, resulting in the identical GTs of different users. どちらの部分でも、異なる個人的固定位置が類似していることが観察され、異なるユーザの同一のGTが得られる。 0.69
Notably, show the our method case, either in to ability segment corresponding the gazed objects consistent with the GT. 特に、GTと整合した視線オブジェクトに対応する機能セグメントのいずれにおいても、本手法の事例を示す。 0.62
analysis We also provide the quantitative of visual individJensen-Shanno n consistency with uation and diver(JS) visual two probability similarity of the evaluates JS divergence gence. また,評価対象の2つの確率類似性について,uation と diver(js) を用いた visual individjensen-shanno n の一貫性を定量的に評価する。 0.72
based distributions and it is Kullback-Leibler S2, and on S1 closer (KL) divergence. kullback-leibler s2 と s1 closer (kl) の発散に基づく分布である。 0.79
Its value belongs to 1]. その値は 1 に属する. 0.78
The its [0, value to zero, the smaller the difference between and is S1 as expressed be can It are. 0 から 0 への値が小さいほど、表されるような S1 の差は小さくなる。
訳抜け防止モード: 0 から 0 への値が小さいほど、その差は小さくなります。 and is S1 as expressed to can it is .
0.88
they similar more the and is S2 follows: JS(S1, S2) = js(s1, s2) = s2 である。 0.48
S1 + S2 S1 + S2 S1 + S2 S1 + S2 0.78
KL(S1, ) + KL(S1) ) + 0.87
KL(S2, 1 2 KL(S2) 1 2 0.86
2 1 2 2 ), (15) 2 1 2 2 ), (15) 0.81
, Pilog Ours Image CPDsod SOD GT of GCPAsod for Visual Fig. , ピログ 画像 CPDsod SOD GT of GCPAsod for Visual Fig 0.69
9. comparisons is method, which our between proposed object fixation-based state-of-the-art and segmentation, recent object salient [60], and CPD DUTSthe on [59] including methods, detection GCPA of “GT PASCAL-S OMRON that datasets. 9.我々の提案するオブジェクト固定に基づく状態とセグメンテーション,最近のオブジェクトサルエント [60] と cpd dutsthe on [59] の比較,<gt pascal-s omron of "gt pascal-s omron that datasets" のgcpaの検出。 0.76
[46] and [23] SOD” means the “CPDsod” GT is for SOD task. [46]および[23]SOD”は、SODタスクの“CPDsod”GTを意味する。 0.77
means the original CPD method for SOD. SOD のオリジナルの CPD メソッドを意味する。 0.82
“GCPAsod” means the original GCPA method for SOD. GCPAsod" は SOD のオリジナル GCPA メソッドを意味する。 0.75
(cid:18) (cid:19) N(cid:88) Pi  + KL(P, Q) =  + Qi i=1 KL(·) Kullback-Leibler where which divergence, is is often i [71]–[74], fixation in evaluation metric as used prediction an ith is the pixel in distribution, N indicates the probability the regularization pixels, total number of and is a constant. (cid:18) (cid:19) n(cid:88) pi s + kl(p, q) = s + qi i=1 kl(·) kullback-leibler ここで、発散がしばしば i[71]–[74] であり、評価基準における固定化 予測のように、ith は分布のピクセルであり、n は正規化ピクセルの確率、総数、定数を示す。 0.80
 We introduce JS to measure the fixation points similarity of fixation transform the First, we Fig. ] 固定変換の類似点を測定するために,まず,固定点の類似点をjsで測定する。 0.63
in image each maps 8. of image) Eq. in image each map 8 of image) Eq. 0.83
1; FDM using points map (green dots each to in then we compute the JS score of each two FDMs; finally we report the mean JS score for each image in Fig is obvious 8. 1;fdm 点マップ(各点がグリーンドット)を使用して、各2つのfdmのjsスコアを計算し、最後に図中の各画像の平均jsスコアを8。
訳抜け防止モード: 1 ; FDM は点マップ(各点に緑点)を使用し、各2つの FDM の JS スコアを計算する。 最後に、Figにおける各画像の平均JSスコアは、明らかに8です。
0.76
It (i.e. 0.219) and 0.126, 0.123, 0.222, scores JS the mean that consistency of images which belong to visual are relatively (i.e. の略)。 0.219) と 0.126, 0.123, 0.222) は、JS が視覚に属する画像の一貫性(すなわち、画像の一貫性)であることを意味する。 0.55
smaller than those 0.341 and 0.400) of images which belong to visual individuation. 視覚的識別に属する画像の0.341と0.400より小さい。 0.73
And the mean JS scores of consistency visual to belong which images are zero, to close the distributions of FDMs which indicates that are very similar, i.e. そして、画像が0である場合の一貫性のある視覚的なjsスコアの平均値は、fdmの分布を閉じることによって、非常に類似していることを示している。
訳抜け防止モード: そして、JSの平均的な一貫性スコアは、どの画像がゼロであるかを表す。 非常に類似していることを示すFDMの分布を閉じる。
0.74
people may look at the same object(s). 人々は同じオブジェクトを見ることができます。 0.71
(16) E. Discussions Salient Object Detection (SOD) explored is widely color in [60], [59], [75]–[77], RGB-D images images [78], and [79] [80]–[82], is videos it closely and related to our fixationthe discuss section, we this In task. (16) e. 対象物検出(SOD)は, [60], [59], [75]–[77], RGB-D画像 [78], [79] [80]–[82]で広く色付けされている。
訳抜け防止モード: (16) e. 議論 salient object detection (sod ) の検討 [60 ] では広く色分けされている。 [59 ], [75]–[77 ], rgb - d 画像 [78 ], そして[79 ] [80]–[82 ] ビデオは密接な関係にあるか? そして、修正に関する議論のセクションでは、タスクでこれを行います。
0.80
segmentation object based セグメンテーションオブジェクトベース 0.66
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 13 object segmentation between fixation-based connections and SOD. 加工 13 固定ベース接続とsod間のオブジェクトセグメンテーション。 0.70
visually attractive to highlight the most SOD aims object(s) object while in to aims segmentation fixation-based scene, a fixation the to according gazed objects the segment map, as defined in Sec. 視覚的に見て、最もsodが目指しているのはobject(s)オブジェクトで、一方toはセグメンテーション固定ベースのシーン、toは注視されたオブジェクトに従って、secで定義されているセグメンテーションマップを目立たせる。
訳抜け防止モード: セグメンテーションの固定化を目的としている間、最もsodオブジェクトをハイライトするのに視覚的に魅力的です。 固定 the to according gazed objects sec で定義されているように、セグメントマップ。
0.65
III. To illustrate the differences and connections between these two tasks, we conduct experiments on two i.e. III。 これら2つのタスクの違いと関連性を説明するために,2つのタスクについて実験を行う。
訳抜け防止モード: III。 これら2つのタスクの違いと関係を説明する。 実験を2回行います
0.73
DUTS-OMRON [46] [23], PASCAL-S SOD datasets, and comparisons with show and visual two state-of-the-art SOD i.e. DUTS-OMRON [46] [23], PASCAL-SSODデータセット, およびショーおよび視覚的2つの最先端SODとの比較 0.80
methods, CPD GCPA [60], in Fig. 図のメソッド、CPD GCPA [60]。 0.50
9, which [59] and summarizes three situations. これは[59]で、3つの状況を要約します。 0.42
First, in the rows, and 1st 2nd not our method tasks: these of differences the present we two only segments the salient objects, such as the bird and the big tent, but also segments the gazed wood stake and cloth that are not found in the GT of SOD and the results of CPD the find rows, we the Second, and GCPA. まず,本手法では,sod の gt では見当たらない木片と布,cpd のfind rows,we the second,gcpa の2つのサニエント対象物のみを分割する。
訳抜け防止モード: 第1に、行と第2のメソッドタスクは、メソッドタスクではない: これらの違いは、現在、salientオブジェクトの2つのセグメントのみである。 鳥や大きなテントのように、見つめられた木のくちばしを分断する sodのgtには見られない布が cpdの結果は2番目です そしてgcpa。
0.58
that and in 4th 3rd but results of CPD and GCPA are similar to ours, different from the GT of SOD. それと第4回では,CDDとGCPAの結果はSODのGTと異なり,我々のものと類似している。 0.76
This shows that to some extent, the results of SOD methods CPD and GCPA are consistent with exploited not fixation maps if even fixation maps, the are the we the Third, methods. このことは、SOD 法 CPD と GCPA の結果が、固定写像でさえも、We the Third メソッドである場合、悪用されない固定写像とある程度一致していることを示している。
訳抜け防止モード: これは、SOD メソッド CPD と GCPA の結果が、もし修正マップを悪用していない場合、ある程度は一致していることを示している。 固定地図さえも 三番目の方法です
0.63
in these in and rows, can 6th 5th results that clearly observe our are consistent with the fixation points in images, while the other three maps are different. これらのinと行では、画像の固定点と一致していることを明確に観察するcan 6th 5th結果が得られますが、他の3つのマップは異なります。 0.64
This shows that different SOD methods may cause confusion saliency inaccurate in resulting scenes, complicated some in maps. これは、異なるsodメソッドが、結果のシーンで不正確な混乱を招き、地図で複雑になる可能性があることを示している。 0.50
Furthermore, we find that the salient objects always appear in the of our method, while there is ambiguity among results salient different highlight SOD methods, which may different accuracy of different SOD methods, the to improve objects. さらに,sod法の精度が異なっていた場合や,改良対象の精度が異なっていた場合など,結果のあいまいさは異なるハイライトsod法で示されるのに対し,sod法では常に顕著であることがわかった。
訳抜け防止モード: さらに,本手法では,有能な物体が常に現れることがわかった。 結果にあいまいさがある一方で、異なるハイライトSODメソッドがある。 これにより、異なるSODメソッドの精度が異なり、オブジェクトを改善することができる。
0.68
So, segmentation object fixation-based the we believe that can be pre-processing a operation for salient SOD to determine the proposals. したがって、セグメント化オブジェクトの固定をベースとして、適切なSODの操作を前処理して提案を決定できると考えています。 0.61
object CONCLUSION VII. object コンキュレーションVII。 0.73
a three-step transform approach to propose In this paper, we PFOS to OSIE dataset the prediction fixation available the object The segmentation. 本稿では,提案する3段階変換手法を用いて,オブジェクトのセグメンテーションに対する予測固定をosieデータセットに設定する。 0.76
fixations-based personal for dataset promote the development of to meaningful PFOS dataset is present a segmentation. 固定ベースのパーソナルデータセットは、意味のあるPFOSデータセットの開発を促進する。 0.73
Moreover, object fixations-based we object bottom-up scheme with network OLBP novel the of and preservation localization top-down to segment boundary the gazed objects. さらに、オブジェクト固定に基づくネットワークOLBPによるボトムアップ方式は、視線オブジェクトのセグメント境界にトップダウンで局所化と保存を行う。 0.73
Our OLBP network is equipped with two essential components: the object localization module and object OLM boundary the locator, is module. 私たちのolbpネットワークは、オブジェクトローカライゼーションモジュールとオブジェクトolm境界ロケータという2つの重要なコンポーネントを備えています。 0.78
preservation analysis of charge in which is location fixations and of erroneous object enhancement. 位置固定と誤った物体強調である電荷の保存解析 0.57
BPM emphasizes localization distillation and object completeness preservation. BPMはローカライズ蒸留とオブジェクト完全性保存を強調します。 0.53
Besides, we provide comprehensive experiments of our OLBP network and which dataset, PFOS the on methods of types three other and network demonstrate our OLBP validate the excellence of the challenges of the PFOS dataset. さらに、OLBPネットワークの包括的実験を行い、どのデータセット、PFOSを他の3つのタイプのメソッドで使用し、ネットワークは、OLBPがPFOSデータセットの課題の卓越性を実証する。 0.75
In our future we work, plan apply the proposed OLBP network to some eye-control to disability, hand with lives the facilitating devices, patients of subjects we ALS and polio. 将来的には、OLBPネットワークを障害に対する視線制御に応用し、生活支援デバイス、ALS、ポリオの患者に手渡す計画を立てる。
訳抜け防止モード: 将来的には,提案されたolbpネットワークを眼に当てて,障害に対する制御を行う予定です。 生活に手を差し伸べる ファシリテーション・デバイス 被験者の患者 alsとポリオ
0.70
In plan to recruit to addition, collect fixation points and corresponding ground truths the on PASCAL VOC [45] and MS COCO [83] datasets for further segmentation. 増員計画として, PASCAL VOC [45] と MS COCO [83] のデータセットの修正点とそれに対応する真実を収集し, さらなるセグメンテーションを行う。 0.83
object fixation-based personal exploring 物体固定に基づく個人探索 0.73
[1] [2] [3] [1] [2] [3] 0.85
[4] [5] [6] [4] [5] [6] 0.85
[7] [8] [9] [7] [8] [9] 0.85
[10] [11] [12] [13] [10] [11] [12] [13] 0.85
[14] [15] [16] [14] [15] [16] 0.85
[17] [18] [19] [17] [18] [19] 0.85
[20] [21] [22] [20] [21] [22] 0.85
[23] [24] [25] [23] [24] [25] 0.85
[26] [27] REFERENCES R¨am¨a, O. [26] [27] 略称は「R」。 0.64
Le Meur, A. Coutrot, Z. Liu, P. A. Le Meur, A. Coutrot, Z. Liu, P. A。 0.93
Le Roch, and A. Helo, “Visual attention saccadic models learn to emulate gaze patterns from Process., Image Trans. le roch, and a. helo, “visual attention saccadic models to emulate gaze patterns from process., image trans.” (英語) 0.84
IEEE no. vol. IEEE No。 Vol. 0.75
adulthood,” to childhood 10, 26, 2017. 2017年10月10日、26歳の子供。 0.51
4777–4789, Oct. pp. 4777-4789, Oct。 0.83
Su, study comparison Qin, J. Mahdi, A. M. M. Schlesinger, and “A IEEE prediction of saliency models for fixation on infants and adults,” Trans. Su, study comparison Qin, J. Mahdi, A. M. M. Schlesinger, and A IEEE prediction of saliency model for fixation for infants and adult”. Trans。 0.86
Cogn. Devel. Cogn Devel 0.48
Syst., vol. Syst., vol. 0.85
10, no. 3, pp. 485–498, Sep. 2018. 10だ 3、p。 485-498、2018年9月。 0.50
R. Miltner, H. and W. Straube, T. Hecht, H. R. Hewig, J. Trippe, H. at men looking regions when specific for “Gender differences body and J. r. miltner, h. and w. straube, t. hecht, h. r. hewig, j. trippe, h. at men looking regions when specific for "gender difference body and j." (英語)
訳抜け防止モード: R. Miltner, H. and W. Straube, T. Hecht, H. R. Hewig J. Trippe, H. at men looking region when specific for "Gender difference body and J。
0.95
Nonverbal Behav., 2008. 2008年、非言語化。 0.50
Jun. 2, no. Jun 2位はノー。 0.62
32, women,” vol. pp. 32歳,女性。 pp. 0.66
67–78, Johansson, gazeN. 67-78, Johansson, gazeN。 0.82
Alwall, D. and S. Hansen, “The gender difference in Pers. Alwall、D.、S. Hansenは次のように述べている。 0.61
Individ. cueing: Associations with empathizing and systemizing,” Differ., vol. Individ cueing: Associations with empathizing and systemizing”. Differ., vol. 0.68
49, no. 7, pp. 49、ノー。 7, pp。 0.78
729–732, Nov. 2010. affects Individuality saliency: visual “Personalized Chen, Z. and Li A. 729-732, Nov. 2010年11月, 視覚的「パーソナライズされたチェン、Z、Li A」の個性に影響を及ぼす。 0.52
Access, IEEE 2018. IEEE 2018に登場。 0.63
Jan. 16 099–16 109, image perception,” 6, pp. 1月16日 099–16 109, image perception”, 6, pp。 0.83
vol. “Personalized Gao, Y. Xu, S. J. Wu, N. and J. Yu, saliency and its Li, IEEE Trans. Vol. Personalized Gao, Y. Xu, S. J. Wu, N. and J. Yu, saliency and its Li, IEEE Trans。 0.79
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., prediction,” 41, no. 12, pp. と41、ノーだ。 12、p。 0.49
vol. 2975–2989, Dec. 2019. and M.-P. Y. Boykov boundary optimal for graph “Interactive Jolly, cuts Proc. Vol. 2975-2989, 2019年12月, m.-p. y. boykov 境界はグラフ "interactive jolly, cut proc" に最適である。
訳抜け防止モード: Vol. 2975-2989, December 2019, and M.-P. Y. Boykov boundary optimal for graph "Interactive Jolly, をカットする。
0.70
IEEE ICCV, in N-D in objects segmentation region of images,” 105–112. IEEE ICCV, in N-D in objects segmentation region of image”105–112。 0.91
pp. Jul. 2001, IEEE Trans. pp. Jul 2001年、IEEE Trans。 0.70
Pattern segmentation,” image for “Random walks L. Grady, Anal. パターンセグメンテーション”のイメージは、“Random walk L. Grady, Anal.”だ。 0.77
Mach. Intell., 2006. Mach 2006年、同上。 0.54
1768–1783, Nov. no. 1768-1783年、ノー。 0.64
vol. 28, 11, pp. Vol. 28、11、p。 0.67
framework matting: X. Bai and Sapiro, “Geodesic A fast G. for J. Int. フレームワークのマッチング: X. Bai, Sapiro, “Geodesic A fast G. for J. Int”。 0.82
Comput. and matting,” segmentation video and image interactive Vis., 2009. Comput and matting” (2009年、セグメンテーションビデオと画像インタラクティブvis.)。 0.62
113–132, Apr. 113-132, Apr。 0.69
pp. vol. 82, no. pp. Vol. 82だ 0.64
2, interactive “Robust T. N. A. Nguyen, J. Cai, J. Zhang, and J. Zheng, IEEE Trans. 対話的な“Robust T.N.A. Nguyen, J. Cai, J. Zhang, J. Zheng, IEEE Trans”だ。 0.79
Image image segmentation using convex active contours,” Process., vol. 凸活性輪郭を用いた画像分割 0.38
21, no. 8, pp. 21だ 8, pp。 0.60
3734–3743, Aug. 2012. 3734-3743, 2012年8月。 0.50
Falc˜ao, “Hybrid Xavier A. and de P. T. Miranda, A. Spina, V. V. approaches segmentation for interactive image using the live markers Image Process., IEEE Trans. falc sao, “hybrid xavier a. and de p. t. miranda, a. spina, v. v. approach for segmentation for interactive image using the live markers image process., ieee trans。 0.77
5756–5769, 12, 23, vol. 5756-5769, 12, 23 vol。 0.75
paradigm,” no. pp. 2014. とノー。 pp. 2014. 0.65
Dec. Cohen, J. Dec. Cohen, J。 0.95
“Deep N. B. Price, Yang, and T. Huang, interactive Xu, S. Proc. ディープN.B。 Price, Yang, T. Huang, Interactive Xu, S. Proc 0.66
IEEE CVPR, object selection,” Jun. IEEE CVPR、オブジェクトの選択です。 0.59
2016, pp. 373–381. 2016年、p。 373–381. 0.71
in J. Liew, Y. Wei, W. Xiong, S.-H. Ong, interactive “Regional J. Feng, and ICCV, Proc. J. Liew, Y. Wei, W. Xiong, S.-H. Ong, Interactive “Regional J. Feng, and ICCV, Proc。 0.90
IEEE 2017, in networks,” segmentation image Oct. pp. IEEE 2017 in network”. segmentation image Oct. pp. 0.83
2746–2754. 2746–2754. 0.71
with segmentation image “Interactive Koltun, and Q. V. Chen, Z. Li, Proc. セグメンテーションのイメージは“Interactive Koltun, and Q. V. Chen, Z. Li, Proc.”。 0.77
IEEE CVPR, diversity,” latent in Jun. ieee cvpr, diversity”, latent in jun. 0.49
2018, pp. 577–585. 2018年、p。 577–585. 0.60
S. Mahadevan, P. Voigtlaender, and B. Leibe, “Iteratively trained interBMVC, Proc. S. Mahadevan, P. Voigtlaender, and B. Leibe, “Iteratively trained interBMVC, Proc.”。 0.89
2018. Sep. segmentation,” active in W.-D. backvia segmentation and C.-S. “Interactive image Jang Kim, CVPR, IEEE Proc. 2018. Sep. segmentation” は W.-D. backvia segmentation と C.-S. “Interactive image Jang Kim, CVPR, IEEE Proc. で活動している。 0.79
Jun. in scheme,” refinement propagating 2019, pp. Jun イン・スキーム(in scheme)”. 2019, pp. 0.62
5292–5301. 5292–5301. 0.71
Y. Hu, A. Soltoggio, R. Lock, and S. Carter, “A fully convolutional Neural segmentation,” image interactive network two-stream fusion for Netw., Jan. 31–42, 109, 2019. vol. y. hu, a. soltoggio, r. lock, and s. carter, “a full convolutional neural segmentation”, image interactive network two-stream fusion for netw., january 31–42, 109, 2019. ニューラルセグメンテーション。 0.80
pp. Rother, C. Interactive “‘GrabCut’: A. Kolmogorov, and Blake, V. Trans. pp. Rother, C. Interactive “‘GrabCut’: A. Kolmogorov, Blake, V. Trans 0.85
ACM Graph., cuts,” foreground extraction using iterated graph vol. acm graph., cut”, foreground extraction using iterated graph vol. 0.75
23, no. 3, pp. 309–314, Aug. 2004. 23歳。 3、p。 309-314, 2004年8月。 0.54
Sharp, V. Lempitsky, P. Kohli, C. Rother, and T. “Image segmentation ICCV, IEEE Proc. Sharp、V. Lempitsky、P. Kohli、C. Rother、そしてT. “Image segmentation ICCV、IEEE Proc。 0.90
277– Sep. in box bounding with 2009, prior,” a pp. 277-sep. in box bounding with 2009”. pp. (英語) 0.76
284. grabcut Huang, and Yang, J. Cohen, S. B. T. N. Xu, Price, “Deep for Proc. 284. HangとYang, J. Cohen, S. B. T. N. Xu, Price, “Deep for Proc.”。 0.80
BMVC, 1–12. BMVC, 1-12。 0.72
object selection,” in Sep. 2017, pp. 物選考』、2017年、p.p.。 0.55
R. Shi, K. N. Ngan, S. Li, and H. Li, “Interactive object segmentation Commun., Image Signal Process. R. Shi, K. N. Ngan, S. Li, H. Li, “Interactive object segmentation Commun., Image Signal Process” 0.95
107–114, 65, vol. 107-114, 65, vol。 0.68
phases,” two in pp. フェーズズ』で2位。 0.37
2018. Jul. Aloimonos, Mishra, K. A. 2018. Jul Aloimonos, Mishra, K. A。 0.76
“Active Kassim, A. F. L. Y. Cheong, and Anal. Active Kassim、A.F.L.Y. Cheong、Anal。 0.69
Mach. Pattern IEEE Trans. Mach Pattern IEEE Trans。 0.65
Intell., visual segmentation,” vol. Intell., visual segmentation”。 0.57
34, 639–653, Apr. 34, 639-653, Apr。 0.82
no. 4, pp. ダメよ 4, pp。 0.67
2012. L. Y. Li, X. C. Koch, J. M. Rehg, and A. Yuille, “The secrets Hou, CVPR, IEEE Proc. 2012. L. Y. Li, X. C. Koch, J. M. Rehg, A. Yuille, “The Secrets Hou, CVPR, IEEE Proc.”。 0.86
in segmentation,” salient of pp. セグメンテーションで”。 0.18
2014, Jun. 2014年、ジュン。 0.68
object 280–287. 対象280-287。 0.62
IEEE object Shi, N. K. Ngan, segmentation,” “Gaze-based and H. Li, R. Process. IEEEオブジェクトShi, N. K. Ngan, segmentation, “Gaze-based and H. Li, R. Process”。 0.87
Signal Lett., 10, vol. Signal Lett., 10, vol. 0.85
24, no. pp. 24時24分 pp. 0.63
1493–1497, Oct. 2017. and W. Wei, Z. Liu, G. Li, R. Shi, “Constrained fixation point based Neurocomputing, vol. W. Wei, Z. Liu, G. Li, R. Shi, “Constrained Fixation point based Neurocomputing, vol.
訳抜け防止モード: 1493-1497, 2017年10月, W. Wei, Z. Liu G. Li, R. Shi, “Constrained Fixation Point based Neurocomputing,vol.
0.86
network,” via segmentation pp. network” は segmentation pp. による。 0.77
368, neural deep 2019. 368、neural deep 2019。 0.71
180–187, Nov. “Predicting Zhao, and Q. S. Wang, M. Jiang, J. Xu, M. S. Kankanhalli, J. 180-187, Nov. “Predicting Zhao, and Q.S. Wang, M. Jiang, J. Xu, M.S. Kankanhalli, J. 0.86
Vis., 2014. 2014年、デビュー。 0.61
Jan. 1–20, pp. 1月1~20日、p。 0.45
no. vol. pixels,” human gaze beyond 14, 1, M. Jian and C. Jung, segmentation using adaptive “Interactive image IEEE Trans. ダメよ Vol. 画像は“Interactive image IEEE Trans”で、14.1M.JianとC.Jungを超越して、セグメンテーションを行う。
訳抜け防止モード: ダメよ Vol. 人間の視線は14, 1, M. Jian. そしてC.Jung, 適応型“Interactive image IEEE Trans”によるセグメンテーション。
0.69
Image Process., constraint propagation,” vol. Image Process., constrain propagation”。 0.56
25, no. 3, pp. 2016. 25だ 3、p。 2016. 0.62
1301–1311, Mar. 1301-1311年、マル。 0.56
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 14 [28] 加工 14 [28] 0.73
[29] [30] [31] [29] [30] [31] 0.85
[32] [33] [34] [32] [33] [34] 0.85
[35] [36] [37] [35] [36] [37] 0.85
[38] [39] [40] [38] [39] [40] 0.85
[41] [42] [43] [44] [41] [42] [43] [44] 0.85
[45] [46] [47] [45] [46] [47] 0.85
[48] [49] [50] [51] [48] [49] [50] [51] 0.85
[52] “Probabilistic [52] 「確率的」 0.62
diffusion vol. J. Yang, Z. and Ji, Sun, Q. for T. Wang, Image IEEE Trans. 拡散VV J. Yang, Z. and Ji, Sun, Q. for T. Wang, Image IEEE Trans 0.65
Process., image segmentation,” 28, interactive 330–342, Jan. 2019. no. Process., image segmentation”. 28 Interactive 330–342, January 2019. No. 0.91
1, pp. “Hands-free Atkins, and Hamarneh, M. Tien, G. S. G. Sadeghi, M. Imaging in SPIE Medical segmentation using eyegaze,” image interactive Computer-Aided Diagnosis, 2009: 441–450. 1、p。 Hands-free Atkins, and Hamarneh, M. Tien, G. S. G. Sadeghi, M. Imaging in SPIE Medical segmentation using eyegaze”, Image Interactive Computer-Aided diagnosis, 2009: 441–450。 0.77
2009, 7260, Mar. 2009年、7260頁。 0.62
vol. pp. Bergstr¨om, N. Kragic, “Using symmetry to select D. G. Kootstra, and Proc. Vol. pp. Bergstr, N. Kragic, “Ising symmetric to select D. G. Kootstra, and Proc”。 0.81
IEEE ICPR, Aug. fixation points segmentation,” in 2010, pp. IEEE ICPR, Aug. Fixation Point segmentation”. 2010年, pp. 0.87
for 3894–3897. 3894-3897。 0.62
X. segmenimage point-based Fixation C. Tian “Point-cut: Jung, and ICIP, IEEE Proc. X. segmenimage point-based Fixation C. Tian “Point-cut: Jung, and ICIP, IEEE Proc. 0.88
2015, Sep. in random walk model,” using tation pp. 2015年 - ランダムウォークモデル「sep. in random walk model」を発表。 0.56
2125–2129. 2125–2129. 0.71
H. N. Khosravan, B. Turkbey, R. Cheng, E. McCreedy, Celik, M. McAuliffe, Bednarova, S. E. Jones, X. Chen, P. Choyke, B. H. N. Khosravan, B. Turkbey, R. Cheng, E. McCreedy, Celik, M. McAuliffe, Bednarova, S. E. Jones, X. Chen, P. Choyke, B。 0.89
Wood, and U. Bagci, eye-tracking for study “Gaze2Segment: A pilot integrating in MICCAIW, 2017, Jul. wood, and u. bagci, eye-tracking for study “gaze2segment: a pilot integration in miccaiw, 2017”。 0.75
segmentation,” image into medical technology pp. image into medical technology pp. ^ “segmentation” 画像。 0.76
94–104. salient fusion “Adaptive X. and N. Wang Gong, for RGB-D object IEEE Access, pp. 94–104. Adaptive X. and N. Wang Gong, for RGB-D object IEEE Access, pp. 0.77
7, detection,” vol. とvol.7は言った。 0.43
55 277–55 284, May 2019. 55 277-55 284, 2019年5月。 0.68
Y. Wang, X. Zhao, X. Hu, Y. Li, and K. Huang, “Focal boundary guided IEEE Trans. Y.Wang、X.Zhao、X. Hu、Y. Li、K. Huangは次のように述べている。 0.64
Image Process., pp. Image Process., pp. 0.85
28, vol. detection,” object salient 6, no. 28巻。 検出”、object salient 6、no。 0.49
2019. Jan. 2813–2824, cross “Stacked for network refinement Huang, Z. Wu, L. Su, and Q. Proc. 2019. 1月2813-2824, cross “Stacked for network refinement Huang, Z. Wu, L. Su, Q. Proc.”。 0.81
IEEE ICCV, in edge-aware salient object detection,” Oct. 2019, pp. IEEE ICCV, in edge-aware salient object detection”. 2019年10月, pp. 0.92
7263–7272. 7263–7272. 0.71
Fan, D.-P. Liu, Zhao, J.-X. Fan, D.-P. Liu, Zhao, J.-X 0.81
Cheng, and Yang, Cao, Y. J.-J. Cheng, and Yang, Cao, Y. J.-J 0.96
M.-M. J. Proc. m.-m.j. proc。 0.48
in detection,” object salient for network guidance Edge “EGNet: IEEE ICCV, Oct. 8778–8787. ネットワークガイダンス エッジ “EGNet: IEEE ICCV, Oct.8778–8787.” のオブジェクト値。 0.76
pp. 2019, Wang, G. M. H. Ding, X. Jiang, A. Q. Liu, N. Thalmann, and Proc. pp. 2019年、Wang、G.M.H. Ding、X. Jiang、A.Q. Liu、N. Thalmann、Proc。
訳抜け防止モード: pp. 2019, Wang, G. M. H. Ding, X. Jiang A. Q. Liu , N. Thalmann , Proc 。
0.89
segmentation,” “Boundary-aware feature propagation for scene in IEEE ICCV, Oct. 2019, pp. セグメンテーション, “boundary-aware feature propagation for scene in ieee iccv, october 2019, pp。 0.62
6818–6828. 6818–6828. 0.71
“Saliency Nebout, A. W. Meur, and Z. “Saliency Nebout, A. W. Meur, Z。 0.79
Le O. Huang, L. Liu, Wei, via multi-level prediction features and deep supervision for children with IEEE ICME Grand Challenges, in Proc. Le O. Huang, L. Liu, Wei, via multi-level prediction features and Deep supervision for children with IEEE ICME Grand Challenges, in Proc. 0.97
autism spectrum disorder,” Jul. 自閉症スペクトラム障害だ”、とJulは語る。 0.48
621–624. 2019, pp. 621–624. 2019年、p。 0.75
X. H.-Q. Yu, S.-M. and W. Chen, Yang, M.-L. Shyu, Sun, N.-S. Yin, information and image “Integrating human–robot textual interactions in Trans. X. H.-Q。 Yu, S.-M. and W. Chen, Yang, M.-L. Shyu, Sun, N.-S. Yin, information and image “Integrating human-robot textual interaction in Trans。 0.73
Multimedia, IEEE disorder,” spectrum autism with children for 2019. vol. 2019年の子どものスペクトラム自閉症は、マルチメディア、IEEEの障害だ。 0.70
no. 3, pp. 746–759, Mar. ダメよ 3、p。 746-759 マル。 0.66
21, Silling, Fasshauer, K. T. Agtzidis, J. E. Silberg, I. M. Startsev, of “Free exploration A. Sprenger, M. Dorr, and R. Lencer, visual natural Eur. 21) Silling, Fasshauer, K. T. Agtzidis, J. E. Silberg, I. M. Startsev, “Free Exploring A. Sprenger, M. Dorr, R. Lencer, visual natural Eur.”。 0.88
Arch. Psychiatry Clin. Arch 精神科医。 0.56
Neurosci., movies in schizophrenia,” vol. 精神分裂病の映画『Neurosci.』。 0.56
pp. 269, 2019. pp. 269, 2019. 0.85
407–418, 4, Jun. 407-418、ジュン。 0.51
no. Bielikov´a, Smolejov´a, Cs´oka, Heretik, M. A. E. R. J. Polec, Vargic, F. M. Svrˇcek, and R. M´oro, spectrum disorders schizophrenia “Detection of AICT, Proc. ダメよ Bielikov ́a, Smolejov ́a, Cs ́oka, Heretik, M. A. E. R. J. Polec, Vargic, F. M. Svr.cek, R. M ́oro, spectrum disorders schizophrenia “Detection of AICT, Proc”。 0.65
IEEE using saliency maps,” in Sep. 2017, pp. ieee using saliency maps” in sep. 2017 pp. (英語) 0.66
1–5. T. Judd, K. Ehinger, F. Durand, and A. Torralba, “Learning predict to ICCV, IEEE Proc. 1–5. t. judd, k. ehinger, f. durand, a. torralba, “学習はiccv, ieee procに予測する。
訳抜け防止モード: 1–5. T. Judd, K. Ehinger, F. Durand, A. Torralba ICCV、IEEE Procに予測を学習する。
0.76
Sep. look,” humans where 2106–2113. 人間は2106-2113人。 0.43
in pp. 2009, in Saliency “SALICON: Zhao, and Duan, J. Huang, Jiang, M. S. Q. CVPR, Proc. pp. 2009年のSaliency “SALICON: Zhao, and Duan, J. Huang, Jiang, M.S. Q. CVPR, Proc.” では、こう述べている。
訳抜け防止モード: pp. 2009年、Saliency “SALICON: Zhao, and Duan”に登場。 J. Huang, Jiang, M.S. Q. CVPR, Proc
0.70
IEEE 1072–1080. IEEE 1072-1080。 0.64
pp. 2015, in context,” Jun. pp. とJuunは言う。 0.52
McGuinness of evaluation K. and N. E. O’Connor, “A comparative Pattern Recognit., 43, interactive segmentation algorithms,” vol. mcguinness of evaluation k. and n. e. o'connor, “a comparison pattern recognit., 43, interactive segmentation algorithms” (英語) 0.77
no. 2, pp. 434–444, Feb. 2010. ダメよ 2、p。 434-444, 2010年2月。 0.59
J. Winn, I. Williams, C. Gool, Van L. Everingham, M. ZisA. J. Winn, I. Williams, C. Gool, Van L. Everingham, M. ZisA 0.95
and K. Int. そしてK. Int。 0.76
J. challenge,” serman, object “The PASCAL visual classes (voc) Comput. J. Challenge, serman, object “The PASCAL visual class (voc) Comput”。 0.82
Vis., 303–338, 2, pp. 原著、303-338, 2, pp。 0.63
vol. 88, no. Vol. 88、ノー。 0.71
Jun. 2010. “Saliency detection C. Yang, L. Zhang, H. Lu, X. Ruan, and M.-H. Yang, in Proc. Jun 2010. Proc. “Saliency detection C. Yang, L. Zhang, H. Lu, X. Ruan, M.-H. Yang, in Proc.” 0.72
IEEE CVPR, Jun. IEEE CVPR、Jun。 0.76
2013, graph-based manifold via ranking,” pp. 2013年、グラフベースの多様体がランク付けされた。 0.51
3166–3173. 3166–3173. 0.71
Borji, M.-M. A. detection: object “Salient and Jiang, H. Cheng, Li, J. Borji, M.-M. A. detection: object “Salient and Jiang, H. Cheng, Li, J。 0.90
Process., Image Trans. Process., Image Trans 0.64
IEEE 5706– no. IEEE 5706 - No。 0.91
24, vol. A benchmark,” 12, pp. 24巻。 と12, pp。 0.39
5722, Dec. 2015. object “Salient Ling, J. W. Q. Lai, H. Fu, Shen, and H. Wang, arXiv preprint detection in the deep learning era: An in-depth survey,” arXiv:1904.09146, 2019. and Z. saliency novel A tree: “Saliency Le O. W. Meur, Liu, Zou, Process., Image Trans. Salient Ling, J. W. Q. Lai, H. Fu, Shen, and H. Wang, arXiv preprint detection in the Deep Learning era: An in-deepth survey, arXiv:1904.09146, 2019. and Z. saliency novel A tree: “Saliency Le O. W. Meur, Liu, Zou, Process., Image Trans”. 2015年12月5日閲覧。 0.88
IEEE 23, detection framework,” vol. IEEE 23は、検出フレームワークだ。 0.56
no. 5, pp. ダメよ 5, pp。 0.67
1937–1952, May 2014. 1937-1952年5月。 0.69
K. Simonyan and A. Zisserman, deep convolutional networks for “Very arXiv:1409.1556, preprint arXiv 2014. image large-scale recognition,” L. Yuille, and A. I. Kokkinos, K. Murphy, Papandreou, Chen, G. L.-C. convolutional segmentation with image Semantic “DeepLab: deep nets, Pattern Trans. K. Simonyan, A. Zisserman, deep convolutional network for “Very arXiv:1409.1556, preprint arXiv 2014 image large-scale recognition”. L. Yuille, and A. I. Kokkinos, K. Murphy, Papandreou, Chen, G. L.-C. convolutional segmentation with image Semantic “DeepLab: Deep nets, Pattern Trans.”. インターネット・ムービー・データベース(英語)
訳抜け防止モード: K. Simonyan and A. Zisserman, Deep Convolutional Network for “Very arXiv:1409.1556” preprint arXiv 2014 . image large - scale recognition, ”L. Yuille, A. I. Kokkinos, K. Murphy, Papandreou, Chen G. L.-C. convolutional segmentation with image Semantic “DeepLab : Deep nets, Pattern Trans
0.92
IEEE atrous connected convolution, fully and CRFs,” Anal. ieee atrous connected convolution, full and crfs”とanalは語る。 0.58
Mach. Intell., 834–848, Apr. Mach 834-848, apr。 0.51
vol. 40, no. 2018. Vol. 40だ 2018. 0.64
4, pp. F. Yu and Koltun, “Multi-scale context aggregation by dilated V. ICLR, May Proc. 4, pp。 F. Yu, Koltun, “Multi-scale context aggregate by dilated V. ICLR, May Proc。 0.82
2016. in convolutions,” 2016年、コンボリューション。 0.53
[53] [54] [55] [53] [54] [55] 0.85
[56] [57] [58] [56] [57] [58] 0.85
[59] [60] [61] [59] [60] [61] 0.85
[62] [63] [64] [65] [62] [63] [64] [65] 0.85
[66] [67] [68] [66] [67] [68] 0.85
[69] [70] [71] [72] [69] [70] [71] [72] 0.85
[73] [74] [75] [73] [74] [75] 0.85
[76] [77] [78] [76] [77] [78] 0.85
[79] IEEE Proc. [79] IEEE Proc 0.73
detection,” edge “Holistically-nested Z. Tu, S. and Xie in ICCV, Dec. 1395–1403. ICCVのZ. Tu, S. and Xie, Dec. 1395–1403。 0.51
pp. 2015, parsing Qi, X. Shi, and X. Wang, H. Zhao, J. Jia, J. pp. 2015年、Qi、X. Shi、X. Wang、H. Zhao、J. Jia、Jを解析。 0.83
“Pyramid scene Proc. とPyramid scene Proc。 0.66
CVPR, IEEE 6230–6239. CVPR、IEEE 6230-6239。 0.63
pp. Jul. network,” 2017, in deep “SegNet: Cipolla, R. and V. A Badrinarayanan, A. Kendall, convolutional segmentation,” encoder-decoder architecture for image IEEE Trans. pp. Jul SegNet: Cipolla, R. and V. A Badrinarayanan, A. Kendall, convolutional segmentation”, encoder-decoder architecture for image IEEE Trans。
訳抜け防止モード: pp. Jul ディープ “SegNet: Cipolla, R. and V. A Badrinarayanan”. 2017年3月1日閲覧。 A. Kendall, convolutional segmentation, ” encoder - Image IEEE Trans 用のデコーダアーキテクチャ。
0.72
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., 2481–2495, pp. 2481-2495, pp。 0.54
no. vol. 39, 12, Dec. 2017. ダメよ Vol. 2017年12月12日、39。 0.65
H. Shi, Z. Zhang, X. Wang, A. Tyagi, and Zhang, K. Dana, J. Proc. H. Shi, Z. Zhang, X. Wang, A. Tyagi, Zhang, K. Dana, J. Proc 0.96
in segmentation,” A. encoding “Context Agrawal, semantic for IEEE CVPR, 7151–7160. セグメンテーションでは”Context Agrawal, semantic for IEEE CVPR, 7151–7160”をコードする。 0.82
2018, Jun. 2018年、ジュン。 0.46
pp. “Encoderand H. Adam, L.-C. Chen, Y. Zhu, G. Papandreou, F. Schroff, convolution decoder with atrous separable for semantic image segmenProc. pp. Encoderand H. Adam, L.-C. Chen, Y. Zhu, G. Papandreou, F. Schroff, convolution decoder with atrous separable for semantic image segmenProc。 0.88
ECCV, tation,” 833–851. ECCV, tation, 833–851。 0.81
in Sep. 2018, pp. 2018年9月、p。 0.54
T. Cheng, B. Xiao, D. Jiang, Zhao, B. T. Cheng, B. Xiao, D. Jiang, Zhao, B 0.94
Sun, Y. K. Liu, Y. Mu, X. Wang, labeling pixels “High-resolution representations and J. Wang, W. Liu, for CVPR, IEEE Proc. Sun, Y. K. Liu, Y. Mu, X. Wang, labeling pixels “High- resolution representations and J. Wang, W. Liu, for CVPR, IEEE Proc。 0.92
2019. Jul. regions,” and in and for decoder fast “Cascaded Z. Wu, L. and Q. Huang, Su, partial Proc. 2019. Jul およびデコーダの高速“Cascaded Z. Wu, L. and Q. Huang, Su, partial Proc”について。
訳抜け防止モード: 2019. Jul region, ” and in and for decoder fast “Cascaded Z. Wu, L. and Q. Huang , Su , partial Proc 。
0.77
IEEE CVPR, 2019, accurate salient object detection,” in Jun. IEEE CVPR, 2019, accurate salient object detection”[原文へ]。 0.66
pp. 3902–3911. pp. 3902–3911. 0.78
Q. Chen, Z. context-aware Q. and Cong, “Global Huang, R. Xu, Proc. Q. Chen, Z. context-aware Q. and Cong, “Global Huang, R. Xu, Proc.”。 0.81
detection,” in object salient progressive aggregation network for AAAI, Feb. 2020. and R. Sutskever, N. Srivastava, G. Hinton, A. Krizhevsky, I. Salakhutnetworks A simple way neural dinov, “Dropout: prevent from overto Learn. method salient progressive aggregation network for aaai, feb. 2020. and r. sutskever, n. srivastava, g. hinton, a. krizhevsky, i. salakhutnetworks a simple way neural dinov, “dropout: prevent to over to learn”. と題された。
訳抜け防止モード: AAAIのための対象有向進行集約ネットワークにおける「検出」 2月とR. Sutskever, N. Srivastava, G. Hinton A. Krizhevsky, I. Salakhutnetworks A simple way neural dinov, “ Dropout :” 学ぶことを防ぐ。
0.88
J. Mach. Res., 2014. J. Mach 2014年、同上。 0.77
Jun. 1929–1958, no. Jun 1929-1958年。 0.65
15, vol. fitting,” pp. 15、Vol。 とp。 0.46
1, X. Glorot of difficulty and Y. Bengio, “Understanding the training deep AISTATS, May Proc. と、Y. Bengio氏は述べている。 0.16
pp. 2010, in networks,” neural feedforward 249– 256. pp. とneural feedforward 249–256である。 0.63
Shelhamer, J. Y. Jia, E. J. Donahue, S. Karayev, Long, R. Girshick, S. Guadarrama, and T. Darrell, “Caffe: Convolutional architecture for ACM MM, Nov. Proc. shelhamer, j. y. jia, e. j. donahue, s. karayev, long, r. girshick, s. guadarrama, t. darrell, “caffe: convolutional architecture for acm mm, nov. proc”。
訳抜け防止モード: Shelhamer, J. Y. Jia, E. J. Donahue, S. Karayev Long, R. Girshick, S. Guadarrama, T. Darrell カフェ : ACM MM, Nov. Proc の進化的アーキテクチャ
0.89
2014, embedding,” feature fast 675–678. 2014年版は675-678。 0.45
pp. in stochastic L. learning Bottou, “Large-scale machine with gradient deCOMPSTAT, Aug. Proc. pp. In stochastic L. learning Bottou, “Large-scale machine with gradient deCOMPSTAT, Aug. Proc.”。 0.85
pp. 2010, scent,” in 177–186. pp. 2010年は177-186。 0.68
“Structure-measure: D.-P. 構造測定:d.-p。 0.66
Fan, M.-M. Cheng, Y. Liu, T. Li, and A. Borji, ICCV, Proc. Fan, M.-M. Cheng, Y. Liu, T. Li, A. Borji, ICCV, Proc 0.94
IEEE A new way to evaluate foreground maps,” in Oct. 4548–4557. IEEEは、フォアグラウンドマップを評価する新しい方法だ。 0.51
pp. 2017, foreground evaluate “How to and A. Tal, R. Margolin, L. Zelnik-Manor, CVPR, IEEE Proc. pp. 2017年、フォアグラウンドは“How to and A. Tal, R. Margolin, L. Zelnik-Manor, CVPR, IEEE Proc”を評価した。 0.77
pp. 2014, Jun. pp. 2014年、ジュン。 0.77
maps,” in 248–255. 地図」は248-255。 0.74
Gong, and Cheng, D.-P. Cao, B. Ren, M.-M. A. Borji, Fan, C. Y. Gong, and Cheng, D.-P. Cao, B. Ren, M.-M. A. Borji, Fan, C. Y. 0.82
“Enhanced-alignment measure for binary foreground map evaluation,” Proc. Proc. Proc. Proc. Proc. Proc. Proc. 0.21
IJCAI, in Jul. IJCAI、Jul。 0.54
2018, pp. 698–704. 2018年、p。 698–704. 0.60
“ICNet: and H. Ling, G. Li, Z. Liu, network conversion Information for Process., Trans. ICNet: and H. Ling, G. Li, Z. Liu, Network conversion Information for Process., Trans。 0.84
IEEE Image detection,” object salient based RGB-D vol. RGB-D vol. IEEEイメージ検出”。 0.61
pp. 4873–4884, Mar. pp. 4873-4884 マル。 0.74
2020. 29, G. Li, Z. Liu, L. Ye, Y. Wang, and H. Ling, “Cross-modal weighting in Proc. 2020. 29. G. Li, Z. Liu, L. Ye, Y. Wang, H. Ling, “Cross-modal weighting in Proc.”。 0.85
ECCV, Aug. 2020, network for RGB-D salient object detection,” 665–681. ECCV, Aug. 2020, network for RGB-D salient object detection”. 665–681。 0.87
pp. histograms,” gray-level from selection threshold “A N. method Otsu, Cybern., Syst. pp. ヒストグラム”は、選択しきい値からグレーレベルに“A N. method Otsu, Cybern., Syst.”。 0.79
Man Trans. IEEE 62–66, vol. トランスマン。 IEEE 62-66, vol。 0.69
pp. 9, no. 1, Jan. 1979. pp. 9番だ 1979年1月1日。 0.64
Trans. IEEE “Deep J. Shen, and W. Wang attention prediction,” visual Image Process., 27, vol. トランス。 IEEE “Deep J. Shen, and W. Wang attention prediction” Visual Image Process. 27巻。 0.72
no. 5, pp. ダメよ 5, pp。 0.67
2368–2378, May 2018. 2368-2378, 2018年5月。 0.47
M. Cornia, L. Baraldi, G. Serra, and R. “Predicting human Cucchiara, IEEE Trans. M. Cornia、L. Baraldi、G. Serra、そしてR. “Predicting human Cucchiara, IEEE Trans”。 0.86
attentive model,” saliency an LSTM-based via eye fixations Image Process., 5142–5154, Oct. pp. attentive model", saliency a LSTM-based via eye fixations Image Process., 5142–5154, Oct. pp. 0.97
vol. no. 27, 2018. Vol. ダメよ 27, 2018. 0.69
10, Liu, eye predict to N. J. Han, T. Liu, X. Li, fixations and “Learning IEEE Trans. 10. Liu, eye predict to N. J. Han, T. Liu, X. Li, Fixations and “Learning IEEE Trans”。 0.95
Neural networks,” via multiresolution convolutional neural Netw. ニューラルネットワーク”は、マルチレゾリューション畳み込みニューラルネットワークを経由する。 0.65
Learn. Syst., vol. 学ぶ。 Syst., vol. 0.75
29, no. 2, pp. 392–404, Feb. 2018. and G. X. Min, Zhai, Borji, A. 29歳。 2、p。 392-404, 2018年2月, G. X. Min, Zhai, Borji, A 0.62
Z. “How Callet, L. G. Che, is P. Guo, IEEE transformations? Z。 Callet, L. G. Che, is P. Guo, IEEE Transformations? 0.80
image influenced gaze by Dataset and model,” Process., Image Trans. image influence gaze by dataset and model”, process., image trans。 0.72
vol. 2020. Vol. 2020. 0.77
2287–2300, pp. 2287-2300, pp。 0.58
29, and cut-based Yang, K. Fu, C. Gong, I. Y.-H. Gu, J. K. Fu, C. Gong, I. Y.-H. Gu, J。 0.56
“Normalized IEEE Trans. Normalized IEEE Trans。 0.60
saliency detection by adaptive multi-level region merging,” Image Process., vol. 適応的な多レベル領域のマージによる塩分濃度検出”, Image Process., vol。 0.67
24, no. 12, pp. 24時24分 12、p。 0.53
5671–5683, Oct. 2015. 5671-5683, 2015年10月。 0.57
A “Refinet: Gu, Y.-H. A “Refinet: Gu, Y.-H”。 0.79
I. and Zhao, K. segmentation Q. deep Fu, Trans. I. and Zhao, K. segmentation Q. Deep Fu, Trans 0.94
IEEE detection,” salient for network refinement assisted object Multimedia, Feb. pp. IEEE検出」は、ネットワーク改善支援オブジェクトマルチメディアのための敬意を表した。 0.75
no. vol. 21, 2, 457–469, 2019. general K. Fu, Q. Zhao, I. Y.-H. Gu, and JieYang, “Deepside: A deep Neurocomputing, framework for salient object detection,” vol. ダメよ Vol. 21, 457–469, 2019. K. Fu, Q. Zhao, I. Y.-H. Gu, JieYang, “Deepside: A Deep Neurocomputing, framework for salient object detection”. vol. 2019年2月21日閲覧。
訳抜け防止モード: ダメよ Vol. 21, 457-469, 2019 . K. Fu, Q. Zhao, I. Y.-H. Gu, and JieYang, “Deepside : A Deep Neurocomputing, framework for salient object detection, vol.
0.71
365, pp. Sep. 69–82, 2019. 365年、p。 2019年、69-82頁。 0.69
G.-P. K. “Siamese Zhu, and Shen, Zhao, Ji, C. J. Q. D.-P. G.P.K. “Siamese Zhu, and Shen, Zhao, Ji, C. J. Q. D.-P. 0.79
Fan, Fu, preprint arXiv and detection object for RGB-D salient network beyond,” arXiv:2008.12134, 2020. learning Joint K. Fu, D.-P. G.-P. Ji, and Q. Zhao, “JL-DCF: Fan, and densely-cooperative fusion framework for RGB-D salient object CVPR, IEEE Proc. Fan, Fu, preprint arXiv and detection object for RGB-D salient network beyond arXiv:2008.12134, 2020. Learn Joint K. Fu, D.-P. G.-P. Ji, and Q. Zhao, “JL-DCF: Fan, and densely-cooperative fusion framework for RGB-D salient object CVPR, IEEE Proc.”。 0.82
3049–3059. 3049–3059. 0.71
pp. 2020, Jun. pp. 2020年、ジュン。 0.81
in detection,” in detection”. 0.75
英語(論文から抽出)日本語訳スコア
IEEE TRANSACTIONS ON IMAGE IEEE 画像上のトランザクション 0.69
PROCESSING 15 [80] 加工 15 [80] 0.73
[81] [82] [83] [81] [82] [83] 0.85
Z. via saliency video Gong, C. Liu, W. Liu, X. Z 経由。 saliency video Gong, C. Liu, W. Liu, X。 0.83
“Improving and Zhou, IEEE refinement,” spatiotemporal and estimation localized detection Trans. Improving and Zhou, IEEE refinement, spatiotemporal and estimation localized detection Trans。 0.62
Multimedia, 2018. pp. マルチメディア、2018年。 0.59
11, vol. 20, no. 11、Vol。 20だ 0.50
2993–3007, Nov. attention D.-P. 2993-3007, 11月, D-P。 0.50
Fan, W. Wang, M.-M. Cheng, “Shifting more J. Shen, and CVPR, IEEE Proc. Fan, W. Wang, M.-M. Cheng, “もっとJ. Shen, CVPR, IEEE Proc.”。 0.88
pp. 2019, Jun. pp. 2019年、ジュン。 0.80
detection,” object salient video to in 8546–8556. という動画が8546-8556で撮影されました。 0.40
Borji, and Ling, H. Cheng, M.-M. J. Shen, Wang, A. Xie, J. W. IEEE era,” video “Revisiting saliency prediction in the deep learning Pattern Trans. Borji, and Ling, H. Cheng, M.-M. J. Shen, Wang, A. Xie, J.W. IEEE era” ビデオ“Revisiting saliency prediction in the Deep Learning Pattern Trans”。 0.92
Anal. Mach. Intell., 220–237, vol. Anal Mach 220-237, vol。 0.54
43, no. 1, pp. 43、ノー。 1、p。 0.70
Jan. 2021. Hays, J. Belongie, S. M. T.-Y. 2021年1月。 Hays, J. Belongie, S. M. T.-Y 0.74
Ramanan, Perona, Maire, D. P. Lin, Doll´ar, P. and C. L. Zitnick, “Microsoft COCO: Common objects in Proc. Ramanan, Perona, Maire, D. P. Lin, Doll ́ar, P. and C. L. Zitnick, “Microsoft COCO: Common Object in Proc.”。 0.87
ECCV, context,,” in Sep. 2014, pp. ECCV, context,”. 2014年8月, pp。 0.66
740–755. 740–755. 0.71
                               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。