論文の概要、ライセンス

# (参考訳) 微小循環解析のための深層学習とコンピュータビジョン技術 : レビュー [全文訳有]

Deep Learning and Computer Vision Techniques for Microcirculation Analysis: A Review ( http://arxiv.org/abs/2205.05493v1 )

ライセンス: CC BY 4.0
Maged Abdalla Helmy Mohamed Abdou, Trung Tuyen Truong, Eric Jul, Paulo Ferreira(参考訳) 微小循環画像の解析は、敗血症のような生命を脅かす病気の早期の兆候を明らかにする可能性がある。 微小循環画像中の毛細血管密度と毛細血管分布を定量化することは、重症患者の生物学的マーカーとして使用できる。 これらの生物学的マーカーの定量化は、労働集約的であり、時間を要する。 様々な性能を持つコンピュータビジョン技術は、上記の課題に照らしてこれらの微小循環画像の解析を自動化するために使用できる。 本稿では,50以上の研究論文を調査し,マイクロサーキュレーション画像の解析を自動化するための最も重要かつ有望なコンピュータビジョンアルゴリズムについて述べる。 さらに, マイクロサーキュレーション画像の解析を行うため, 他研究者が現在使用している手法について検討する。 この調査は、他の研究者がマイクロ循環分析システムやアルゴリズムを開発するための技術ガイドブックとして機能するため、高い臨床関連性がある。

The analysis of microcirculation images has the potential to reveal early signs of life-threatening diseases like sepsis. Quantifying the capillary density and the capillary distribution in microcirculation images can be used as a biological marker to assist critically ill patients. The quantification of these biological markers is labor-intensive, time-consuming, and subject to interobserver variability. Several computer vision techniques with varying performance can be used to automate the analysis of these microcirculation images in light of the stated challenges. In this paper, we present a survey of over 50 research papers and present the most relevant and promising computer vision algorithms to automate the analysis of microcirculation images. Furthermore, we present a survey of the methods currently used by other researchers to automate the analysis of microcirculation images. This survey is of high clinical relevance because it acts as a guidebook of techniques for other researchers to develop their microcirculation analysis systems and algorithms.
公開日: Wed, 11 May 2022 13:34:01 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Deep Learning and Computer Vision Techniques for ディープラーニングとコンピュータビジョン技術 0.56
Microcirculation Analysis: A Review* Microcirculation Analysis: A Review* 0.42
Maged Helmy Maged–Helmy 0.32
Trung Tuyen Truong trung tuyen truong (複数形 trung tuyen truongs) 0.13
Eric Jul Paulo Ferreira エリック・ジュール パウロ・フェレイラ 0.57
Department of Informatics Department of Mathematics Department of Informatics 情報学科 数学科 情報学科 0.57
Department of Informatics University of Oslo 情報学科 オスロ大学 0.58
Oslo, Norway magedaa@uio.no Oslo, Norway magedaa@uio.no 0.46
University of Oslo Oslo, Norway オスロ大学 ノルウェーのオスロ 0.50
University of Oslo Oslo, Norway オスロ大学 ノルウェーのオスロ 0.50
University of Oslo Oslo, Norway オスロ大学 ノルウェーのオスロ 0.50
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 3 9 4 5 0 1 v 3 9 4 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—The analysis of microcirculation images has the potential to reveal early signs of life-threatening diseases like sepsis. 抽象 — 微小循環画像の解析は、敗血症のような生命を脅かす病気の早期の兆候を示す可能性がある。 0.57
Quantifying the capillary density and the capillary distribution in microcirculation images can be used as a biological marker to assist critically ill patients. 微小循環画像中の毛細血管密度と毛細血管分布を定量化することは、重症患者の生物学的マーカーとして使用できる。 0.73
The quantification of these biological markers is labor-intensive, time-consuming, and subject to interobserver variability. これらの生物学的マーカーの定量化は、労働集約的であり、時間を要する。 0.58
Several computer vision techniques with varying performance can be used to automate the analysis of these microcirculation images in light of the stated challenges. 様々な性能を持つコンピュータビジョン技術は、上記の課題に照らしてこれらの微小循環画像の解析を自動化するために使用できる。 0.76
In this paper, we present a survey of over 50 research papers and present the most relevant and promising computer vision algorithms to automate the analysis of microcirculation images. 本稿では,50以上の研究論文を調査し,マイクロサーキュレーション画像の解析を自動化するための最も重要かつ有望なコンピュータビジョンアルゴリズムについて述べる。 0.84
Furthermore, we present a survey of the methods currently used by other researchers to automate the analysis of microcirculation images. さらに, マイクロサーキュレーション画像の解析を行うため, 他研究者が現在使用している手法について検討する。 0.72
This survey is of high clinical relevance because it acts as a guidebook of techniques for other researchers to develop their microcirculation analysis systems and algorithms. この調査は、他の研究者がマイクロ循環分析システムやアルゴリズムを開発するための技術ガイドブックとして機能するため、高い臨床関連性がある。 0.77
Index Terms—Image Analysis, Literature Survey, Microcircu- 索引項-画像解析、文献調査、マイクロサーキュ- 0.70
lation Analysis. I. INTRODUCTION 関係分析。 I. イントロダクション 0.62
One of the main functions of capillaries, the smallest vessels in the human body, is to deliver oxygen to the cells of all organs [1]. 毛細血管の主な機能の一つは、人体の最小の血管で、全ての臓器の細胞に酸素を供給すること[1]である。 0.80
Networks of capillaries are known as the body’s microcirculation [2]. 毛細血管のネットワークは体の微小循環 [2] として知られている。 0.76
In the past decades, research has been conducted to elucidate whether monitoring microcirculation can be used to diagnose or assess the severity of various diseases [3, 4]. 過去数十年間,微小循環のモニタリングが様々な疾患の重症度を診断・評価するのに有用かどうかを解明するために研究が進められてきた [3, 4]。 0.77
One of the first study directions was to record blood movement in the nail fold capillaries to assess the severity of rheumatic diseases such as systemic sclerosis, Raynaud’s syndrome, and dermatomyositis [5]. 最初の研究は、全身性硬化症、レイノー症候群、皮膚筋炎などのリウマチ性疾患の重症度を評価するために、釘状毛細血管の血流を記録することであった [5]。 0.81
These studies revealed that patients with rheumatic diseases had altered microcirculation, showing dilated and distorted capillary loops and areas with low capillary density compared with controls [5]. 以上の結果より,リウマチ性疾患患者では微小循環が変化し,拡張・歪曲した毛細管ループと毛細管密度の低い領域がコントロール [5] と比較された。 0.71
More recently, studies on the effect of nonrheumatic diseases on microcirculation have been conducted. 近年,非リウマチ性疾患の微小循環への影響に関する研究が行われている。 0.71
Microcirculation has been monitored either on the skin surface [6] or sublingually [7] using video recordings of segments of blood flow within the capillaries. 微小循環は, 毛細血管内血流の映像記録を用いて, 皮膚表面 [6] または舌下 [7] で観察されている。 0.84
The impact of various diseases on microcirculation has been assessed, including sepsis [8], [9] and more recently, COVID [10, 11]. 各種疾患の微小循環への影響は, セプシス[8], [9], さらに最近では COVID[10, 11] など, 評価されている。 0.81
These studies have reported various correlations between diseases and the density これらの研究は病気と密度の相関を報告しています 0.71
Supported by the Norwegian Research Council and ODI Medical AS. ノルウェー研究協議会とODIメディカルASが支援している。 0.72
of capillaries, the velocity of blood flow, and the heterogeneity of perfusion [5–7, 10, 11]. 毛細血管、血流速度、灌流の均一性[5–7, 10, 11]。 0.58
Recently, the microvascular community has been focused on standardizing the analysis of microcirculation images [12] by using automated methods [13–15]. 近年,マイクロサーキュレーション画像 [12] の解析を自動化手法 [13-15] を用いて標準化することに注力している。 0.77
This is of exceptionally high importance as, currently, the gold standard for microvascular analysis is manual analysis by a trained researcher [13]. これは、現在、微小血管分析のゴールドスタンダードは、訓練された研究者による手作業による分析である[13]。 0.71
This process is time-consuming (approximately 2 minutes per microcirculation image) and prone to subjective bias. このプロセスは、時間を要する(微小循環画像あたり約2分)ため、主観的バイアスが発生しやすい。
訳抜け防止モード: このプロセスは時間です - 消費する (微小循環画像あたり約2分) 主観的な偏見にかかりやすいのです
0.66
Moreover, the length of analysis and requirements for trained researchers prevent microvascular monitoring from being used in routine clinical applications [16]. さらに, 臨床応用における微小血管モニタリングの応用は, 研究員による分析と要件の長さによって妨げられている [16]。
訳抜け防止モード: さらに, 研究者による微小血管モニタリングの防止のための分析と要件 日常的な臨床応用 [16] で使われています
0.82
In this article, we present the relevent methods in deep neural networks and traditional computer vision algorithms that can be used to achieve the automation of microcirculation image analysis. 本稿では,マイクロ循環画像解析の自動化を実現するために,ディープニューラルネットワークと従来のコンピュータビジョンアルゴリズムにおける再発明手法を提案する。 0.79
Traditional computer vision techniques require the user to find the optimal set of values to segment the capillaries in an image, while deep neural networks can automatically attempt to find those values based on the dataset provided [17]. 従来のコンピュータビジョン技術では、ユーザーは画像にキャピラリーを分割する最適な値セットを見つける必要があり、深層ニューラルネットワークは[17]が提供するデータセットに基づいてそれらの値を自動的に探すことができる。 0.78
Though deep neural networks can automate the manual segmentation process, traditional computer vision algorithms require less computational power and are faster than deep neural network methods [18]. ディープニューラルネットワークは手動のセグメンテーションプロセスを自動化できるが、従来のコンピュータビジョンアルゴリズムは計算能力が少なく、ディープニューラルネットワークの手法よりも高速である [18]。 0.78
Thus, we present both techniques in this research paper. そこで本稿では,両手法について述べる。 0.65
That being said, we believe that a combination of both of these methods will be the future of microcirculation analysis in the clinical setting [15]. そうは言っても, この2つの手法の組み合わせは, 臨床現場における微小循環解析の今後 [15] となると信じている。 0.78
This paper is intended to serve as a guidebook to inform researchers on what deep learning and computer vision techniques exist that can be used for the automated quantification of capillaries. 本論文は,キャピラリーの自動定量化に使用可能な深層学習とコンピュータビジョン技術の存在を研究者に知らせるガイドブックとして機能することを目的としている。 0.76
The goal of the methods represented in this paper is to reduce the labor-intensive, time-consuming analysis from several minutes to seconds. 本研究の目的は,労働集約的かつ時間を要する分析を数分から秒に短縮することである。 0.67
Furthermore, these methods aim to reduce the subjectivity of the inter-observer variability using a standardized method. さらに,これらの手法は標準化された手法を用いて,サーバ間変動の主観性を低減することを目的としている。
訳抜け防止モード: さらにこれらの手法は 標準化された手法を用いて観測者間変動の主観性を低減する。
0.58
Section II presents and discusses the capillary dataset. 第2節はキャピラリーデータセットを提示し、議論する。 0.50
Section III introduces machine learning and its four types. 第3節では、機械学習とその4つのタイプを紹介している。 0.45
Section IV goes into the details of convolutional neural networks. 第4節では畳み込みニューラルネットワークの詳細を取り上げる。 0.67
Section V introduces the two object detection techniques: regional proposal based framework and unified based framework. セクションvでは、地域提案に基づくフレームワークと統一されたフレームワークという2つのオブジェクト検出技術を紹介している。 0.57
Section VI introduces traditional computer vision object detection techniques. 第6節では従来のコンピュータビジョンオブジェクト検出技術を紹介している。 0.57
Section VII presents the current methods and techniques published and used by researchers for capillary quantification. 第7節では、毛細血管の定量化のために研究者によって公表され、使用されている現在の方法と技術を紹介する。 0.37
英語(論文から抽出)日本語訳スコア
measuring less than 20 micrometers in diameter [1], the shape of the capillary tends to be pixelated. 直径[1]の20マイクロメートル未満で、毛細血管の形状はピクセル化される傾向がある。 0.70
Furthermore, in the literature, there is no clear definition of capillary shapes, which exponentially increases the challenge of not enough data being present for each shape/type of capillary, as shown in Figure figure 2b. さらに, 図2bに示すように, 毛細血管形状の明確な定義は存在せず, 毛細血管の形状・型ごとに十分なデータが存在しないという課題を指数関数的に増加させる。 0.77
III. MACHINE LEARNING Machine learning (ML) is a subbranch of AI that combines techniques from computer science, and statistics [29]. III。 機械学習 機械学習(ML)は、AIのサブブランチであり、コンピュータサイエンスのテクニックと統計[29]を組み合わせる。 0.69
ML aims to find patterns from data to make predictions about new data [30]. MLは、データからパターンを見つけ、新しいデータについて予測することを目的とする[30]。 0.68
This process of finding a pattern from a set of data is known as training [31]. 一連のデータからパターンを見つけるこのプロセスは、training [31]として知られている。 0.81
The product of this process is a model that is used to predict new data [31]. このプロセスの産物は、新しいデータ[31]を予測するために使用されるモデルです。 0.84
An ML framework can consist of seven processes [32–34], which are data collection, data preparation, selecting and training the model, testing the selected model, evaluating the model using F1-score, and finally deploying the model to production. mlフレームワークは、データ収集、データ準備、モデルの選択とトレーニング、選択したモデルのテスト、f1-scoreを使用したモデルの評価、最終的に本番環境へのデプロイの7つのプロセス [32-34] で構成されます。 0.74
ML techniques can be further divided into supervised learning, unsupervised learning, reinforcement learning, and transfer learning [35]. ML技術はさらに、教師あり学習、教師なし学習、強化学習、転送学習[35]に分けられる。 0.65
Supervised learning is an ML technique where the algorithm learns from data labeled by a human expert [36]. 教師付き学習(supervised learning)は、人間の専門家がラベル付けしたデータからアルゴリズムが学習するml技術である [36]。
訳抜け防止モード: 教師付き学習はml技術であり アルゴリズムは、人間の専門家がラベル付けしたデータから学習する [36]。
0.67
In terms of microcirculation data, the model will attempt to highlight the capillaries with a bounding box based on the sample of labeled data provided to it. マイクロ循環データの観点からは、モデルが提供したラベル付きデータのサンプルに基づいて、バウンディングボックスで毛細血管を強調しようとする。 0.77
Supervised learning can be further divided into regression and classification. 教師付き学習はさらに回帰と分類に分けられる。 0.65
Regression predicts a value, while classification predicts a class. 回帰は値を予測するが、分類はクラスを予測する。 0.69
In the case of microcirculation analysis, we predict whether a region has capillaries or not, so using the classification algorithms from the supervised learning techniques is the most suitable method for capillary detection. 微小循環解析では,その領域に毛細血管があるか否かを予測するため,教師付き学習手法の分類アルゴリズムを用いてキャピラリー検出を行うのが最適である。 0.84
Unsupervised learning, as opposed to supervised learning, is giving a set of data with no labels to the algorithm [37]. 教師なし学習は教師なし学習とは対照的に、アルゴリズムにラベルのない一連のデータを与える [37]。 0.63
The algorithm then attempts to find patterns between the data [38]. その後、アルゴリズムはデータ [38] 間のパターンを見つけようとします。 0.79
There are two types of unsupervised learning: clustering and association [39]. 教師なし学習にはクラスタリングとアソシエーション[39]の2種類があります。 0.64
Clustering attempts to find subgroups in the data based on color, density, or other features. クラスタリングは、色、密度、その他の特徴に基づいて、データのサブグループを見つけようとする。 0.66
In contrast, association tries to discover relationships between patterns. 対照的に、アソシエーションはパターン間の関係を見つけようとする。 0.65
For example, a system that tries to recommend to the user what to purchase next based on what other users have bought, that is, association. 例えば、他のユーザが購入した商品、すなわちアソシエーションに基づいて、次に購入すべきものをユーザに推奨するシステムなどだ。 0.80
Another example is anomaly detection, where the system finds data that exhibits patterns outside the normal range of the data. もう一つの例は異常検出であり、システムは通常の範囲外のパターンを表示するデータを見つける。 0.79
We did not find any suitable unsupervised algorithms for capillary detection. 毛細血管検出に適切な教師なしアルゴリズムは見つからなかった。 0.64
Moreover, we have not yet found papers on capillary detection that use unsupervised algorithms for capillary detection. また, キャピラリー検出のための教師なしアルゴリズムを用いたキャピラリー検出に関する論文は発見されていない。 0.65
Reinforcement learning finds patterns based on a reward system [40]. 強化学習は報酬システム[40]に基づいてパターンを見つける。 0.78
When the system predicts the right output, the weights of those nodes in the neural network are increased, while an incorrect prediction diminishes the weights of other nodes [41]. システムが正しい出力を予測すると、ニューラルネットワーク内のこれらのノードの重みが増大し、不正確な予測によって他のノードの重みが減少する [41]。 0.82
Reinforcement learning is common in game development for games like chess and Go [42, 43]. 強化学習はチェスや囲碁などのゲームの開発において一般的である[42,43]。 0.83
We did not find any suitable unsupervised algorithms for capillary detection. 毛細血管検出に適切な教師なしアルゴリズムは見つからなかった。 0.64
Transfer learning uses a model trained on previous data and tweaks the weights of the last n (defined by a machine learning Transfer Learningは、以前のデータに基づいてトレーニングされたモデルを使用して、最後のn(機械学習によって定義される)の重みを微調整する 0.65
Fig. 1. Systemic sclerosis disease affects the microvascular structure. 図1。 全身性硬化症は微小血管構造に影響を及ぼす。 0.42
In image a, we see a normal pattern, while in images b, c, and d, we notice changes in the capillary structure as the disease advances. 画像aでは正常なパターンがみられ,画像b,c,dでは疾患進行に伴う毛細血管構造の変化が認められる。 0.69
This image is from Ruaro et al [20]. この画像はruaro et al [20]のものです。 0.72
We then conclude our paper. その後、論文をまとめる。 0.59
II. CAPILLARY DATASET II。 キャピラリーデータセット 0.51
Capillaroscopy is a method that noninvasively checks the dermal papillary capillaries using a microscopy system [19]. 毛細管鏡は顕微鏡システム[19]を用いて非侵襲的に真皮乳頭毛細管をチェックする方法である。 0.64
The image(s) obtained can then be evaluated for capillary density, dimension, and morphology [19]. 得られた画像は毛細血管密度、寸法、形態[19]について評価することができる。 0.56
Figure 1 was obtained from Ruaro et al [20] and best illustrates this. 図1はruaro et al [20]から得られ、最もよく説明します。 0.70
Ruaro et al [20] describe systemic sclerosis as a disease that alters the microvascular structure, which can be seen using capillaroscopy. ruaro et al [20]は全身性硬化症を毛細血管鏡で見ることのできる微小血管構造を変化させる疾患と表現している。 0.66
Figure 1a shows the typical pattern with no disease; Figures 1b, c, and d show how the capillaries react to different disease stages [20]. 図1aは、疾患のない典型的なパターンを示し、図1b、c、dは、毛細血管が異なる疾患ステージにどのように反応するかを示しています [20]。
訳抜け防止モード: 図1aは病気のない典型的なパターンを示しています ; 図1b, c, dは, 異なる疾患ステージ [20] に対する毛細血管の反応を示す。
0.76
Several microscopes are currently available that can achieve such images: Dino-Lite CapillaryScope [21], Optilia Digital Capillaroscope [22], Inspectis Digital Capillaroscope [23], and Smart G-Scope [24]. このような画像が得られる顕微鏡は、Dino-Lite CapillaryScope [21]、Optilia Digital Capillaroscope [22]、Inspectis Digital Capillaroscope [23]、Smart G-Scope [24]である。
訳抜け防止モード: 現在、このような画像が得られる顕微鏡がいくつかある: Dino - Lite CapillaryScope [21 ] Optilia Digital Capillaroscope [22 ], Inspectis Digital Capillaroscope [23 ] スマートG - スコープ [24 ]。
0.83
Other equipment that can capture capillaries include dermatoscope, ophthalmoscope, and stereomicroscope; however, none was designed for capillary capture. 毛細血管を捕捉できる他の機器としては、皮膚内視鏡、眼科鏡、立体顕微鏡があるが、毛細管捕獲用に設計されたものはない。 0.52
Therefore, images from this equipment are of relatively lower quality [25] than images captured by microscopes. したがって、この装置の画像は顕微鏡で撮影した画像よりも比較的品質が低い[25]。 0.85
That said, contemporary microscopes designed for capillaroscopy still do not produce adequate image quality compared to those in a standard object recognition dataset. とはいえ、毛細血管鏡用に設計された現代の顕微鏡は、標準の物体認識データセットと比較しても十分な画質を得られていない。 0.57
Some examples of standard object recognition datasets used to develop object recognition algorithms are ImageNet (14 million+ images and 21,841 categories) [26], Common Objects in Context (COCO) (328,000+ images and 91 categories) [26], Places (10 million+ images and 434 categories) [27], and Open Images (9 million+ and 6,000+ categories) [28]. オブジェクト認識アルゴリズムの開発に使用される標準オブジェクト認識データセットの例として、ImageNet (14万以上の画像と21,841のカテゴリ) [26]、Common Objects in Context (COCO) (328,000以上の画像と91のカテゴリ) [26]、Places (1000万以上の画像と434のカテゴリ) [27]、Open Images (900万以上の画像と6000以上のカテゴリ) [28]がある。 0.79
These datasets have several thousand images per category, and the objects to be identified are relatively not as pixelated as the capillary data (see Figure 2). これらのデータセットはカテゴリごとに数千の画像を持ち、識別すべきオブジェクトは毛細血管データほどピクセル化されていない(図2参照)。 0.79
Thus one of the main challenge is the dataset’s quality. したがって、主な課題の1つはデータセットの品質である。 0.73
Since the capillaries are relatively smaller in size, キャピラリーのサイズは比較的小さい。 0.52
2 2 0.42
英語(論文から抽出)日本語訳スコア
Fig. 2. (a) Example of COCO [26] set images, where the objects to be identified are clear with defined borders, and 図2。 (a)coco[26]セットイメージの例。そこでは、識別対象は、定義された境界で明確である。 0.64
(b) Example of capillary dataset captured using a relatively high-end microscope. b) 比較的ハイエンドな顕微鏡を用いたキャピラリーデータセットの例。 0.78
We see that the shapes of capillaries are not the same and can be faded. 毛細血管の形状は同一ではなく、消失する可能性がある。 0.58
We also see instances with black spots and other cases with white spots, which is a reflection due to the oil. また、黒い斑点や白い斑点を持つ例も見られるが、これは石油による反射である。 0.61
These are considered artifacts and are undesirable. これらは人工物と見なされ、望ましくない。 0.52
Such issues make it challenging to develop a highly accurate algorithm that can generalize in detecting capillaries. このような問題により、キャピラリーの検出を一般化できる高精度なアルゴリズムの開発が困難になる。 0.68
a b expert) number of layers to train it on new data [44]. あ b エキスパート)新しいデータでそれをトレーニングするレイヤの数 [44]。 0.53
An alternative way is to add new layers in addition to the existing layers of the network. 別の方法は、ネットワークの既存のレイヤに加えて、新しいレイヤを追加することです。 0.73
It is assumed that the earlier layers of a transfer learning model detects the generic features of the image like the width, height, and edges and that the latest layers learn the fine details of the classification [45]. 転送学習モデルの初期の層は、幅、高さ、縁などの画像の一般的な特徴を検出し、最新の層は分類の細部を学習する[45]と仮定する。 0.70
Therefore by freezing the earlier layers while training the later layers on a new set of data, one can adapt any model to different datasets without having to retrain the algorithm from scratch [46]. したがって、新しいデータセット上で後のレイヤをトレーニングしながら、以前のレイヤを凍結することで、アルゴリズムをスクラッチから再トレーニングすることなく、任意のモデルを異なるデータセットに適応させることができる [46]。 0.65
For microcirculation capillary quantification, our research work reveals that the most relevant ML techniques for microcirculation analysis are supervised classification learning and transfer learning. マイクロ循環キャピラリー定量化では,マイクロ循環分析における最も関連性の高いML手法が教師付き分類学習と伝達学習であることが明らかとなった。
訳抜け防止モード: 微小循環毛細血管定量化のための研究は マイクロ循環解析の最も関連するml技術は、教師付き分類学習と転送学習である。
0.71
IV. DEEP LEARNING IV。 ディープラーニング 0.37
Deep learning is a sub-branch of ML that has vastly advanced the state-of-the-art in speech recognition and visual object detection [47]. ディープラーニングはMLのサブブランチであり、音声認識と視覚オブジェクト検出における最先端技術を大きく進歩させた[47]。 0.71
In its simplest form, a deep neural network is composed of multiple layers of neurons [48]. 最も単純な形では、ディープニューラルネットワークはニューロン[48]の複数の層から構成されている。 0.69
This typically consists of the input layer, hidden layer(s), and the output layer [47]. これは典型的には、入力層、隠された層、および出力層[47]から構成される。 0.80
Deep learning outshines the other ML techniques because it can construct a feature extractor without the need for domain expertise [49]. ドメインの専門知識を必要とせずに機能抽出器を構築できるため、ディープラーニングは他のMLテクニックよりも優れています [49]。 0.62
Rather, the neural network increases prediction accuracy by adjusting the neuron weights to optimize an appropriate cost function using back-propagation techniques [50]. むしろ、ニューラルネットワークは、バックプロパゲーション技術[50]を使用して適切なコスト関数を最適化するためにニューロン重みを調整することによって予測精度を高める。
訳抜け防止モード: むしろ ニューラルネットワークは 予測精度を バック-伝播法[50]を用いて、ニューロンの重みを調節して適切なコスト関数を最適化する。
0.73
Deep learning architectures combine multiple non-linear modules to transform input data into a higher abstract level. ディープラーニングアーキテクチャは、複数の非線形モジュールを組み合わせて入力データをより抽象的なレベルに変換する。
訳抜け防止モード: 複数の非線型モジュールを組み合わせたディープラーニングアーキテクチャ 入力データを高い抽象レベルに変換する。
0.78
That suppresses irrelevant information while intensifying the useful parts to increase prediction accuracy [51]. これにより、有用な部分を増強しながら無関係な情報を抑え、予測精度を高める[51]。 0.61
In this section, we describe several deep learning architectures and then delve into the details of convolutional neural network (CNN) architectures. 本稿では、いくつかのディープラーニングアーキテクチャを説明し、その後、畳み込みニューラルネットワーク(CNN)アーキテクチャの詳細を掘り下げる。 0.67
A. Types of Deep Neural Networks: A. ディープニューラルネットワークの種類 0.61
There are many types of deep neural networks. ディープニューラルネットワークには多くの種類がある。 0.72
In this section, we will focus on the three most relevant for microcirculation analysis: recurrent neural networks (RNNs) [52], generative adversarial networks (GANs) [53], and CNNs [54]. 本稿では,RNN(Recurrent Neural Network)[52],GAN(Generative Adversarial Network)[53],CNN(CNN)[54]という,マイクロ循環解析に最も関係のある3つの分野に焦点を当てる。 0.75
RNNs are a type of neural network that has a hidden state to find patterns in sequential data and uses the output of previous layers as an input for the current layer [52]. rnnは、シーケンシャルデータのパターンを見つけるための隠れた状態を持ち、以前のレイヤの出力を現在のレイヤ[52]の入力として使用するニューラルネットワークの一種である。 0.70
The nodes of an RNN are connected by directed cycles, allowing it to keep the state of the previous nodes. RNNのノードは方向付けられたサイクルで接続され、前のノードの状態を維持することができる。 0.82
While a traditional neural network takes in the input and gives an output, an RNN assumes a relationship exists among the sequences of input data [55]. 従来のニューラルネットワークが入力を受け取り出力を与える一方で、rnnは入力データ[55]のシーケンス間に関係があると仮定する。 0.69
Thus, RNN is mainly used in speech recognition, translation, and sequential data analysis [55]. したがって、RNNは主に音声認識、翻訳、シーケンシャルデータ解析に使用される[55]。 0.71
Long short-term memory networks (LSTM) [56] and gated recurrent units (GRU) [57] are RNN architectures that deals with gradient vanishing gradient challenges [58]. 長期記憶ネットワーク(LSTM) [56] とゲートリカレントユニット(GRU) [57] は、勾配の消失する勾配問題(58)を扱うRNNアーキテクチャである。 0.75
The vanishing/exploding gradient problem is when the size of the gradients of each layer does not equal 1. 消滅/爆発勾配問題は、各層の勾配の大きさが1に満たない場合である。 0.72
This will prevent the neural weights from converging. これにより神経の重みが収束するのを防ぐ。 0.64
The modifications introduced by LSTM and GRU deal with this challenge by reducing LSTMとGRUが導入した修正は、この課題に対処する。 0.67
3 3 0.42
英語(論文から抽出)日本語訳スコア
the amount of irrelevant information propagating through the architecture by adding appropriate gates into the vanilla RNN. バニラRNNに適切なゲートを追加することで、アーキテクチャを通して伝播する無関係な情報の量。 0.63
Generative Adversarial Networks (GAN) creates new instances of the data [59]. Generative Adversarial Networks (GAN) はデータの新たなインスタンスを生成する[59]。 0.88
They are made up of a generator (G) and a discriminator (D), whose tasks are opposite to each other. それらはジェネレータ(g)と判別器(d)で構成されており、そのタスクは互いに反対である。 0.70
The generator obtains a random noise input z, and its output is a fake datum sample G(z). 発生器はランダムノイズ入力zを取得し、その出力は偽ダタムサンプルG(z)である。 0.74
The discriminator D obtains as input both G(z) and a real sample x, and its output is the probability of whether G(z) is real. 判別器Dは G(z) と実サンプル x の両方を入力として取得し、その出力は G(z) が実かどうかの確率である。 0.80
G can reliably produce new instances that mimic those in the real dataset. Gは、実際のデータセットでそれらを模倣する新しいインスタンスを確実に生成できる。 0.62
One of its main uses is in data augmentation to create more artificial data resembling the real data as much as possible. その主な用途の1つは、可能な限り実際のデータに似た、より人工的なデータを作成するデータ拡張である。
訳抜け防止モード: その主な用途の1つはデータ拡張である できるだけ実データに似た より人工的なデータを作ることです
0.85
Furthermore, they can be used to enhance the image by scaling up the image and increasing its resolution [60]. さらに、画像のスケールアップと解像度の向上 [60] によって、画像の強化に使用することができる。 0.77
CNNs are the most prominent architecture used for medical image analysis, specifically for microcirculation analysis [50], [61–63]. cnnは医用画像解析、特に微小循環解析 [50], [61-63] に用いられる最も顕著なアーキテクチャである。 0.77
They were originally developed in 1998 to recognize zip codes [64] and digits. 元々は1998年にzipコード [64] とdigits を認識するために開発された。 0.69
Gradually, they have become the most relevant architecture in image classification. 徐々に、画像分類において最も関連するアーキテクチャになっている。 0.64
B. Convolutional Neural Networks B.畳み込みニューラルネットワーク 0.83
In this subsection, we will dive into the details of a CNN. この節では、CNNの詳細を説明します。 0.50
1) A CNN Pipeline: A typical CNN image classification 1)CNNパイプライン:典型的なCNN画像分類 0.56
pipeline can consist of three main stages, which are: パイプラインは3つの主要なステージから構成されます 0.73
• Dataset: Where a set of images is labeled with their • データセット: イメージのセットがラベル付けされている場合 0.84
corresponding classes, • Learning: A model that has learned from every class of 対応するクラス •学習:あらゆるクラスから学んだモデル 0.60
variable, • Deformation: A term used to describe the process of changing many interesting things, which are not solid bodies and may be deformed dramatically, 変数 • 変形: 固体ではなく、劇的に変形する可能性のある、多くの興味深いものを変える過程を表すのに使われる用語。 0.59
• Occlusion: A term used to describe a situation where objects of interest can be obscured. ; 閉塞: 興味のある対象が隠される状況を表すのに用いられる用語。 0.67
Just a small portion of an item (a few pixels) can be observable at any given moment, アイテムのごく一部(数ピクセル)は、任意の瞬間に観測可能である。 0.61
• Illumination: Different brightness levels on different parts of the image can significantly affect algorithm performance, •照度:画像の異なる部分の輝度レベルの違いは、アルゴリズムの性能に大きく影響する。 0.86
• Clutter in the background: The objects of interest can blend in with their surroundings, making them difficult to spot, •背景のクレーター:興味のある物体が周囲と混ざり合っており、見つけにくい。
訳抜け防止モード: •背景のきらめき : 興味の対象は周囲と混ざり合うことができる。 見つけるのが難しくなりました
0.63
• Variation within a class: The categories of interest, such as chair, may be very general. • クラス内のバリエーション: 椅子のような関心のカテゴリーは、非常に一般的なものかもしれない。 0.76
These artifacts come the data, これらの人工物は データ... 0.51
• Evaluation: Evaluating the performance of the model on a set of data that it has not been previously trained on. • 評価: これまでトレーニングされていないデータのセット上で、モデルのパフォーマンスを評価する。 0.75
[65]. The data at the first step can be further split into a training set and a validation set, so one can evaluate the model before new data comes in. [65]. 最初のステップのデータはトレーニングセットと検証セットにさらに分割することができるため、新しいデータが入る前にモデルを評価することができる。 0.58
In this way, a pipeline can end up with three sub-datasets: a training set, a validation set, and a test set. このようにして、パイプラインはトレーニングセット、バリデーションセット、テストセットの3つのサブデータセットにまとめることができる。 0.67
A good CNN should be invariant to the listed challenges below [66]: 優れたcnnは以下の[66]の課題に不変であるべきである。 0.60
• Variation of viewpoint: As regards the camera, a single •視点の変化:カメラに関しては1つ 0.70
instance of an entity may be directed in various ways, エンティティのインスタンスは、様々な方法で指示されることがある。 0.53
• Variation of scale: The scale of visual groups is often • スケールのばらつき: 視覚群のスケールは、しばしば 0.75
in various shapes and sizes, each with their distinct appearance. 様々な形や大きさで それぞれが違う形をしています 0.68
Data preprocessing can be done in two ways: mean subtraction and normalization [67]. データ前処理は、平均減算と正規化[67]の2つの方法で行うことができる。 0.67
The most popular form of preprocessing is mean subtraction [67]. 最も一般的な前処理形式は平均減算 [67] である。 0.77
It entails subtracting the mean from all the data’s features, with the geometric understanding of centering the cloud of data (pixel values) in all dimensions (1 in case of white and black, 3 in case of RGB). すべての次元(白と黒の場合は1、RGBの場合は3)でデータの雲(ピクセル値)を集中させる幾何学的理解によって、すべてのデータの特徴から平均を抽出する。 0.74
Normalization is the process of bringing the sizes of the scale closer together. 正規化は、スケールのサイズをより近づけるプロセスである。 0.60
This normalization can be accomplished in two forms. この正規化は2つの形式で達成できる。 0.67
The first is to zero-center the value and divide it by its standard deviation. 1つ目は、値をゼロ中心にし、標準偏差で分割することだ。 0.69
The second is to normalize each dimension such that the minimum and maximum values are between negative 1 and positive 1. 2つ目は、最小値と最大値が負の1と正の1の間であるように各次元を正規化することである。 0.65
In the next section, we will talk about the different parts that make up a CNN: the fully connected layer, the convolutional layer, and the pooling layer [54]. 次のセクションでは、CNNを構成するさまざまな部分、すなわち、完全に接続された層、畳み込み層、そしてプーリング層 [54]について話します。 0.68
2) The Anatomy of a fully connected layer: In this subsection, we will describe the details of a fully connected layer [67–69]. 2) 完全に連結された層の解剖: この節では、完全に連結された層 [67-69] の詳細を記述する。 0.80
Weight initialization: Each neural network node consists of parameters known as weights, which take numerical values and contribute to the total of the other weighted input signals. 重み初期化:各ニューラルネットワークノードは、重みと呼ばれるパラメータで構成され、数値を取り、他の重み付き入力信号の合計に寄与する。 0.77
It is recommended to initialize a neural model’s weights with a positive random value to help it converge into the results with the epochs. 神経モデルの重みを正のランダムな値で初期化し、エポックで結果に収束させることが推奨される。 0.65
There are other ways to initiate the weights in a neural network using Xavier weight initialization and He weight initialization. xavierの重み初期化と重み初期化を使ってニューラルネットワークで重み付けを開始する他の方法もある。 0.65
At every iteration, the algorithm tries to find the most appropriate set of weights for each node. 各イテレーションにおいて、アルゴリズムは各ノードに対して最も適切な重み集合を見つけようとする。 0.83
For example, in stochastic descent, the neural network weight is gradually adjusted by a cost function. 例えば、確率降下では、ニューラルネットワークの重みはコスト関数によって徐々に調整される。 0.72
A cost function is used in supervised learning to measure the difference between the predicted result and the expected value. 教師あり学習において、予測結果と期待値との差を測定するためにコスト関数を用いる。 0.77
There are two types of loss functions: One is used for classification when the classes are of a fixed size and set, while regression is used to predict a quantified value. 損失関数には2つの種類がある: 1つはクラスが固定されたサイズとセットである場合に分類に使用され、回帰は定量化された値を予測するために使用される。
訳抜け防止モード: 損失関数には2つの種類がある 分類に使用するもの クラスは固定サイズとセットです 一方、回帰は定量化された値を予測するために使われます。
0.84
Regularization: There are four ways to regularize a neural network: L2 regularization, L1 regularization, max norm constraints, and dropout. 正規化: ニューラルネットワークの正規化には、L2正規化、L1正規化、最大ノルム制約、ドロップアウトの4つの方法がある。
訳抜け防止モード: 正規化 : ニューラルネットワークの正規化には4つの方法がある: L2正規化 L1正規化、最大ノルム制約、ドロップアウト。
0.67
The most popular form of regularization is L2 regularization. 最も一般的な正則化形式は L2 正則化である。 0.59
It can be applied by penalizing all parameters’ squared magnitudes. すべてのパラメータの平方等級をペナリゼーションすることで適用することができる。 0.63
The intuitive understanding of the L2 regularization is that it strongly penalizes high weight vectors while favoring diffuse weight vectors. l2正規化の直感的な理解は、高重ベクトルを強くペナリゼーションし、拡散重ベクトルを好むことである。 0.73
In L1 regularization, the values become almost invariant to noisy values since they use the most critical inputs and almost all of their irrelevant information is eliminated. L1正則化では、最も重要な入力を使用するため、値はほぼノイズ値に不変となり、ほとんどすべての無関係情報が排除される。 0.71
In general, if a CNN architecture would be used for feature selection, then L1 regularization handles it the best over other regularization methods. 一般的に、CNNアーキテクチャが機能選択に使用される場合、L1正規化は他の正規化手法よりも優れている。 0.70
Maxout constraints on the maximum average, which is another method to regularize the values by imposing an absolute upper limit on the magnitude of each neuron’s weight vector, is enforced using projected gradient descent. 最大平均上の最大値の制約は、各ニューロンの重みベクトルの大きさに絶対上限を課すことによって値を調整する別の方法であり、投射勾配降下を用いて強制される。 0.81
In fact, this entails updating the parameters as usual and then clamping the weight vector to enforce the constraint. 実際、これはパラメータを通常のように更新し、次に重みベクトルをクランプして制約を強制する。 0.66
Dropout is an easy, efficient ドロップアウトは簡単で効率的です 0.71
4 4 0.42
英語(論文から抽出)日本語訳スコア
tool for removing a random percentage of neurons that the developer of the neuron can specify. 神経細胞の開発者が特定できる神経細胞のランダムな割合を除去するためのツール。 0.73
Activation Function: This part in a CNN takes in a number and performs a mathematical operation on it. アクティベーション関数: CNNのこの部分は数値を受け取り、その上で数学的操作を実行する。 0.78
Many activation functions can be performed in a CNN; however, the common ones are sigmoid, tanh, ReLU, leaky ReLU, and maxout. 多くのアクティベーション機能はCNNで実行できるが、一般的なものはシグモイド、タン、ReLU、リークしたReLU、maxoutである。 0.67
Hyper-parameter optimization is finding the right set of values for all of the above properties in a neural network. ハイパーパラメータ最適化(Hyper-parameter optimization)は、ニューラルネットワークで上記のすべての特性に対して適切な値セットを見つけることである。 0.64
Mainly, finding the initial learning rate, the decay constant of the learning rate, and the regularization values can strengthen or weaken the neural network. 主に、初期学習率、学習率の減衰定数、正規化値を見つけることで、ニューラルネットワークを強化または弱体化することができる。 0.77
During the forward pass, the score is calculated by applying the operations of all the blocks on the input value. フォワードパスの間、入力値にすべてのブロックの操作を適用することによりスコアを算出する。 0.65
On the backward pass, we compute an updated value of the weights that minimizes the loss function, which increases the overall accuracy of prediction. 後ろ向きのパスでは、損失関数を最小化する重みの更新値を計算することにより、予測の全体的な精度が向上する。 0.75
3) The Convolutional layer and the Pooling Layer: In this section, we will describe the details of the convolutional and pooling layer [66, 67, 70]. 3) 畳み込み層及びPooling層: この節では、畳み込み及びプール層(66,67,70)の詳細を説明します。 0.66
Similar to the anatomy of a node in a fully connected layer, explained in the previous section, a convolutional block is initialized with weights and has a cost function, activation function, and regularization. 完全連結層におけるノードの解剖学と同様に、前節で説明される畳み込みブロックは重み付けで初期化され、コスト関数、アクティベーション関数、正規化を有する。 0.67
The difference is that convolutional net architectures presume that inputs are pictures, taking the spatial variance between the inputs into consideration. 違いは、畳み込みネットアーキテクチャが入力が画像であると仮定し、入力間の空間的分散を考慮することである。 0.75
These processes and parameters decrease the network’s overhead, reducing the number of parameters the program will execute as well as increasing the speed. これらのプロセスとパラメータはネットワークのオーバーヘッドを減少させ、プログラムが実行するパラメータの数を減少させ、速度を増加させる。 0.86
If we were to pass a full HD image to a neural network (1920x1080x3), there would be approximately 6.2 million weights to initialize—one weight for each pixel. フルHD画像をニューラルネットワーク(1920x1080x3)に渡すと、初期化に要する重量は約6200万で、各ピクセルの重量は1つになる。 0.71
Instead, we pass that image to a series of convolutional blocks first to reduce the number of weights from 6.2 million to possibly several hundred thousand weights, without compromising accuracy. その代わりに、その画像を一連の畳み込みブロックに渡すことで、その重みを620万から数十万に減らし、精度を損なうことなく実現します。 0.58
This reduction of pixels is achieved by transforming the image into a more representative form using a CNN architecture. この画素の削減は、cnnアーキテクチャを用いて画像をより代表的な形式に変換することによって達成される。 0.61
A simple CNN architecture consists of four parts: • input, where data is loaded as a matrix in its raw form (for example, a full HD image will be a matrix of 1920x1080x3), 単純なCNNアーキテクチャは4つの部分から構成される: • 入力、データはその生の形式で行列としてロードされる(例えば、完全なHD画像は1920x1080x3の行列となる)。 0.77
• a convolutional layer, which takes in a value and applies the dot product operation followed by some kind of nonlinearity (activation function), •値を取り、ドット積演算を応用し、ある種の非線形性(活性化関数)を付与する畳み込み層 0.74
• the pooling layer, which applies downsampling to the • プール層は、ダウンサンプリングを施します。 0.67
matrix; and • the Fully Connected (FC) layer, which computes a prediction associated with each class. マトリックス; • 完全連結(fc)層は、各クラスに関連する予測を計算する。 0.57
With each iteration, the values for the convolutional and FC layers change as their weights are adjusted, while the activation function and pooling layer values stay constant throughout the whole process. 各イテレーションで、畳み込み層とfc層の値は重みが調整されるにつれて変化し、活性化関数とプーリング層の値はプロセス全体を通して一定となる。 0.81
The details of each part are described below. 以下、各部について詳述する。 0.60
the loss value, which increases the probability of correct classification. 損失値(lost value)は、正しい分類の確率を増加させる。 0.68
Each filter slides over the image with a stride value production of a smaller image known as the activation map. 各フィルタは、アクティベーションマップとして知られるより小さな画像のストライド値生成で画像の上をスライドする。 0.77
The number of strides dictates the number of weights to be initialized later: as the number of strides increases, the number of weights to be initialized at the FC decreases. ストライドの数は後に初期化される重量の数を指示し、ストライドの数が増加するにつれて、FCで初期化される重量の数は減少する。 0.77
For example, a stride of two means the filter will jump two pixels in the image before applying the dot product and skipping some pixels. 例えば、2つのストライドは、ドット製品を適用していくつかのピクセルをスキップする前に、フィルタが画像内の2つのピクセルをジャンプすることを意味する。
訳抜け防止モード: 例えば、2つの手段のストライド フィルターは画像に2ピクセルをジャンプして ドット製品を適用し 数ピクセルをスキップする
0.69
There is a trade-off. トレードオフがあります。 0.72
Each filter can detect a different image property; for example, a filter can detect horizontal or vertical edges and types of colors. 各フィルタは異なる画像特性を検出でき、例えば、フィルタは水平または垂直のエッジや色の種類を検出できる。 0.88
The number of filters in this layer is referred to as the filter depth. この層内のフィルタの数はフィルタ深さと呼ばれる。 0.69
Each filter produces an activation map, and these are then stacked on top of each other. 各フィルタはアクティベーションマップを生成し、それらを互いに積み重ねる。 0.54
Padding is another concept in the convolutional layer that involves adding zeros around the borders of the input image to preserve the sizes of the input and output shapes. パディングは畳み込み層における別の概念であり、入力画像と出力の形状のサイズを保存するために、入力画像の境界付近にゼロを追加する。 0.75
Combining the filter depth, stride, and padding, the output volume of the convolutional layer can be calculated. フィルタ深さ、ストライド及びパディングを組み合わせることで、畳み込み層の出力体積を算出することができる。 0.75
Output Volume: (W-K + 2P / S) + 1, where W is the input height/length, K is the filter size, P is the padding, and S is the stride. 出力ボリューム: (W-K + 2P / S) + 1 ここで、Wは入力高さ/長さ、Kはフィルタサイズ、Pはパディング、Sはストライドである。 0.81
For example, a single black-and-white image of dimension 200 with a stride of 1, padding of 0, and filter size of 5, with 32 filters, will turn the image from a 200x200x1 to a 196x196x32. 例えば、ストライドが1、パディングが0、フィルタサイズが5、フィルタサイズが32の1つの白黒画像は、200x200x1から196x196x32に画像が変換される。
訳抜け防止モード: 例えば、ストライドが1の次元200の単一の黒と白の画像。 0のパディング、フィルターサイズは5、フィルタは32で、画像は200x200x1から196x196x32に変わる。
0.69
Each layer represents the activation map produced by the individual filter. 各レイヤは、個々のフィルタによって生成されたアクティベーションマップを表す。 0.64
This number is very high compared to the input value, and thus a pooling layer is applied to take down the number of parameters to initiate weights for. この数は入力値と比較して非常に高いので、プール層を適用してパラメータの数を減らし、重み付けを開始する。 0.69
A pooling layer is typically inserted between consecutive convolutional layers before passing the final value into an FC layer. プール層は通常、fc層に最終値を渡す前に連続する畳み込み層の間に挿入される。 0.84
The pooling layer is applied individually on the activation map; the depth does not change, but the activation map’s width and height are reduced. プール層はアクティベーションマップ上に個別に適用されるが、深さは変化せず、アクティベーションマップの幅と高さが小さくなる。 0.69
The pooling layer scales the image and takes in two parameters: the window size and stride. プーリング層は画像をスケールし、ウィンドウサイズとストライドの2つのパラメータを取ります。 0.78
The larger these values are, the smaller the output image will be. これらの値が大きくなればなるほど、出力画像は小さくなります。 0.79
There are several types of pooling, but the most common are average and max pooling. プールにはいくつかの種類があるが、最も一般的なものは平均および最大プールである。 0.64
Average pooling takes the mean of a window of pixels, while max pooling takes the maximum value within the window. 平均プーリングはピクセルのウィンドウの平均を持ち、最大プーリングはウィンドウ内の最大値を取る。
訳抜け防止モード: 平均プールはピクセルのウィンドウを平均とするが、 最大プーリングはウィンドウ内で最大値を取る。
0.75
So a pooling layer with a 2x2 window and a stride of 1 halves the image’s dimensions from 196x196x32 to 98x98x2. つまり、2x2の窓と1のストライドを持つプール層は、画像の寸法を196x196x32から98x98x2に縮める。 0.70
Applying several of these between consecutive convolutional layers inevitably reduces the dimensions of the activation map to the most relevant for prediction. 連続する畳み込み層間でこれらのいくつかを適用することで、必然的にアクティベーションマップの寸法を予測に最も関係のあるものに減らすことができる。 0.59
The values from the last pooling layer are flattened or converted from 2D to 1D and passed to the fully connected layer explained earlier. 最後のプーリング層からの値は2Dから1Dに平坦化または変換され、先に説明した完全な連結層に渡される。 0.74
In the next section, we look into how the convolutional layers, activation function and pooling function are used as fundamental building blocks to predict the image classification. 次の節では、畳み込み層、活性化関数、プーリング関数が画像分類の基本的な構成要素としてどのように使用されるかを検討する。 0.71
C. Types of Convolutional Neural Networks C.畳み込みニューラルネットワークのタイプ 0.84
A convolutional layer consists of a set of filters, forming a matrix that is typically 5x5x3. 畳み込み層はフィルタの集合で構成され、通常5x5x3の行列を形成する。 0.77
However, these values are strictly experimental and depend on the image used. しかし、これらの値は厳密に実験的であり、使用する画像に依存する。 0.66
A convolutional layer can have any number of filters specified by the machine learning expert. 畳み込み層は、機械学習の専門家によって指定されたフィルタの数を指定できる。 0.68
The filter values are randomly generated and are updated in the back-propagation to reduce フィルタ値はランダムに生成され、バックプロパゲーションで更新される。 0.75
LeNet [64], created in 1998, uses a five-level CNN: two convolutional layers with three fully connected layers. 1998年に開発されたlenet [64]は、5レベルcnn(3つの完全連結層を持つ2つの畳み込み層)を使用している。 0.59
The convoluted layers were made up of a 5x5 filter of a stride of 2 with sigmoid function, followed by an average pooling layer of 2x2 with a stride of 1. 共分散層は,シグモイド関数を持つ2のストライドの5x5フィルタと,ストライドが1の2x2の平均プール層で構成された。 0.77
The fully connected layer contained 120, 84, and 10 neurons, respectively, using softmax 完全結合層はsoftmaxを用いてそれぞれ120,84,10のニューロンを含んでいた 0.81
5 5 0.42
英語(論文から抽出)日本語訳スコア
as an activation. アクティベーションとして。 0.67
This CNN’s input data was a grayscale 32x32, which is relatively small with today’s standard. このcnnの入力データはグレースケールの32x32で、今日の標準に比べて比較的小さい。 0.77
AlexNet [71], released in 2012, outperformed LeNet. 2012年にリリースされたAlexNet [71]は、LeNetを上回った。 0.69
It used an eight-layer-deep CNN: five convolutional layers, two hidden layers, and one fully connected output layer. 5つの畳み込み層、2つの隠れ層、1つの完全に接続された出力層である。 0.64
There are several significant differences between AlexNet and LeNet. AlexNetとLeNetにはいくつかの大きな違いがある。 0.76
AlexNet uses ReLU for the activation function. AlexNetはアクティベーション関数にReLUを使用している。 0.70
Moreover, AlexNet uses dropout instead of weight decay for regularization. さらに、AlexNetは正規化のために重量減少の代わりにドロップアウトを使用する。 0.58
AlexNet uses more neurons and different filter sizes for each convolutional net. AlexNetは、畳み込みネットごとにより多くのニューロンと異なるフィルタサイズを使用する。 0.67
For the FC layer, AlexNet uses 4,096, 4,096, and 1,000 neurons, respectively, compared to the 120, 84, and 10 of LeNet. FC層では、AlexNetはLeNetの120、84、および10に対してそれぞれ4,096、4,096、1,000のニューロンを使用する。 0.71
AlexNet uses 11x11, 5x5, and 3x3 for the convolutional layer, while LeNet uses two 5x5 filters. AlexNetは畳み込み層に11x11、5x5、3x3を使用し、LeNetは2つの5x5フィルタを使用する。 0.66
Visual Geometry Group (VGGNet) [72], developed in 2014 at Oxford University, consisted of these basic CNN building blocks: a convolutional layer, activation function ReLU, and a maximum pooling layer. 2014年にオックスフォード大学で開発されたVisual Geometry Group (VGGNet) [72]は、これら基本的なCNNビルディングブロック(畳み込み層、アクティベーション関数ReLU、最大プール層)で構成された。 0.78
It used 3x3 filters with a padding of 1 and a 2x2 pooling with a stride of 2. パディング1の3x3フィルタとストライド2の2x2プールを用いた。 0.70
Moreover, the paper authors experimented with several different architectures and concluded that deeper and narrower layers get better results than fewer and wider convolutional layers. さらに、著者らはいくつかの異なるアーキテクチャを実験し、より深く狭い層はより小さくより広い畳み込み層よりも良い結果が得られると結論づけた。 0.66
The above three architectures have a common pattern of using the convolutional layer followed by pooling with minimal tweaks. 上記の3つのアーキテクチャは、畳み込みレイヤを使用する共通のパターンを持ち、最小限の調整でプールする。
訳抜け防止モード: 上記の3つのアーキテクチャは共通のパターンを持つ。 畳み込み層を使い 最小限の調整でプールします
0.75
The next three architectures came later and use a slightly different design pattern. 次の3つのアーキテクチャは後に登場し、わずかに異なるデザインパターンを使用した。 0.61
GoogLeNet [73], published in 2015, outperformed the previous three architectures, achieving close to human-level performance with its new inception module. 2015年に公開されたGoogLeNet [73]は、以前の3つのアーキテクチャを上回り、新しいインセプションモジュールで人間レベルのパフォーマンスに近いパフォーマンスを達成した。 0.65
An inception block uses four different blocks in the input images and then concatenates their output. 開始ブロックは入力画像に4つの異なるブロックを使用し、出力を連結する。 0.78
The first three blocks apply a convolutional layer of different window sizes, while the fourth applies max-pooling and then the convolutional layer. 最初の3ブロックは、異なるウィンドウサイズの畳み込み層を、第4ブロックはマックスプール層と畳み込み層を適用。 0.78
The number of blocks in an inception module can be tested on different sets using hyperparameter tuning. インセプションモジュール内のブロック数をハイパーパラメータチューニングを使用して異なるセットでテストすることができる。 0.82
GoogLeNet outperformed the others because it aims to extract the most spatial information possible from each layer. GoogLeNetは各層から最も空間的な情報を抽出することを目的としており、他の層よりも優れていた。 0.55
Instead of finding information from the previous block’s output, inception aims to explore each image with different filter sizes. インセプションは、前のブロックの出力から情報を見つける代わりに、異なるフィルタサイズで各イメージを探索する。 0.72
It is like taking the same photograph with different lens magnifications. 同じ写真を、レンズの倍率で撮るようなものです。 0.75
Residual Neural Network (ResNet) [74] was published in 2016 and designed to address the increasing complexity of making deeper neural networks. 残留ニューラルネットワーク(resnet) [74]は2016年に出版され、より深いニューラルネットワークを作る複雑さの増加に対処するために設計された。
訳抜け防止モード: 残留ニューラルネットワーク(resnet ) [74 ]は2016年に発表された。 深層ニューラルネットワークの 複雑化に対処するために設計されました
0.71
As the number of blocks increased, the accuracy gain per block decreased to where making the network even deeper started adversely increase complexity and computational power and reduce accuracy. ブロック数の増加に伴い、ブロック当たりの精度向上は減少し、ネットワークをさらに深くするようになり、複雑さと計算能力が悪化し、精度が低下した。 0.67
This was achieved using the residual block, which utilizes a skip connection with heavy batch normalization. これは、重いバッチ正規化を伴うスキップ接続を利用する残差ブロックを用いて達成された。 0.66
Like the VGGnet convolutional layer design, a ResNet consists of two consecutive 3x3 convolutional layers with an activation function. vggnetの畳み込み層と同様に、resnetは活性化関数を持つ2つの連続した3x3畳み込み層で構成される。 0.56
In addition, there is a connection between this block’s input and the output, known as the skip connection. さらに、このブロックの入力と出力の間には、スキップ接続(skip connection)と呼ばれる接続がある。 0.78
Like GoogLeNet, which uses four modules within the inception block, ResNet uses four modules within the residual block. インセプションブロック内で4つのモジュールを使用するgooglenetのように、resnetは残りのブロック内で4つのモジュールを使用する。 0.66
It also uses a global average pooling layer before the FC layer. また、グローバル平均プール層をFC層の前に使用する。 0.78
For microcirculation image analysis, it is not enough to use a CNN architecture; these architectures only detect whether 微小循環画像解析では、cnnアーキテクチャを使用するだけでは不十分である。
訳抜け防止モード: 微小循環画像解析ではCNNアーキテクチャを使うだけでは十分ではない これらのアーキテクチャは
0.72
an image has a capillary. 画像には毛細血管があります 0.56
They cannot pinpoint the capillaries’ location. 毛細血管の位置を特定できない。 0.51
To do that, we need to extend the CNN architecture with an object detection architectures. そのためには、オブジェクト検出アーキテクチャでCNNアーキテクチャを拡張する必要があります。 0.70
V. DEEP LEARNING OBJECT DETECTION TECHNIQUES Object detection techniques aims to estimate the location in an image [75]. V.DeepLearning OBJECT TECHNIQUES Object Detection Techniqueは,画像[75]内の位置を推定することを目的としている。 0.81
The object deand label of an object tection part extends the CNN architecture. オブジェクトtection部のオブジェクトdeandラベルはcnnアーキテクチャを拡張する。 0.64
Object detection techniques can generally be split into two distinct categories. オブジェクト検出技術は一般的に2つのカテゴリに分けられる。 0.80
The first category, which is a two-step method, aims to first locate the object in the image (object localization) and then estimate the category of the object (object classification). 2段階の手法である第1のカテゴリは、まず画像中のオブジェクト(オブジェクトのローカライゼーション)を特定し、次に対象のカテゴリ(オブジェクトの分類)を推定することを目的としている。 0.78
These architectures can be referred to as the Region Proposal Based Framework. これらのアーキテクチャを地域提案ベースのフレームワークと呼ぶことができる。 0.83
The second category is a one-step method which aims to locate and categorize the objects in one go. 第2のカテゴリは、オブジェクトの特定と分類を目的としたワンステップのメソッドである。 0.83
These architectures are known as the Unified Framework [76]. これらのアーキテクチャはunified framework [76]として知られている。 0.64
Before these methods were developed, the field was dominated by different techniques known as the scale-invariant feature transform (SIFT) technique from 1999 to 2012 [71, 77, 78]. これらの手法が開発される前は、1999年から2012年までのスケール不変特徴変換 (SIFT) 技術 (71, 77, 78] で支配されていた。 0.75
Object detection architectures are benchmarked by measuring the mean Average Precision (mAP) and efficiency (speed of detection per frame) on standardized datasets [26–28, 79–81]. 標準データセット[26–28, 79–81]の平均平均精度(map)と効率(フレーム毎の検出速度)を測定することで、オブジェクト検出アーキテクチャをベンチマークする。 0.78
In this section, seven selected architectures from the Region Proposal Based Framework are described along with five selected architectures from the Unified Framework. この節では、リージョン提案ベースフレームワークから選ばれた7つのアーキテクチャと、Unified Frameworkから選ばれた5つのアーキテクチャを説明します。 0.72
A. Region Proposal Based Framework a.地域提案に基づく枠組み 0.86
R-CNN (Rich feature hierarchies for accurate object detection and semantic segmentation) [82]: When this paper was released in 2014, the best-performing object detection architectures had plateaued from 2010 to 2012, with an accuracy of 35% for the most popular datasets [78]. R-CNN (Rich featurehierarchies for accurate object detection and semantic segmentation) [82]: この論文が2014年にリリースされたとき、最もパフォーマンスの良いオブジェクト検出アーキテクチャは2010年から2012年にかけて、最も人気のあるデータセット [78] に対して精度が35%向上していた。 0.80
This algorithm achieved 20% higher accuracy than its predecessor with the VOC 2012 dataset [82]. このアルゴリズムは、以前のVOC 2012データセット[82]よりも20%高い精度を達成した。 0.75
This method was termed Regions with CNN features, or R-CNN. この手法は、CNN特徴を持つリージョンまたはR-CNNと呼ばれていた。 0.54
It is also one of the first methods that propose a two-step approach, and many subsequent methods have been based on this approach from 2014 to this day [66]. また、2段階アプローチを提案する最初の手法の1つであり、それに続く多くの手法は2014年から現在までのアプローチに基づいています [66]。 0.82
Region proposal based frameworks are inspired by the combination of Deep Convolutional Neural Network (DCNN) [71] and region proposals [83]. 地域提案に基づくフレームワークは、深層畳み込みニューラルネットワーク(dcnn) [71] と地域提案 [83] の組み合わせにインスパイアされている。 0.87
R-CNN takes in an image, applies a segmentation mask to it, and extracts the top 2,000 promising bounding boxes on that segmentation. R-CNNは画像を取り込み、セグメンテーションマスクを適用し、セグメンテーション上の有望な有界ボックスのトップ2000を抽出する。 0.67
The bounding boxes are of different scales, increasing the probability of identifying different sizes or shapes. バウンディングボックスは、異なるスケールであり、異なるサイズや形状を識別する確率を増加させる。 0.70
It then computes the features of these boxes using a CNN and classifies each region with a linear SVM. CNNを使ってこれらのボックスの特徴を計算し、各リージョンを線形SVMで分類する。
訳抜け防止モード: そしてこれらのボックスの特徴を計算する CNNを使用して各リージョンを線形SVMで分類する。
0.86
On the other hand, this method can be slightly adjusted if the training data is low to apply a supervised pre-training CNN on the ImageNet followed by fine-tuning the low training data. 一方、この方法は、トレーニングデータが低い場合、ImageNet上で教師付き事前学習CNNを適用し、低トレーニングデータを微調整することで、わずかに調整することができる。 0.72
The R-CNN consists of two concurrent pipelines: the region detector and the object detector. R-CNNは、リージョン検出器とオブジェクト検出器の2つの同時パイプラインで構成されている。 0.57
For the region detector, RCNN takes an image and applies a non-deep learning model called selective search to extract approximately 2,000 regions of interest (RoI). 領域検出器では、RCNNは画像を取得し、選択探索と呼ばれる非深度学習モデルを適用し、約2000の関心領域(RoI)を抽出する。
訳抜け防止モード: 地域検出のためにRCNNは画像を取り、選択探索と呼ばれる非ディープラーニングモデルを適用した 約2000の関心領域(RoI)を抽出する。
0.78
These regions present the places in the image where an object is more likely to reside. これらの領域は、オブジェクトがより存在しそうな画像の場所を示す。 0.74
The proposed region is then warped or cropped to fit a specific dimension before being 提案された領域は、特定の次元に合わせるために反り、または切り取られる 0.65
6 6 0.43
英語(論文から抽出)日本語訳スコア
passed into the object detector. 物体探知機に渡された 0.70
The object detector applies CNN + max-pooling with an activation function to calculate the feature map. オブジェクト検出器はcnn + max-poolingにアクティベーション関数を適用して特徴マップを計算する。 0.79
The feature map is then passed to an FC layer to create a 4096-dimensional vector. その後、特徴写像はfc層に渡され、4096次元ベクトルを生成する。 0.67
This vector is passed to a classification head that tries to figure out the class, and the regression network that tries to refine the box coordinates. このベクトルは、クラスを解明しようとする分類ヘッドと、ボックス座標を洗練しようとする回帰ネットワークに渡される。 0.67
The classification head is optimized using cross-entropy loss, while the regression head is refined using L2 loss. 分類ヘッドはクロスエントロピー損失を用いて最適化され、回帰ヘッドはL2損失を用いて精製される。 0.68
The model is trained by optimizing the model first on the classification loss, then the regression loss. モデルは、まず分類損失、次に回帰損失に基づいてモデルを最適化することで訓練される。 0.76
This can take up to several days, with large storage space, since all the features computed from the proposed regions require many gigabytes. 提案されたリージョンから計算されたすべての機能は、多くのギガバイトを必要とするため、ストレージスペースが大きいため、数日かかる可能性がある。 0.60
This paper methodology consists of three modules. 本論文は3つのモジュールからなる。 0.76
• Generating the region proposals: Selective search method •地域提案の生成:選択的探索法 0.87
is used to suggest the regions, 地域を示唆するために使われます 0.77
• Extracting the features using CNN: A 4096-dimensional vector is extracted from each region generated by the previous step using the method applied by the DCNN [61]. • CNNを用いた特徴抽出:DCNN [61]で適用した手法を用いて,前ステップで生成された各領域から4096次元ベクトルを抽出する。 0.84
The features are then computed by subtracting the mean from a 227x227 image through a five convolutional layer and a two-FC layer. この特徴は、227x227の画像から5つの畳み込み層と2つのfc層を通して平均を減算することで計算される。
訳抜け防止モード: その特徴は 227x227の画像から平均を5つの畳み込み層と2つのfc層に減算する。
0.72
The output region is warped equally with p=16; however, the paper suggests that alternative values can be used. 出力領域はp=16と等しく反動されるが、論文は代替値の使用を示唆している。 0.75
• Extracting the class using SVM: Each region is scored using an SVM, and a greedy non-maximum suppression for each class is applied independently in the proposed region. • SVMを用いてクラスを抽出する: 各リージョンはSVMを用いてスコアされ、各クラスに対するグレディな非最大抑圧は提案領域で独立して適用される。 0.79
If the two regions have an intersection-over-un ion (IoU) higher than a threshold, one region will be rejected, If there is a lack of training sets, the paper suggests the 2つの領域がしきい値以上の交点オーバーユニオン(iou)を持つ場合、1つの領域は拒否され、トレーニングセットが不足している場合は、論文が示唆する。 0.68
addition of these two modules: これら2つのモジュールの追加。 0.65
• Supervised pre-training: It starts by training the CNN on one of the large datasets as an image classification problem using the Caffe CNN library, • 教師付き事前トレーニング: Caffe CNNライブラリを使用した画像分類問題として、大規模なデータセットの1つでCNNをトレーニングすることから始まる。 0.76
• Domain-specific fine-tuning: The wrapped regions created in step two of the above method are used to fine-tune the CNN parameters using stochastic gradient descent. • ドメイン固有の微調整: 上記の手法のステップ2で生成した包み領域は、確率勾配勾配を用いてCNNパラメータを微調整するために用いられる。 0.69
R-CNN applies the results on the PASCAL VOC 2007 dataset and achieves a 53.7% mAP. R-CNNはPASCAL VOC 2007データセットに結果を適用し、53.7%のmAPを達成した。 0.65
These results are a big jump from the previous algorithms proposed for this dataset at that time (year 2010) where the highest achieved mAP was 35.1%. これらの結果は、このデータセットで提案された以前のアルゴリズム(2010年)を大きく上回るもので、最高達成度は35.1%である。 0.79
R-CNN is a big step toward building a highquality object detection architecture after the SIFT era and in the DCNN era. R-CNNは、SIFT時代とDCNN時代を経て、高品質なオブジェクト検出アーキテクチャを構築するための大きなステップである。 0.70
This is noticeable in the jump in accuracy introduced by R-CNN. これはR-CNNが導入した精度の上昇において顕著である。 0.57
However, there are some drawbacks to using R-CNN. しかし、R-CNNを使うにはいくつかの欠点がある。 0.60
First, R-CNN has multi-stage, multi-step modules that need to be optimized individually to achieve good results, which increases the chances of introducing inaccuracies and makes training time notably longer. まず、r-cnnは、良い結果を得るために個別に最適化する必要がある多段階多段階モジュールを持ち、不正確性の導入可能性を高め、トレーニング時間を著しく長くする。 0.63
Second, R-CNN uses a fully connected layer that requires a fixed input shape. 第2に、R-CNNは固定入力形状を必要とする完全に接続された層を使用する。 0.57
Moreover, approximately 2,000 regions are extracted, which one can argue is way too much in sparse images and way too little in denser images. さらに、約2,000の領域が抽出され、疎画像ではあまりにも多く、密度の高い画像では少なすぎると主張できる。 0.65
Such disadvantages have led to the development of successors such as SPP-Net (Spatial Pyramid Pooling), Fast R-CNN, Faster R-CNN, Region-based Fully Convolutional Network (R-FCN), Feature Pyramid Network このような欠点は、SPP-Net (Spatial Pyramid Pooling)、Fast R-CNN、Fast R-CNN、リージョンベースのFully Convolutional Network (R-FCN)、Feature Pyramid Networkのような後継ネットワークの開発につながっている。 0.67
7 (FPN), and Mask R-CNN which are presented in the next paragraphs. 7 (fpn)、マスクr-cnnは次の段落で示される。 0.50
SPP-Net (Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition) [84]: This method introduces two changes to the existing R-CNN architecture. SPP-Net (Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition) [84]: 本手法は既存のR-CNNアーキテクチャに2つの変化をもたらす。 0.86
First, it aims to tackle the challenge of having a fixed-size window since important information can be lost or distorted, reducing accuracy. まず、重要な情報が失われたり歪んだりすることで精度を低下させるため、固定サイズのウィンドウを持つという課題に取り組む。 0.65
Second, SPP-Net computes the feature maps for the images instead of repeatedly computing them on each ROI region as the R-CNN. 次に、SPP-Netは、R-CNNとして各ROI領域で繰り返し計算する代わりに、画像の特徴マップを計算する。 0.63
The challenge of having a fixed-size window is tackled by adding a spatial pyramid to the top of the last convolutional layer before the FC layer. 固定サイズの窓を持つことの課題は、FC層の前の最後の畳み込み層の上部に空間ピラミッドを追加することで解決される。 0.80
Instead of cropping or warping the image, this method aggregates the information by pooling the features and feeding it to the FC layer. この方法は、画像をトリミングしたり、歪ませる代わりに、情報をプールしてfc層に供給することで集約する。 0.66
The spatial pyramid pooling is an extension of the Bagof-Words model released in 2006 [85]. 空間ピラミッドプーリングは2006年にリリースされたbagof-wordsモデルの拡張である [85]。 0.76
The difference between the R-CNN method and the spatial pyramid pooling methods can be illustrated as follows: The R-CNN method takes in an image, applies crop/warp, and passes it to the convolutional layer and then the FC layer. R-CNN法と空間ピラミッドプーリング法の違いは以下の通りである: R-CNN法は画像を取り込んで作物/ワープを適用し、畳み込み層とFC層に渡す。 0.69
The SPP-Net method takes an image, passes it directly to the convolutional layer, applies the spatial pyramid pooling, and then passes it to the FC layer. spp-net は画像を取得し、それを畳み込み層に直接渡し、空間ピラミッドプーリングを適用し、それをfc層に渡す。 0.57
The SPP-Net takes in the feature maps from the last layer of the convolutional layer to create feature maps of fixed-length feature vectors regardless of the input image size. spp-netは畳み込み層の最後の層から特徴マップを取り込み、入力画像サイズに関係なく固定長特徴ベクトルの特徴マップを作成する。 0.80
Images with different sizes can be pooled and aggregated into a spatial pyramid, which is then passed to the FC layer. 大きさの異なる画像をプールして、空間ピラミッドに集約し、fc層に渡すことができる。
訳抜け防止モード: 大きさの異なる画像をプールし、空間ピラミッドに集約することができる。 その後、FC層に渡される。
0.74
When this paper was released, four existing object detection architectures were compared with their non-SPP counterparts (ZF-5, Convnet*5, Overfeat-5, Overfeat-7), and the CNN with SPP-Net showed state-of-the-art classification results on Pascal VOC 2007 and ranked at number 2 on the ILSVRC 2014 competition [66]. この論文が公開されたとき、既存の4つのオブジェクト検出アーキテクチャをSPP以外のアーキテクチャ(ZF-5、Convnet*5、Overfeat-5、Overfeat-7)と比較し、SPP-Netを用いたCNNはPascal VOC 2007で最先端の分類結果を示し、ILSVRC 2014コンペティションで2位にランクインした。
訳抜け防止モード: この論文が公開されたとき、既存の4つのオブジェクト検出アーキテクチャを非SPP(ZF-5)と比較した。 Convnet*5, Overfeat-5, Overfeat-7 ), and the CNN with SPP - Net showed - the -the- art classification results on Pascal VOC 2007 ILSVRC 2014では2位にランクインした[66]。
0.75
The spatial pyramid pooling method is more efficient than its predecessor since it obtains a significant speedup. 空間ピラミッドプーリング法は, 高速化が図られるため, 前者よりも効率的である。 0.76
The speedup is due to the fact that the CNN layer generates a feature map by running one iteration on the image. スピードアップは、CNN層が画像を1回実行することで特徴マップを生成するためである。
訳抜け防止モード: スピードアップは、それが原因だ。 CNN層は、画像を1回実行することで特徴マップを生成する。
0.74
Furthermore, it is more accurate since it can learn feature maps from any scale without losing information to cropping or warping. さらに、クロッピングやウォーピングの情報を失うことなく、どんなスケールでも特徴地図を学習できるため、より正確である。 0.72
The multi-level pooling makes the input images more robust to deformation. マルチレベルプーリングにより、入力画像の変形がより堅牢になる。 0.67
The main drawbacks of SPP-Net are that it is still a multi-stage, multi-step pipeline (feature extraction, network fine-tuning, SVM training, bounding box regressor, feature caching), making it relatively slow. SPP-Netの主な欠点は、まだマルチステージのマルチステップパイプライン(機能抽出、ネットワーク微細チューニング、SVMトレーニング、バウンディングボックスレグレシタ、機能キャッシング)であり、比較的遅いことだ。 0.64
Furthermore, the authors of the paper mention that the accuracy of SPP-Net layers drops when using deeper CNN since tuning the network will not update the layers before the pyramid layer, leading to reduced accuracy and a very difficult challenge in implementing backpropagation. さらに,本論文の著者らは,ネットワークのチューニングがピラミッド層よりも前のレイヤを更新しないため,深いCNNを使用する場合,SPP-Net層の精度が低下する点を指摘する。 0.73
Fast R-CNN [86]: This paper addresses the problems arising from the SPP-Net and R-CNN architectures. 高速R-CNN [86]: SPP-NetおよびR-CNNアーキテクチャから生じる問題に対処する。 0.83
Until this paper’s 2015 publication date, object detection methods required generating several hundred regions known as ‘proposals’ to create a feature map; then, the proposals generated estimated the localization of the object. この論文が2015年に出版されるまで、オブジェクト検出手法は、機能マップを作成するために、'proposals'として知られる数百の領域を生成する必要があった。
訳抜け防止モード: この論文の2015年の公開日までは、オブジェクト検出メソッドが必要だった 機能マップを作成するために‘提案’と呼ばれる数百のリージョンを生成する 提案手法では,対象物の局在を推定した。
0.75
These proposals reduced speed and accuracy while increasing complexity. これらの提案は複雑さを高めながら速度と精度を低下させた。 0.52
Similiar to R-CNN, this method uses selective search to find the regions and この手法はR-CNNと似ており、領域の探索と探索に選択的探索を用いる。 0.59
英語(論文から抽出)日本語訳スコア
then passes the regions to the object detector. 次に領域を物体検出器に渡します 0.78
The method also consists of two SVM heads: one for classification to get the class category and the second regression to calculate the bounding box coordinates. この方法は2つのsvmヘッドで構成される: 1つはクラスカテゴリを取得するための分類、もう1つは境界ボックス座標を計算するための回帰である。 0.63
The difference is that instead of running the CNN several times on the RoI, it runs it only once by introducing RoI pooling. 違いは、CNNをRoI上で数回実行する代わりに、RoIプーリングを導入して1回だけ実行する点だ。 0.69
Second, it streamlines the process on the object detector side, where it jointly classifies and learns the object’s location simultaneously by using multiclass loss. 第二に、オブジェクト検出側のプロセスを合理化して、複数クラスの損失を使ってオブジェクトの位置を同時に分類し、学習する。 0.79
This method generally achieves a higher mAP by having a single stage for the training with a multi-task loss. この方法は一般に、マルチタスク損失のあるトレーニングのための単一のステージを持つことで、より高いmAPを達成する。 0.62
The increased accuracy is obtained by updating all layers. すべての層を更新することで精度が向上する。 0.72
The speed is achieved by not requiring the features to be cached and because Fast R-CNN learns the softmax classifier and bounding box regression together rather than in two separate processes. 高速なR-CNNは2つの別々のプロセスではなく、ソフトマックス分類器とバウンディングボックスの回帰を同時に学習するためである。 0.65
These improvements have led to a major decrease in storage space needed. これらの改良により、ストレージスペースは大幅に削減された。 0.75
Unlike the R-CNN, Fast R-CNN creates a feature map from the entire image. R-CNNとは異なり、Fast R-CNNは画像全体から特徴マップを作成する。 0.77
Furthermore, Fast RCNN method improves efficiency compared to the SPP-Net: 3x in training and 10x in testing. さらに、高速RCNN法は、SPP-Net:3倍、テストでは10倍の効率を向上する。 0.61
The authors report that ‘Fast R-CNN trains 9x faster than R-CNN on the VGG-16 and 213x faster at test-time, with a higher mAP on the PASCAL VOC 2007, 2010 and 2012 dataset...’ [94]. 著者らは「VGG-16ではR-CNNより9倍速く、テスト時には213倍速く、PASCAL VOC 2007と2010と2012のデータセットではmAPが高い」と報告している。 0.73
These speed improvements result from a single process that updates all layers without requiring feature caching. これらのスピード改善は、機能キャッシュを必要とせずにすべてのレイヤを更新する単一のプロセスによって実現される。 0.54
Moreover, to reduce the time spent on the FC layers, Fast R-CNN uses a truncated singular value decomposition (SVD) to accelerate the testing procedures [106]. さらに、fc層に費やす時間を短縮するために、高速r-cnnは切断特異値分解(svd)を使用して試験手順を加速する[106]。 0.72
This method has significantly increased the speed and efficiency of object detection, firstly, by streamlining the whole process and, secondly, by applying SVD on the testing set. この手法は, 物体検出の速度と効率を大幅に向上させ, 第一にプロセス全体を合理化し, 第二にテストセットにSVDを適用した。 0.80
Thus, Fast R-CNN is more of a speed improvement than an accuracy improvement. したがって、高速なR-CNNは精度の向上以上のスピード改善である。 0.80
On the same dataset that took 84 hours to train, Fast R-CNN performed it in 9 hours. トレーニングに84時間かかった同じデータセットで、Fast R-CNNは9時間で実行した。 0.77
A major drawback is that Fast R-CNN still relies on external region proposals that make the whole process relatively slow. 大きな欠点は、Fast R-CNNが依然としてプロセス全体を比較的遅くする外部領域の提案に依存していることだ。 0.64
It uses the selective search method to find the RoI. 選択探索法を用いてRoIを探索する。 0.61
Furthermore, later research has concluded that convolutional layers are sufficient to localize objects; therefore, adding an FC layer slows down the process unnecessarily. さらに、後の研究では、畳み込み層はオブジェクトをローカライズするのに十分であると結論付けているため、fc層を追加するとプロセスが不必要に遅くなる。 0.56
Faster R-CNN - Toward real-time object detection with region proposal networks [87]: Optimizations introduced by SPP-Net and Fast R-CNN have exposed the fact that using external region proposal methods slows down the process. 高速なR-CNN - 領域提案ネットワークを用いたリアルタイムオブジェクト検出 [87]: SPP-NetとFast R-CNNによって導入された最適化は、外部領域提案手法を使用することでプロセスが遅くなるという事実を明らかにしている。
訳抜け防止モード: 領域提案ネットワークを用いた高速r-cnn-リアルタイムオブジェクト検出 [87] : spp-netとfast r-cnnによる最適化 外部領域の提案メソッドを使用するとプロセスが遅くなる。
0.82
Previous networks mainly relied on selective search (SS) [83] and Edge box [88] to create region proposals. 従来のネットワークは主に選択的検索 (ss) [83] とエッジボックス [88] に依存して地域の提案を行った。 0.77
This paper introduces a region proposal network (RPN), which aims to replace the SS and Edge Box. 本稿では,SSとEdge Boxを置き換えることを目的とした地域提案ネットワーク(RPN)を提案する。 0.82
The RPN introduces an almost cost-free proposal computation. RPNは、ほとんど費用がかからない提案計算を導入した。 0.56
For RPN to compete with methods like selective search, it has to predict the RoI of multiple scales and ratios from an image much faster. RPNが選択探索のような手法と競合するには、画像から複数のスケールと比率のRoIを予測する必要がある。 0.74
Thus, RPN introduces a novel concept of creating anchors on the feature maps. したがって、RPNは特徴写像上のアンカーを作成するという新しい概念を導入した。 0.65
The RPN layer takes in the feature map and generates rectangular object bounds using CNN, which are the new ‘regions of interest’. RPN層は特徴マップを取り込み、CNNを使って長方形のオブジェクト境界を生成する。
訳抜け防止モード: RPN層は特徴写像を取り込み、CNNを用いて矩形オブジェクト境界を生成する。 これは新しい‘関心の領域’だ。
0.72
Faster R-CNN can be trained end-toend like Fast R-CNN. より高速なR-CNNは、Fast R-CNNのようにエンドツーエンドでトレーニングすることができる。 0.42
The RPN output tells the Fast R-CNN where to look. RPN出力は、Fast R-CNNにどこに見えるかを伝える。 0.72
The Faster R-CNN architecture is complex because it has several interconnected parts. より高速なR-CNNアーキテクチャは、複数の相互接続部品を持つため複雑である。 0.62
The RPN first 8 RPNファースト 8 0.49
initializes anchors of different ratios and scales on the feature maps created by the convolutional layer. 畳み込み層によって生成された特徴写像に異なる比率とスケールのアンカーを初期化する。 0.69
The paper’s author uses nine types of anchors when the RoI is decided on. 論文の著者は、RoIが決められたときに9種類のアンカーを使用する。 0.74
The anchors are off three scales and three ratios. アンカーは3つのスケールと3つの比率から外れている。 0.59
These anchors are mapped and fed into the two FC layers, where one layer is responsible for the category classification and the other for the box regression. これらのアンカーは2つのFC層にマッピングされ、一方の層がカテゴリー分類に、もう一方がボックス回帰に責任を持つ。 0.76
RPN shares the convolutional feature with the Fast R-CNN, enabling the same efficient computation as mentioned in the methodology of the previous paper. RPNはこの畳み込み機能をFast R-CNNと共有し、前回の論文の方法論で述べたような効率的な計算を可能にする。 0.67
On the VGG-16 model [33], the Faster R-CNN efficiently performs all steps on a 5fps with an accuracy exceeding all recorded results on the VOC 07 dataset with 73.2% mAP, and on VOC 12 with 70.4% mAP. VGG-16モデル[33]では、Faster R-CNNは、73.2% mAPのVOC 07データセットと70.4% mAPのVOC 12データセットのすべての記録結果を上回る精度で、5fpsのすべてのステップを効率的に実行している。 0.67
Although this method is several times faster than Fast R-CNN, it still relies on applying several hundred RoIs per image to detect the region of interest. この方法は、Fast R-CNNの何倍も高速であるが、興味のある領域を検出するために、画像ごとに数百のRoIを適用することに依存している。 0.59
This leads to computations not being shared after the RoI layer, reducing this method’s overall efficiency. これにより、RoIレイヤの後に計算が共有されないため、このメソッド全体の効率が低下する。 0.66
R-FCN - Object Detection via Region-based Fully Convolutional Networks [89]: In Faster R-CNN, each region proposal had to be cropped and resized to be fed into the Fast R-CNN network. R-FCN - リージョンベースのFully Convolutional Networks [89]: より高速なR-CNNでは、各リージョンの提案をトリミングして再サイズし、高速なR-CNNネットワークに入力する必要がある。 0.69
The R-FCN attempts to speed up the network by converting this process into fully convolutional. R-FCNは、このプロセスを完全な畳み込みに変換することでネットワークを高速化しようとする。
訳抜け防止モード: R-FCNの試み このプロセスを完全な畳み込みに変換することで ネットワークをスピードアップします
0.83
It aims to swap the costly per-region subnetworks with a fully convolutional one, thus allowing the computation to be shared across the whole image. リージョンごとのコストのかかるサブネットワークを完全な畳み込みのサブネットワークに置き換えることを目的としており、画像全体にわたって計算を共有できるようにする。 0.57
Furthermore, the R-FCN differs from the Faster R-CNN in the RoI pooling layer. さらにR-FCNは、RoIプーリング層のFaster R-CNNとは異なる。 0.78
The R-FCN proposes a method to use convolutional layers to create an RoI subnetwork. R-FCNは、畳み込み層を用いてRoIサブネットワークを作成する方法を提案する。 0.68
It uses the RPN introduced in the previous method to extract features and pass them on to the R-FCN. 以前の手法で導入されたRPNを使って特徴を抽出し、それらをR-FCNに渡す。 0.74
The RFCN then aggregates the output of the last convolutional layer and generates the scores for each RoI. その後、RFCNは最後の畳み込み層の出力を集約し、各RoIのスコアを生成する。 0.69
Instead of cropping the regions from the feature map, the R-FCN inputs the feature map into the regression and classification heads, creating an RoI map on the feature map. r-fcnは特徴マップから領域を絞り込む代わりに、特徴マップを回帰と分類ヘッドに入力し、特徴マップ上のroiマップを作成する。 0.70
R-FCN uses ResNet-101 as the backbone of its architecture [74]. R-FCNはアーキテクチャのバックボーンとしてResNet-101を使用している[74]。 0.59
ResNet-101 has 100 convolutional layers with a 1,000-FC layer. ResNet-101は1000-FC層を持つ100の畳み込み層を持つ。 0.62
The average pooling layer and the convolutional layers are removed, and the convolutional layer is used to compute the feature maps. 平均プーリング層と畳み込み層は除去され、畳み込み層は特徴マップを計算するために使用される。 0.74
A layer applied to the last convolutional block generates the score maps. 最後の畳み込みブロックに適用される層はスコアマップを生成する。 0.66
A sibling convolutional layer is also applied to calculate the bounding box regression. 境界ボックス回帰を計算するために兄弟畳み込み層も適用される。 0.69
On the PASCAL VOC 2007, it achieves an 83.6% mAP with the 101-layer ResNet. PASCAL VOC 2007では、101層のResNetで83.6%のmAPを達成した。 0.72
It suggests the same accuracy as the Faster R-CNN but achieves 20 times the speed of its Faster R-CNN counterpart. これはFaster R-CNNと同じ精度を示しているが、Faster R-CNNの20倍の速度を実現している。 0.71
Thus, RFCN introduces two advantages over its predecessors: First, CNN is faster than FC layers. したがって、rfcnは前者より2つの利点を導入している: まず、cnnはfc層よりも高速である。 0.56
Second, the network becomes scale-invariant since there is no FC to restrict the input image size. 第2に、入力画像サイズを制限するFCがないため、ネットワークはスケール不変となる。 0.78
FPN (Feature Pyramid Networks for Object Detection) [90]: This method was designed to address an issue with Faster RCNN. FPN (Feature Pyramid Networks for Object Detection) [90]: この手法は高速RCNNの問題に対処するために設計された。 0.83
Faster R-CNN was generally made to address the scaleinvariance problem introduced by Fast R-CNN. より高速なR-CNNは、Fast R-CNNが導入した大規模分散問題に対処するために作られた。 0.48
Faster R-CNN takes an input image and resizes it accordingly, meaning that the network has to run on the image several times with different box sizes, making it slow. より高速なr-cnnは入力イメージを取得してそれをリサイズする。つまり、ネットワークは、異なるボックスサイズで複数回、画像上で動作する必要があるため、動作が遅くなる。 0.65
The feature pyramid network (FPN) deals with these different scales while maintaining the 機能ピラミッドネットワーク(FPN)は、これらのスケールをメンテナンスしながら扱う。 0.71
英語(論文から抽出)日本語訳スコア
speed. The FPN is an extension of Faster R-CNN in the same manner that R-FCN is an extension of Faster R-CNN. スピード。 FPNはFaster R-CNNの拡張であり、R-FCNはFaster R-CNNの拡張である。 0.79
Having a robust scale invariance is important for object detection since the network should be able to recognize an object at any distance from the camera. ネットワークはカメラからあらゆる距離で物体を認識できるため、オブジェクト検出にはロバストなスケール不変性を持つことが重要である。 0.79
Faster R-CNN aimed to tackle this issue by creating anchor boxes. より高速なR-CNNはアンカーボックスを作成することでこの問題に対処しようとした。 0.51
This proved time-consuming since the anchor boxes had to be applied to each RoI. これは、アンカーボックスを各roiに適用する必要があるため、時間がかかります。 0.53
The FPN, however, creates multiple feature maps that aim to represent the image at different scales. しかし、fpnは異なるスケールで画像を表現しようとする複数の機能マップを作成している。 0.70
Hence, the feature map in RPN is replaced by the FPN, removing the necessity of having multi-scale anchor boxes. したがって、RPNの機能マップはFPNに置き換えられ、マルチスケールアンカーボックスを持つ必要がなくなる。 0.65
The regression and classification are applied across these multiple feature maps. 回帰と分類は、これらの複数の特徴マップに適用される。 0.67
The FPN takes in an input image and outputs multiple feature maps representing smaller height and width but deeper channels known as the bottom-up pathway. FPNは入力画像を取り込み、ボトムアップ経路として知られる、より小さい高さと幅を表す複数の特徴写像を出力する。 0.69
The feature maps generated by the FPN goes through a 1x1 convolutional layer with a depth of 256. fpnが生成する特徴マップは深さ256の1x1畳み込み層を通過する。 0.74
The lateral connection is then applied, which adds the feature elements to the upsampled version of the feature map. 横接続が適用されると、フィーチャーマップのアップサンプルバージョンに特徴要素が追加される。 0.68
Faster R-CNN runs on each scale, and predictions for each scale are generated. より高速なR-CNNは各スケールで動作し、各スケールの予測が生成される。 0.69
FPN comprises two paths: the bottom-up that uses ResNet and the top-down. FPNはResNetを使用するボトムアップとトップダウンの2つのパスで構成されている。 0.50
In the bottom-up approach, CNN is applied to extract features. ボトムアップアプローチでは、CNNを特徴抽出に適用する。 0.62
On the top-down pathway, the FPN constructs a higher resolution layer, but the object locations are no longer accurate because of the down and upsampling. トップダウン経路では、FPNは高分解能層を構築するが、ダウンとアップサンプリングのため、物体の位置はもはや正確ではない。 0.64
Therefore, FPN adds a lateral connection between the constructed layers to increase the probability of predicting locations. したがって、fpnは構築層間の側線接続を追加し、位置予測の確率を増加させる。 0.65
This method runs at 5 fps, as benchmarked by the previous methodology with a state-of-the-art result on the COCO 2016 dataset. このメソッドは5 fpsで動作し、coco 2016データセットの最先端の結果を以前の方法論でベンチマークした。 0.61
Images have objects with different scales, making it challenging to detect them. 画像には異なるスケールのオブジェクトがあり、それらを検出するのが難しい。 0.69
When using several anchor boxes to detect objects with different scales, the ratio seems to be memory- and time-consuming. 異なるスケールのオブジェクトを検出するために複数のアンカーボックスを使用する場合、その比率はメモリと時間を要するように思われる。 0.65
FPN seems to push the accuracy boundaries by introducing a pyramid of feature maps to detect objects of different sizes and scales in an image. FPNは、画像のさまざまなサイズとスケールのオブジェクトを検出するために、特徴マップのピラミッドを導入することで、精度の境界を推し進めているようだ。
訳抜け防止モード: FPNは精度境界を推し進めているようだ 画像内のさまざまな大きさとスケールのオブジェクトを検出するために、特徴マップのピラミッドを導入する。
0.76
It is important to highlight that FPN is a feature detector and not an object detector. FPNは特徴検出器であり、対象検出器ではない点を強調することが重要である。 0.69
Therefore, FPN has to be used with an object detector in its RoI. したがって、FPNはRoIの物体検出器で使用される必要がある。 0.75
Mask R-CNN [91]: This method extends Faster R-CNN by adding another layer to predict the object mask in parallel with the existing bounding box layer. mask r-cnn [91]: 既存のバウンディングボックス層と並行してオブジェクトマスクを予測するために別のレイヤを追加することで、より高速なr-cnnを拡張する。 0.60
This is a framework that enables instance segmentation on a state-of-the-art level. これは最先端のレベルでインスタンスセグメンテーションを可能にするフレームワークである。 0.68
The mask branch added to the Faster R-CNN is a small FCN applied to each RoI, which predicts on a pixel-to-pixel basis. Faster R-CNNに追加されるマスクブランチは、各RoIに適用される小さなFCNであり、ピクセル単位で予測される。 0.71
Briefly, the Faster R-CNN has two stages: the RPN and the Fast R-CNN combined. 簡単に言えば、Faster R-CNNにはRPNとFast R-CNNの2つのステージがある。 0.68
The Mask R-CNN adopts the same notion as an identical first stage of RPN, and in the second stage, it outputs a mask for each RoI in parallel to the predicting class and box. Mask R-CNNはRPNの1段目と同じ概念を採用し、2段目では予測クラスとボックスと並行して各RoIのマスクを出力する。 0.68
The branch added to the second layer is an FCN on top of a CNN feature map. 第2層に追加されるブランチは、CNNフィーチャーマップの上のFCNである。 0.70
The ROI poolings lead to misalignment; therefore, the RoIAlign layer is proposed to preserve the pixel-level alignments. ROIプーリングは不整合をもたらすため、画素レベルのアライメントを維持するためにRoIAlign層が提案されている。 0.69
The main method Mask R-CNN introduces is the RoIAlign, which preserves the pixel–spatial correspondences and replaces the quantization from the RoI pooling with bilinear interpolation. Mask R-CNNが導入する主要な方法は、ピクセルと空間の対応を保ち、RoIプールの量子化を双線型補間で置き換えるRoIAlignである。 0.57
The state-ofthe-art results are achieved by ResNeXt101-FPN in the Coco dataset. 最先端の結果は、CocoデータセットのResNeXt101-FPNによって達成される。 0.49
The additional mask branch added introduces minor 追加のマスクブランチがマイナーを導入 0.71
computational additions. Mask R-CNN is a very promising instance segmentation method that is very flexible and efficient for instance-level segmentation. 計算処理の追加。 Mask R-CNNは、インスタンスレベルのセグメンテーションに非常に柔軟で効率的な、非常に有望なインスタンスセグメンテーション手法である。 0.57
However, as with the original Faster R-CNN, this architecture struggles with smaller-sized objects, mainly because of the feature maps’ coarseness. しかし、オリジナルのFaster R-CNNと同様に、このアーキテクチャは、主にフィーチャーマップの粗さのために、小さなオブジェクトと苦労している。 0.64
Other image classifications and object detections include but are not limited to NOC, Bayes, MR-CNN and S-CNN, HyperNet, ION, MSGR, StuffNet, OHEM, SDP+CRC, SubCNN, GBD-Net, PLANET, NIN, GoogLeNet, VGGNet, ResNet, DenseNet, RetinaNet, ResNet, Corner Net, Inception, Hourglass, Dilated Residual Networks, Xception, VGG, DetNet, Inception, Dual Path Networks (DPN), FishNet, ResNeXt, and GLoRe [66, 76, 92]. その他の画像分類やオブジェクト検出には、NOC、Bayes、MR-CNN、S-CNN、HyperNet、ION、MSGR、StuffNet、OHEM、SDP+CRC、SubCNN、GBD-Net、PLANET、NIN、GoogLeNet、VGGNet、ResNet、DenseNet、RetinaNet、ResNet、CornerNet、Inception、Hourglass、Dilated Residual Networks、Xception、VGG、DetNet、Inception、Dual Path Networks(DPN)、FishNet、ResNeXt、GLoRe[66, 76, 92)がある。 0.78
For microcirculation analysis, we conclude that deep convolutional neural networks have lifted much of the burden for feature engineering, which was the main focus in the pre-D-CNN era, and changed the focus to designing more accurate and efficient network architecture. マイクロサーキュレーション解析では,d-cnn時代の中心的課題であった機能工学の負担の多くを深層畳み込みニューラルネットワークが軽減し,より正確で効率的なネットワークアーキテクチャの設計に焦点を移したと結論づける。 0.83
Despite the great successes, all methods suffer from the intense labor of creating the bounding boxes. 大きな成功にもかかわらず、あらゆる手法は境界箱を作るという激しい努力に苦しむ。 0.78
All ‘newer’ methods need exponentially more RAM and GPU in exchange for increased accuracy. すべての‘新しい’メソッドは、精度の向上と引き換えに、指数関数的に多くのRAMとGPUを必要とする。 0.56
Furthermore, detecting small-size objects and localizing these objects remains a challenge. さらに、小型オブジェクトの検出とローカライズは依然として課題である。 0.72
Using the stated architectures still requires an experienced machine learning engineer to select the appropriate parameters of the algorithms in order to learn the patterns of the small-sized objects. 前述のアーキテクチャを使用するには、経験豊富な機械学習エンジニアが、小さなオブジェクトのパターンを学ぶために、アルゴリズムの適切なパラメータを選択する必要がある。 0.71
Several solutions have been suggested by the literature, including multi-task learning (Stuffnet) [93], multi-scale representation (IONet) [94], and context modeling (HyperNet) [95]. 論文では,マルチタスク学習(Stuffnet) [93],マルチスケール表現(IONet) [94],コンテキストモデリング(HyperNet) [95]など,いくつかのソリューションが提案されている。 0.85
On the other hand, methods have been proposed to deal with large data imbalances between the objects and the background, such as the online mining algorithms (OHEM) [96]. 一方で,オンラインマイニングアルゴリズム (ohem) [96] など,オブジェクトとバックグラウンド間の大規模なデータ不均衡に対処する手法が提案されている。 0.76
For microcirculation analysis, we believe that a Region Proposal Based Framework achieves better microcirculation data accuracy overall. マイクロ循環解析のために,地域提案に基づくフレームワークは,より優れたマイクロ循環データ精度を実現すると信じている。 0.63
B. Unified Based Framework B.Unified ベースのフレームワーク 0.77
You Only Look Once (YOLO) [97]: YOLO is a Unified Based Framework for object detection suggested by Redmon et al [97]. You Only Look Once (YOLO) [97]: YOLOはRedmonらによって提案されたオブジェクト検出のための統一ベースフレームワークです。 0.77
The most significant difference between this architecture and the methods in the Region Proposal Based Framework is the ability to track objects in real time. ドメイン提案ベースフレームワークにおけるこのアーキテクチャとメソッドの最も重要な違いは、オブジェクトをリアルタイムで追跡できることである。 0.76
As mentioned earlier, Fast R-CNN (Regions with Convolutional Neural Networks) proposes 2,000 regions to be predicted, while YOLO takes that down to 100 regions. 先に述べたように、Fast R-CNN(Regions with Convolutional Neural Networks)は予測すべき2000のリージョンを提案している。 0.68
On a Titan X GPU, YOLO can classify up to 45 frames per second compared to Fast R-CNN at 0.5 frames per second. Titan X GPUでは、yoLOはFast R-CNNの0.5フレーム/秒と比較して最大45フレーム/秒まで分類できる。 0.77
YOLO takes a 224x224 image as an input and divides the image into several grids. YOLOは入力として224x224画像を取り込み、画像を複数のグリッドに分割する。 0.70
It then classifies each object within that grid by giving it two scores: what class it belongs to and confidence percentage. 次に、グリッド内の各オブジェクトを、どのクラスに属しているか、信頼率の2つのスコアで分類する。 0.67
The classification is done by a 24-convolutional layer with a two-FC layer. この分類は、2fc層を有する24コンボリューション層によって行われる。 0.70
According to the tests, YOLO was ineffective at localization, and had low accuracy with comparison to R-CNN. 実験の結果, YOLOはローカライゼーションでは有効ではなく, R-CNNと比較して精度が低かった。 0.74
Despite the high speed of YOLO, the low accuracy makes it an unsuitable choice for microcirculation analysis. YOLOの高速にもかかわらず、精度は低いため、微小循環解析には適さない。 0.70
YOLOv2 [98]: YOLOv2 addresses the precision issues brought by YOLOv1. YOLOv2 [98]: YOLOv2は、YOLOv1がもたらす精度の問題に対処する。 0.75
It first replaces the CNN classifier with CNN分類器を最初に置き換える 0.75
9 9 0.42
英語(論文から抽出)日本語訳スコア
DarkNet19 instead of GoogLeNet. GoogLeNetの代わりにDarkNet19。 0.82
DarkNet19 is a simpler classifier utilizing 19 convolutional layers followed by five max-pooling layers, allowing for faster performance on the same dataset. darknet19は、19の畳み込み層と5つの最大プール層を利用した、よりシンプルな分類器である。 0.70
It also removes the FC layer for prediction and uses the anchor boxes method instead, increasing the recall accuracy by 7%. また、予測のためにfc層を取り除き、代わりにアンカーボックス法を使用し、リコール精度を7%向上させる。 0.58
Batch normalization is added between each convolutional layer, increasing the mAP by 2%. 各畳み込み層の間にバッチ正規化を加え、mAPを2%増加させる。 0.62
Furthermore, it increases the image input from 224x224 to 448x448, which increases the mAP by an additional 4%. さらに、画像入力を224x224から448x448に増加させ、mAPを4%増加させる。 0.72
In faster R-CNN, the size of the anchor boxes is defined beforehand, and YOLOv2 utilizes k-means clustering on the training set to find the right aspect ratio of the anchor boxes to use, increasing its accuracy by a further 5%. より高速なR-CNNでは、アンカーボックスのサイズが事前に定義され、YOLOv2はトレーニングセット上のk平均クラスタリングを使用して、アンカーボックスの適切なアスペクト比を見つけ、その精度を5%向上させる。 0.65
YOLOv3 [99]: This is an improved version over YOLOv3 [99]: これは改善されたバージョンオーバーである 0.83
the YOLOv2 that increases overall accuracy with multi-scale labeling of small objects. YOLOv2は、小さなオブジェクトのマルチスケールラベリングで全体的な精度を高める。 0.67
YOLOv3 uses three separate feature maps to predict the ROIs. YOLOv3はROIを予測するために、3つの別々の機能マップを使用する。 0.56
It also uses DarkNet53 with independent logistic classifiers, allowing it to detect multi-overlapping objects in the image. また、DarkNet53と独立したロジスティック分類器を使用して、画像内の複数重なり合うオブジェクトを検出する。 0.69
With these changes, YOLOv3 is suited to detect smaller objects within the grid, but it performs worse with medium to larger objects. これらの変更により、YOLOv3はグリッド内の小さなオブジェクトを検出するのに適しているが、中から大きなオブジェクトではパフォーマンスが悪くなる。 0.63
Single Shot Multibox Detector (SSD) [100]: This improved the detection precision of a one-stage detector by implementing multi-reference and multi-resolution detection techniques. シングルショットマルチボックス検出器(ssd)[100]:マルチリファレンスおよびマルチレゾリューション検出技術を実装することにより、ワンステージ検出器の検出精度が向上した。 0.78
SSD detected objects of different sizes and scales across the network instead of just applying detection on the last layer. SSDは、最終層に検出を適用するのではなく、異なるサイズとスケールのオブジェクトをネットワーク全体で検出する。 0.74
SSD maintains the speed of YOLO but has higher accuracy on the same standardized sets used to benchmark YOLO. SSD は YOLO の速度を維持するが、YOLO のベンチマークに使われる標準セットよりも精度が高い。 0.83
SSD uses VGG16 as its backbone for image classification. SSDは画像分類のバックボーンとしてVGG16を使用している。 0.64
RetinaNet [101]: This introduces focal loss, which increases the prediction accuracy on small and medium objects compared to the previously mentioned detectors. retinanet [101]: これは焦点損失を導入し、前述した検出器と比較して中小オブジェクトの予測精度を高める。 0.78
In an image, the object of interest is relatively smaller than the background image. 画像において、興味のある対象は背景画像よりも比較的小さい。 0.75
Therefore, the number of background images creates a class imbalance. したがって、背景画像の数はクラス不均衡を引き起こす。 0.83
The focal loss function aims to increase the weight of the minority class while reducing the weight associated with the majority class. 焦点損失関数は、マイノリティクラスの重みを増加させ、マジョリティクラスに関連する重みを減少させることを目的としている。 0.61
RetinaNet archives comparable accuracies with the region proposal based framework at the expense of speed. retinanet archivesは、スピードを犠牲にして、リージョンの提案ベースのフレームワークと比較できる。 0.53
CornerNet [102] challenges the use of anchor boxes by stating that they create the data imbalance issue in the first place. CornerNet [102]は、そもそもデータ不均衡の問題を発生させることで、アンカーボックスの使用に挑戦します。
訳抜け防止モード: CornerNet [ 102 ] はアンカーボックスの使用に挑戦する そもそもデータ不均衡の問題を生み出していると 述べています
0.77
It also states that anchor boxes create unnecessary parameters that have to be tuned, which slows down the training and prediction time. また、アンカーボックスは調整が必要な不要なパラメータを生成し、トレーニングと予測時間を遅くする、とも述べている。 0.66
Instead, CornerNet uses key points in a bounding box with a single convolutional neural network. 代わりにcornernetは、単一の畳み込みニューラルネットワークを持つバウンディングボックス内のキーポイントを使用する。 0.71
It achieves the highest accuracy when compared to the standard benchmark dataset; however, it is slower than YOLO. 標準ベンチマークデータセットと比較して高い精度を実現しているが、yoloよりは遅い。 0.52
When examining the architectures in the Unified Framework, we generally notice a trade-off between speed and accuracy. 統一フレームワークのアーキテクチャを調べるとき、一般的にスピードと正確さのトレードオフに気付きます。 0.67
With the above methods, as accuracy increased, the time for detection also increased. 以上の方法では,精度が向上し,検出時間も増加した。 0.80
In microcirculation analysis, having an accurate method is more important than a fast method. マイクロサーキュレーション解析では、高速な方法よりも正確な方法を持つことが重要である。 0.68
Moreover, the difference in time analysis between the unified framework and the region proposed framework in microcirculation image analysis can boil down a few さらに、マイクロ循環画像解析における統合されたフレームワークと提案された領域間の時間解析の差も少なくない。 0.80
seconds. Therefore, we recommend the use of region proposed framework for microcirculation analysis. 数秒 そこで我々は,マイクロ循環分析のための領域提案フレームワークを推奨する。 0.70
C. Upscaling Images using Deep Neural Networks ディープニューラルネットワークを用いたC.アップスケーリング画像 0.66
From our research, the microscope videos have very low resolution. 我々の研究によると、顕微鏡ビデオの解像度は非常に低い。 0.67
Upscaling the image might help the researcher annotate the data better. 画像のスケールアップは、研究者がデータをアノテートするのに役立ちます。 0.57
The upscaling process involves improving an image’s details by increasing the dimensions and interpolating those extra pixels using a mathematical method. 拡大するプロセスでは、画像のディテールを改良し、その余分なピクセルを数学的手法で補間する。
訳抜け防止モード: スケールアッププロセスには 次元を拡大し、数学的手法を使って余分なピクセルを補間することで、画像の詳細を改善する。
0.60
These mathematical methods include Enhanced Deep Super-Resolution Network (EDSR) [103], Efficient Sub-pixel Convolutional Neural Network (ESPCN) ([104], Fast SuperResolution Convolutional Neural Network (FSRCNN) [105] and Laplacian Pyramid Super-Resolution Network (LapSRN) [106]. これらの数学的手法には、EDSR (Enhanced Deep Super-Resolution Network) [103]、ESPCN (Efficient Sub-Pixel Convolutional Neural Network) [104]、FSRCNN (Fast Super Resolution Convolutional Neural Network) [105]、LapSRN (Laplacian Pyramid Super-Resolution Network) [106]がある。 0.84
EDSR employs an architecture similar to ResNet without the batch normalization layer and the ReLU activation layer after the residual block. EDSRでは、バッチ正規化層とReLUアクティベーション層を残らずにResNetに似たアーキテクチャを採用している。 0.62
This architecture can be used to create a scale factor of 2. このアーキテクチャは,2のスケールファクタの生成に使用することができる。 0.73
ESPCN extracts the feature maps and applies the upscaling at the end of the network. ESPCNは特徴マップを抽出し、ネットワークの最後にアップスケーリングを適用する。 0.78
Like ESPCN, FSRCNN applies upscaling at the end of the network with a smaller filter size. ESPCNと同様に、FSRCNNはフィルタサイズが小さいネットワークの端にアップスケーリングを適用する。 0.83
LapSRN is based on the Laplacian pyramids concept, upscaling gradually through the network. lapsrnは、ネットワークを通じて徐々に拡大するラプラシアピラミッドの概念に基づいている。 0.60
VI. TRADITIONAL COMPUTER VISION OBJECT VI。 従来のコンピュータビジョンオブジェクト 0.69
DETECTION TECHNIQUES In this part, we present computer vision object detection techniques that can be used for microcirculation analysis. 検出技術 本稿では,マイクロ循環解析に使用可能なコンピュータビジョン物体検出手法を提案する。 0.61
These presented methods do not use neural networks for classification. これらの手法はニューラルネットワークを分類に用いない。 0.79
Such techniques are also known as feature descriptors; they were gaining momentum from the early 1990s until the rise of deep learning in 2012 [76]. このようなテクニックは機能記述子としても知られ、1990年代初頭から2012年のディープラーニングの台頭まで勢いを増していた [76]。
訳抜け防止モード: このようなテクニックはフィーチャーディスクリプタとしても知られています 対象は1990年代前半から2012年のディープラーニングの台頭まで [76] 。
0.75
Although feature descriptors have fallen out of favor compared to deep learning with the benchmark datasets, they are still very relevant for microcirculation analysis. 機能記述子は、ベンチマークデータセットのディープラーニングよりも好ましくないが、それでもマイクロ循環分析に非常に関係がある。 0.62
Their computational power and simplicity make these algorithms easier to implement on lowpowered or battery-powered devices in hospitals. その計算能力と単純さにより、これらのアルゴリズムは病院の低電力またはバッテリー駆動デバイスで容易に実装できる。 0.64
Computer vision techniques aim to locate the image of interest from the background by distinguishing between edges, colors, textures, corners, and other image properties. コンピュータビジョン技術は、エッジ、色、テクスチャ、コーナー、その他の画像特性を区別することで、背景からの関心の画像を見つけることを目的としている。 0.64
Such traditional computer vision techniques needs the values coded beforehand, which were found via trial-and-error methods and domain expertise. このような従来のコンピュータビジョン技術は、試行錯誤法やドメインの専門知識を通じて、事前にコーディングされた値を必要とする。 0.54
Below are three computer vision techniques detection methods that can used for microcirculation analysis. 以下は、マイクロ循環分析に使用できる3つのコンピュータビジョン技術検出方法である。 0.76
Template matching-based object detection [107] methods consist of two steps. テンプレートマッチングに基づくオブジェクト検出 [107] メソッドは2つのステップからなる。 0.79
The first step is the template generation step, in which a template is generated by an expert based on the training set; the second step involves matching new data with that template-based image. 最初のステップはテンプレート生成ステップで、トレーニングセットに基づいて専門家によってテンプレートが生成される。
訳抜け防止モード: 最初のステップはテンプレート生成ステップです。 テンプレートはトレーニングセットに基づいて専門家によって生成される 2番目のステップは、新しいデータとテンプレートベースのイメージとのマッチングである。
0.81
A similar measure is then applied to detect similarities between these images. 同様の測定を行い、画像間の類似性を検出する。 0.77
Statistical methods like the sum of absolute differences or Euclidean distances can quantify the similarities between the template and test data. 絶対差の和やユークリッド距離のような統計的手法は、テンプレートとテストデータの類似性を定量化することができる。 0.69
The template matching detection stage can be further categorized into methods: Rigid Template Matching (RTM) and Deformable Template Matching (DTM). テンプレートマッチング検出段階はさらに、剛性テンプレートマッチング(rtm)および変形可能なテンプレートマッチング(dtm)の方法に分類することができる。 0.85
Further modifications for the stated template methods include the Scale-Invariant Feature Transform (SIFT), the Speeded-Up テンプレートメソッドのさらなる変更には、SIFT(Scale-Invariant Feature Transform)、Speeded-Upなどがある。
訳抜け防止モード: テンプレートメソッドのさらなる変更には、Scale - Invariant Feature Transform (SIFT )がある。 Speeded - Up
0.83
10 10 0.42
英語(論文から抽出)日本語訳スコア
Robust Features (SURF), and the Binary Robust Independent Elementary Features (BRIEF). Robust Features (SURF) と Binary Robust Independent Elementary Features (BRIEF)。 0.69
The main disadvantage of RTM is that it is sensitive to slight changes in viewpoint, shadows, and other challenges, as was stated earlier, while DTM needs a lot of geometrical engineering in the template beforehand. RTMの主な欠点は、前述したように、視点、影、その他の課題の微妙な変化に敏感であり、DTMは事前にテンプレートに多くの幾何学的工学を必要とすることである。 0.75
Moreover, these templates require two independent parameters to be tuned, the template to be generated from the training set, and the most suitable method for measuring similarities to be selected. さらに、これらのテンプレートは、チューニングされる2つの独立したパラメータ、トレーニングセットから生成されるテンプレート、選択される類似度を測定するための最も適切な方法を必要とする。 0.74
This makes this approach time-consuming for the case of microcirculation analysis. これにより、微小循環解析の場合、このアプローチは時間がかかる。 0.64
Another set of methods involves knowledge-based object detection [108]. 別の手法には知識に基づくオブジェクト検出 [108] がある。 0.80
These can be further divided into geometric knowledge and context knowledge. これらはさらに幾何学的知識と文脈的知識に分けられる。 0.72
A priori knowledge of the shape is encoded into the geometric knowledge methods. 形状の事前知識は幾何学的知識法に符号化される。 0.80
However, this is extremely difficult with capillaries since the shapes are irregular. しかし、形状が不規則であるため毛細血管では極めて困難である。 0.73
Context knowledge encodes the spatial relationship between the object and the background around how the neighboring pixels interact. コンテキスト知識は、隣接するピクセルの相互作用に関するオブジェクトと背景の間の空間的関係を符号化する。 0.75
Again, due to the different shades of the skin and the blood, this method is not preferred for microcirculation analysis. 繰り返しますが、皮膚と血液の異なる色合いのため、この方法は微小循環解析には好ましくありません。 0.69
Object detection based on object-based image analysis (OBIA) [109] is the most promising for microcirculation analysis and comprises two parts: the image segmentation part and the object classification part. オブジェクトベース画像解析(OBIA) [109] に基づく物体検出は、微小循環解析において最も有望であり、画像分割部と物体分類部の2つの部分からなる。 0.88
OBIA aims to group similar pixels together based on statistical methods. OBIAは、統計手法に基づいて類似のピクセルをまとめることを目的としている。 0.50
In the case of microcirculation analysis, we would like to highlight the pixels of capillaries and separate them from the background. 微小循環解析の場合、毛細血管のピクセルをハイライトし、背景から分離したいと思います。 0.55
Promising methods under the OBIA techniques are background subtraction methods, geometric transformation methods, and image thresholding techniques. obia技術の下で有望な方法は、背景減算法、幾何変換法、および画像しきい値法である。 0.63
These methods can be used in combination with each other or independently to detect capillaries in an image. これらの手法は、画像中の毛細血管を検出するために、互いに組み合わせたり、独立して使用できる。
訳抜け防止モード: これらの方法は、互いに組み合わせて、または独立して使用できる 画像中の毛細血管を検出する。
0.68
A. Background Subtraction Methods A.バックグラウンドサブトラクション法 0.66
Background subtraction is a step in image preprocessing, where the goal is to remove the background and keep the object of interest [110]. 背景のサブトラクションは、画像前処理におけるステップであり、ゴールは背景を取り除き、関心の対象を維持することである [110]。
訳抜け防止モード: 背景の減算は画像前処理のステップであり、そこでは 目的は 背景を取り除き 関心の対象を維持することです [110]
0.85
The three methods stated next can take in an image of microcirculation and attempt to calculate an approximation of the location of the capillaries. 次に述べた3つの方法は、微小循環の像を取り込み、毛細血管の位置の近似を計算しようとする。 0.75
• Mixture of Gaussian Method: this method uses Gaussian mixture-based background/foregroun d segmentation [111]. • ガウス法の混合:この方法はガウス混合ベースの背景/フォアグラウンドセグメンテーション[111]を用いる。 0.72
It takes in a pixel with a K Gaussian distribution and attempts to model the background. Kガウス分布を持つピクセルを取り込み、背景をモデル化しようとする。 0.64
This method is based on using the L-recent window version after the sufficient statistics equation is calculated, • Improved Mixture of Gaussian Method: 本手法は, 十分な統計式が計算された後, L-Recent ウィンドウ版を用いて • ガウス法の混合性を改良した。 0.72
this method is also based on a Gaussian mixture-based background/foregroun d segmentation but uses recursive equations to update the parameters [112]. この手法はガウス混合による背景/地上のセグメンテーションにも基づいているが,再帰方程式を用いてパラメータを更新する[112]。 0.72
The previous method selects the background based on K Gaussian distribution, while this method uses an adaptive density estimation [113], 前者はkガウス分布に基づいて背景を選択するが,本手法では適応密度推定 [113] を用いる。 0.83
• Statistical background image estimation: this method uses Bayesian segmentation with Kalman filters and Gale- •統計的背景画像推定:カルマンフィルタとガレを用いたベイズ分割を用いた手法- 0.72
Shapley [114] matching to approximate the background image. 背景画像の近似にマッチしたシェープ[114]。 0.72
Marcomini et al [115] compare the performances of all three abovementioned methods using accuracy rate, precision rate, and processing time and conclude that the improved mixture of Gaussian methods had the best performance in their experimental dataset. Marcominiら[115]は、精度率、精度率、処理時間を用いて上記の3つの手法のパフォーマンスを比較し、改良されたガウス法の混合が実験データセットで最高の性能を示したと結論付けた。
訳抜け防止モード: marcomini et al [115 ] 精度,精度,処理時間を用いて,上記3つの手法の性能を比較する そして、ガウス法の混合が改良され、実験データセットで最高の性能が得られたと結論づけた。
0.82
This has also been shown to be the best method among the three for background selection in the CapillaryNet paper [116]. これはcapillarynet紙[116]における背景選択のための3つの中で最良の方法であることが示されている。
訳抜け防止モード: これはまた キャピラリーネット用紙[116]において、背景選択のための3つのうち最良の方法となる。
0.81
B. Image Thresholding Techniques In its simplest form, thresholding involves changing a pixel value if it is above or below a certain value [117]. B.画像保持技術 最も単純な形式では、閾値は、ある値[117]の上か下にある場合のピクセル値を変更する。 0.71
This value or threshold can be determined by several methods, and the change of value can also be calculated by different methods. この値またはしきい値はいくつかの方法で決定でき、値の変化は異なる方法で計算することもできる。 0.85
In microcirculation, this can be beneficial for determining the set of values that represent the capillary and the other that represents the background. 微小循環では、毛細血管を表す値と背景を表す値のセットを決定するのに有用である。 0.57
Listed below are five thresholding techniques that can be used for microcirculation analysis. 以下に示すのは、微小循環解析に使用できる5つのしきい値技術である。 0.64
• Binary Threshold: this method takes in two values—the threshold value and the value to be given if the value is higher than the threshold value. • バイナリしきい値: この方法は2つの値 — しきい値と、その値がしきい値よりも高い場合に与えられる値 — を取り込む。 0.85
The values under the threshold value will be set to zero, しきい値の下の値は 0 に設定されます。 0.78
• Truncating Threshold: similar to the above method, it takes in two values. • 切断しきい値:上記の方法と同様、2つの値を取る。 0.83
However, anything lower than the threshold value remains the same, while anything higher gets the assigned value, しかし、しきい値よりも低い値が同じであり、より高い値が割り当てられた値になる。 0.79
• Zero Threshold: anything lower than the threshold value •ゼロしきい値:しきい値より低いもの 0.79
becomes zero, while anything higher stays the same. ゼロになりますが それ以上のものは同じです 0.69
The above methods are fairly simple, and these values are determined by the user. 上記の方法は極めて単純であり、これらの値はユーザによって決定される。 0.79
However, they are not the optimal method if different parts of the same image have different illumination. しかし、同じ画像の異なる部分が異なる照明を持つ場合、それらは最適な方法ではない。 0.77
The object of interest may have a higher or lower value depending on the light; therefore, the next two methods were designed to deal with this issue. 興味の対象は光によって高い値または低い値を持つ可能性があるため、次の2つの方法はこの問題に対処するように設計されている。 0.67
• Adaptive Thresholding [118]: •適応しきい値[118]: 0.81
thresholding is applied locally on some pixels rather than globally on the whole image. しきい値付けは、全体像ではなく、一部の画素に局所的に適用される。 0.61
Thresholding can be calculated in two ways: mean of an area or weighted sum where the weights are decided by a Gaussian window. 閾値は、面積の平均または重さがガウス窓によって決定される重み付け和の2つの方法で計算できる。 0.77
The size of the window is decided by the user. ウィンドウのサイズはユーザによって決定される。 0.86
This way, every window-sized part of the image gets a threshold applied to it based on a calculation, this method is optimal for images with two peaks in their histogram. このように、画像のウィンドウサイズの部分は計算に基づいてしきい値が適用されるので、この方法はヒストグラムに2つのピークを持つ画像に最適である。 0.81
It finds a value between the two peaks in a histogram where the variance is minimal for both classes and applies thresholding based on that. 両クラスで分散が最小となるヒストグラム内の2つのピーク間の値を見つけ、それに基づいてしきい値を適用する。 0.80
• OTSU Binarization [119]: ・大津二元化(119年) 0.32
C. Edges and Lines There are several methods for detecting edges and outlines to C.エッジとライン エッジやアウトラインを検出する方法はいくつかある。 0.81
those most relevant 最も関係のあるものは 0.47
of the capillaries. Below, we list microcirculation detection. 毛細血管の 以下はマイクロ循環検出の一覧である。 0.54
• Contours [120]: this involves drawing a line joining the pixels with the same color or intensity. •輪郭[120]:同じ色や強度でピクセルを接合する線を描くこと。
訳抜け防止モード: • Contours [ 120 ] : これは同じ色または強度でピクセルを接合する線を描くことを含む。
0.92
In our case, this can help highlight the outline of a capillary. 私たちの場合、毛細血管の輪郭をハイライトするのに役立ちます。 0.59
This 11 これ 11 0.58
英語(論文から抽出)日本語訳スコア
method has the highest accuracy when thresholding is applied beforehand, so more pixels have similar values. しきい値が予め適用される場合の精度が最も高いため、同じ値の画素が多い。 0.77
In the below method, we use a marching square algorithm, which linearly interpolates the pixel values to find the algorithm output [120], 以下に示す方法では, 画素値を線形に補間し, アルゴリズム出力[120]を求めるマーチング正方アルゴリズムを用いる。 0.74
• The Canny edge detector [121] can detect and quantize the capillary area. •キャニーエッジ検出器[121]はキャピラリー領域を検出し定量化することができる。 0.83
This is a multistage detector that uses a Gaussian derivative to compute the gradients. これは、ガウス微分を用いて勾配を計算する多段検出器である。 0.69
The Gaussian attempts to reduce the noise in the image, and the curves are detected by selecting the maximum pixel value, ガウスは画像内のノイズを低減しようと試み、最大画素値を選択して曲線を検出する。 0.66
• Skeletonization [122] is a method used to find the central pixels within the border image to get the object topology. •スケルトン化[122]は、オブジェクトトポロジを得るために境界画像内の中心画素を見つけるために使用される方法である。 0.80
This method iterates over the image several times, starting from the border of the object and moving toward the center until it terminates. この方法は、オブジェクトの境界から始まり、終了するまで中心に向かって移動しながら、イメージを何度も反復する。 0.81
D. Histogram Equalization D.ヒストグラム等化 0.76
An image can be enhanced using histogram equalization methods. ヒストグラム等化法を用いて画像を強化することができる。 0.65
Histogram equalization [123] can be done using three methods: standard equalization, contrast stretching or adaptive equalization. ヒストグラム等化[123]は、標準等化、コントラストストレッチ、適応等化の3つの方法を用いて行うことができる。 0.68
• In a standard equalization, the most frequent value is spread out to roughly have a linear cumulative distribution graph, • 標準等化では、最も頻繁な値は、大まかに線形累積分布グラフを持つように展開される。 0.84
• In contrast stretching, the image pixels are rescaled to include all values between the 2nd and 98th percentile, • With adaptive equalization, changes in pixels occur locally based on a window size rather than the whole image. 対照的に、画像画素は、第2および第98パーセンタイル間のすべての値を含むように再スケールされ、適応等化により、画像全体ではなくウィンドウサイズに基づいて、ピクセルの変化が局所的に発生する。 0.65
E. Image Denoising e.画像のデノジング 0.50
Image can be enhanced by reducing the noise. ノイズを減らすことで画像を強化することができる。 0.71
This is called image denoising [124]. これをイメージデノイング[124]と呼ぶ。 0.60
There are several ways to denoise an image; total variation filters, bilateral, wavelet denoising filters, and non-local means denoising algorithm. イメージをデノーズする方法はいくつかあり、総変動フィルタ、バイラテラル、ウェーブレットデノージングフィルタ、非局所平均デノージングアルゴリズムがある。
訳抜け防止モード: 画像のデノマイズにはいくつかの方法があり、全変動フィルタである。 両側、ウェーブレット denoising filter、および非局所的な手段 denoising algorithm。
0.65
• The total variation filter uses the L1 norm gradient to • 全変分フィルタはL1ノルム勾配を用いる。 0.80
remove noise from the image, 画像からノイズを取り除く。 0.68
• The bilateral filter averages the pixels based on the •バイラテラルフィルタは、画素の平均値に基づいて 0.87
weighted average of the window used by the user, 利用者が使用するウインドウの重み付け平均値 0.68
• The wavelet denoising filter represents the image as a wave and analyzes the wavelet coefficients. •ウェーブレット復調フィルタは、画像をウェーブレットとして表現し、ウェーブレット係数を分析する。
訳抜け防止モード: •ウェーブレット除音フィルタは、画像を波として表現する ウェーブレット係数を分析します
0.72
The wavelet coefficients that are under a certain threshold are represented as noise and are removed, and 一定のしきい値以下のウェーブレット係数をノイズとして表現し、除去する。 0.73
• A Non-Local Means Denoising algorithm estimates the value of a pixel based on similar patches from other similar areas in the image. • 非局所平均分解アルゴリズムは、画像内の他の類似領域からの類似パッチに基づいて画素の値を推定する。 0.86
This method can be applied either by spatial Gaussian weighting or uniform spatial weighting. この方法は空間ガウス重み付けまたは一様空間重み付けによって適用することができる。 0.72
VII. STATE-OF-THE-ART MICROCIRCULATION IMAGE VII。 最先端の微小循環画像 0.55
ANALYSIS TECHNIQUES In this section, we present 分析技術 この節では 0.54
the methods used by other researchers to develop their microcirculation analysis systems. 他の研究者がマイクロ循環分析システムの開発に使用している。 0.73
The following methods utilize computer vision techniques to segment and, in some cases, quantify the capillaries. 以下の方法は、コンピュータビジョン技術を用いて毛細血管を分割し、場合によっては定量化する。 0.63
12 Dobble et al [125] use a frame averaging method to remove the plasma and white blood cell gaps within the capillary before using an algorithm to detect capillaries. 12 dobbleら[125]は、毛細血管の検出にアルゴリズムを使用する前に、毛細血管内の血漿と白血球のギャップを除去するために、フレーム平均化法を使用する。
訳抜け防止モード: 12 Dobble et al [125 ] はフレーム平均化方式を使用する 毛細血管内の血漿と白血球のギャップを除去し、毛細血管を検出するアルゴリズムを使用する。
0.63
Using frame averaging can lead to a lower overall density calculation since capillaries with a majority of gaps or not enough blood flow will be disregarded. フレーム平均化を使用すると、空隙が多数であるか十分な血流が無視されるため、全体的な密度の計算が低下する可能性がある。 0.63
Furthermore, Dobble et al [125] remove capillaries that are out of focus since they consider it to add noise to the frame averaging method. さらに,dobble et al [125]は,フレーム平均化法にノイズを加えることを考慮し,焦点が合っていない毛細血管を除去する。 0.80
From our experiments with handheld microscopy, the nature of the rounded lens may lead to 40% out-of-focus images on both edges of the video. ハンドヘルド顕微鏡による実験から、丸いレンズの性質は、ビデオの両端に40%の焦点外画像をもたらす可能性がある。 0.77
It is very challenging to have a fully focused video the whole time, and some parts can always be out of focus. 完全に焦点を絞ったビデオを作るのは非常に難しく、常に焦点が合っていない部分もある。 0.71
Therefore, this will significantly reduce the capillary density values further. これによりキャピラリー密度の値が大幅に低減される。 0.70
Hilty et al [13] have a similar flow to Dobble et al [125] with minor changes. Hilty et al [13] は小さな変化を伴う Dobble et al [125] と同じような流れを持つ。 0.89
Hilty et al [13] detect capillaries by generating a mean image across all frames then passing the resulting image to two pipelines: first, classifying vessels of 20–30 µm in diameter as capillaries and second, classifying any vessels of up to 400µm in diameter as venules. Hilty et al [13]は、すべてのフレームに平均的な画像を生成して、その結果を2つのパイプラインに渡すことによって、毛細血管を検出する。
訳抜け防止モード: Hilty et al [13 ] は、すべてのフレームに平均画像を生成し、その結果を2つのパイプラインに渡すことで、毛細血管を検出する。 直径20-30μmの船を毛細血管と第二に分類する 直径400μmまでの血管を 静脈として分類する
0.73
The capillaries are then passed to a modified curvature-based region detection algorithm [126] and is equalized using an adaptive histogram. その後、キャピラリーは修正曲率ベースの領域検出アルゴリズム[126]に渡され、適応ヒストグラムを用いて等化される。 0.78
The result is a vessel map that contains centerlines across structures that are 20–30µm wide. その結果、幅20-30μmの構造物にまたがる中央線を含む容器地図となる。 0.69
As the authors of the curvature-based region detection algorithm state [126], this type of detection is unintelligent and can lead to the detection of artifacts such as hair or stains of similar sizes. 曲率に基づく領域検出アルゴリズム [126] の著者として、この種の検出は非知性であり、髪や同様の大きさの染色などのアーティファクトの検出につながる可能性がある。 0.75
Furthermore, due to the challenges with the skin profile stated above, the mean of the images across the whole video is not always the best representation value since different parts of the video might have different lighting or capillaries can be out of optimal focus. また,上述したスキンプロファイルの問題点から,映像の異なる部分の照明やキャピラリーが異なるため,映像全体の画像の平均値が必ずしも最高の表現値であるとは限らない。
訳抜け防止モード: さらに、上述の皮膚の形状に問題があったためである。 ビデオ全体の画像の平均は 常に最高の表現値ではありません ビデオの異なる部分には、照明やキャピラリーが異なるかもしれない。
0.68
Moreover, videos with slight motion will have to be completely disregarded since the central line is calculated across all frames instead of per frame. さらに、中央線がフレームごとにではなく全フレームにわたって計算されるため、わずかな動きの動画は完全に無視されなければならない。
訳抜け防止モード: さらに わずかな動きの動画は 中央線がフレームごとにではなく全フレームにわたって計算されるので、完全に無視される。
0.78
Similarly to Dobble et al [125], Bezemer et al [127] improve the method by using 2D cross-correlation to fill up the blood flow gaps that plasma and white blood cells cause. Dobble et al [125] と同様に、Bezemer et al [127] もプラズマと白血球が引き起こす血流ギャップを埋めるために2Dクロスコリレーションを用いてこの方法を改善している。 0.89
This is a better method since the number of frames to be disregarded is reduced. これは無視されるフレームの数を減らすため、より良い方法である。 0.73
However, 2D cross-correlation assumes a uniform blood flow and does not consider the dynamic change of flow between the gaps, which can inherently decrease the prediction accuracy. しかし、2次元相互相関は均一な血流を仮定し、ギャップ間の流れの動的変化を考慮せず、予測精度を本質的に低下させる。 0.75
Tam et al [128] detect capillaries through a semi-automated method that requires the user to select points on the image. Tam et al [128]は、画像上のポイントを選択する必要がある半自動で毛細血管を検出する。 0.67
The algorithm then decides if there is a capillary present. アルゴリズムは毛細血管が存在するかどうかを判断する。 0.53
Since this method relies on the user to select the capillaries, it cannot be used in a clinical environment due to the time of analysis of a microscopy video. 本手法は, 利用者が毛細血管を選択することに依存しているため, 顕微鏡映像の解析に要する時間のために臨床環境では使用できない。 0.84
Geyman et al [129] take a more manual approach by first using software to click away from the major blood vessels and then applying hardcoded calculations to detect the total number of capillaries based on the number of pixels in the region of interest. Geyman氏ら[129]は、まずソフトウェアを使って主要な血管をクリックし、次に興味のある領域のピクセル数に基づいて毛細血管の総数を検出するためにハードコードされた計算を適用することで、より手動でアプローチします。 0.78
This is a manual approach and is highly susceptible to observer variations across different datasets. これは手動のアプローチであり、さまざまなデータセットの変動を観測する上で非常に影響を受けやすい。 0.59
Demir et al [130] use a contrast limited adaptive histogram equalization (CLAHE) method [131] with a median filter and Demir et al [130] はコントラスト限定適応ヒストグラム等化法 (CLAHE) [131] と中央フィルタを用いている。 0.78
英語(論文から抽出)日本語訳スコア
an adjustable threshold to detect capillaries on the weighted mean of five consecutive frames. 5つの連続するフレームの重み付け平均の毛細血管を検出するための調整可能な閾値。 0.68
However, this method needs to be adjusted depending on the illumination on the video and the skin thickness. しかし, この方法は, 映像の照明や皮膚の厚さに応じて調整する必要がある。 0.82
This introduces a manual job where the user has to find the right combination of values for different videos or the same video with different illumination. これにより、ユーザは異なるビデオまたは異なる照明を持つ同じビデオの値の正しい組み合わせを見つける必要がある手動ジョブが導入される。 0.84
Cheng et al [132] apply an image enhancement step followed by the manual highlighting of the capillaries by the user. Cheng et al[132]は画像強調ステップを適用し、その後、ユーザーが手動でキャピラリーのハイライトを行う。 0.71
The image enhancement process darkens the capillaries and increases the background brightness using a best-fit histogram method. 画像強調処理は毛細血管を暗くし、最適なヒストグラム法を用いて背景輝度を高める。 0.73
Using their system, the user can further increase the contrast and smoothen the images manually to increase the differentiation of the capillaries from the background. システムを使用することでコントラストをさらに高め、手動で画像を滑らかにすることで、背景からの毛細血管の分化を高めることができる。 0.68
Macros of this modification can then be generated and applied to all future captured microscopy videos. この修正のマクロは生成され、将来撮影されるすべての顕微鏡ビデオに適用できる。 0.76
However, this macro generation assumes that the videos will be captured with the same brightness and thickness of the skin. しかし、このマクロ世代は、ビデオが皮膚と同じ明るさと厚さで撮影されると仮定している。 0.67
Moreover, the image used is in grayscale; therefore, if there are any artifacts, they can be mistaken for capillaries. また、使用する画像はグレースケールであるため、人工物があればキャピラリーと間違えることもある。
訳抜け防止モード: さらに 使用するイメージは グレースケールで したがって、人工物がある場合、毛細血管と誤認されることがある。
0.67
Tama et al [133] use binarization followed by skeleton extraction and segmentation to quantify the capillaries. Tama et al [133] はバイナライゼーションを使用し、続いて骨格抽出とセグメンテーションによって毛細血管の定量化を行っている。
訳抜け防止モード: Tama et al [133 ] のバイナライゼーションとスケルトン抽出とセグメンテーション キャピラリーを定量化するのです
0.66
The binarization is applied to the green channel since they assume it has the highest contrast between the capillaries and the background. 双対化は、毛細血管と背景との間に最も高いコントラストを持つと仮定するため、グリーンチャネルに適用される。 0.73
They use the top-hat transform method to reduce uneven illumination, followed by Wiener filtering to remove noisy pixels, and then the Gaussian smoothing method to smoothen the image. 彼らはトップハット変換法を用いて不均一な照明を減らし、続いてワイナーフィルタでノイズの多いピクセルを除去し、ガウススムースメント法で画像を滑らかにする。 0.66
The OTSU thresholding method is then applied to segment the capillaries from the background. 次に、Otsuしきい値法を適用し、背景からキャピラリーを分割する。 0.56
This method relies on the user finding a reference frame from the video that has the highest contrast. この方法は、最もコントラストの高いビデオから参照フレームを見つけるユーザーに依存している。 0.75
The work described next uses ML techniques to segment 次に説明した作業は、セグメントにML技術を使用する 0.60
and, in some cases, quantify the capillaries. 場合によっては毛細血管を定量化します 0.59
Prentaˇsic et al [134] used a custom neural network to segment the foveal microvasculature. Prenta'sic et al[134]は、カスタムニューラルネットワークを使用して胎児の微小血管を分断した。 0.53
Their neural network consists of three CNN blocks coupled with max-pooling along with a dropout layer followed by two dense layers. 彼らのニューラルネットワークは、3つのCNNブロックと最大プール、そして2つの高密度層で構成される。 0.67
Their neural network was trained in 30 hours, and the segmentation took approximately two minutes per single image, with an accuracy of 83%. 彼らのニューラルネットワークは30時間でトレーニングされ、セグメンテーションは1枚の画像に約2分かかり、精度は83%だった。 0.75
The time taken and the high-end hardware used to analyze a single image make it unsuitable for clinical use since the users would like the results instantly. 1枚の画像を分析するのに要する時間とハイエンドのハードウェアは、ユーザーがすぐに結果を求めるので、臨床用途には適さない。 0.69
Dai et al [135] used a custom neural network similar to Prentasic et al for segmentation. dai et al [135]は、セグメンテーションにprentasic et alに似たカスタムニューラルネットワークを使用した。 0.72
However, Dai et al used five CNN blocks instead of three. しかし、daiとalは3つではなく5つのcnnブロックを使用していた。 0.49
They used gamma correction and CLAHE for image enhancement. 彼らは画像強調にガンマ補正とCLAHEを使用した。 0.68
They reported an accuracy of 60.94%, which is too low to be useful. 彼らは60.94%の精度を報告したが、これは役に立たない。 0.65
Nivedha et al [136] used the green channel of the image and used a non-linear support vector machine [143] to classify the capillaries. Nivedha et al [136] は画像のグリーンチャネルを使用し、キャピラリーを分類するために非線形サポートベクターマシン[143] を使用した。 0.84
This method involved a manual step where the user had to crop the region of interest to improve the histogram equalization. この方法は、ユーザーが興味のある領域を収穫し、ヒストグラムの等化を改善する手作業によるステップである。 0.64
Nivedha et al performed different experiments comparing different denoising filters, such as Gaussian, Wiener, median, and adaptive median, and concluded that the Gaussian filter is the most suitable for their data. Nivedhaらは、ガウスフィルタ、ウィーナーフィルタ、中央値、アダプティブ中央値などの異なる復調フィルタの比較実験を行い、ガウスフィルタがデータに最も適していると結論付けた。
訳抜け防止モード: Nivedhaらは、ガウシアン、ウィーナー、中央値、アダプティブ中央値などの異なるデノナイジングフィルタを比較した異なる実験を行った。 ガウスフィルタはデータに最も適していると結論付けました
0.65
Furthermore, they compared different segmentation methods, including OTSU, K Means, and watershed, and concluded that さらに、大津、K平均、流域など様々な区分法を比較し、結論づけた。
訳抜け防止モード: さらに, 大津, k平均, 流域など, 異なる区分法を比較検討した。 そして結論づけました
0.70
the OTSU method was the most suitable for their data. Otsu法はデータに最も適していた。 0.63
The segmented images were then passed to an SVM, and they achieved an accuracy of 83.3%. 分割された画像はsvmに渡され、83.3%の精度を達成した。 0.71
Java et al [137] modify the ResNet18 [74] to quantify capillaries and use the first ten layers of the architecture. Javaなど[137]はResNet18[74]を変更してキャピラリーを定量化し、アーキテクチャの最初の10層を使用する。
訳抜け防止モード: Java et al [137 ] が ResNet18 [74 ] を変更する キャピラリーを定量化し 建築の最初の10層を使います
0.80
The main limitation of the ResNet architecture is that images have to be resized to 224x224; however, most capillary images are less than 100x100. ResNetアーキテクチャの主な制限は、イメージを224x224にリサイズする必要があることであるが、ほとんどのキャピラリーイメージは100x100未満である。 0.72
This means images have to be scaled up, which makes this method inefficient and uses more resources than needed. つまり、イメージをスケールアップする必要があるため、このメソッドは非効率になり、必要以上に多くのリソースを使用する。 0.65
They reported an accuracy of 89.45% on their data; however, ResNet 18 [79] has 11 million trainable parameters, and with such scaling up, training time can be up to several hours, and prediction time can be up to several minutes. しかし、ResNet 18[79]は1100万のトレーニング可能なパラメータを持ち、そのスケールアップによってトレーニング時間は最大数時間、予測時間は最大数分である。
訳抜け防止モード: 彼らはデータの精度を89.45 %と報告した。 しかし、ResNet 18 [79 ] には1100万のトレーニング可能なパラメータがある。 このようなスケールアップによって トレーニング時間は最大で数時間になります 予測時間は数分です
0.77
This can make it slow and inefficient within a clinical setting. これにより、臨床環境では遅くて非効率になる。 0.68
The training and test times were not reported in this paper. この論文ではトレーニングとテストの時間は報告されていない。 0.70
Ye et al [138] utilized the concept of transfer learning and used the inception Single Shot Detector V2 (SSD-inception v2) [139] to build their neural network. ye et al [138] は転送学習の概念を利用し、インセプション・シングルショット検出器 v2 (ssd-inception v2) [139] を使ってニューラルネットワークを構築した。 0.83
The SSD-inception v2 has high accuracy with reduced computational complexity, making it suitable for capillary detection [160]. SSD-inception v2は計算複雑性を低減して精度が高く、キャピラリー検出 [160] に適している。 0.76
On the other hand, they used a spatiotemporal diagram analysis for the flow velocity calculation. 一方, 流速計算には時空間図解析を用いた。 0.56
This method requires white blood cells or plasma gaps in order to detect the velocity accurately. この方法は、正確に速度を検出するために白血球または血漿ギャップを必要とする。 0.76
Therefore, capillaries that lacked such characteristics had to be disregarded, reducing the overall efficiency of velocity classification. そのため, キャピラリーの特性を欠いたキャピラリーは無視される必要があり, 速度分類の全体的な効率が低下した。 0.65
Furthermore, as stated by the paper’s authors, the spatiotemporal method can be cumbersome and timeconsuming. さらに、論文の著者によって述べられているように、時空間的手法は面倒で時間がかかります。 0.54
The accuracy was not reported in this paper. 本論文では精度は報告されていない。 0.61
Hariyani et al [140] used a U-net architecture combined with a dual attention module [141, 142]. hariyaniら [140] はu-netアーキテクチャとデュアルアテンションモジュール [141, 142] を組み合わせたものである。 0.80
The images had to be resized to 256x256, and an accuracy of 64% was reported. 画像は256x256にリサイズされ、精度は64%と報告された。 0.76
This accuracy is low for it to be used in a clinical setting. この精度は、臨床現場で使用するには低い。 0.62
The more accurate methods require semiautomatic analysis, whereas the more automatic methods are less accurate, making them unsuitable for a clinical setting. より正確な方法は半自動分析を必要とするが、より自動化された方法は精度が低く、臨床環境では適さない。 0.75
Moreover, none of the existing works mentioned above reported using parallel frameworks to calculate capillary density. さらに、上述の既存作品は、キャピラリー密度を計算するために並列フレームワークを使用して報告されていない。 0.59
The authors of this paper represent a method that exceeds the accuracy and speed of the above mentioned papers. 本稿では,上記の論文の精度と速度を超越した手法について述べる。 0.68
CapillaryNet is fully automatic and able to classify microcirculation videos in ∼0.9s with 93% accuracy [116] whilst CapillaryX presents a parallel frameworks to calculate capillary density [143]. capillarynetは完全自動であり、93%の精度[116]で0.9秒のマイクロ循環ビデオに分類できるが、capillaryxはキャピラリー密度を計算するために並列フレームワークを提供する[143]。
訳抜け防止モード: CapillaryNetは完全自動で、93%の精度 [116 ]でマイクロサーキュレーションビデオの分類が可能 CapillaryXはキャピラリー密度[143 ]を計算するための並列フレームワークを提供する。
0.86
VIII. CONCLUSION In this paper, we present the most promising deep learning and computer vision techniques that can automate microcirculation analysis, specifically the quantification of capillaries. VIII。 結論 本稿では,マイクロ循環解析,特に毛細血管の定量化を自動化できる,最も有望なディープラーニングとコンピュータビジョン技術を提案する。 0.69
Automating the quantification of capillary density might reveal important biomarkers to clinical personnel that might assist in helping critically ill patients with life-threatening diseases. 毛細血管密度の定量化を自動化することで、致命的疾患の重篤な患者を助ける臨床スタッフに重要なバイオマーカーが現れる可能性がある。
訳抜け防止モード: キャピラリー密度の定量化の自動化 臨床スタッフに重要なバイオマーカーを 重篤な病気の患者を助けるのに役立つかもしれない。
0.79
With the automation algorithms, the analysis time can be reduced from minutes to several seconds and decrease interobserver variability. 自動化アルゴリズムでは、分析時間を数分から数秒に短縮し、オブザーバ間のばらつきを低減できる。 0.74
We start by introducing the importance of analyzing microcirculation videos. まず,マイクロサーキュレーションビデオの解析の重要性を紹介する。 0.72
We then present the two prominent ways of automating the analysis of microcirculation videos: traditional computer vision techniques and 次に、従来のコンピュータビジョン技術とマイクロサーキュレーションビデオの分析を自動化する2つの重要な方法を示す。
訳抜け防止モード: 次に2つの顕著な方法を紹介します 微小循環ビデオ解析の自動化 伝統的なコンピュータビジョン技術と
0.81
13 13 0.85
英語(論文から抽出)日本語訳スコア
deep learning techniques. We discuss the types of deep neural networks, then dive into details about the convolutional neural networks. 深層学習技術です 深層ニューラルネットワークの種類を考察し,畳み込みニューラルネットワークの詳細について考察する。 0.69
Convolutional neural networks are the preferred method for analyzing images since they have the highest accuracy in image classification competitions. 畳み込みニューラルネットワークは、画像分類競争において最も精度が高いため、画像分析の好適な方法である。 0.74
We present why convolutional neural networks are good at what they do and what challenges they can overcome. 畳み込みニューラルネットワークが、なぜ彼らが何をし、どんな課題を克服できるかを提示する。 0.61
We then present the anatomy of a convolutional neural network by discussing the fully connected layer, the convolutional layer, and the pooling layer. 次に,完全連結層,畳み込み層,プール層について論じ,畳み込みニューラルネットワークの解剖について述べる。 0.70
Moreover, we present different types of convolutional neural networks that combine these three modules differently. さらに,これら3つのモジュールを異なる種類の畳み込みニューラルネットワークを提案する。 0.73
Since convolutional neural networks can only classify images and cannot localize the regions of the capillaries, we present deep learning object detection techniques. 畳み込みニューラルネットワークは画像のみを分類することができ、キャピラリーの領域をローカライズできないため、深層学習物体検出技術を提案する。 0.78
The deep learning object detection techniques consist of two main frameworks: the unified based framework and the regional proposed framework. ディープラーニングオブジェクト検出技術は、統合ベースフレームワークと地域提案フレームワークの2つの主要なフレームワークから構成される。 0.78
We present seven different algorithms on the regional proposed framework and six different algorithms on the unified based framework. 提案手法では,地域別7つのアルゴリズムと,統一型フレームワークでは6つの異なるアルゴリズムを提案する。 0.75
We then discuss traditional computer vision object detection techniques, specifically, non-ML-based object detection methods like background subtraction methods, image thresholding techniques, edges and lines, and image enhancement techniques. 次に、従来のコンピュータビジョンオブジェクト検出技術、特に背景部分抽出法、画像閾値法、エッジとライン、画像強調技術などの非MLオブジェクト検出手法について議論する。 0.73
Through the sections in this article, we have recommended the algorithms that can be used to develop an automated capillary detector and quantifier. 本論文の節を通じて, 自動キャピラリー検出器および定量化器の開発に使用できるアルゴリズムを推薦した。 0.75
Our contribution with this article is to assist researchers and developers with where to start looking if they are to develop an automated algorithm for capillary detection and quantification. この記事では、キャピラリー検出と定量化のための自動化アルゴリズムの開発について、研究者や開発者がどこで探り始めるかを支援することに貢献します。 0.69
REFERENCES [1] D. De Backer, S. Hollenberg, C. Boerma, P. Goedhart, G. B¨uchele, G. Ospina-Tascon, I. Dobbe, and C. Ince, “How to evaluate the microcirculation: Report of a round table conference,” en, Crit. 参考 [1] D. De Backer, S. Hollenberg, C. Boerma, P. Goedhart, G. B suchele, G. Ospina-Tascon, I. Dobbe, C. Ince, “How to evaluate the microcirculation: Report of a round table conference”, en。
訳抜け防止モード: 参考 [1 ]D. De Backer, S. Hollenberg, C. Boerma, P. Goedhart, G. B suchele, G. Ospina - Tascon, I. Dobbe, C. Ince 『微小循環の評価方法』 : 円卓会議の報告
0.61
Care, vol. Care, vol. 0.43
11, no. 5, R101, 2007. 11番 5号 r101 2007年 0.50
[2] G. Guven, M. P. Hilty, and C. Ince, “Microcirculation: Physiology, pathophysiology, and clinical application,” en, Blood Purif. [2] g. guven, m. p. hilty, c. ince, “microcirculation: physiology, pathophysiology, and clinical application”(微小循環: 生理学, 病理学, 臨床応用)”(血液浄化)。 0.67
, vol. 49, no. 1-2, pp. 143–150, 2020. ヴォル。 49, no. 1-2, pp. 143–150, 2020。 0.59
[3] A. Cassoobhoy, What is the definition of capillaries? [3] a. cassoobhoy、毛細血管の定義は何ですか? 0.81
2020. [Online]. 2020. [オンライン]。 0.54
Available: %5Curl%7Bhttps://www . 利用可能: %5curl%7bhttps://www 。 0.70
webmd . com / heart - disease / heart - failure / qa / whatis - the - definition - of - capillaries % 7D (visited on 10/27/2020). webmd。 心 - 心臓 - 疾患 / 心臓 - 不全 / qa / 定義 - キャピラリー % 7D (2020年10月27日閲覧)。 0.53
[4] A. C. Shore, “Capillaroscopy and the measurement of capillary pressure,” en, Br. 4] a. c. shore, "毛細血管内視鏡と毛細血管圧測定" en, br。 0.36
J. Clin. Pharmacol. , vol. j・クリン 薬品だ ヴォル。 0.51
50, no. 6, pp. 501–513, Dec. 2000. 50, no. 6, pp. 501–513, 2000年12月。 0.80
[5] H. R. Maricq, G. Spencer-Green, and E. C. LeRoy, “Skin capillary abnormalities as indicators of organ involvement in scleroderma (systemic sclerosis), raynaud’s syndrome and dermatomyositis,” The American journal of medicine, vol. 5] h. r. maricq, g. spencer-green, e. c. leroy, “全身性強皮症(全身性硬化症)、レイノー症候群、皮膚筋炎における臓器障害の指標としての皮膚毛細血管異常。 0.73
61, no. 6, pp. 862–870, 1976. 61, No. 6, pp. 862–870, 1976。 0.47
[6] T. Wester, Z. A. Awan, T. S. Kvernebo, G. Salerud, and K. Kvernebo, “Skin microvascular morphology and hemodynamics during treatment with venoarterial extra-corporeal membrane oxygenation,” Clin- T. Wester, Z. A. Awan, T. S. Kvernebo, G. Salerud, K. Kvernebo, “venoarterial extra-corporeal membrane oxygenation” 治療中の皮膚微小血管形態と血行動態について
訳抜け防止モード: [6 ]T. Wester, Z. A. Awan, T. S. Kvernebo, G. SalerudとK. Kverneboは、獣医の体膜酸素療法における皮膚微小血管の形態と血行動態について語る。
0.60
14 ical hemorheology and microcirculation, vol. 14 臨床血液学と微小循環 0.42
56, no. 2, pp. 119–131, 2014. 56, no. 2, pp. 119–131, 2014年。 0.88
[7] D. De Backer, S. Hollenberg, C. Boerma, P. Goedhart, G. B¨uchele, G. Ospina-Tascon, I. Dobbe, and C. Ince, “How to evaluate the microcirculation: Report of a round table conference,” Critical care, vol. D. De Backer氏, S. Hollenberg氏, C. Boerma氏, P. Goedhart氏, G. B suchele氏, G. Ospina-Tascon氏, I. Dobbe氏, C. Ince氏, “How to evaluate the microcirculation: Report of a round table conference”。
訳抜け防止モード: [7 ]D. De Backer, S. Hollenberg, C. Boerma, P. Goedhart, G. B suchele, G. Ospina - Tascon, I. Dobbe, C. Ince 『微小循環の評価方法 : ラウンドテーブル会議報告』 重傷を負う。
0.79
11, no. 5, pp. 1–9, 2007. 11, No. 5, pp. 1-9, 2007。 0.41
[8] D. De Backer, J. Creteur, J. 8] d. de backer, j. creteur, j. 0.37
-C. Preiser, M. -C。 Preiser, M。 0.41
-J. Dubois, and J. -j。 Dubois、J。 0.66
-L. Vincent, “Microvascular blood flow is altered in patients with sepsis,” American journal of respiratory and critical care medicine, vol. -L。 Vincent, “Microvascular blood flow is altered in patients with sepsis”, American journal of respiratory and critical care Medicine, vol。
訳抜け防止モード: -L。 vincent氏: “敗血症患者では、微小血管の血流が変化します”。 american journal of respiratory and critical care medicine, vol. を参照。
0.54
166, no. 1, pp. 98–104, 2002. 166, No. 1, pp. 98–104, 2002。 0.46
[9] A. P. Top, C. Ince, N. de Meij, M. van Dijk, and D. Tibboel, “Persistent low microcirculatory vessel density in nonsurvivors of sepsis in pediatric intensive care,” Critical care medicine, vol. A.P. Top, C. Ince, N. de Meij, M. van Dijk, D. Tibboel, “小児集中治療における敗血症非生存者の微小循環血管密度は持続的に低い”。 0.76
39, no. 1, pp. 8–13, 2011. 39, No. 1, pp. 8–13, 2011 0.42
[10] G. Natalello, G. De Luca, L. Gigante, C. Campochiaro, E. De Lorenzis, L. Verardi, A. Paglionico, L. Petricca, A. M. Martone, S. Calvisi, et al , “Nailfold capillaroscopy findings in patients with coronavirus disease 2019: Broadening the spectrum of covid-19 microvascular involvement,” Microvascular research, vol. G. Natalello, G. De Luca, L. Gigante, C. Campochiaro, E. De Lorenzis, L. Verardi, A. Paglionico, L. Petricca, A. M. Martone, S. Calvisi, et al , “Nailfold capillaroscopy findings in patients with coronavirus disease 2019: Broadening the spectrum of covid-19 microvascular involvement”, Microvascular research, vol.
訳抜け防止モード: [10 ] G. Natalello, G. De Luca, L. Gigante, C. Campochiaro, E. De Lorenzis, L. Verardi, A. Paglionico L. Petricca, A. M. Martone, S. Calvisi, et al。 新型コロナウイルス患者の鼻腔鏡所見 : 2019年 covid-19の微小血管への関与のスペクトルを広げる”。 微小血管の研究。
0.81
133, p. 104 071, 2021. 133, p. 104 071, 2021。 0.90
[11] V. S. K. Edul, J. F. C. Eguillor, G. Ferrara, E. Estenssoro, D. S. P. Siles, C. E. Cesio, and A. Dubin, “Microcirculation alterations in severe covid-19 pneumonia,” Journal of Critical Care, vol. V.S.K. Edul, J.F.C. Eguillor, G. Ferrara, E. Estenssoro, D.S.P. Siles, C.E. Cesio, A. Dubin, “重症コビッド肺炎の微小循環変化” Journal of critical Care, Vol.
訳抜け防止モード: [11]V.S.K.エドゥル、J.F.C.エギラー G. Ferrara, E. Estenssoro, D. S. P. Siles, C. E. Cesio A. Dubin, “重度のコビッド肺炎における微小循環の変化” Journal of Critical Care』に収録。
0.72
61, pp. 73–75, 2021. 61, pp. 73-75, 2021。 0.44
[12] C. Ince, E. C. Boerma, M. Cecconi, D. De Backer, N. I. Shapiro, J. Duranteau, M. R. Pinsky, A. Artigas, J. C. Ince, E. C. Boerma, M. Cecconi, D. De Backer, N. I. Shapiro, J. Duranteau, M. R. Pinsky, A. Artigas, J. 0.46
-L. Teboul, I. K. Reiss, et al , “Second consensus on the assessment of sublingual microcirculation in critically ill patients: Results from a task force of the european society of intensive care medicine,” Intensive care medicine, vol. -L。 Teboul, I. K. Reiss, et al , “重度疾患患者における舌下微小循環の評価に関する第2のコンセンサス:欧州集中治療医学会のタスクフォースの結果”。 0.54
44, no. 3, pp. 281–299, 2018. 44, No. 3, pp. 281-299, 2018。 0.86
[13] M. P. Hilty, P. Guerci, Y. Ince, F. Toraman, and C. Ince, “Microtools enables automated quantification of capillary density and red blood cell velocity in handheld vital microscopy,” Communications biology, vol. 13] m. p. hilty, p. guerci, y. ince, f. toraman, c. ince, “microtoolsは、手持ちバイタル顕微鏡で毛細血管密度と赤血球速度の自動定量化を可能にする”。 0.75
2, no. 1, pp. 1–15, 2019. 第2巻、第1巻、第1-15頁、2019年。 0.37
[14] M. P. Hilty, S. Akin, C. Boerma, A. Donati, ¨O. [14]M.P.Hilty,S.Akin,C.B oerma,A.Donati。 0.39
Erdem, P. Giaccaglia, P. Guerci, D. M. Milstein, J. Montomoli, F. Toraman, et al , “Automated algorithm analysis of sublingual microcirculation in an international multicentral database identifies alterations associated with disease and mechanism of resuscitation,” Critical Care Medicine, vol. Erdem, P. Giaccaglia, P. Guerci, D. M. Milstein, J. Montomoli, F. Toraman, et al , “国際マルチ中央データベースにおける言語下微小循環の自動アルゴリズム解析は、病気や蘇生のメカニズムに関連する変化を識別する”。 0.84
48, no. 10, e864–e875, 2020. 48, no. 10, e864–e875, 2020。 0.84
[15] M. Helmy, A. Dykyy, T. T. Truong, P. Ferreira, and E. Jul, “Capillarynet: An automated system to analyze microcirculation videos from handheld vital microscopy,” arXiv preprint arXiv:2104.11574, 2021. M. Helmy, A. Dykyy, T. T. Truong, P. Ferreira, E. Jul, “Capillarynet: A automated system to analyze microcirculation video from Handheld vital microscopy, arXiv preprint arXiv:2104.11574, 2021”。 0.46
[16] R. Martini, “The compelling arguments for the need of microvascular investigation in covid-19 critical patients,” Clinical hemorheology and microcirculation, vol. 16] r. martini, “covid-19重症患者における微小血管検査の必要性に対する説得力のある議論”, 臨床血液学と微小循環, vol。 0.77
75, no. 1, pp. 27–34, 2020. 75, No. 1, pp. 27-34, 2020。 0.47
英語(論文から抽出)日本語訳スコア
[17] N. O’Mahony, S. Campbell, A. Carvalho, S. Harapanahalli, G. V. Hernandez, L. Krpalkova, D. Riordan, and J. Walsh, “Deep learning vs. traditional computer vision,” in Science and Information Conference, Springer, 2019, pp. 128–144. N. O’Mahony, S. Campbell, A. Carvalho, S. Harapanahalli, G. V. Hernandez, L. Krpalkova, D. Riordan, J. Walsh, “Deep Learning vs. traditional computer vision” in Science and Information Conference, Springer, 2019, pp. 128–144。
訳抜け防止モード: N. O'Mahony, S. Campbell, A. Carvalho, S. Harapanahalli, G. V. Hernandez, L. Krpalkova, D. Riordan そしてJ. Walsh氏はScience and Information Conferenceで“Deep Learning vs. traditional computer vision, ”と題している。 春田、2019年、p.128-1144。
0.84
[18] A. Voulodimos, N. Doulamis, A. Doulamis, and E. Protopapadakis, “Deep learning for computer vision: A brief review,” Computational intelligence and neuroscience, vol. A. Voulodimos, N. Doulamis, A. Doulamis, E. Protopapadakis, “Deep Learning for Computer Vision: A brief review, Computational Intelligence and Neuroscience, vol.”[18]
訳抜け防止モード: [18 ] A. Voulodimos, N. Doulamis, A. Doulamis, E. Protopapadakis 「コンピュータビジョンのためのディープラーニング : 簡単なレビュー」 コンピュータ・インテリジェンスと神経科学。
0.78
2018, 2018. 2018, 2018. 0.42
[19] M. Cutolo, C. Pizzorni, M. E. Secchi, and A. Sulli, “Capillaroscopy,” Best practice & research Clinical rheumatology, vol. 19] m. cutolo, c. pizzorni, m. e. secchi, a. sulli, “capillaroscopy”, best practice & research clinical rheumatology, vol。
訳抜け防止モード: [19 ]M. Cutolo, C. Pizzorni, M. E. Secchi, A. Sulli, “ Capillaroscopy, ” Best Practice & Research Clinical rheumatology,vol.
0.47
22, no. 6, pp. 1093–1108, 2008. 22 no. 6, pp. 1093–1108, 2008 頁。 0.83
[20] B. Ruaro, V. Smith, A. Sulli, S. Decuman, C. Pizzorni, and M. Cutolo, “Methods for the morphological and functional evaluation of microvascular damage in systemic sclerosis,” The Korean journal of internal medicine, vol. 20] b. ruaro, v. smith, a. sulli, s. decuman, c. pizzorni, m. cutolo, “全身性硬化症における微小血管障害の形態的および機能的評価のための方法”。
訳抜け防止モード: [20 ]B. Ruaro, V. Smith, A. Sulli, S. Decuman, C. Pizzorni, M. Cutolo, “全身性硬化症における微小血管損傷の形態学的および機能的評価法” 韓国の内科雑誌、vol。
0.85
30, no. 1, p. 1, 2015. 30 no. 1 p. 1 2015年。 0.68
[21] S. User. [21]S.ユーザ。 0.85
[Online]. Available: https://www.dino-lit e.eu/ [オンライン]。 利用可能: https://www.dino-lit e.eu/ 0.53
index.php/en/product s/medical/capillarys cope. index.php/en/product s/medical/capillarys cope 0.13
[22] Video capillaroscopy. 22]ビデオ毛細血管鏡。 0.69
[Online]. Available: https : / / www. [オンライン]。 利用可能: https : / www。 0.51
optiliamedical . オプティリアメディカル(optiliamedical)。 0.27
eu / products / 2 / capillaroscope / 11/Optilia%20Digital %20Capillaroscopy%20 System, %20Extensive%20kit/. eu / products / 2 / capillaroscope / 11/Optilia%20Digital %20Capillaroscopy%20 System, %20Extensive%20kit/。 0.42
[23] Digital capillaroscopy, Jun. 2020. 【23】デジタル毛細血管鏡】2020年6月。 0.66
[Online]. Available: [オンライン]。 利用可能。 0.57
https://www.inspect- is.com/capillaroscop y pro/. https://www.inspect- is.com/capillaroscop y pro/ 0.22
[24] Smart g-scope™ europe - smart g-scope™ europe, [24]スマートgスコープヨーロッパ-スマートgスコープヨーロッパ 0.65
Mar. 2021. [Online]. 2021年。 [オンライン]。 0.63
Available: https://g-scope.eu/. 利用可能: https://g-scope.eu/。 0.25
[25] H. Anders, T. Sigl, and M. Schattenkirchner, “Differentiation between primary and secondary raynaud’s phenomenon: A prospective study comparing nailfold capillaroscopy using an ophthalmoscope or stereomicroscope,” Annals of the Rheumatic Diseases, vol. H. Anders氏、T. Sigl氏、M. Schattenkirchner氏は、「一次と二次のレイノー現象の区別:眼科鏡または立体顕微鏡を用いた爪折り毛細管鏡の比較研究」と語っています。
訳抜け防止モード: He 25 ] H. Anders, T. Sigl, M. Schattenkirchner 「一次と二次のレイノー現象の鑑別 : 眼科顕微鏡または立体顕微鏡を用いた爪折り毛細管鏡の比較研究」 Rheumatic Diseasesの略。
0.75
60, no. 4, pp. 407–409, 2001. 60, No. 4, pp. 407–409, 2001。 0.93
[26] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, et al , “Imagenet large scale visual recognition challenge,” International journal of computer vision, vol. O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, et al , “Imagenet large scale visual recognition challenge”, International Journal of Computer Vision, Vol. 0.46
115, no. 3, pp. 211–252, 2015. 115, no. 3, pp. 211-252, 2015年。 0.87
[27] B. Zhou, A. Lapedriza, A. Khosla, A. Oliva, and A. Torralba, “Places: A 10 million image database for scene recognition,” IEEE transactions on pattern analysis and machine intelligence, vol. [27] b. zhou, a. lapedriza, a. khosla, a. oliva, a. torralba, “places: a 1000 million image database for scene recognition”, ieee transactions on pattern analysis and machine intelligence, vol.)。
訳抜け防止モード: [27 ]B. Zhou, A. Lapedriza, A. Khosla, A. Oliva, A. Torralba, “Places : A 1000 million image database for scene recognition” IEEEによるパターン解析とマシンインテリジェンスに関するトランザクション。
0.85
40, no. 6, pp. 1452–1464, 2017. 40, no. 6, pp. 1452-1464, 2017。 0.43
[28] A. Kuznetsova, H. Rom, N. Alldrin, J. Uijlings, I. Krasin, J. Pont-Tuset, S. Kamali, S. Popov, M. Malloci, A. Kolesnikov, et al , “The open images dataset v4,” International Journal of Computer Vision, vol. A. Kuznetsova, H. Rom, N. Alldrin, J. Uijlings, I. Krasin, J. Pont-Tuset, S. Kamali, S. Popov, M. Malloci, A. Kolesnikov, et al , “The open image dataset v4”, International Journal of Computer Vision, Vol.
訳抜け防止モード: [28 ]A. Kuznetsova, H. Rom, N. Alldrin, J. Uijlings, I. Krasin, J. Pont - Tuset, S. Kamali S. Popov, M. Malloci, A. Kolesnikov, et al オープン画像データセット v4, ” International Journal of Computer Vision,vol.”。
0.92
128, no. 7, pp. 1956–1981, 2020. 128, No. 7, pp. 1956–1981, 2020。 0.48
[29] M. I. Jordan and T. M. Mitchell, “Machine learning: Trends, perspectives, and prospects,” Science, vol. [29]m.i.ジョーダンとt.m.ミッチェルは、”machine learning: trends, perspectives, and prospects”と書いている。 0.71
349, no. 6245, pp. 255–260, 2015. 349, no. 6245, pp. 255-260, 2015年。 0.89
[30] X. -D. [30]X。 -D。 0.61
Zhang, “Machine learning,” in A Matrix Algebra Approach to Artificial Intelligence, Springer, 2020, pp. 223–440. Zhang, “Machine learning” in A Matrix Algebra Approach to Artificial Intelligence, Springer, 2020, pp. 223–440。
訳抜け防止モード: Zhang氏,人工知能へのマトリックス代数的アプローチの“機械学習, ” 春田、2020年、p.223-440。
0.82
[31] A. Burkov, The hundred-page machine learning book. A. Burkov - 100ページの機械学習の本。 0.65
Andriy Burkov Canada, 2019, vol. アンドリー・バーコフ、2019年、カナダ。 0.54
1. 15 [32] M. Mayo, “Frameworks for approaching the machine 1. 15 32]m.メイヨー「機械に近づくための枠組み」 0.49
learning process,” KDnuggets, 2018. とkdnuggets、2018年。 0.40
[33] M. J. Willemink, W. A. Koszek, C. Hardell, J. Wu, D. Fleischmann, H. Harvey, L. R. Folio, R. M. Summers, D. L. Rubin, and M. P. Lungren, “Preparing medical imaging data for machine learning,” Radiology, vol. M. J. Willemink, W. A. Koszek, C. Hardell, J. Wu, D. Fleischmann, H. Harvey, L. R. Folio, R. M. Summers, D. L. Rubin, M. P. Lungren, “Preparing medical imaging data for machine learning”, Radiology, Vol.
訳抜け防止モード: [33 ]M. J. Willemink, W. A. Koszek, C. Hardell J. Wu, D. Fleischmann, H. Harvey, L. R. Folio R. M. Summers、D. L. Rubin、M. P. Lungren 機械学習のための医用画像データの準備」Radiology,vol。
0.86
295, no. 1, pp. 4–15, 2020. 295, no. 1, pp. 4-15, 2020。 0.90
[34] L. Ward, A. Agrawal, A. Choudhary, and C. Wolverton, “A general-purpose machine learning framework for predicting properties of inorganic materials,” npj Computational Materials, vol. [34] L. Ward, A. Agrawal, A. Choudhary, C. Wolverton, “無機材料の特性を予測する汎用機械学習フレームワーク”, npj Computational Materials, vol。 0.82
2, no. 1, pp. 1–7, 2016. 第2巻、第1巻、第1-7頁、2016年。 0.40
[35] M. Kohli, L. M. Prevedello, R. W. Filice, and J. R. Geis, “Implementing machine learning in radiology practice and research,” American journal of roentgenology, vol. 35] m. kohli, l. m. prevedello, r. w. filice, j. r. geis, “implementing machine learning in radiology practice and research”, american journal of roentgenology, vol. (英語)
訳抜け防止モード: [35 ]M. Kohli, L. M. Prevedello, R. W. Filice, とJ.R. Geisは言う。 放射線学の実践と研究における機械学習の実践
0.75
208, no. 4, pp. 754–760, 2017. 208, no. 4, pp. 754-760, 2017年。 0.84
[36] R. Caruana and A. Niculescu-Mizil, “An empirical comparison of supervised learning algorithms,” in Proceedings of the 23rd international conference on Machine learning, 2006, pp. 161–168. [36] r. caruana と a. niculescu-mizil は、第23回機械学習国際会議 (international conference on machine learning, 2006, pp. 161–168) で「教師付き学習アルゴリズムの実証比較」を行った。
訳抜け防止モード: [36 ] R. Caruana と A. Niculescu - Mizil は「教師付き学習アルゴリズムの実証的な比較」である。 2006年の第23回機械学習国際会議の報告 pp. 161-168。
0.80
[37] P. Dayan, M. Sahani, and G. Deback, “Unsupervised learning,” The MIT encyclopedia of the cognitive sciences, pp. 857–859, 1999. [37] p. dayan, m. sahani, g. deback, “unsupervised learning”, the mit encyclopedia of the cognitive sciences, pp. 857–859, 1999。
訳抜け防止モード: [37]P.Dayan、M.Sahani、G.Deback。 MITの認知科学百科事典「教師なし学習」 pp . 857–859 , 1999 .
0.66
J. Friedman, T. Hastie, R. Tibshirani, et al , The elements of statistical learning, 10. J. Friedman, T. Hastie, R. Tibshirani, et al , The element of statistics learning, 10。
訳抜け防止モード: j. friedman, t. hastie, r. tibshirani, et al. 統計的学習の要素は10。
0.73
Springer series in statistics New York, 2001, vol. 統計ニューヨーク・スプリンガー・シリーズ 2001, vol. 0.59
1. [38] [39] O. Bousquet, U. von Luxburg, and G. R¨atsch, Advanced Lectures on Machine Learning: ML Summer Schools 2003, Canberra, Australia, February 2-14, 2003, T¨ubingen, Germany, August 4-16, 2003, Revised Lectures. 1. [38] 39] O. Bousquet, U. von Luxburg, G. R satsch, Advanced Lectures on Machine Learning: ML Summer Schools 2003, Canberra, Australia, February 2-14, 2003, T subingen, German, August 4-16, 2003, Revised Lectures。
訳抜け防止モード: 1. [38] 39 ] O. Bousquet, U. von Luxburg, G. R satsch 機械学習の最新講義 : 2003年MLサマースクール, オーストラリア, キャンベラ 2003年(平成15年)2月2日~14日ドイツ・チュービンゲン、8月4日~16日 改訂講義。
0.51
Springer, 2011, vol. 3176. 春田、2011年。 3176. 0.38
[40] R. S. Sutton and A. G. Barto, Reinforcement learning: [40]R.S.サットンとA.G.バルト,強化学習 0.71
An introduction. MIT press, 2018. 紹介。 MIT出版、2018年。 0.59
[41] C. Szepesv´ari, “Algorithms for reinforcement learning,” Synthesis lectures on artificial intelligence and machine learning, vol. 41] c. szepesv ́ari, “algorithms for reinforcement learning”, synthesis lectures on artificial intelligence and machine learning, vol. 人工知能と機械学習に関する講義。 0.37
4, no. 1, pp. 1–103, 2010. 4, No. 1, pp. 1-103, 2010 0.43
[42] M. A. Wiering and M. Van Otterlo, “Reinforcement learning,” Adaptation, learning, and optimization, vol. 42] m. a. wiering氏とm. van otterlo氏は“強化学習”、適応、学習、最適化”について書いている。 0.64
12, no. 3, 2012. 2012年12月3日。 0.52
[43] D. Silver, T. Hubert, J. Schrittwieser, I. Antonoglou, M. Lai, A. Guez, M. Lanctot, L. Sifre, D. Kumaran, T. Graepel, et al , “A general reinforcement learning algorithm that masters chess, shogi, and go through self-play,” Science, vol. 43] D. Silver, T. Hubert, J. Schrittwieser, I. Antonoglou, M. Lai, A. Guez, M. Lanctot, L. Sifre, D. Kumaran, T. Graepel, et al , “チェス、ショギ、そしてセルフプレイをマスターする一般的な強化学習アルゴリズム”, Science, vol. 0.92
362, no. 6419, pp. 1140–1144, 2018. 362, no. 6419, pp. 1140–1144, 2018。 0.93
[44] S. J. Pan and Q. Yang, “A survey on transfer learning,” IEEE Transactions on knowledge and data engineering, vol. IEEE Transactions on knowledge and data engineering, vol.[44] S. J. Pan, Q. Yang, “A survey on transfer learning”, IEEE Transactions on knowledge and data engineering,
訳抜け防止モード: [44]s.j.pan,q.yang,“転校学習に関する調査” ieee transactions on knowledge and data engineering(リンク)、vol.1(リンク)。
0.65
22, no. 10, pp. 1345–1359, 2009. 22, No. 10, pp. 1345–1359, 2009。 0.48
[45] K. Weiss, T. M. Khoshgoftaar, and D. Wang, “A survey of transfer learning,” Journal of Big data, vol. Journal of Big Data, vol.[45] K. Weiss, T. M. Khoshgoftaar, D. Wang, “A survey of transfer learning”, ビッグデータジャーナル。 0.89
3, no. 1, pp. 1–40, 2016. 3巻1、p.1-40、2016年。 0.54
[46] L. Torrey and J. Shavlik, “Transfer learning. handbook of research on machine learning applications,” IGI Global, vol. IGI Global, vol.[46] L. TorreyとJ. Shavlikは、“Transfer Learning. Handbook of research on machine learning applications”と題している。 0.87
3, pp. 17–35, 2009. 第3巻、p.17-35。 0.38
[47] Y. LeCun, Y. Bengio, and G. Hinton, “Deep learning,” 47] Y. LeCun, Y. Bengio, G. Hinton, “Deep Learning”。 0.83
nature, vol. 521, no. 7553, pp. 436–444, 2015. 自然、Vol. 521, no. 7553, pp. 436-444, 2015年。 0.75
英語(論文から抽出)日本語訳スコア
[48] L. C. Yan, B. Yoshua, and H. Geoffrey, “Deep learning,” nature, vol. [48] l.c. yan, b. yoshua, h. geoffrey, “deep learning”, nature, vol. 0.38
521, no. 7553, pp. 436–444, 2015. 521, no. 7553, pp. 436-444, 2015年。 0.90
I. Goodfellow, Y. Bengio, and A. Courville, Deep learning. i. goodfellow、y. bengio、a. courville、ディープラーニング。 0.68
MIT press, 2016. 2016年、MIT出版。 0.65
[49] [50] D. Shen, G. Wu, and H. [49] [50] D. Shen, G. Wu, H。 0.42
-I. Suk, “Deep learning in medical image analysis,” Annual review of biomedical engineering, vol. -私。 Suk, “Deep Learning in Medical Image Analysis, Annual Review of Biomedical Engineering, vol。 0.39
19, pp. 221–248, 2017. 19, pp. 221-248, 2017 頁。 0.36
[51] L. Deng and D. Yu, “Deep learning: Methods and applications,” Foundations and trends in signal processing, vol. [51] l. deng, d. yu, “deep learning: methods and applications”, 信号処理の基礎とトレンド, vol。 0.74
7, no. 3–4, pp. 197–387, 2014. 7, No. 3–4, pp. 197–387, 2014 0.46
[52] L. R. Medsker and L. Jain, “Recurrent neural networks,” Design and Applications, vol. 52] l. r. medskerとl. jain、”recurrent neural networks”、デザインと応用。 0.64
5, pp. 64–67, 2001. 5, pp. 64-67, 2001。 0.88
[53] A. Creswell, T. White, V. Dumoulin, K. Arulkumaran, B. Sengupta, and A. A. Bharath, “Generative adversarial networks: An overview,” IEEE Signal Processing Magazine, vol. A. Creswell, T. White, V. Dumoulin, K. Arulkumaran, B. Sengupta, A. A. Bharath, “Generative Adversarial Network: An overview”, IEEE Signal Processing Magazine, Vol. 0.41
35, no. 1, pp. 53–65, 2018. 35, No. 1, pp. 53-65, 2018。 0.45
[54] K. O’Shea and R. Nash, “An introduction to preprint 54] k. o'shea と r. nash 「プレプリント入門」 0.53
networks,” arXiv ネットワーク”だ。 arXiv 0.56
convolutional arXiv:1511.08458, 2015. 畳み込みarxiv:1511.08458, 2015 0.24
neural [55] D. Mandic and J. Chambers, Recurrent neural networks for prediction: learning algorithms, architectures and stability. 神経 [55] d. mandic氏とj. chambers氏は、予測のためのリカレントニューラルネットワークである。
訳抜け防止モード: 神経 55 ] d. mandic と j. chambers, recurrent neural network for prediction : 学習アルゴリズム、アーキテクチャ、安定性。
0.72
Wiley, 2001. 2001年、ワイリー。 0.62
J. Cheng, L. Dong, and M. Lapata, “Long shortterm memory-networks for machine reading,” arXiv preprint arXiv:1601.06733, 2016. j. cheng、l. dong、m. lapata、”long shortterm memory-networks for machine reading”、arxiv preprint arxiv:1601.06733、2016年。
訳抜け防止モード: J. Cheng, L. Dong, M. Lapata, “長期記憶 – 機械読み取りのためのネットワーク”。 arXiv preprint arXiv:1601.06733 , 2016
0.83
[56] [57] R. Dey and F. M. Salem, “Gate-variants of gated recurrent unit (gru) neural networks,” in 2017 IEEE 60th international midwest symposium on circuits and systems (MWSCAS), IEEE, 2017, pp. 1597–1600. [56] 957] R. Dey と F. M. Salem, “Gate-variants of gated recurrent unit (gru) neural networks” in 2017 IEEE 60th International Midwest symposium on circuits and systems (MWSCAS), IEEE, 2017, pp. 1597–1600。
訳抜け防止モード: [56] 57 ] r. dey と f. m. salem, “gate - variants of gated recurrent unit ( gru ) neural networks” (英語) 2017年、ieee 60th international midwest symposium on circuits and systems (mwscas) を開催。 ieee、2017年、p.1597-1600。
0.57
J. Chung, C. Gulcehre, K. Cho, and Y. Bengio, “Empirical evaluation of gated recurrent neural networks on sequence modeling,” arXiv preprint arXiv:1412.3555, 2014. J. Chung, C. Gulcehre, K. Cho, Y. Bengio, “Empirical evaluation of gated recurrent neural network on sequence modeling” arXiv preprint arXiv:1412.3555, 2014
訳抜け防止モード: J. Chung, C. Gulcehre, K. Cho, Y. Bengio 『列モデリングにおけるゲートリカレントニューラルネットワークの実証評価』 arXiv preprint arXiv:1412.3555 , 2014
0.88
[58] [59] Z. Pan, W. Yu, X. Yi, A. Khan, F. Yuan, and Y. Zheng, “Recent progress on generative adversarial networks (gans): A survey,” IEEE Access, vol. [58] 959] Z. Pan, W. Yu, X. Yi, A. Khan, F. Yuan, Y. Zheng, “最近のジェネレーティブ・敵ネットワーク(ガン):調査, IEEE Access, vol. 0.57
7, pp. 36 322– 36 333, 2019. 7, pp. 36 322– 36 333, 2019. 0.46
[60] D. Saxena and J. Cao, “Generative adversarial networks (gans) challenges, solutions, and future directions,” ACM Computing Surveys (CSUR), vol. 60] d. saxena と j. cao, “generative adversarial networks (gans) challenge, solutions, and future direction” (csur), acm computing surveys (csur), vol. 。
訳抜け防止モード: 60 ] d. saxena と j. cao は “generative adversarial networks (gans) challenge” と題している。 acmコンピューティングサーベイ(csur)、vol。
0.53
54, no. 3, pp. 1–42, 2021. 54, No. 3, pp. 1–42, 2021。 0.48
[61] S. M. Anwar, M. Majid, A. Qayyum, M. Awais, M. Alnowami, and M. K. Khan, “Medical image analysis using convolutional neural networks: A review,” Journal of medical systems, vol. [61]S.M. Anwar, M. Majid, A. Qayyum, M. Awais, M. Alnowami, M.K. Khan, “畳み込みニューラルネットワークを用いた医療画像分析: レビュー”, Journal of Medical Systems, vol. 0.92
42, no. 11, pp. 1–13, 2018. 42, no. 11, pp. 1-13, 2018年。 0.82
[62] G. Litjens, T. Kooi, B. E. Bejnordi, A. A. A. Setio, F. Ciompi, M. Ghafoorian, J. A. Van Der Laak, B. Van Ginneken, and C. I. S´anchez, “A survey on deep learning in medical image analysis,” Medical image analysis, vol. [62] g. litjens, t. kooi, b. e. bejnordi, a. a. setio, f. ciompi, m. ghafoorian, j. a. van der laak, b. van ginneken, c. i. s ́anchez, “a survey on deep learning in medical image analysis, medical image analysis, vol.” (英語)
訳抜け防止モード: [62 ]g. litjens, t. kooi, b. e. bejnordi, a. a. setio, f. ciompi, m. ghafoorian, j. a. van der laak. b. van ginneken, c. i. s 'anchez, “医療画像解析におけるディープラーニングに関する調査” 医用画像解析
0.80
42, pp. 60–88, 2017. 42, pp. 60-88, 2017。 0.84
[63] R. Yamashita, M. Nishio, R. K. G. Do, and K. Togashi, “Convolutional neural networks: An overview and application in radiology,” Insights into imaging, vol. R. Yamashita, M. Nishio, R. K. G. Do, K. Togashi, “Convolutional Neural Network: An overview and application in radiology”, Insights into imaging, Vol.
訳抜け防止モード: [63 ]R.山下、M.西尾、R.K.G.Do とがし「畳み込みニューラルネットワーク : 放射線学の概観と応用」 画像へのインサイト、vol。
0.68
9, no. 4, pp. 611–629, 2018. 9, No. 4, pp. 611-629, 2018。 0.86
16 [64] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based learning applied to document recognition,” Proceedings of the IEEE, vol. 16 Y. LeCun, L. Bottou, Y. Bengio, P. Haffner, “Gradient-based learning applied to document recognition”, Proceedings of the IEEE, vol。
訳抜け防止モード: 16 [64 ]Y.LeCun,L.Bottou,Y.B engio, そしてP. Haffner氏は,“ドキュメント認識に適用されたグラディエントベースの学習”だ。 IEEE , vol の成果。
0.57
86, no. 11, pp. 2278–2324, 1998. 86, No. 11, pp. 2278–2324, 1998。 0.45
[65] H. El-Amir and M. Hamdy, Deep learning pipeline: building a deep learning model with TensorFlow. H. El-Amir氏とM. Hamdy氏のディープラーニングパイプライン:TensorFlowでディープラーニングモデルを構築する。
訳抜け防止モード: [65 ]H. El-Amir and M. Hamdy, Deep Learning Pipeline TensorFlowでディープラーニングモデルを構築すること。
0.83
Apress, 2019. [66] Z. 2019年、退社。 [66]Z。 0.49
-Q. Zhao, P. Zheng, S. -q。 Zhao, P. Zheng, S。 0.64
-t. Xu, and X. Wu, “Object detection with deep learning: A review,” IEEE transactions on neural networks and learning systems, vol. -t。 Xu, and X. Wu, “Object Detection with Deep Learning: A review”, IEEEのニューラルネットワークと学習システムに関するトランザクション。 0.59
30, no. 11, pp. 3212–3232, 2019. 第30巻、第11巻、p.3212-3232、2019。 0.44
[67] A. Karpathy, “Stanford university cs231n: Convolutional neural networks for visual recognition,” URL: http://cs231n. 関連スポンサーコンテンツ [67] a. karpathy, “stanford university cs231n: convolutional neural networks for visual recognition” url: http://cs231n。 0.78
stanford. edu/syllabus. スタンフォード edu/syllabus所属。 0.46
html, 2018. html、2018年。 0.74
[68] B. Yegnanarayana, Artificial neural networks. 68] b. yegnanarayana 人工ニューラルネットワーク 0.55
PHI Learning Pvt. PHI pvtを学ぶ。 0.61
Ltd., 2009. 2009年、株式会社。 0.69
[69] Y. Yiqiao, “Deep learning notes,” 2018. Y.Yiqiao, “Deep Learning notes” 2018年。 0.56
[70] P. Kim, “Convolutional neural network,” in MATLAB MATLABの[70]P. Kim, “Convolutional Neural Network” 0.39
deep learning, Springer, 2017, pp. 121–147. 深層学習, Springer, 2017, pp. 121–147。 0.47
[71] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” Advances in neural information processing systems, vol. A. Krizhevsky, I. Sutskever, G. E. Hinton, “Imagenet classification with Deep Convolutional Neural Network”, Advanceds in Neural Information Processing System, Vol..
訳抜け防止モード: [71 ] a. krizhevsky, i. sutskever, g. e. hinton. 深層畳み込みニューラルネットワークによるイメージネット分類” ニューラル情報処理システムにおける進歩,vol。
0.79
25, pp. 1097–1105, 2012. 25, pp. 1097–1105, 2012。 0.90
[72] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” arXiv preprint arXiv:1409.1556, 2014. K. Simonyan, A. Zisserman, “Very deep convolutional network for large-scale image recognition” arXiv preprint arXiv:1409.1556, 2014
訳抜け防止モード: 72 ] K. Simonyan, A. Zisserman, “大規模画像認識のための非常に深い畳み込みネットワーク”。 arXiv preprint arXiv:1409.1556 , 2014
0.85
[73] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 1–9. C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich, “Going deep with convolutions” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015 pp. 1–9。
訳抜け防止モード: [73 ]C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke そしてA. Rabinovichは、IEEEのコンピュータビジョンに関するカンファレンスProceedingsの中で、”convolutions, .”と題して述べている。 and pattern recognition , 2015 , pp . 1-9 。
0.77
[74] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 770–778. [74] k. he, x. zhang, s. ren, and j. sun, "deep residual learning for image recognition" in the proceedings of the ieee conference on computer vision and pattern recognition, 2016 pp. 770–778. (英語)
訳抜け防止モード: 74 ] he, x. zhang, s. ren, 画像認識のためのディープラーニング”とj. sunは語る。 ieee conference on computer vision and pattern recognition』2016年、p.770-778。
0.57
[75] Y. Amit, P. Felzenszwalb, and R. Girshick, “Object detection,” Computer Vision: A Reference Guide, pp. 1–9, 2020. [75] y. amit, p. felzenszwalb, r. girshick, “object detection”, computer vision: a reference guide, pp. 1–9, 2020。
訳抜け防止モード: [75 ]Y. Amit, P. Felzenszwalb, R. Girshick 物体検出, コンピュータビジョン : 参照ガイド pp . 1–9 , 2020 .
0.74
[76] L. Liu, W. Ouyang, X. Wang, P. Fieguth, J. Chen, X. Liu, and M. Pietik¨ainen, “Deep learning for generic object detection: A survey,” International journal of computer vision, vol. 76] L. Liu, W. Ouyang, X. Wang, P. Fieguth, J. Chen, X. Liu, M. Pietik sainen, “Deep Learning for generic object detection: A survey”, International Journal of Computer Vision, Vol.
訳抜け防止モード: [76 ]L.Liu,W.Ouyang,X.Wan g, P. Fieguth, J. Chen, X. Liu, M. Pietik sainen 汎用物体検出のための深層学習 : コンピュータビジョンの国際ジャーナル, Vol.
0.75
128, no. 2, pp. 261–318, 2020. 128, no. 2, pp. 261–318, 2020。 0.95
[77] D. G. Lowe, “Object recognition from local scaleinvariant features,” in Proceedings of the seventh IEEE international conference on computer vision, Ieee, vol. IEEEの第7回コンピュータビジョン国際会議Ieee, vol.[77]D.G. Lowe, “Object Recognition from local scaleinvariant features” で発表された。 0.79
2, 1999, pp. 1150–1157. 1999年、p.1150-1157。 0.69
[78] M. Z. Alom, T. M. Taha, C. Yakopcic, S. Westberg, P. Sidike, M. S. Nasrin, B. C. Van Esesn, A. A. S. Awwal, and V. K. Asari, “The history began from alexnet: A comprehensive survey on deep learning approaches,” arXiv preprint arXiv:1803.01164, 2018. M. Z. Alom, T. M. Taha, C. Yakopcic, S. Westberg, P. Sidike, M. S. Nasrin, B. C. Van Esesn, A. A. S. Awwal, V. K. Asari, “歴史はAlexnetから始まった。
訳抜け防止モード: [78 ]M.Z. Alom,T.M. Taha,C. Yakopcic, S. Westberg, P. Sidike, M. S. Nasrin, B. C. Van Esesn, A. A. S. Awwal そしてV.K. Asari氏は,“歴史はAlexnetから始まった。 arXiv preprint arXiv:1803.01164 , 2018。
0.91
[79] M. Everingham, L. Van Gool, C. K. Williams, J. Winn, and A. Zisserman, “The pascal visual object classes (voc) challenge,” International journal of computer vision, vol. 70] m. everingham, l. van gool, c. k. williams, j. winn, and a. zisserman, “the pascal visual object classes (voc) challenge”, international journal of computer vision, vol.
訳抜け防止モード: 79 ] m. everingham, l. van gool, c. k. williams. j. winn, and a. zisserman, “the pascal visual object class (voc) challenge” (英語) international journal of computer vision, vol. を参照。
0.80
88, no. 2, pp. 303–338, 2010. 88, no. 2, pp. 303-338, 2010 頁。 0.82
英語(論文から抽出)日本語訳スコア
[80] T. -Y. [80]T。 -y。 0.37
Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Doll´ar, and C. L. Zitnick, “Microsoft coco: Common objects in context,” in European conference on computer vision, Springer, 2014, pp. 740– 755. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Doll ́ar, and C. L. Zitnick, “Microsoft coco: Common Object in context” in European conference on computer vision, Springer, 2014 pp. 740–755。
訳抜け防止モード: Lin, M. Maire, S. Belongie, J. Hays, P. Perona D. Ramanan, P. Doll ́ar, and C. L. Zitnick, “Microsoft coco : Common Object in context”。 欧州のコンピュータビジョン会議において、Springer, 2014, pp. 740 – 755。
0.91
[81] D. Hoiem, Y. Chodpathumwan, and Q. Dai, “Diagnosing error in object detectors,” in European conference on computer vision, Springer, 2012, pp. 340–353. a b [81] D. Hoiem, Y. Chodpathumwan, Q. Dai, “Diagnosing error in object detectors” in European conference on computer vision, Springer, 2012 pp. 340–353。
訳抜け防止モード: [81 ]D. Hoiem,Y. Chodpathumwan,Q. Dai 欧州のコンピュータビジョン会議における「物体検出器のエラー診断」 2012年、p.340-353。
0.75
[82] R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014, pp. 580–587. R. Girshick, J. Donahue, T. Darrell, J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014 pp. 580–587。
訳抜け防止モード: [82 ]R. Girshick, J. Donahue, T. Darrell リッチな特徴は、正確なオブジェクト検出とセマンティックセグメンテーションのための階層です。 in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014 . 580–587
0.76
J. R. Uijlings, K. E. Van De Sande, T. Gevers, and A. W. Smeulders, “Selective search for object recognition,” International journal of computer vision, vol. J. R. Uijlings、K. E. Van De Sande、T. Gevers、そしてA. W. Smeuldersは、“オブジェクト認識の選択的検索”だ。
訳抜け防止モード: J. R. Uijlings, K. E. Van De Sande, T. Gevers そしてA.W. Smeuldersは “Selective search for object recognition” と言う。 国際コンピュータビジョン雑誌。
0.84
104, no. 2, pp. 154–171, 2013. 104, No. 2, pp. 154–171, 2013。 0.47
[83] [84] K. He, X. Zhang, S. Ren, and J. Sun, “Spatial pyramid pooling in deep convolutional networks for visual recognition,” IEEE transactions on pattern analysis and machine intelligence, vol. [83] K. He, X. Zhang, S. Ren, J. Sun, “Spatial pyramid pooling in deep convolutional network for visual recognition”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション。 0.57
37, no. 9, pp. 1904– 1916, 2015. 37, no. 9 pp. 1904–1916, 2015年。 0.83
[85] S. Lazebnik, C. Schmid, and J. Ponce, “Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories,” in 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), IEEE, vol. 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), IEEE, vol.[85] S. Lazebnik, C. Schmid, J. Ponce, “Beyond bag of features: spatial pyramid matching for recognizeing natural scene categories”. 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), IEEE, vol.
訳抜け防止モード: [85 ] S. Lazebnik, C. Schmid, J. Ponce 「特徴の袋を超えて : 自然景観カテゴリー認識のための空間ピラミッドマッチング」 2006年IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06) IEEE, vol。
0.80
2, 2006, pp. 2169– 2178. 2006年、2169-2178頁。 0.53
[86] R. Girshick, “Fast r-cnn,” in Proceedings of the IEEE international conference on computer vision, 2015, pp. 1440–1448. [86] R. Girshick, “Fast r-cnn” in Proceedings of the IEEE International Conference on computer vision, 2015, pp. 1440–1448。
訳抜け防止モード: [86 ] R. Girshick, “fast r - cnn”. 2015年、IEEEのコンピュータビジョン国際会議「Proceedings of the IEEE International Conference on Computer Vision」に参加。 1440-1448頁。
0.63
[87] S. Ren, K. He, R. Girshick, and J. Sun, “Faster rcnn: Towards real-time object detection with region proposal networks,” Advances in neural information processing systems, vol. [87] s. ren, k. he, r. girshick, j. sun, “faster rcnn: towards real-time object detection with region proposal networks” ニューラル情報処理システムにおける進歩。 0.81
28, pp. 91–99, 2015. 28, pp. 91-99, 2015。 0.87
[88] C. L. Zitnick and P. Doll´ar, “Edge boxes: Locating object proposals from edges,” in European conference on computer vision, Springer, 2014, pp. 391–405. [88] c. l. zitnick と p. doll ́ar, “edge box: locing object proposals from edges” in european conference on computer vision, springer, 2014 pp. 391–405. (英語)
訳抜け防止モード: [88 ] C. L. Zitnick, P. Doll ́ar, “エッジボックス : エッジからのオブジェクト提案の配置” 欧州のコンピュータビジョン会議において、Springer, 2014, pp. 391–405。
0.78
J. Dai, Y. Li, K. He, and J. Sun, “R-fcn: Object detection via region-based fully convolutional networks,” in Advances in neural information processing systems, 2016, pp. 379–387. J. Dai, Y. Li, K. He, and J. Sun, “R-fcn: Object Detection via region based fully convolutional network” in Advances in Neural Information Processing system, 2016 pp. 379–387。
訳抜け防止モード: J. Dai, Y. Li, K. He, J. Sun R - fcn : 領域ベースの完全畳み込みネットワークによるオブジェクト検出」 In Advances in Neural Information Processing System, 2016, pp. 379–387.
0.88
[89] [90] T. [89] [90]T。 0.39
-Y. Lin, P. Doll´ar, R. Girshick, K. He, B. Hariharan, and S. Belongie, “Feature pyramid networks for object detection,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. 2117–2125. -y。 Lin, P. Doll ́ar, R. Girshick, K. He, B. Hariharan, S. Belongie, “Feature pyramid network for object detection”, Proceedings of the IEEE conference on computer vision and pattern recognition, 2017 pp. 2117–2125。
訳抜け防止モード: -y。 Lin, P. Doll ́ar, R. Girshick, K. He, B. Hariharan, S. Belongie IEEEのコンピュータビジョン会議における「物体検出のための特徴ピラミッドネットワーク」 and pattern recognition , 2017 , pp . 2117–2125 。
0.65
[91] K. He, G. Gkioxari, P. Doll´ar, and R. Girshick, “Mask r-cnn,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. 2961–2969. 91] K. He, G. Gkioxari, P. Doll ́ar, R. Girshick, "Mask r-cnn" in Proceedings of the IEEE International conference on computer vision, 2017 pp. 2961–2969。
訳抜け防止モード: [91 ]K. He, G. Gkioxari, P. Doll ́ar. そしてR. Girshick氏は、IEEEのコンピュータビジョンに関する国際会議、Proceedingsで“Mask r - cnn, ”と評した。 2017 , pp . 2961–2969 .
0.67
[92] X. Zhang, Y. [92] X. Zhang, Y. 0.47
-H. Yang, Z. Han, H. Wang, and C. Gao, “Object class detection: A survey,” ACM Computing Surveys (CSUR), vol. -h。 Yang, Z. Han, H. Wang, C. Gao, “Object class detection: A survey”, ACM Computing Surveys (CSUR), vol.
訳抜け防止モード: -h。 Yang, Z. Han, H. Wang, C. Gao オブジェクトクラス検出 : 調査, 調査, ACM Computing Surveys (CSUR),vol。
0.74
46, no. 1, pp. 1–53, 2013. 46, no. 1, pp. 1-53, 2013 頁。 0.79
[93] S. Brahmbhatt, H. [93]S. Brahmbhatt, H。 0.44
I. Christensen, and J. Hays, “Stuffnet: Using ‘stuff’to improve object detection,” I. Christensen, J. Hays, “Stuffnet: ‘stuff’を使ってオブジェクト検出を改善する”。 0.91
17 in 2017 IEEE Winter Conference on Applications of Computer Vision (WACV), IEEE, 2017, pp. 934–943. 17 2017年、IEEE Winter Conference on Applications of Computer Vision (WACV), IEEE, 2017, pp. 934–943。
訳抜け防止モード: 17 2017年ieee winter conference on applications of computer vision (wacv) ieee、2017年、p.934-943。
0.57
[94] S. Bell, C. L. Zitnick, K. Bala, and R. Girshick, “Inside-outside net: Detecting objects in context with skip pooling and recurrent neural networks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 2874–2883. 94] S. Bell, C. L. Zitnick, K. Bala, R. Girshick, “Inside-outside net: Detecting objects in context with skip pooling and recurrent neural network” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016 pp. 2874–2883。
訳抜け防止モード: [94 ]S. Bell, C. L. Zitnick, K. Bala, R. Girshick 「内側-外側網」 スキッププールとリカレントニューラルネットワークでコンテキスト内のオブジェクトを検出する”。 In Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 2874–2883。
0.84
[95] T. Kong, A. Yao, Y. Chen, and F. Sun, “Hypernet: Towards accurate region proposal generation and joint object detection,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 845–853. T. Kong, A. Yao, Y. Chen, F. Sun, “Hypernet: toward accurate region proposal generation and joint object detection” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 845–853。
訳抜け防止モード: [95 ]T. Kong, A. Yao, Y. Chen, ハイパーネット : 正確な地域提案の生成と共同物体検出を目指して」 in Proceedings of the IEEE conference on computer vision and pattern recognition 2016 , pp . 845–853 .
0.83
[97] [96] A. Shrivastava, A. Gupta, and R. Girshick, “Training region-based object detectors with online hard example mining,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 761–769. [97] A. Shrivastava, A. Gupta, R. Girshick, “Training region-based object detectors with online hard example mining” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016. 761-769。
訳抜け防止モード: [97] [96]A.Shrivastava、A.Gupta、R.Girshick トレーニングエリア-オンラインハードサンプルマイニングを用いたオブジェクト検出装置」 in Proceedings of the IEEE conference on computer vision and pattern recognition 2016 , pp . 761–769 .
0.57
J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You only look once: Unified, real-time object detection,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 779– 788. J. Redmon氏、S. Divvala氏、R. Girshick氏、A. Farhadi氏は、コンピュータビジョンとパターン認識に関するIEEEカンファレンスのProceedingsで、"一度だけ見えます。
訳抜け防止モード: J. Redmon, S. Divvala, R. Girshick, A. Farhadi 「一度しか見えません。統一され、リアルタイムなオブジェクト検出です。」 in Proceedings of the IEEE conference on computer vision and pattern recognition 2016 , pp . 779 – 788 .
0.93
J. Redmon and A. Farhadi, “Yolo9000: Better, faster, stronger,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. 7263–7271. j. redmon氏とa. farhadi氏は、ieee conference on computer vision and pattern recognition, 2017 pp. 7263-7271で、“yolo9000: better, faster, stronger”と題した記事を書いた。 0.72
[98] [99] ——, “Yolov3: An incremental improvement,” arXiv [98] 99] ———— “Yolov3: 漸進的な改善”, arXiv 0.44
preprint arXiv:1804.02767, 2018. arXiv:1804.02767, 2018 0.37
[100] D. Hu, “An introductory survey on attention mechanisms in nlp problems,” in Proceedings of SAI Intelligent Systems Conference, Springer, 2019, pp. 432–448. [100]D. Hu, “A introductory Survey on attention mechanism in nlp problem” in Proceedings of SAI Intelligent Systems Conference, Springer, 2019, pp. 432–448。
訳抜け防止モード: [100 ]D. Hu, “nlp問題における注意機構の入門調査” In Proceedings of SAI Intelligent Systems Conference, Springer, 2019 432-448頁。
0.76
[101] T. -Y. [101]t。 -y。 0.35
Lin, P. Goyal, R. Girshick, K. He, and P. Doll´ar, “Focal loss for dense object detection,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. 2980–2988. Lin, P. Goyal, R. Girshick, K. He, P. Doll ́ar, “Focal loss for dense object detection” in Proceedings of the IEEE International conference on computer vision, 2017, pp. 2980–2988。
訳抜け防止モード: lin, p. goyal, r. girshick, k. he. p. doll ́ar, “focal loss for dense object detection” (英語) 2017年ieee international conference on computer visionで開催。 2980-2988頁。
0.75
[102] H. Law and J. Deng, “Cornernet: Detecting objects as paired keypoints,” in Proceedings of the European conference on computer vision (ECCV), 2018, pp. 734–750. 102] h. law and j. deng, “cornernet: detection objects as paired keypoints” in the european conference on computer vision (eccv), 2018, pp. 734–750. (英語)
訳抜け防止モード: 102 ] h. law と j. deng, “ cornernet: detection objects as paired keypoints” 欧州コンピュータビジョン会議(eccv)の開催にあたって 2018 , pp . 734–750 .
0.77
[103] B. Lim, S. Son, H. Kim, S. Nah, and K. Mu Lee, “Enhanced deep residual networks for single image superresolution,” in Proceedings of the IEEE conference on computer vision and pattern recognition workshops, 2017, pp. 136–144. B. Lim氏、S. Son氏、H. Kim氏、S. Nah氏、K. Mu Lee氏は、IEEEのコンピュータビジョンとパターン認識ワークショップProceedings of the IEEE conference on computer vision and pattern recognition Workshop, 2017, pp. 136–144の中で、“シングルイメージ超解像のためのディープ残差ネットワークを拡張”している。
訳抜け防止モード: [103 ]B.Lim, S. Son, H. Kim, S. Nah, K. Mu Lee, “シングル画像超解像のためのディープ残像ネットワークの強化”。 in Proceedings of the IEEE conference on computer vision and pattern recognition Workshops 2017 , pp . 136–144 .
0.89
[104] W. Shi, J. Caballero, F. Husz´ar, J. Totz, A. P. Aitken, R. Bishop, D. Rueckert, and Z. Wang, “Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 1874–1883. [104] w. shi, j. caballero, f. husz ́ar, j. totz, a. p. aitken, r. bishop, d. rueckert, z. wang, “real-time single image and video super- resolution using an efficient sub-pixel convolutional neural network” in the ieee conference on computer vision and pattern recognition, 2016 pp. 1874–1883. (英語)
訳抜け防止モード: 104 ] W. Shi, J. Caballero, F. Husz ́ar. J. Totz, A. P. Aitken, R. Bishop, D. Rueckert, Z. Wang リアルタイム画像とビデオスーパー - 効率的なサブピクセル畳み込みニューラルネットワークを用いた解像度。 in Proceedings of the IEEE conference on computer vision and pattern recognition 2016 , pp . 1874–1883 .
0.89
[105] C. Dong, C. C. Loy, and X. Tang, “Accelerating the super-resolution convolutional neural network,” in European conference on computer vision, Springer, 2016, pp. 391–407. C. Dong, C. C. Loy, and X. Tang, “Accelerating the super- resolution convolutional neural network” in European conference on computer vision, Springer, 2016 pp. 391–407。
訳抜け防止モード: [105 ]C.ドン、C.C.ロイ、X.唐 欧州のコンピュータビジョン会議において,“超高解像度畳み込みニューラルネットワークを加速する”。 春田、2016年、p.391-407。
0.67
[106] W. -S. [106]w。 -S。 0.38
Lai, J. -B. Huang, N. Ahuja, and M. レイ、j。 -B。 Huang, N. Ahuja, M。 0.46
-H. Yang, “Fast and accurate image super-resolution with deep -h。 深みのある超高解像度画像」とYangが語る 0.69
英語(論文から抽出)日本語訳スコア
laplacian pyramid networks,” IEEE transactions on pattern analysis and machine intelligence, vol. とieee transactions on pattern analysis and machine intelligence, vol. は述べている。 0.64
41, no. 11, pp. 2599–2613, 2018. 第41巻 no. 11, pp. 2599-2613, 2018。 0.61
[107] R. M. Dufour, E. L. Miller, and N. P. Galatsanos, “Template matching based object recognition with unknown geometric parameters,” IEEE Transactions on image processing, vol. 107] R. M. Dufour, E. L. Miller, N. P. Galatsanos, “Template matching based object recognition with unknown geometry parameters”, IEEE Transactions on image processing, vol。
訳抜け防止モード: 107 ] r. m. dufour, e. l. miller. n. p. galatsanos, “テンプレートマッチングベースのオブジェクト認識と未知の幾何学的パラメータ” ieeeは画像処理でトランザクションを処理します。
0.70
11, no. 12, pp. 1385–1396, 2002. 11巻12頁、p.1385-1396、2002年。 0.65
[108] D. W. Greig and M. Denny, “Knowledge-based methods for small-object detection in sar images,” in SAR Image Analysis, Modeling, and Techniques V, International Society for Optics and Photonics, vol. 108] d. w. greig, m. denny, “knowledge-based method for small-object detection in sar images” in sar image analysis, modeling, and techniques v, international society for optics and photonics, vol. (英語)
訳抜け防止モード: 108 ] D. W. Greig と M. Denny 氏は,“サー画像における小さなオブジェクト検出のための知識-ベース手法” と説明している。 In SAR Image Analysis, Modeling, and Techniques V, International Society for Optics and Photonics,vol
0.81
4883, 2003, pp. 121–130. 4883, 2003, pp. 121-130。 0.78
[109] M. D. Hossain and D. Chen, “Segmentation for objectbased image analysis (obia): A review of algorithms and challenges from remote sensing perspective,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. ISPRS Journal of Photogrammetry and Remote Sensing, vol.[109] M. D. Hossain, D. Chen, “Segmentation for Object based image analysis (obia): A review of algorithm and Challenge from remote sensor perspective”. ISPRS Journal of Photogrammetry and Remote Sensing.
訳抜け防止モード: 109 ] m. d. hossain と d. chen, "obia(object based image analysis)のセグメンテーション : リモートセンシングの観点からのアルゴリズムと課題のレビュー" isprs journal of photogrammetry and remote sensing(isprs journal of photogrammetry and remote sensing)の略。
0.72
150, pp. 115–134, 2019. 150, pp. 115–134, 2019。 0.94
[110] Y. Benezeth, P. 110]Y. Benezeth, P。 0.39
-M. Jodoin, B. Emile, H. Laurent, and C. Rosenberger, “Comparative study of background subtraction algorithms,” Journal of Electronic Imaging, vol. -M。 Jordanin, B. Emile, H. Laurent, C. Rosenberger, “Comparative study of background subtraction algorithm”, Journal of Electronic Imaging, vol.
訳抜け防止モード: -M。 浄土院、B.エミール、H. Laurent、C. Rosenberger 背景抽出アルゴリズムの比較研究, 電子イメージングジャーナル,vol
0.50
19, no. 3, p. 033 003, 2010. 19 no. 3, p. 033 003, 2010年。 0.85
[111] P. KaewTraKulPong and R. Bowden, “An improved adaptive background mixture model real-time tracking with shadow detection,” in Video-based surveillance systems, Springer, 2002, pp. 135–144. P. KaewTraKulPong, R. Bowden, "Adaptive background mix model real-time tracking with shadow detection" in Video-based surveillance system, Springer, 2002, pp. 135–144。
訳抜け防止モード: 111 ] p. kaewtrakulpong と r. bowden は “a improved adaptive background mixture model real - time tracking with shadow detection” と題している。 ビデオベースの監視システム、springer, 2002, pp. 135–144。
0.81
for [112] Z. Zivkovic, “Improved adaptive gaussian mixture model for background subtraction,” in Proceedings of the 17th International Conference on Pattern Recognition, 2004. ですから 112] z. zivkovic, “improved adaptive gaussian mixture model for background subtraction” in the 17th international conference on pattern recognition, 2004
訳抜け防止モード: ですから 112 ] z. zivkovic, “ improved adaptive gaussian mixture model for background subtraction” 第17回パターン認識国際会議(2004年)開催。
0.64
ICPR 2004., IEEE, vol. ICPR 2004, IEEE, vol。 0.39
2, 2004, pp. 28–31. 2004年、28-31頁。 0.55
[113] Z. Zivkovic and F. Van Der Heijden, “Efficient adaptive density estimation per image pixel for the task of background subtraction,” Pattern recognition letters, vol. Z. Zivkovic 氏と F. Van Der Heijden 氏は,“背景減算処理における画像画素ごとの効率的な適応密度推定” というパターン認識文字, Vol。 0.79
27, no. 7, pp. 773–780, 2006. 27 no. 7, pp. 773-780, 2006 頁。 0.80
[114] L. Li, W. Huang, I. Y. [114] L. Li, W. Huang, I. Y. 0.48
-H. Gu, and Q. Tian, “Statistical modeling of complex backgrounds for foreground object detection,” IEEE Transactions on Image Processing, vol. -h。 Gu, and Q. Tian, “Statistical modeling of complex backgrounds for preeground object detection”, IEEE Transactions on Image Processing, vol.
訳抜け防止モード: -h。 前景物体検出のための複雑な背景の統計的モデリング」とGu, and Q. Tian IEEE Transactions on Image Processing , vol。
0.78
13, no. 11, pp. 1459–1472, 2004. 13, No. 11, pp. 1459–1472, 2004。 0.47
[115] L. Marcomini and A. L. Cunha, “A comparison between background modelling methods for vehicle segmentation in highway traffic videos,” arXiv preprint arXiv:1810.02835, 2018. A comparison between background modelling methods for vehicle segmentation in highway traffic video, arXiv preprint arXiv:1810.02835, 2018。
訳抜け防止モード: [115 ] L. Marcomini, A. L. Cunha, “高速道路交通ビデオにおける車両セグメンテーションの背景モデリング手法の比較” arXiv preprint arXiv:1810.02835 , 2018。
0.88
[116] M. A. H. Abdou, T. T. Truong, A. Dykky, P. Ferreira, and E. Jul, “Capillarynet: An automated system to quantify skin capillary density and red blood cell velocity from handheld vital microscopy,” Artificial Intelligence in Medicine, vol. 116]M.A.H. Abdou, T. T. Truong, A. Dykky, P. Ferreira, E. Jul, “Capillarynet:手持ちのバイタル顕微鏡から皮膚の毛細血管密度と赤血球の速度を定量化する自動化システム”。 0.83
127, p. 102 287, 2022. 127, p. 102 287, 2022。 0.91
[117] M. Sezgin and B. Sankur, “Survey over image thresholding techniques and quantitative performance evaluation,” Journal of Electronic imaging, vol. journal of electronic imaging, vol. “[117] m. sezginとb. sankurは、“画像のしきい値化技術と定量的パフォーマンス評価に関する調査”。
訳抜け防止モード: [117 ] M. Sezgin, B. Sankur, “画像しきい値測定技術と定量的性能評価” Journal of Electronic Imaging, vol. (英語)
0.88
13, no. 1, pp. 146–165, 2004. 13 no. 1, pp. 146–165, 2004。 0.84
[118] D. Bradley and G. Roth, “Adaptive thresholding using the integral image,” Journal of graphics tools, vol. journal of graphics tools, vol. “adaptive thresholding using the integral image”[118] d. bradleyとg. rothは、こう述べている。 0.76
12, no. 2, pp. 13–21, 2007. 12, No. 2, pp. 13–21, 2007。 0.46
[119] J. Yousefi, “Image binarization using otsu thresholding algorithm,” Ontario, Canada: University of Guelph, 2011. [119] j. yousefi, “image binarization using otsu thresholding algorithm”, canada, canada: university of guelph, 2011年。 0.40
[120] G. Bradski and A. Kaehler, Learning OpenCV: Computer vision with the OpenCV library. G. Bradski, A. Kaehler, Learning OpenCV: OpenCVライブラリによるコンピュータビジョン。 0.73
” O’Reilly Media, Inc. とO’Reilly Media, Inc。 0.75
”, 2008. [121] W. McIlhagga, “The canny edge detector revisited,” International Journal of Computer Vision, vol. ”, 2008. The canny edge detector revisited”[121] W. McIlhagga, International Journal of Computer Vision, Vol. 0.35
91, no. 3, pp. 251–261, 2011. 91, no. 3, pp. 251-261, 2011 頁。 0.41
[122] A. Sherstyuk, “Kernel functions in convolution surfaces: A comparative analysis,” The Visual Computer, vol. 122] a. sherstyuk, “kernel functions in convolution surfaces: a comparison analysis” the visual computer, vol. は、こう述べている。 0.84
15, no. 4, pp. 171–182, 1999. 15 no. 4, pp. 171–182, 1999。 0.84
[123] M. Kaur, J. Kaur, and J. Kaur, “Survey of contrast enhancement techniques based on histogram equalization,” International Journal of Advanced Computer Science and Applications, vol. international journal of advanced computer science and applications, vol. [123] m. kaur, j. kaur, j. kaur, and j. kaur, “ヒストグラムの等化に基づくコントラスト強化技術のサーベイ。 0.68
2, no. 7, 2011. 2011年7月2日。 0.25
[125] [124] M. C. Motwani, M. C. Gadiya, R. C. Motwani, and F. C. Harris, “Survey of image denoising techniques,” in Proceedings of GSPX, Proceedings of GSPX, vol. [125] 124] M. C. Motwani, M. C. Gadiya, R. C. Motwani, F. C. Harris, "Survey of image denoising techniques" in Proceedings of GSPX, Proceedings of GSPX, vol。 0.44
27, 2004, pp. 27–30. 2004年7月27日、p.27-30。 0.57
J. G. Dobbe, G. J. Streekstra, B. Atasever, R. Van Zijderveld, and C. Ince, “Measurement of functional microcirculatory geometry and velocity distributions using automated image analysis,” Medical & biological engineering & computing, vol. J.G. Dobbe, G. J. Streekstra, B. Atasever, R. Van Zijderveld, C. Ince, “自動画像解析による機能的微小循環幾何学と速度分布の測定”, Medical & Bio Engineering & Computing, Vol. 0.91
46, no. 7, pp. 659–670, 2008. 46, no. 7, pp. 659–670, 2008 頁。 0.83
[126] H. Deng, W. Zhang, E. Mortensen, T. Dietterich, and L. Shapiro, “Principal curvature-based region detector for object recognition,” in 2007 IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2007, pp. 1–8. H. Deng, W. Zhang, E. Mortensen, T. Dietterich, L. Shapiro, “Principal curvature-based region detector for object recognition” in 2007 IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2007 pp. 1–8。
訳抜け防止モード: [126 ]H. Deng, W. Zhang, E. Mortensen, T. Dietterich, そしてL. Shapiroは、“主曲率に基づく物体認識のための領域検出器”だ。 2007 IEEE Conference on Computer Vision and Pattern Recognition, IEEE, 2007 pp. 1-8。
0.83
[127] R. Bezemer, J. G. Dobbe, S. A. Bartels, E. C. Boerma, P. W. Elbers, M. Heger, and C. Ince, “Rapid automatic assessment of microvascular density in sidestream dark field images,” Medical & biological engineering & computing, vol. R. Bezemer, J. G. Dobbe, S. A. Bartels, E. C. Boerma, P. W. Elbers, M. Heger, C. Ince, “Rapid Automatic Assessment of microvascular density in sidestream dark field image”, Medical & biological engineering & computing, Vol.
訳抜け防止モード: [127 ]R. Bezemer, J. G. Dobbe, S. A. Bartels, E. C. Boerma, P. W. Elbers, M. Heger, C. Ince, “サイドストリームダークフィールド画像における微小血管の迅速自動評価”。 医学・生物工学・計算
0.84
49, no. 11, pp. 1269–1278, 2011. 49, no. 11, pp. 1269–1278, 2011 頁。 0.43
J. Tam, J. A. Martin, and A. Roorda, “Noninvasive visualization and analysis of parafoveal capillaries in humans,” Investigative ophthalmology & visual science, vol. j. tam, j. a. martin, a. roorda, “noninvasive visualization and analysis of parafoveal capillaries in human”. 眼科・視覚科学研究科 0.72
51, no. 3, pp. 1691–1698, 2010. 51, No. 3, pp. 1691–1698, 2010 0.44
[128] [129] L. S. Geyman, R. A. Garg, Y. Suwan, V. Trivedi, B. D. Krawitz, S. Mo, A. Pinhas, A. Tantraworasin, T. Y. Chui, R. Ritch, et al , “Peripapillary perfused capillary density in primary open-angle glaucoma across disease stage: An optical coherence tomography angiography study,” British Journal of Ophthalmology, vol. [128] 129] L. S. Geyman, R. A. Garg, Y. Suwan, V. Trivedi, B. D. Krawitz, S. Mo, A. Pinhas, A. Tantraworasin, T. Y. Chui, R. Ritch, et al , “腹膜灌流した毛細管の乳頭径密度は、病期全体にわたる。
訳抜け防止モード: [128] [129 ] L. S. Geyman, R. A. Garg, Y. Suwan, V. Trivedi, B. D. Krawitz, S. Mo, A. Pinhas A. Tantraworasin, T. Y. Chui, R. Ritch, et al 原発開放隅角緑内障における毛細管周囲灌流毛細血管密度 : 光コヒーレンス断層撮影法による研究」 英国眼科学会(British Journal of Ophthalmology)の略称。
0.61
101, no. 9, pp. 1261–1268, 2017. 101, no. 9, pp. 1261–1268, 2017 頁。 0.85
[130] S. U. Demir, R. Hakimzadeh, R. H. Hargraves, K. R. Ward, E. V. Myer, and K. Najarian, “An automated method for analysis of microcirculation videos for accurate assessment of tissue perfusion,” BMC medical imaging, vol. 130] s. u. demir, r. hakimzadeh, r. h. hargraves, k. r. ward, e. v. myer, k. najarian, “組織灌流の正確な評価のための微小循環ビデオ分析の自動化方法”。
訳抜け防止モード: 130 ] s. u. demir, r. hakimzadeh, r. h. hargraves. k. r. ward、e. v. myer、k. najarian。 「組織灌流の精密評価のための微小循環ビデオ自動解析方法」 bmcメディカルイメージング, vol. 。
0.72
12, no. 1, pp. 1–13, 2012. 12巻1、p.1-13、2012年。 0.47
[131] A. M. Reza, “Realization of the contrast limited adaptive histogram equalization (clahe) for real-time image enhancement,” Journal of VLSI signal processing sys- 131] a.m. reza, "リアルタイム画像強調のためのコントラスト制限適応ヒストグラム等化(clahe)の実現-" journal of vlsi signal processing sys- 0.81
18 18 0.43
英語(論文から抽出)日本語訳スコア
tems for signal, image and video technology, vol. tems for signal, image and video technology, vol.1 (英語) 0.68
38, no. 1, pp. 35–44, 2004. 38, No. 1, pp. 35–44, 2004。 0.47
[132] C. Cheng, C. W. Lee, and C. Daskalakis, “A reproducible computerized method for quantitation of capillary density using nailfold capillaroscopy,” Journal of visualized experiments: JoVE, no. 104, 2015. C. Cheng, C. W. Lee, C. Daskalakis, A reprodible computerized method for Quantitation of capillary density using nailfold capillaroscopy, Journal of visuald experiment: JoVE, No. 104, 2015
訳抜け防止モード: [132 ]C. Cheng, C. W. Lee, C. Daskalakis, 『ネイルフォールドカピラロスコープによる毛細血管密度の定量化のための再現可能なコンピュータ化法』 可視化実験ジャーナル : JoVE, no 104, 2015
0.84
[133] A. Tama, T. R. Mengko, and H. Zakaria, “Nailfold capillaroscopy image processing for morphological parameters measurement,” in 2015 4th International Conference on Instrumentation, Communications, Information Technology, and Biomedical Engineering (ICICI-BME), IEEE, 2015, pp. 175–179. 133] tama, t. r. mengko, h. zakaria, “nailfold capillaroscopy image processing formorphal parameters measurement” 2015年 第4回国際計測・通信・情報技術・生物医学会議(icici-bme), ieee, 2015 pp. 175–179。 0.71
[134] P. Prentaˇsi´c, M. Heisler, Z. Mammo, S. Lee, A. ˇSarunic, and Merkur, E. Navajas, M. F. Beg, M. S. Lonˇcari´c, “Segmentation of the foveal microvasculature using deep learning networks,” Journal of biomedical optics, vol. バイオメディカル・オプティカル・オプティクス『Journal of Biomedical optics』は、「[134]P. Prenta'si ́c, M. Heisler, Z. Mammo, S. Lee, A. S. Sarunic, and Merkur, E. Navajas, M. F. Beg, M. S. Lon'cari ́c, “Segmentation of the foveal microvasculature using Deep Learning Networks, vol。 0.70
21, no. 7, p. 075 008, 2016. 21 no. 7, p. 075 008, 2016年。 0.85
[135] G. Dai, W. He, L. Xu, E. E. Pazo, T. Lin, S. Liu, and C. Zhang, “Exploring the effect of hypertension on retinal microvasculature using deep learning on east asian population,” PloS one, vol. 135]G. Dai, W. He, L. Xu, E. E. Pazo, T. Lin, S. Liu, C. Zhang, “東アジアの深層学習を用いた網膜微小血管に対する高血圧の影響を探る”。 0.83
15, no. 3, e0230111, 2020. 15, 3, e0230111, 2020。 0.36
[136] R. Nivedha, M. Brinda, K. Suma, and B. Rao, “Classification of nailfold capillary images in patients with hypertension using non-linear svm,” in 2016 International Conference on Circuits, Controls, Communications and Computing (I4C), IEEE, 2016, pp. 1–5. R. Nivedha, M. Brinda, K. Suma, B. Rao, “classification of nailfold capillary images in hypertension using non-linear svm” in 2016 International Conference on Circuits, Controls, Communications and Computing (I4C), IEEE, 2016, pp. 1–5。
訳抜け防止モード: [136 ]R. Nivedha, M. Brinda, K. Suma, B. Raoは「非リニアsvmを用いた高血圧症患者の爪折り毛細管画像の分類」と評した。 2016 International Conference on Circuits, Controls, Communications and Computing (I4C) IEEE, 2016, pp. 1-5。
0.80
[137] P. Javia, A. Rana, N. Shapiro, and P. Shah, “Machine learning algorithms for classification of microcirculation images from septic and non-septic patients,” in 2018 17th IEEE International Conference on Machine Learning and Applications (ICMLA), IEEE, 2018, pp. 607–611. P. Javia, A. Rana, N. Shapiro, and P. Shah, “Machine learning algorithm for classification of microcirculation image from septic and non-septic patients” in 2018 17th IEEE International Conference on Machine Learning and Applications (ICMLA), IEEE, 2018, pp. 607–611。
訳抜け防止モード: [137 ]P. Javia, A. Rana, N. Shapiro, そしてP. Shahは、“敗血症や非敗血症患者の微小循環画像の分類のための機械学習アルゴリズム”だ。 2018年の第17回IEEE International Conference on Machine Learning and Applications (ICMLA)に参加して IEEE, 2018, pp. 607-611。
0.74
[138] F. Ye, S. Yin, M. Li, Y. Li, and J. Zhong, “Invivo full-field measurement of microcirculatory blood flow velocity based on intelligent object identification,” Journal of biomedical optics, vol. F. Ye, S. Yin, M. Li, Y. Li, J. Zhong, “Invivo full-field Measurement of microcirculatory blood flow velocity based on intelligent object ID”. Journal of Biomedical optics, vol. 0.43
25, no. 1, p. 016 003, 2020. 25 no. 1, p. 016 003, 2020。 0.82
[139] L. Barba-Guaman, J. Eugenio Naranjo, and A. Ortiz, “Deep learning framework for vehicle and pedestrian detection in rural roads on an embedded gpu,” Electronics, vol. 139] l. barba-guaman, j. eugenio naranjo, a. ortiz, “組み込みgpuによる農村部における自動車と歩行者の検出のためのディープラーニングフレームワーク”だ。 0.64
9, no. 4, p. 589, 2020. 9、4、p. 589、2020。 0.64
[140] Y. S. Hariyani, H. Eom, and C. Park, “Da-capnet: Dual attention deep learning based on u-net for nailfold capillary segmentation,” IEEE Access, vol. Y.S. Hariyani, H. Eom, C. Park, “Da-capnet: Dual attention Deep Learning based on u-net for nailfold capillary segmentation”, IEEE Access, vol。
訳抜け防止モード: [140 ]Y.S.ハリヤニ、H.Eom、C.パーク。 Da-capnet : ネイルフォールドキャピラリーセグメンテーションのためのu-netに基づくデュアルアテンション深層学習,IEEE Access, vol。
0.68
8, pp. 10 543–10 553, 2020. 8, pp. 10 543–10 553, 2020. 0.50
J. Hu, L. Shen, and G. Sun, “Squeeze-and-excitati on networks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 7132–7141. J. Hu, L. Shen, and G. Sun, “Squeeze-and-excitati on network” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 7132-7141。
訳抜け防止モード: J. Hu, L. Shen, G. Sun, “Squeeze -” IEEEのコンピュータビジョンに関する会議Proceedingsで紹介された。 and pattern recognition , 2018 , pp . 7132-7141 。
0.78
[141] [142] S. Woo, J. Park, J. [141] 142]s・ウー、j・パーク、j 0.49
-Y. Lee, and I. S. Kweon, “Cbam: Convolutional block attention module,” in Proceedings of the European conference on computer vision (ECCV), 2018, pp. 3–19. -y。 lee, and i.s. kweon, “cbam: convolutional block attention module” in the proceedings of the european conference on computer vision (eccv), 2018, pp. 3–19. (英語)
訳抜け防止モード: -y。 lee, and i.s. kweon, “cbam: convolutional block attention module” 欧州コンピュータビジョン会議(eccv)の開催にあたって 2018 , pp . 3–19 .
0.58
[143] M. A. H. Abdou, P. Ferreira, E. Jul, and T. T. Truong, “Capillaryx: A software design pattern for analyzing 143] M. A. H. Abdou, P. Ferreira, E. Jul, T. T. Truong, “Capillaryx: a software design pattern for analysis”
訳抜け防止モード: 143 ] m. a. h. abdou, p. ferreira, e. jul, t. t. truong "capillaryx" : 分析のためのソフトウェアデザインパターン
0.82
medical arXiv preprint arXiv:2204.08462, 2022. arXiv preprint arXiv:2204.08462, 2022 0.44
images in real-time using deep learning,” ディープラーニングによる画像のリアルタイム化”だ。 0.49
19 19 0.42
                                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。