論文の概要、ライセンス

# (参考訳) AutoPtosis [全文訳有]

AutoPtosis ( http://arxiv.org/abs/2106.03905v2 )

ライセンス: CC BY 4.0
Abdullah Aleem, Manoj Prabhakar Nallabothula, Pete Setabutr, Joelle A. Hallak and Darvin Yi(参考訳) ブレファロプトーシス(英: blepharoptosis、通称:ptosis)は、上まぶたが垂れ下がったまぶたの状態である。 現在診断されているのは、時間を要する手作業による測定で、人的ミスを生じやすいことだ。 本稿では,ptosis の迅速な診断のために,解釈可能な結果を持つ人工知能システム autoptosis を提案する。 我々はイリノイ眼科データベースAtlas(I-ODA)から収集した多様なデータセットを用いて、予測のための堅牢な深層学習モデルを開発し、また、限界反射距離と虹彩比を計算する臨床的にインスピレーションを受けたモデルを開発した。 AutoPtosisは、同等のクラスバランスを持つ医師認証データに対して95.5%の精度を達成した。 提案手法は,ptosisの迅速かつタイムリーな診断に役立ち,医療システムの負担を大幅に軽減し,患者や診療所の貴重な資源を節約できる。

Blepharoptosis, or ptosis as it is more commonly referred to, is a condition of the eyelid where the upper eyelid droops. The current diagnosis for ptosis involves cumbersome manual measurements that are time-consuming and prone to human error. In this paper, we present AutoPtosis, an artificial intelligence based system with interpretable results for rapid diagnosis of ptosis. We utilize a diverse dataset collected from the Illinois Ophthalmic Database Atlas (I-ODA) to develop a robust deep learning model for prediction and also develop a clinically inspired model that calculates the marginal reflex distance and iris ratio. AutoPtosis achieved 95.5% accuracy on physician verified data that had an equal class balance. The proposed algorithm can help in the rapid and timely diagnosis of ptosis, significantly reduce the burden on the healthcare system, and save the patients and clinics valuable resources.
公開日: Wed, 9 Jun 2021 15:41:00 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V I . 9 ] V 私は。 0.82
s s e e [ 2 v 5 0 9 3 0 s s e [ 2 v 5 0 9 3 0 0.77
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
AutoPtosis AutoPtosis 0.85
Abdullah Aleem1,2(cid:63), Manoj Prabhakar Nallabothula1,2(cid: 63), Pete Setabutr1, Abdullah Aleem1,2(cid:63), Manoj Prabhakar Nallabothula1,2(cid: 63), Pete Setabutr1 0.79
Joelle A. Hallak1,2, and Darvin Yi1,2 Joelle A. Hallak1,2 と Darvin Yi1,2 0.67
1 Department of Ophthalmology and Visual Sciences 第1部 眼科・視覚科学科 0.64
University of Illinois at Chicago イリノイ大学シカゴ校 0.58
Chicago, IL, US シカゴ、イル、アメリカ 0.66
2 Center for AI in Ophthalmology University of Illinois at Chicago 2 center for ai in ophthalmology university of illinois at chicago 0.72
Chicago, IL, US シカゴ、イル、アメリカ 0.66
{aaleem2,mnalla2,pset abut,joelle,dyi9}@uic.edu aaleem2,mnalla2,pset abut,joelle,dyi9}@uic.edu 0.88
Abstract. Blepharoptosis, or ptosis as it is more commonly referred to, is a condition of the eyelid where the upper eyelid droops. 抽象。 ブレファロプトーシス(英: blepharoptosis、通称:ptosis)は、上まぶたが垂れ下がったまぶたの状態である。
訳抜け防止モード: 抽象。 ブレファロパチー(Blepharoptosis)、または、より一般的に言及されるようなてんかんである。 上まぶたが垂れ下がっている まぶたの状態。
0.67
The current diagnosis for ptosis involves cumbersome manual measurements that are time-consuming and prone to human error. 現在診断されているのは、時間を要する手作業による測定で、人的ミスを生じやすいことだ。 0.47
In this paper, we present AutoPtosis, an artificial intelligence based system with interpretable results for rapid diagnosis of ptosis. 本稿では,ptosis の迅速な診断のために,解釈可能な結果を持つ人工知能システム autoptosis を提案する。 0.71
We utilize a diverse dataset collected from the Illinois Ophthalmic Database Atlas (I-ODA) to develop a robust deep learning model for prediction and also develop a clinically inspired model that calculates the marginal reflex distance and iris ratio. 我々はイリノイ眼科データベースAtlas(I-ODA)から収集した多様なデータセットを用いて、予測のための堅牢な深層学習モデルを開発し、また、限界反射距離と虹彩比を計算する臨床的にインスピレーションを受けたモデルを開発した。
訳抜け防止モード: イリノイ眼科データベースAtlas(I-ODA)から収集した多様なデータセットを用いて、予測のための堅牢なディープラーニングモデルを開発する。 限界反射距離と虹彩比を計算する 臨床モデルも開発しました
0.79
AutoPtosis achieved 95.5% accuracy on physician verified data that had an equal class balance. AutoPtosisは、同等のクラスバランスを持つ医師認証データに対して95.5%の精度を達成した。 0.58
The proposed algorithm can help in the rapid and timely diagnosis of ptosis, significantly reduce the burden on the healthcare system, and save the patients and clinics valuable resources. 提案手法は,ptosisの迅速かつタイムリーな診断に役立ち,医療システムの負担を大幅に軽減し,患者や診療所の貴重な資源を節約できる。 0.77
Keywords: Deep Learning, Ptosis, Interpretability キーワード:Deep Learning, Ptosis, Interpretability 0.91
1 Introduction Ptosis (blepharoptosis) [8] is an eyelid condition where the drooping or falling of the upper eyelid causes a narrowing of the palpebral aperture (opening between the eyelids). 1 はじめに ptosis (blepharoptosis) [8] は、上まぶたが垂れ下がったり下がったりすると、(まぶたの間が開いている)口蓋の開口部が狭くなったりする、まぶたの状態である。 0.68
When the upper eyelid and eyelashes droop, severe vision problems can occur and the quality of life can be affected [2, 7, 18]. 上まぶたとまぶたが垂れ下がった場合、重度の視覚障害が発生し、生活の質に影響を及ぼす可能性がある[2,7,18]。 0.68
In children, severe ptosis can cause amblyopia which results in vision loss if left untreated. 小児では、重度のptosisがアンブリオピアを引き起こし、未治療で視力が失われることがある。 0.53
Therefore, accurate detection of ptosis followed by appropriate treatment is of vital importance in improving a patient’s vision and quality of life. したがって, 適切な治療をともなうptosisの正確な検出は, 患者の視力と生活の質を改善する上で極めて重要である。 0.85
The current clinical standard for identifying ptosis is by calculating the degree of droop by manually measuring the marginal reflex distance, also known as MRD1 [5]. MRD1[5]としても知られる辺縁反射距離を手動で測定することで、病原性を特定するための現在の臨床基準がドループの度合いを算出している。 0.61
MRD1 is the distance between the upper eyelid and the corneal light reflex, as shown in Fig 1. MRD1は、図1に示すように、上まぶたと角膜光反射の間の距離である。 0.84
Currently, the methods being using calculate MRD1 rely predominantly on manual measurements. 現在、MDD1の計算手法は手動測定に大きく依存している。 0.65
Manual measurements, however, しかし手作業による測定は 0.70
(cid:63) Equal contribution. (出典:63)等級。 0.61
英語(論文から抽出)日本語訳スコア
2 Aleem and Nallabothula et al 2 Aleem and Nallabothula et al 0.85
are subjective and prone to human error and are also time-consuming which means the results are not readily accessible for evaluation. 主観的であり、ヒューマンエラーの傾向があり、また時間を要するため、結果が評価に容易にアクセスできない。 0.61
Fig. 1: MRD1 Distance. フィギュア。 1: MRD1 距離。 0.65
A depiction of the MRD1 distance measurement. MRD1距離測定の描写。 0.63
In this paper, we leverage the latest advancements in the field of computer vision and deep learning to develop an automated system for rapid diagnosis of ptosis. 本稿では,コンピュータビジョンと深層学習の分野における最新の進歩を活用し,診断の迅速化のための自動システムを開発する。 0.85
This system can be of vital importance for timely detection and treatment of ptosis. このシステムは、病気のタイムリーな検出と治療に重要である可能性がある。 0.67
It can also help reduce the burden on the healthcare system and save the patients and clinics substantial resources such as time and money. また、医療システムの負担を軽減し、時間やお金といった重要なリソースを患者や診療所で節約するのに役立つ。
訳抜け防止モード: 医療システムの負担軽減にも役立ちます 患者や診療所の時間やお金といった 重要な資源を節約できるのです
0.77
2 Related Work In recent years, there has been a surge in the usage of teleophthalmology and computer-based applications in the field of ophthalmology as pointed out by Shahbaz and Salducci [17]. 2 関連作業 近年,shahbaz と salducci [17] が指摘するように,眼科における遠隔眼科とコンピュータによる応用が急増している。 0.70
Applications like iScreen, iExaminer [13], GoCheck Kids Vision Screener [15] etc., are being widely accepted by the clinicians for their optimal performance in record time and with minimal costs. iscreen、iexaminer [13]、gocheck kids vision screener [15]などのアプリケーションは、記録的な時間と最小限のコストで最適なパフォーマンスを臨床医に広く受け入れられている。 0.78
As mentioned by GoCheckKids, there have not been any computer-based applications that are publicly available for detection of ptosis. GoCheckKidsが述べたように、病状検出のために公開されたコンピュータベースのアプリケーションは存在しない。 0.78
The only available solution is iScreen Vision3, which works only with customized photo screening hardware. 唯一のソリューションはiscreen vision3で、カスタマイズされた写真スクリーニングハードウェアでしか使えない。 0.73
A recent study by Van Brummen et al [19], also implemented artificial intelligence methods to automate the assessment of periorbital measurements. Van Brummenらによる最近の研究は、周囲軌道計測の自動化のための人工知能手法も導入している。
訳抜け防止モード: Van Brummen et al [19 ] による最近の研究と人工知能の応用 眼窩周囲測定の自動化を図っています
0.67
It used a semantic segmentation network to calculate MRD1 and other distances. セグメンテーションネットワークを使用してMDD1や他の距離を計算した。 0.62
In our study, we utilize landmark detection models to calculate the relevant measurement and use them along with a specialized deep learning model which enables automatic disease detection and enhances clinical practices. 本研究では,ランドマーク検出モデルを用いて関連する測定値を算出し,自動疾患検出を可能にする専門的な深層学習モデルを用いて臨床実践を強化する。 0.89
3 https://www.iscreenv ision.com/ 3 https://www.iscreenv ision.com/ 0.49
英語(論文から抽出)日本語訳スコア
AutoPtosis AutoPtosis 0.85
3 3 Data 3.1 Sourcing The dataset used for this research was sourced from the Illinois Ophthalmic Database Atlas (I-ODA) [14]. 3 3データ 3.1 Sourcing この研究で使用されたデータセットは、イリノイ眼科データベースAtlas (I-ODA) [14]から得られた。 0.81
I-ODA is a multi-modal longitudinal ophthalmic imaging dataset developed by the Department of Ophthalmology and Visual Sciences at the Illinois Eye and Ear Infirmary of the University of Illinois Chicago (UIC) over the course of 12 years and comprises of patients from different age groups and ethnic backgrounds. I-ODA(I-ODA)は、イリノイ大学シカゴ校(UIC)の眼科・視覚科学科が12年間にわたって開発し、異なる年齢層と民族的背景を持つ患者で構成されている多モード長手眼画像データセットである。 0.73
The data consisted of 820 full facial images collected in clinical settings for 386 patients that were tested for ptosis. 患者386名を対象に, 臨床現場で収集した820枚の顔画像から得られた。 0.68
In the sourced data, patients with ptosis outnumbered patients without ptosis because of the increased likelihood of patients with ptosis visiting the hospital for a checkup. 出所データでは, 入院患者が診察に来院する可能性が高まったため, 入院患者は非入院患者より多かった。 0.54
Non-ptosis images consisted mostly of postoperative images, however, these images were not available for all patients. 非ptosis像は術後画像が大半であったが,全症例でこれらの画像は得られなかった。 0.72
Because of the imbalance between ptosis and non-ptosis images we augmented our dataset with 43 facial images of 43 people from the Flickr-Faces-HQ (FFHQ) dataset [11], which is a high-quality image dataset of human faces. プットシスと非プットシス画像の不均衡のため、flickr-faces-hq(ffhq )データセット[11]から43人の顔画像でデータセットを拡張しました。
訳抜け防止モード: プテシスと非プテシス画像の不均衡のために、flickrの43人の顔画像(faces - hq (ffhq ) dataset [11])でデータセットを拡張しました。 これは人間の顔の高品質な画像データセットです。
0.64
After augmentation, we had a total of 863 images for 429 unique patients. 拡張後,429例の863画像が得られた。 0.50
3.2 Labeling Patients had ptosis in either a single or both eyes. 3.2 ラベル患者は, 片眼または両眼に有病率を示した。 0.72
Hence, four classes (ptosis in both eyes, ptosis in the left eye only, ptosis in the right eye only, and ptosis in no eye) were specified to categorize and label the data. 以上の結果から,両眼のptosis,左眼のptosis,右眼のptosis,無眼のptosisの4種類を分類・分類した。
訳抜け防止モード: そのため、両眼に4つの分類がある(両眼に1つ、左眼に1つ1つ)。 右眼のみのてんかん,無眼のてんかん)が特定され,その分類とラベルが得られた。
0.59
A few images were chosen by an expert physician to represent each category and using these images as a reference, the team manually went over the data and clustered it into the four specified classes. いくつかの画像が専門医によって選択され、それぞれのカテゴリを表現し、これらのイメージを参照として使用し、チームは手動でデータを4つの特定のクラスにまとめました。 0.73
However, we wanted our test data to be as accurate and pristine as possible. しかし私たちは、テストデータが可能な限り正確で実用的であることを望んでいました。 0.57
For this purpose, we asked an expert physician to hand-select 25 images for each category as precisely as possible. そこで我々は,専門医に対して,各カテゴリの画像を可能な限り正確に25枚選択するよう依頼した。 0.71
These images created the test set and were used as the ground truth for measuring the performance of our models. これらの画像はテストセットを作成し、モデルの性能を測定するための基礎的真実として使用された。 0.72
The training set was still prone to some errors because the entire dataset was not verified by an expert physician but we approximated labeling to have around 90% accuracy by comparing the labels of test set from trained physician to what was labeled by our team. トレーニングセットは、データセット全体が専門家の医師によって検証されていないため、いくつかのエラーが発生しやすいが、トレーニングされた医師によるテストセットのラベルと、我々のチームによってラベル付けされたものを比較して、ラベル付けの精度をおよそ90%と見積もった。
訳抜け防止モード: トレーニングセットは、いくつかのエラーが発生しやすいものでした。 データセットは専門家の医師が しかしラベル付けは 約90%の精度で 訓練された医師の検査セットのラベルを 我々のチームによってラベル付けされたものと比較することで
0.74
The test set consisted of 100 images (77 I-ODA and 23 FFHQ) from 95 people (72 I-ODA and 23 FFHQ) divided into four categories. テストセットは、95人(I-ODAと23FFHQ)から100枚(I-ODAと23FFHQ)の画像を4つのカテゴリに分けた。 0.74
All images for these 95 people were removed from the original set and what was remaining made up the training and validation set. これらの95人の画像はすべてオリジナルのセットから削除され、残りの画像はトレーニングと検証セットを構成した。 0.81
The training and validation set comprised 656 full facial images (636 I-ODA and 20 FFHQ) from 334 people (314 I-ODA and 20 FFHQ). トレーニングと検証セットは、334人(I-ODAと20 FFHQ)の656枚の顔画像(I-ODAと20 FFHQ)で構成された。 0.71
3.3 Pre-processing Once the training and testing datasets were finalized, we extracted the region of interest (eye region) from the images using Dlib. 3.3 事前処理 トレーニングデータセットとテストデータセットが終了すると、Dlibを用いて画像から関心領域(眼領域)を抽出した。 0.70
Dlib is a face detection and alignment software that is based on the classic Histogram of Oriented Gradients dlibは、向き付け勾配の古典的なヒストグラムに基づいた顔検出・アライメントソフトウェア
訳抜け防止モード: dlibは顔検出とアライメントのソフトウェアで 向き付け勾配の古典的なヒストグラムに基づいています
0.81
英語(論文から抽出)日本語訳スコア
4 Aleem and Nallabothula et al 4 Aleem and Nallabothula et al 0.85
(HOG) feature combined with a linear classifier, an image pyramid, and a sliding window detection scheme developed by Kazemi and Sullivan [12]. (HOG) 機能と線形分類器,画像ピラミッド,加世見とサリヴァンによるスライディングウインドウ検出手法を組み合わせる [12]。
訳抜け防止モード: (HOG)は線形分類器と画像ピラミッドを組み合わせた特徴である。 カゼミとサリヴァンが開発したスライディングウインドウ検出スキーム [12 ]。
0.75
Dlib detected 6 landmarks on each eye contour and using these landmarks we extrapolated the area and extracted the eye regions. Dlibは各眼輪の6つの目印を検出し,これらの目印を用いて領域を外挿し,眼球領域を抽出した。 0.60
These regions were then used by our models to predict ptosis. これらの領域は、私たちのモデルが診断に使用しました。 0.48
Each extracted eye region was labeled in binary classes, ptosis, and not ptosis, using the four initial categories. 抽出された眼球領域は, 4つの初期カテゴリを用いて, 2つの分類, ptosis, not ptosisに分類された。 0.67
After extraction, there were 988 eye images with ptosis and 324 eye images without ptosis. 抜去後, 眼球画像は988例, 眼球画像は324例であった。 0.65
4 Methods 4.1 Deep Learning The deep learning model predicted ptosis for each extracted eye region based on the unique characteristics of each class (ptosis and not ptosis) learned during the training phase. 4つの方法 4.1 ディープラーニング トレーニングフェーズで学習した各クラス(ptosis, not ptosis)のユニークな特徴に基づいて、抽出された眼領域ごとにptosisを予測するディープラーニングモデル。 0.71
Due to limited data available for training, we used a single model for the prediction of both eyes, where the right eye was flipped before being fed into the network. トレーニング用に利用可能なデータが少ないため、私たちは、右目がネットワークに入力される前に反転した、両眼の予測に単一のモデルを使用しました。 0.72
This was based on the assumption that flipping the right eye perfectly translates it to the left eye. これは、右目が完全に左目へと変換されるという仮定に基づいている。 0.71
To further help the deep learning model we added filtered images alongside the original image. ディープラーニングモデルをさらに支援するために、原画像と一緒にフィルタ画像を追加しました。
訳抜け防止モード: ディープラーニングモデルをさらに支援するために オリジナル画像に フィルター画像を追加しました。
0.64
The original image was converted into grayscale and six filtered images were appended as channels. 原画像はグレースケールに変換され、6枚のフィルタ画像がチャンネルとして付加された。 0.60
The operations that we used were Gamma correction (with values of 1.5 and 1/1.5), Histogram equalization, Canny edge detection, Harris corner detection, and Difference of Gaussian’s. 私たちが使った操作はガンマ補正(1.5と1/1.5の値)、ヒストグラムの等化、キャニーエッジ検出、ハリスコーナー検出、ガウスの差であった。
訳抜け防止モード: 使用した操作はガンマ補正(1.5と1/1.5の値)であった。 ヒストグラム等化、カニーエッジ検出、ハリスコーナー検出 Gaussian の . と .
0.78
Fig 2 shows an example of the original eye alongside the six appended channels for both, eye without ptosis and eye with ptosis. fig 2は、両眼に付属する6つのチャネル、プットシスのない眼、プットシスを伴う眼と共に元の眼の例を示している。 0.63
Fig. 2: Extended Features. フィギュア。 2: 機能拡張。 0.56
Eye without ptosis (top) and eye with ptosis (bottom). 無眼(トップ)、無眼(ボトム)。 0.45
Dense Convolutional Network (DenseNet) [10], which connects each layer to every other layer in a feed-forward fashion were used for deep learning. 深層学習には,各層と他の層をフィードフォワード方式で接続する高密度畳み込みネットワーク(densenet)[10]を用いた。
訳抜け防止モード: Dense Convolutional Network (DenseNet ) [10 ] 各層をフィード内の他のすべての層に接続する -フォワード・ファッションは深層学習に使われた。
0.82
DenseNet121, pre-trained on ImageNet [6] was fine-tuned using our data. imagenet [6] で事前トレーニングされた densenet121 は,我々のデータを用いて微調整された。 0.53
The first and last layers of the model were changed to match our inputs and targets. モデルの最初のレイヤと最後のレイヤは、入力とターゲットにマッチするように変更された。 0.53
100 images (50 from each class) were separated and used for validation and the remaining 1212 images were used for training. 100枚の画像(各クラスから50枚の画像)を分離して検証に使い、1212枚の画像が訓練に使用された。 0.61
The training data had a 3.4 to 1 ratio of ptosis to not ptosis images and a weighted sampler was used to balance the classes. トレーニングデータは3.4から1のアプシスの比率で評価され、分類のバランスをとるために重み付けされたサンプル装置が使用された。 0.58
Different hyperparameters were tested and the best performing one (batch size = 32, optimizer = Adam with learning rate of 1e-3 and dropout = 0) were selected 異なるハイパーパラメータがテストされ、最高のパフォーマンス(バッチサイズ = 32、オプティマイザ = adam、1e-3、ドロップアウト = 0)が選択された。 0.75
英語(論文から抽出)日本語訳スコア
AutoPtosis AutoPtosis 0.85
5 using the validation set. 5 検証セットを使用する。 0.77
The model was trained for at least 100 epochs and stopped after that if there was no improvement in results for 10 epochs and the best model weights were selected based on the validation accuracy. モデルが少なくとも100エポックで訓練され,10エポックの結果が改善せず,検証精度に基づいて最良のモデル重みが選択された場合,その後に停止した。 0.79
The model was trained 5 times for the given set of hyperparameters and an ensemble of the 5 models was used to minimize the variance of the final model. モデルは与えられたハイパーパラメータのセットに対して5回訓練され、最終モデルのばらつきを最小限にするために5つのモデルのアンサンブルが使用された。 0.71
The output probability values of the 5 models were averaged and a 0.5 cutoff for averaged probability value was used to classify each eye image into ptosis or not ptosis. 5モデルの出力確率値の平均値と平均確率値の0.5カットオフを用いて各眼像をptosisまたはptosisに分類した。 0.76
4.2 Clinically Inspired The clinically inspired model imitated the clinical procedure and automated the measurements of the MRD1 and Iris Ratio (visible area of the iris) from the eye regions and used those to predict ptosis. 4.2 臨床インスパイアされたモデルが臨床手順を模倣し、眼領域からのmrd1と虹彩比(虹彩の可視領域)の測定を自動化し、それらを用いて陰影の予測を行った。
訳抜け防止モード: 4.2 臨床インスパイアされた臨床インスパイアモデルによる臨床手順の模倣 眼領域からのmrd1と虹彩比(虹彩の可視領域)の測定を自動化し ptosisの予測に使用しました
0.84
The model was divided into three main modules. モデルは3つの主要モジュールに分割された。 0.75
In the first module, the eye regions that were extracted from Dlib’s predictor were fed into the Mediapipe Iris [1] model. 最初のモジュールでは、dlibの予測器から抽出された眼領域がmediapipe iris [1]モデルに供給された。 0.77
The Mediapipe Iris model was developed by Google to identify landmarks for the iris, pupil, and eye contours. Mediapipe IrisモデルはGoogleが開発したもので、虹彩、瞳孔、眼輪郭のランドマークを識別する。 0.72
The Mediapipe Iris model detected the eyelid landmarks (16 points, along the eye contour) and iris landmarks (5 points, along the iris contour) from the extracted eye region. mediapipe irisモデルは、抽出された眼領域から、眼輪郭(16点、眼輪郭に沿って)と虹彩ランドマーク(虹彩輪郭に沿って5点)を検出した。 0.72
In the second module, the corneal light reflex (CLR) which is the brightest spot in the iris region that is closest to the pupil was extracted from the image. 第2モジュールでは,瞳孔に最も近い虹彩領域で最も明るい角膜光反射(clr)を画像から抽出した。
訳抜け防止モード: 第2のモジュールでは、角膜光反射(CLR)がある。 瞳孔に最も近いアイリス地域で最も明るい場所です 画像から抽出したものです
0.64
In the last module, the extracted coordinates were used to calculate the MRD1 and IR. 最後のモジュールでは、抽出した座標を用いてMDD1とIRを計算した。 0.68
The MRD1 was calculated by measuring the distance from detected CLR to the closet coordinate in the upper eye contour and the IR was calculated as a percentage of the iris area inside the eye contour. MRD1は、検出されたCLRから上眼輪郭のクローゼット座標までの距離を測定し、赤外線を眼輪郭内の虹彩領域の比率として算出した。
訳抜け防止モード: MRD1は計算された 検出されたCLRから上眼輪郭のクローゼット座標までの距離を測定する 赤外線は眼輪郭内の虹彩面積のパーセンテージとして計算された。
0.84
If the CLR was not visible, the distance from the center of the iris was measured. CLRが見えない場合,虹彩中心からの距離を測定した。 0.62
The MRD1 value was converted from pixels to millimeters based on the assumption that the horizontal iris diameter of the human eye remains roughly constant at 11.7±0.5 mm across a wide population [3, 4, 9, 16]. mrd1値は、ヒト眼の水平虹彩径が広い個体群(3, 4, 9, 16)の11.7±0.5mmでほぼ一定であるという仮定に基づいて画素からミリメートルに変換された。 0.69
Eventually, to predict ptosis we calculated thresholds for MRD1 and Iris Ratio that maximized the accuracy on our balanced training data and also trained a Decision Tree predictive model. MRD1とIris Ratioの閾値を計算し、バランスの取れたトレーニングデータの精度を最大化し、決定木予測モデルをトレーニングしました。 0.64
Iris Ratio threshold performed significantly better than MRD1 threshold but Decision Tree outperformed both the individual features and was eventually used in the clinically inspired pipeline for predicting ptosis. アイリス比の閾値はMDD1の閾値よりも有意に優れていたが,決定木はそれぞれの特徴に優れ,最終的に臨床にインスパイアされたパイプラインで診断に使用された。 0.57
4.3 AutoPtosis Initially, we aimed to combine the deep learning model’s probability value and clinically inspired model’s MRD1 and Iris Ratio to train a predictive model (logistic regression) for the detection of ptosis. 4.3 オートプトーシス まず, 深層学習モデルの確率値と臨床インスパイアされたモデルのmrd1と虹彩比を組み合わせて, プトーシス検出のための予測モデル(ロジスティックレグレッション)を訓練することを目的とした。 0.84
Analyzing the deep learning model’s performance on our dataset that contained a wide spectrum of ptosis severity, we noticed that model was rarely wrong when the eye had visibly clear ptosis (severe ptosis) or no ptosis at all. 広範にわたるptosisの重症度を含むデータセット上でのディープラーニングモデルのパフォーマンスを分析すると、眼が視覚的にptosis (severe ptosis) であったり、ptosisが全くなかったりしたとき、モデルが間違っていたことはほとんどありません。 0.57
However, for borderline cases where even the physicians had a difficult time classifying them, the model also suffered at times. しかし、医師でさえ分類に苦労した境界的なケースでは、モデルも時折苦しんだ。 0.54
Hence, using validation data we calculated threshold values of 0.34 and 0.78, below and above which the deep learning model had 100% accuracy. そこで, 検証データを用いて, 深層学習モデルが100%精度の高い0.34と0.78の閾値を算出した。 0.86
Using these threshold values we created a combined pipeline where if the deep learning これらのしきい値を用いて、深層学習を併用したパイプラインを作りました 0.65
英語(論文から抽出)日本語訳スコア
6 Aleem and Nallabothula et al 6 Aleem and Nallabothula et al 0.85
model’s probability was below or above these thresholds we used its prediction, otherwise, we used the predictive model. モデルの確率は、予測したしきい値以下かそれ以下で、そうでなければ予測モデルを使用しました。 0.73
Although, there was a slight improvement in some metric scores after combining both the models the overall accuracy decreased. しかし,両モデルの組み合わせにより,測定値に若干改善が見られたが,全体の精度は低下した。 0.73
We reckoned this was due to the substandard performance of the clinically inspired model as compared to the deep learning model. これは、ディープラーニングモデルと比較して、臨床的にインスパイアされたモデルの準標準性能によるものだと推測した。 0.49
Hence, for AutoPtosis, we decided to use only the deep learning model for the prediction of ptosis. そこで,AutoPtosisでは,深層学習モデルのみを用いて診断を行うことにした。 0.69
The clinically inspired model’s MRD1 and Iris Ratio were output alongside the prediction that helps to determine the severity of the ptosis and further help the clinicians. 臨床インスパイアされたモデルのmrd1と虹彩比は、ptosisの重症度を判定し、さらに臨床医を助ける予測と共に出力された。 0.69
Fig 3 shows a complete schematic overview of AutoPtosis. fig 3はオートプトーシスの完全な概観を示している。 0.71
Fig. 3: AutoPtosis Pipeline. フィギュア。 3: AutoPtosis Pipeline。 0.61
A schematic overview of the complete autoptosis pipeline. 完全自己診断パイプラインのスキーマ概要 0.40
5 Results 5.1 Quantitative Results Table 1 summarizes and compares different performance metrics and Fig 4 compares the receiver operating characteristic (ROC) curves for the deep learning, clinically inspired, and combined models. 結果5 5.1 定量的結果表1は、異なるパフォーマンス指標を要約して比較し、図4は、深層学習、臨床的インスピレーション、複合モデルのための受信操作特性(ROC)曲線を比較する。 0.75
Table 1: Performance Comparison. 表1:パフォーマンスの比較。 0.85
Percentage scores for different metrics. 異なる指標に対するパーセンテージスコア。 0.78
Method Accuracy Precision Recall 方法 精度 精度 回想 0.67
F1 Score ROC AUC F1スコアROC AUC 0.84
Deep Learning Clinically Inspired Combined Model 深層学習にインスパイアされた複合モデル 0.60
95.5 73.0 94.0 95.5 73.0 94.0 0.47
97.8 80.2 100 97.8 80.2 100 0.59
93.0 61.0 88.0 93.0 61.0 88.0 0.47
95.3 69.3 93.6 95.3 69.3 93.6 0.47
98.9 77.6 99.0 98.9 77.6 99.0 0.47
英語(論文から抽出)日本語訳スコア
The deep learning model outperformed the clinically inspired model, achieving a higher score in all performance metrics. ディープラーニングモデルは臨床的にインスパイアされたモデルよりも優れ、すべてのパフォーマンス指標でより高いスコアを達成しました。 0.55
When we combined of both the models using a predictive model and threshold values, we noticed that although the Precision and ROC AUC improved a bit but Accuracy, Recall, and F1 Score deteriorated. 予測モデルとしきい値を用いたモデルを組み合わせると、精度とROC AUCは若干改善したが、精度、リコール、F1 Scoreは劣化したことがわかった。
訳抜け防止モード: 予測モデルとしきい値を使って、両方のモデルを組み合わせるとき。 気づきましたが 精度とROC AUCは少し改善した しかし、正確さ、リコール、F1 Scoreは悪化した。
0.74
The ROC Curves for deep learning and combined models were almost overlapped but the combined model one was faintly better. ディープラーニングと組み合わせたモデルのためのROC曲線はほぼ重複していたが、組み合わせたモデルの方が著しく優れている。
訳抜け防止モード: 深層学習と複合モデルのためのROC曲線はほぼ重複していた 組み合わせたモデルの方が すこし良くなりました
0.77
Overall the deep learning model achieved the best accuracy of 95.5% on the physician verified test data that had an equal class balance, as compared to the combined model which achieved 94% and clinically inspired model which achieved 73%. 総合的に、深層学習モデルは、94%を達成した総合モデルと73%を達成した臨床にインスパイアされたモデルと比較して、同等のクラスバランスを持つ検査データに対して、95.5%の精度を達成した。 0.76
AutoPtosis AutoPtosis 0.85
7 Fig. 4: ROC Curves Comparison. 7 フィギュア。 4: roc曲線の比較。 0.68
Examining the predictions of the clinically inspired model, we noticed that it under-performed for the non-clinical images. 臨床にインスパイアされたモデルの予測から,非クリニカル画像に対して低性能であることが判明した。
訳抜け防止モード: 臨床にインスパイアされたモデルの予測 非臨床画像の撮影中であることがわかりました。
0.75
We realized that our pipeline often failed to detect the CLR which was either because the eye had drooped to an extent that CLR was not visible anymore or the image was not properly taken. 当社のパイプラインでは,clrがもはや見えなくなったり,イメージが適切に撮影されていなかったりする程度まで眼が垂れ下がっていたため,clrの検出に失敗することが多かったのです。
訳抜け防止モード: 私たちはパイプラインがCLRの検出に失敗することが多いことに気付きました。 CLRが見えなくなった程度まで 眼が垂れ下がっていたからか 画像が正しく撮られませんでした
0.75
MRD1 was also very sensitive to the detection of upper eyelid contours as even a slight change in pixels resulted in a different prediction. MRD1は上眼輪郭の検出にも非常に敏感であり、ピクセルのわずかな変化さえも異なる予測を導いた。 0.65
We realized that for this pipeline to work properly, the image needed to be taken in a proper clinical setting and hence removed all FFHQ images from the data and saw an improvement in results as expected. このパイプラインが適切に機能するためには、適切な臨床設定で画像を撮影する必要があることに気づき、データからすべてのffhq画像を削除し、期待どおりの結果が得られた。 0.74
Table 2 shows the accuracies of MRD1 and Iris Ratio threshold methods as well as Decision Tree for both I-ODA + FFHQ and I-ODA only datasets. 表2は、MDD1およびIris Ratioしきい値法の精度と、I-ODA + FFHQとI-ODAのみのデータセットに対する決定木を示している。 0.69
There was an improvement in the clinically inspired accuracy for all three methods when only I-ODA images were used. i-oda画像のみを使用した場合,臨床インスパイアされた3つの方法の精度が向上した。 0.66
The results for the deep learning model were the same even when FFHQ images were removed which meant that it was robust to such environmental changes and performed well even for images not taken in clinical settings. 深層学習モデルの結果はFFHQ画像が除去された場合でも同じであり, 環境変化に対して堅牢であり, 臨床現場で撮影されていない画像に対しても良好に動作した。 0.74
英語(論文から抽出)日本語訳スコア
8 Aleem and Nallabothula et al 8 Aleem and Nallabothula et al 0.85
Table 2: Clinically Inspired Accuracy Comparison. 表2:臨床的にインスパイアされた精度の比較。 0.60
Accuracy comparison for different methods and data sources. 異なる方法とデータソースの精度比較。 0.75
Data Source I-ODA + FFHQ I-ODA データソース I-ODA + FFHQ I-ODA 0.71
MRD1 66.0 68.0 MRD1 66.0 68.0 0.64
Iris Ratio Decision Tree 71.0 73.0 アイリス比 決定木 71.0 73.0 0.57
73.0 79.0 5.2 Qualitative Results Interpretability has always been an issue with predictive models. 73.0 79.0 5.2 質的な結果 解釈可能性は常に予測モデルの問題である。 0.59
We addressed that problem by developing class activation maps for the deep learning model and direct feature visualization for the clinically inspired model. 深層学習モデルのためのクラスアクティベーションマップと臨床にインスパイアされたモデルのための直接特徴可視化を開発することでこの問題に対処した。
訳抜け防止モード: 私たちはこの問題に ディープラーニングモデルのためのクラスアクティベーションマップの開発と臨床インスパイアされたモデルの直接的な特徴可視化。
0.82
The class activation maps tell us which regions in the image were most important and contributed the most to the diagnosis. クラスアクティベーションマップは、画像内のどの領域が最も重要かを示し、診断に最も寄与した。
訳抜け防止モード: クラスアクティベーションマップは、画像内のどの領域が最も重要なのかを教えてくれる 診断に最も貢献しました
0.73
The direct feature visualization shows us the iris and eye contours as well as the corneal light reflex that was used for calculating the MRD1 and Iris ratio. 直接特徴可視化は、MDD1とアイリス比を計算するために用いられた角膜光反射と同様に虹彩と眼輪郭を示している。 0.75
Fig 5 shows the right (top) and left (bottom) eye along with the class activation map and direct feature visualization for a person who has ptosis in the right eye only and was diagnosed correctly for both eyes using AutoPtosis. 図5は右(上)と左(底)の目と、クラスの活性化マップと、右眼にのみて、AutoPtosisを用いて両眼で正しく診断された人の直接的特徴視覚化を示す。 0.80
Class activation maps and direct feature visualizations provide a quick and broad visual assessment of the accuracy of the algorithm. クラスのアクティベーションマップと直接特徴視覚化は、アルゴリズムの精度を迅速かつ広範囲に評価する。 0.76
We can easily visualize what features of the eye are used to make predictions. 眼のどの特徴が予測に使われているかを簡単に視覚化できます。 0.70
In the cases where the heat maps do not correctly show the relevant eye region or the contours are not perfectly drawn on the iris and eyelid, the likelihood of an error is increased and this information can be used by clinics to access the reliability of the models. 熱マップが関連眼領域を正しく示さない場合や、虹彩やまぶたに輪郭が完全に描かれていない場合には、誤差の可能性を増大させ、この情報をクリニックがモデルの信頼性にアクセスするために使用できる。 0.67
6 Discussion AutoPtosis successfully achieved 95.5% accuracy compared to a trained physician. 6 討論 AutoPtosisは、訓練された医師と比べて95.5%の精度を達成した。 0.58
The automated pipeline significantly reduced the time taken for the diagnosis procedure to a few seconds which was far less than the prior methods. 自動化されたパイプラインは、診断に要する時間を大幅に短縮し、それまでの方法よりもはるかに少ない数秒に短縮した。 0.59
The model was robust and performed well for different age groups and ethnicities owing to underlying diverse dataset. モデルはロバストで、基礎となる多様なデータセットのために年齢や民族によってうまく機能していた。 0.54
Alongside the prediction, our model also provided the calculated marginal reflex distance and iris ratio which can be used to assess the severity of ptosis and can potentially be used by physicians in determining the appropriate treatment. また, 本モデルでは, 臨床症状の重症度を評価するのに有効であり, 適切な治療方法を決定するのに有用であると考えられる, 縁部反射距離と虹彩比も算出した。 0.67
Class activation maps and direct feature visualizations generated interpretable results which helped in error verification. クラスアクティベーションマップと直接特徴視覚化は解釈可能な結果を生成し、エラー検証に役立った。 0.74
We hope that these maps and contours would enable a broader acceptance of such automated systems for detection of ptosis in the clinical community. これらの地図や輪郭は,臨床コミュニティにおいて,このような自動診断システムが広く受け入れられることが期待できる。 0.73
Although, the results of AutoPtosis were astounding and achieved in a significantly shorter time frame as compared to traditional methods but like most しかし, オートプトーシスの結果は, 従来の方法に比べてかなり短かったが, ほとんど同様であった。
訳抜け防止モード: しかし, オートプトーシスの結果は, 従来の方法に比べて有意に短い時間枠で達成された。 でも たいていのように
0.75
英語(論文から抽出)日本語訳スコア
AutoPtosis AutoPtosis 0.85
9 Fig. 5: Class Activation Map and Direct Feature Visualization Eye without ptosis (top) and eye with ptosis (bottom).) 9 フィギュア。 5: クラス活性化マップと、ptosis (top) のない直接特徴可視化眼と、ptosis (bottom) を伴う眼(bottom)。
訳抜け防止モード: 9 フィギュア。 5 : クラス活性化マップとptosisを伴わない直接特徴可視化眼(トップ) そして、プットーシス(下)の目。
0.69
machine learning algorithms they were not 100% accurate and completely reliable. 機械学習アルゴリズムは 100%正確で 完全に信頼できるものではなかった 0.77
Hence, we propose that AutoPtosis should be regarded as a helping tool for clinicians that can aid and improve the existing healthcare system by accelerating the diagnosis process for ptosis and helping in saving valuable resources. そこで我々は,診断プロセスの加速と貴重な資源の節約を図り,既存の医療制度を援助し,改善できる臨床医を支援するツールとして,AutoPtosisを提案する。 0.81
We can package AutoPtosis as a web or desktop application which can then be deployed in the clinics where the clinicians can input a properly taken full frontal face image and get a detailed report, which would contain predictions, MRD1, iris ratio, interpretable maps, and statistics e g confidence intervals for all values which can then be reviewed by trained physicians. AutoPtosisをWebやデスクトップアプリケーションとしてパッケージ化することで、臨床医が適切なフルフロントフェイスイメージを入力して詳細なレポートを取得できるようにし、予測、MDD1、虹彩比、解釈可能なマップ、統計などを含むことができる。
訳抜け防止モード: 私たちはAutoPtosisをウェブまたはデスクトップアプリケーションとしてパッケージ化して、クリニックにデプロイすることで、臨床医が正しく取り込まれたフルフロントの顔画像を入力することができる。 予測、MDD1、虹彩比などを含む詳細なレポートが得られます。 解釈可能な地図と統計、すべての値に対するg信頼区間。
0.76
This can help in the prompt and timely diagnosis of disease, eventually resulting in timely treatment and prevent worsening of the condition. これは疾患の迅速かつタイムリーな診断に役立ち、最終的にタイムリーな治療が行われ、症状の悪化を防ぐ。 0.62
It can also significantly reduce the burden on the healthcare system by eliminating the cumbersome manual processes and help clinics save resources such as time and money. また、面倒な手作業のプロセスを取り除き、クリニックが時間やお金などのリソースを節約することで、医療システムの負担を大幅に軽減することができる。 0.61
AutoPtosis can also be packaged as a mobile application to enable patients in under-served communities without an oculoplastic surgeon to be screened for ptosis. AutoPtosisは、オキュロ可塑性外科医を使わずに、患者を治療のためにスクリーニングするためのモバイルアプリケーションとしてパッケージ化することもできる。
訳抜け防止モード: オートプトーシスはモバイルアプリケーションとしてもパッケージ化できる 陰茎形成外科医を伴わない地域社会の患者をptosisのスクリーニングに供すること。
0.75
This app can also inform them about potential risk factors, and guide them to the nearby clinics where the reports can be verified by trained physicians and proper treatment can be provided if required. このアプリは、潜在的なリスク要因を彼らに通知し、訓練された医師によって報告が検証され、必要に応じて適切な治療が提供できる近くの診療所へ案内することもできる。 0.67
The underlying model of the clinically inspired pipeline, the Mediapipe Iris model, often failed to identify the eyelid and iris contours especially for patients that had ptosis. 臨床インスパイアされたパイプラインの基盤となるモデルであるmediapipe irisモデルは、特にptosis患者に対して、眼輪郭と虹彩輪郭を識別できなかった。 0.79
We assumed that this was because the model we assume was not trained on patients with ptosis. このモデルがptosis患者に訓練されなかったためと推定した。 0.58
The clinically inspired model also required that the image be taken under proper setup for optimal performance because imaging features such as the presence of corneal light reflex, subjects alignment, and distance of the subject from the camera are critical for correct prediction 臨床的にインスピレーションを受けたモデルでは、角膜光反射、被写体アライメント、カメラからの被写体距離などの画像特徴が正確な予測に重要であるため、最適な性能のために適切な設定で撮影する必要がある。 0.78
英語(論文から抽出)日本語訳スコア
10 Aleem and Nallabothula et al 10 Aleem and Nallabothula et al 0.85
for MRD1 and iris ratio which are hard to monitor and control in improper setup. MRD1とアイリス比は、不適切な設定で監視と制御が難しい。 0.67
Limitations of the underlying model coupled with the failure to often detect CLR resulted in poor prediction of MRD1 and Iris Ratio. CLRを頻繁に検出できないことに伴う基盤モデルの制限により、MDD1とIris Ratioの予測が不十分になった。 0.67
Hence, we skipped including these features for the prediction of ptosis as they provided no significant improvement over the deep learning model. 以上の結果から,ptosisの予測にはこれらの機能を含めず,深層学習モデルに対して有意な改善は得られなかった。 0.64
However, with improvement in the underlying model which we are planning for future iterations and proper setup, the performance of the clinically inspired pipeline is expected to increase and it might result in improvements of the combined model as well. しかし、今後のイテレーションと適切なセットアップを計画している基盤モデルの改善により、臨床にインスパイアされたパイプラインの性能が向上することが期待され、統合モデルも改善される可能性がある。 0.81
The detection process of ptosis can also be affected if other conditions are present alongside ptosis that affects the region of interest. ptosisの検出プロセスは、興味のある領域に影響するptosisと並行して他の条件が存在する場合にも影響する。 0.74
Our model failed to correctly detect ptosis for a patient who had arcus senilis (a disease which alters the iris appearance) alongside ptosis. 本モデルでは,緑内障に伴なうarcus senilis(虹彩の出現を変化させる疾患)患者に対して,ptosisを正しく検出できなかった。 0.61
Ptosis can also be confused with other conditions that result in squinting of the eye. プットーシスはまた、目を細める他の状態とも混同されることがある。 0.53
Therefore, AutoPtosis is not recommended for anyone who has such alterations and it important to consult a trained physician in these cases. したがって、このような変化を持つ人にはAutoPtosisは推奨されず、これらの場合、訓練された医師に相談することが重要である。
訳抜け防止モード: したがって、このような変更のある人にはAutoPtosisは推奨されない。 専門医に相談することが重要です
0.71
7 Future Work In the future we aim to create a model specialized for detecting iris and eye contours for ptosis patients using sclera and iris segmentation. 7 今後の課題 将来的には、硬膜症と虹彩分節を用いたptosis患者の虹彩および眼輪郭検出に特化したモデルの構築を目指している。 0.66
This would help us more accurately calculate marginal reflex distance and iris ratio and could also potentially improve the accuracy of the combined model. これにより、限界反射距離と虹彩比をより正確に計算し、組み合わせたモデルの精度を向上させることができる。 0.71
Also, with availability of more data we aim to include more patients that have other conditions alongside ptosis in our training data to make the model more robust for such cases. また、より多くのデータが利用可能になったことで、トレーニングデータに他の症状を伴う患者も増え、そのようなケースでモデルをより堅牢にすることを目指しています。 0.64
More data, will also help in improving the performance of the deep learning model overall and we hope that these changes would further help in assisting the clinicians to accurately predict ptosis. より詳細なデータは、ディープラーニングモデルのパフォーマンスの向上にも役立ちますし、これらの変更によって、臨床医が診断を正確に予測する助けになることを期待しています。
訳抜け防止モード: さらなるデータも、ディープラーニングモデル全体のパフォーマンス向上に役立つだろう。 これらの変化が 臨床医の診断を 正確に予測する助けになることを期待しています
0.73
8 Conclusion AutoPtosis successfully automated the rapid diagnosis of ptosis by leveraging the advancements of computer vision and machine learning. 8 結論 AutoPtosisはコンピュータビジョンと機械学習の進歩を活用して、診断の迅速化に成功した。 0.75
We hope that the 95.5% accuracy along with the interpretable results would help in broader acceptance of artificial intelligence based systems in healthcare. 95.5%の精度と解釈可能な結果が、医療における人工知能ベースのシステムをより広く受け入れられることを願っている。 0.69
Advancements in computer vision and machine learning can help us automate and achieve optimal performances in other ophthalmic and medical tasks too. コンピュータビジョンと機械学習の進歩は、他の眼科や医療のタスクでも最適なパフォーマンスを自動化し達成するのに役立ちます。 0.73
Utilizing such artificial intelligence based systems would enable us to rapidly and timely diagnose diseases, reduces the burden on the healthcare system and can help save the patients and clinics valuable resources. このような人工知能ベースのシステムを利用することで、病気の迅速かつタイムリーな診断が可能になり、医療システムの負担を軽減し、患者や診療所の貴重なリソースを節約できます。
訳抜け防止モード: このような人工知能ベースのシステムを利用して 病気を迅速かつタイムリーに診断し 医療システムの負担を軽減し 患者や診療所の貴重な資源を 救うのに役立ちます
0.86
英語(論文から抽出)日本語訳スコア
Bibliography [1] Ablavatski, A., Vakunov, A., Grishchenko, I., Raveendran, K., Zhdanovich, M.: Real-time pupil tracking from monocular video for digital puppetry. 書誌 [1] ablavatski, a., vakunov, a., grishchenko, i., raveendran, k., zhdanovich, m.: real-time students tracking from monocular video for digital puppetry 0.70
arXiv preprint arXiv:2006.11341 (2020) arXiv preprint arXiv:2006.11341 (2020) 0.75
[2] Battu, V.K., Meyer, D.R., Wobig, J.L. [2] Battu, V.K., Meyer, D.R., Wobig, J.L. 0.86
: Improvement in subjective visual function and quality of life outcome measures after blepharoptosis surgery. 腹腔鏡下手術後の主観的視覚機能の改善と生命予後指標の質 0.69
American journal of ophthalmology 121(6), 677–686 (1996) american journal of ophthalmology 121(6) 677–686 (1996) 0.88
[3] Baumeister, M., Terzi, E., Ekici, Y., Kohnen, T.: Comparison of manual and automated methods to determine horizontal corneal diameter. [3]Baumeister, M., Terzi, E., Ekici, Y., Kohnen, T.:水平角膜径を決定する手動法と自動法の比較 0.81
Journal of Cataract & Refractive Surgery 30(2), 374–380 (2004) journal of cataract & refractive surgery 30(2), 374–380 (2004) 0.82
[4] Bergmanson, J.P., Martinez, J.G. [4] Bergmanson, J.P., Martinez, J.G. 0.88
: Size does matter: what is the corneolimbal diameter? 大きさは重要か?角膜径は何か? 0.65
Clinical and Experimental Optometry 100(5), 522–528 (2017) 臨床および実験的視力測定100(5), 522-528(2017年) 0.73
[5] Bodnar, Z.M., Neimkin, M., Holds, J.B.: Automated ptosis measurements 5] bodnar, z.m., neimkin, m., holds, j.b.: automated ptosis measurement 0.79
from facial photographs. Jama Ophthalmology 134(2), 146–150 (2016) 顔写真から Jama Ophthalmology 134(2), 146–150 (2016) 0.70
[6] Deng, J., Dong, W., Socher, R., Li, L.J., Li, K., Fei-Fei, L.: Imagenet: A largescale hierarchical image database. 6] Deng, J., Dong, W., Socher, R., Li, L.J., Li, K., Fei-Fei, L.: Imagenet: 大規模な階層画像データベース。 0.93
In: 2009 IEEE conference on computer vision and pattern recognition. 2009年ieee conference on computer vision and pattern recognitionに参加。 0.73
pp. 248–255. pp. 248–255. 0.78
Ieee (2009) Ieee (2009) 0.85
[7] Federici, T.J., Meyer, D.R., Lininger, L.L. [7]Federici,T.J.,Meyer, D.R.,Lininger,L.L. 0.71
: Correlation of the vision-related functional impairment associated with blepharoptosis and the impact of blepharoptosis surgery. 視機能障害と白内障手術の影響について検討した。
訳抜け防止モード: 視力関連機能障害と白内障 腹腔鏡下手術の 影響も。
0.52
Ophthalmology 106(9), 1705–1712 (1999) 眼科106(9)1705–1712(1999) 0.75
[8] Finsterer, J.: Ptosis: causes, presentation, and management. ptosis: cause, presentation, and management. [8] Finsterer, J.: Ptosis. 0.93
Aesthetic plastic surgery 27(3), 193–204 (2003) 審美性プラスチック 手術27(3)193〜204(2003年) 0.82
[9] Hashemi, H., Khabazkhoob, M., Emamian, M.H., Shariati, M., Yekta, A., Fotouhi, A.: White-to-white corneal diameter distribution in an adult population. He9] Hashemi, H., Khabazkhoob, M., Emamian, M.H., Shariati, M., Yekta, A., Fotouhi, A。
訳抜け防止モード: [9]Hashemi, H., Khabazkhoob, M., Emamian, M.H., Shariati, M., Yekta, A., Fotouhi A. : 成人における白-to-白角膜径分布
0.91
Journal of current ophthalmology 27(1-2), 21–24 (2015) journal of current ophthalmology 27(1-2), 21–24 (2015) 0.95
[10] Huang, G., Liu, Z., Van Der Maaten, L., Weinberger, K.Q. [10]Huang, G., Liu, Z., Van Der Maaten, L., Weinberger, K.Q. 0.88
: Densely connected convolutional networks. 密結合した畳み込みネットワーク。 0.66
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 4700–4708 (2017) pp. 4700–4708 (2017) 0.85
[11] Karras, T., Laine, S., Aila, T.: A style-based generator architecture for generative adversarial networks. 11] karras, t., laine, s., aila, t.: 生成型逆ネットワークのためのスタイルベースのジェネレータアーキテクチャ。 0.79
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 4401–4410 (2019) pp. 4401–4410 (2019) 0.85
[12] Kazemi, V., Sullivan, J.: One millisecond face alignment with an ensemble of regression trees. [12]カゼミ,V.,サリヴァン,J.:1ミリ秒の顔アライメントとレグレッションツリーのアンサンブル。 0.56
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 1867–1874 (2014) pp. 1867–1874 (2014) 0.85
[13] Michelson, G., Michelson, M.: e-learning by the open-access journal atlas of ophthalmology. Michaelson, G., Michelson, M.: e-learning by the open- access journal atlas of Ophthalmology. 0.78
In: Teleophthalmology in Preventive Medicine, pp. In: Teleophthalmology in Preventive Medicine, pp。 0.79
81–92. Springer (2015) 81–92. Springer (複数形 Springers) 0.65
[14] Mojab, N., Noroozi, V., Aleem, A., Nallabothula, M.P., Baker, J., Azar, D.T., Rosenblatt, M., Chan, R., Yi, D., Yu, P.S., et al : I-oda, real-world multi-modal longitudinal data for ophthalmicapplicatio ns. 14] Mojab, N., Noroozi, V., Aleem, A., Nallabothula, M.P., Baker, J., Azar, D.T., Rosenblatt, M., Chan, R., Yi, D., Yu, P.S., et al : I-oda, real-world multi-modal longitudinal data for ophthalmicapplicatio ns。 0.94
arXiv preprint arXiv:2104.02609 (2021) arXiv preprint arXiv:2104.02609 (2021) 0.75
英語(論文から抽出)日本語訳スコア
12 Aleem and Nallabothula et al 12 Aleem and Nallabothula et al 0.85
[15] Peterseim, M.M.W., Rhodes, R.S., Patel, R.N., Wilson, M.E., Edmondson, L.E., Logan, S.A., Cheeseman, E.W., Shortridge, E., Trivedi, R.H.: Effectiveness of the gocheck kids vision screener in detecting amblyopia risk factors. [15] Peterseim, M.M.W., Rhodes, R.S., Patel, R.N., Wilson, M.E., Edmondson, L.E., Logan, S.A., Cheeseman, E.W., Shortridge, E., Trivedi, R。 0.75
American Journal of Ophthalmology 187, 87–91 (2018) American Journal of Ophthalmology 187, 87-91 (2018) 0.93
[16] Rüfer, F., Schröder, A., Erb, C.: White-to-white corneal diameter: normal values in healthy humans obtained with the orbscan ii topography system. 16] Rüfer, F., Schröder, A., Erb, C.:白から白の角膜径:orbscan ii topographyシステムを用いて得られた健常人の正常値。 0.86
Cornea 24(3), 259–261 (2005) Cornea 24(3), 259–261 (2005) 0.93
[17] Shahbaz, R., Salducci, M.: Law and order of modern ophthalmology: Teleoph- 17]shahbaz, r., salducci, m.: law and order of modern ophthalmology: teleoph- 0.81
thalmology, smartphones legal and ethics (2020) タルモロジー、スマートフォン法と倫理(2020年) 0.75
[18] Simsek, I.B. [18] Simsek, I.B. 0.94
: Association of upper eyelid ptosis repair and blepharoplasty with headache-related quality of life. 頭痛関連QOLと上眼症修復術と人工股関節置換術の関連について検討した。 0.44
JAMA Facial Plastic Surgery 19(4), 293–297 (2017) jama face plastic surgery 19(4), 293-297 (2017) 0.77
[19] Van Brummen, A., Owen, J.P., Spaide, T., Froines, C., Lu, R., Lacy, M., Blazes, M., Li, E., Lee, C.S., Lee, A.Y., et al : Periorbitai: Artificial intelligence automation of eyelid and periorbital measurements. [19]Van Brummen, A., Owen, J.P., Spaide, T., Froines, C., Lu, R., Lacy, M., Blazes, M., Li, E., Lee, C.S., Lee, A.Y., et al : Periorbitai:眼球および眼窩周囲計測の人工知能自動化。 0.91
American Journal of Ophthalmology (2021) American Journal of Ophthalmology (2021年) 0.91
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。