論文の概要、ライセンス

# (参考訳) 一貫した支持証拠を用いた画像分類 [全文訳有]

Image Classification with Consistent Supporting Evidence ( http://arxiv.org/abs/2111.07048v1 )

ライセンス: CC BY 4.0
Peiqi Wang, Ruizhi Liao, Daniel Moyer, Seth Berkowitz, Steven Horng, Polina Golland(参考訳) 医療における機械学習モデルの採用には、エンドユーザーがシステムに信頼する必要がある。 予測にさらなる支持的な証拠を提供するモデルは、導入を促進することを約束します。 モデル予測に関して、一貫性のある証拠は互換性があり、十分なものであると定義する。 より一貫性のある証拠を促進するためのモデル不整合と正則化の尺度を提案する。 胸部x線写真からの浮腫重症度評価の文脈で,我々のアイデアを実証する。 我々は、一貫性のあるモデルが解釈をサポートしながら競争力を発揮することを実証的に示す。

Adoption of machine learning models in healthcare requires end users' trust in the system. Models that provide additional supportive evidence for their predictions promise to facilitate adoption. We define consistent evidence to be both compatible and sufficient with respect to model predictions. We propose measures of model inconsistency and regularizers that promote more consistent evidence. We demonstrate our ideas in the context of edema severity grading from chest radiographs. We demonstrate empirically that consistent models provide competitive performance while supporting interpretation.
公開日: Sat, 13 Nov 2021 05:47:26 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 v o N 3 1 1 2 0 2 v o n 3 1 である。 0.54
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 8 4 0 7 0 1 v 8 4 0 7 0 0.43
. 1 1 1 2 : v i X r a . 1 1 1 2 : v i X r a 0.42
Proceedings of Machine Learning Research LEAVE UNSET:1–12, 2021 機械学習研究LEEAVE UNSET:1-12, 2021の成果 0.73
Machine Learning for Health (ML4H) 2021 健康のための機械学習(ML4H)2021 0.71
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
Peiqi Wang Ruizhi Liao Daniel Moyer Massachusetts Institute of Technology, Cambridge, MA, USA Peiqi Wang Ruizhi Liao Daniel Moyer Massachusetts Institute of Technology, Cambridge, MA, USA 0.43
wpq@mit.edu ruizhi@csail.mit.edu dmoyer@csail.mit.edu wpq@mit.edu ruizhi@csail.mit.edu dmoyer@csail.mit.edu 0.29
Seth Berkowitz Steven Horng Beth Israel Deaconess Medical Center / Harvard Medical School, Boston, MA, USA Seth Berkowitz Steven Horng Beth Israel Deaconess Medical Center / Harvard Medical School, Boston, MA, USA
訳抜け防止モード: seth berkowitz steven horng beth israel deaconess medical center / harvard medical school (英語) ボストン、マ、アメリカ
0.76
sberkowi@bidmc.harva rd.edu shorng@bidmc.harvard .edu sberkowi@bidmc.harva rd.edu shorng@bidmc.harvard .edu 0.27
Polina Golland Massachusetts Institute of Technology, Cambridge, MA, USA Polina Golland Massachusetts Institute of Technology, Cambridge, MA, USA (英語) 0.91
polina@csail.mit.edu polina@csail.mit.edu 0.29
Abstract Adoption of machine learning models in healthcare requires end users’ trust in the system. 概要 医療における機械学習モデルの採用には、エンドユーザーがシステムに信頼する必要がある。 0.57
Models that provide additional supportive evidence for their predictions promise to facilitate adoption. 予測にさらなる支持的な証拠を提供するモデルは、導入を促進することを約束します。 0.58
We define consistent evidence to be both compatible and sufficient with respect to model predictions. モデル予測に関して、一貫性のある証拠は互換性があり、十分なものであると定義する。
訳抜け防止モード: 我々は一貫した証拠を定義する モデル予測と互換性があり 十分です
0.79
We propose measures of model inconsistency and regularizers that promote more consistent evidence. より一貫性のある証拠を促進するためのモデル不整合と正則化の尺度を提案する。 0.53
We demonstrate our ideas in the context of edema severity grading from chest radiographs. 胸部x線写真からの浮腫重症度評価の文脈で,我々のアイデアを実証する。 0.56
We demonstrate empirically that consistent models provide competitive performance while supporting interpretation. 我々は、一貫性のあるモデルが解釈をサポートしながら競争力を発揮することを実証的に示す。 0.48
Keywords: Analysis Interpretability, Medical Image キーワード:分析 解釈性 医療画像 0.80
1. Introduction Identifying radiological findings and inferring disease stages from medical images is common in clinical practice. はじめに 臨床では放射線学的所見の同定と医療画像からの疾患ステージの推測が一般的である。
訳抜け防止モード: はじめに 医用画像からの放射線所見の同定と病期推定 臨床でよくあることです
0.54
Many models make predictions without explaining the conclusion. 多くのモデルが結論を説明せずに予測する。 0.74
In contrast, human experts often provide specific explanation based on prior knowledge of human physiology to support their image-based diagnosis. 対照的に、人間の専門家は画像に基づく診断を支援するために、人間の生理学の事前の知識に基づいて、特定の説明をすることが多い。
訳抜け防止モード: 対照的に、人間の専門家は人間の生理学の事前知識に基づく具体的な説明をすることが多い イメージベース診断をサポートする。
0.66
We aim to build models that are transparent in the reasoning process, at an appropriate level of understanding consumable by end users, e g , clinicians. 我々は、エンドユーザー、例えば臨床医が消費できる適切なレベルの理解で、推論プロセスにおいて透明なモデルを構築することを目指している。 0.70
What additional information should a machine learning model provide to gain the trust of its end users? エンドユーザーの信頼を得るために、機械学習モデルが追加情報を提供するべきだろうか? 0.79
We propose a solution motivated by an example of how radiologists themselves operate. 放射線科医の働きを例に挙げたソリューションを提案する。 0.68
Figure 1: Our model provides prediction of disease stage y and supporting evidence. 図1: 我々のモデルは、疾患ステージyの予測と証拠を提供する。 0.81
We use I(c) to denote the set of evidence labels detected in the image that directly support disease stage c. i(c)を用いて病期cを直接支持する画像から検出された証拠ラベルのセットを示す。 0.76
We show examples of inconsistent evidence highlighted in red produced by the baseline model (left column). ベースラインモデル(左カラム)で生成した赤で強調された矛盾する証拠の例を示す。 0.75
Our proposed regularizer corrects these mistakes so that predicted evidence label becomes compatible (top right) and sufficient (bottom right). 提案した正則化器はこれらの誤りを補正し、予測された証拠ラベルが適合し(右上)、十分な(右上)となる。 0.63
Radiological findings are concepts determined as useful by radiologists. 放射線学的発見は、放射線科医が有用と判断する概念である。 0.42
Findings include image features, pathological states, and observations about the underlying physiology (Gluecker et al , 1999). 発見には、画像の特徴、病理状態、基礎となる生理学に関する観察が含まれる(Gluecker et al , 1999)。 0.73
The radiologists aggregate the findings to provide an overall interpretation of the image. 放射線学者は、画像の全体的な解釈を提供するために、発見を集約する。 0.47
They support the eventual diagnosis by providing an account of the identified findings based on prior knowledge of relationships 彼らは、関係の事前知識に基づいて特定された発見の説明を提供することにより、最終的な診断を支援する。
訳抜け防止モード: 最終的な診断を支援する。 関係の事前の知識に基づく特定された発見の報告を提供する
0.70
© 2021 P. Wang, R. Liao, D. Moyer, S. Berkowitz, S. Horng & P. Golland. 2021 P. Wang, R. Liao, D. Moyer, S. Berkowitz, S. Horng & P. Golland 0.46
InputUnregularizedRe gularizedPrediction: ˆy=0Evidence:•I(1):NULL•I(2):septallines,in- terstitialabnormalit y•I(3):NULLInconsisten tPrediction:ˆy=0Evidence:•I(1):NULL•I(2):NULL•I(3):NULLConsistentP rediction:ˆy=2Evidence:•I(1):hilarcongestion •I(2):NULL•I(3):NULLInconsisten tPrediction:ˆy=2Evidence:•I(1):hilarcongestion •I(2):interstitialab- normality•I(3):NULLConsistent1 input unregularizedregular izedprediction::y=0evidence:•i(1):null•i(2):septallines,in- terstitialabnormalit y•i(3):nullin consistentprediction ::y=0evidence:•i(1):null•i(2):null•i(3):null consistentprediction ::y=2evidence:•i(1):hilarcongestion •i(2):null•i(3):nullin consistentprediction :•y=2evidence:•i(1):hilarcongestion •i(2):interstitialab- normality•i(3):null consistent1 0.29
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
between findings and the patient’s physiological state. 発見と患者の生理状態の関係です 0.56
We propose and demonstrate an approach that recapitulates the reasoning process of domain experts. ドメインエキスパートの推論プロセスを再カプセル化するアプローチを提案し,実証する。 0.62
In addition to primary predictions, the model provides supporting evidence, i.e., findings, deemed useful by the end users. 第一の予測に加えて、このモデルは、エンドユーザーに有用と考えられる証拠、すなわち発見を提供する。 0.60
It is critical that predictions and supporting evidence are consistent with each other. 予測と証拠は互いに一致していることが重要である。 0.72
In practice, radiologists cannot draw their conclusions based on incompatible evidence, nor could they support their conclusions with insufficient evidence. 実際、放射線科医は、矛盾した証拠に基づいて結論を導き出せないし、不十分な証拠で結論を支持することもできない。 0.51
Similarly, end users will question the credibility of a model when its predictions and accompanying evidence are incompatible or insufficient. 同様に、エンドユーザーは、その予測と付随する証拠が相容れない、あるいは不十分であるときにモデルの信頼性に疑問を呈する。
訳抜け防止モード: 同様に、エンドユーザーはモデルの信頼性に疑問を呈する。 その予測と付随する証拠は 相容れないか不十分だ
0.66
In this paper, we build explainable models that supplement their predictions with consistent supporting evidence, illustrated in Figure 1. 本稿では、図1に示すように、予測を一貫した支持証拠で補う説明可能なモデルを構築する。 0.78
We define measures of inconsistency between the model’s primary output and its supporting evidence and propose simple regularizers that encourage the classifier to be more consistent. 我々は,モデルの一次出力とそれを支える証拠との矛盾の尺度を定義し,分類器がより一貫性を持つように促す単純な正規化器を提案する。 0.67
We demonstrate that we can train consistent models without loss in performance in the context of pathology grading from a chest radiograph. 胸部X線写真から診断した病理学の文脈で,パフォーマンスを損なうことなく一貫したモデルを訓練できることを実証した。 0.60
2. Related Work 2.1. 2.関連業務 2.1. 0.55
Interpretable Machine Learning While model interpretability is an important topic in machine learning, few methods take the end users’ needs into account. 解釈可能な機械学習 モデル解釈は機械学習の重要なトピックだが、エンドユーザーのニーズを考慮に入れる方法はほとんどない。 0.72
For example, some method localize image regions important for a prediction (Zhou et al , 2016; Selvaraju et al , 2016), but fail to express what properties of the image region are associated with the model output. 例えば、予測に重要な画像領域をローカライズする手法(zhou et al , 2016; selvaraju et al , 2016)があるが、画像領域のどの特性がモデル出力に関連付けられているかを表現することができない。 0.72
Others aim to use a simpler model (Caruana et al , 2015) or to approximate the behavior of a complex model with a simpler one (Ribeiro et al , 2016). また、より単純なモデル(caruana et al , 2015)の使用や、より単純なモデルによる複雑なモデルの振る舞いの近似(ribeiro et al , 2016)を目的としている。 0.75
While effective for handling low dimensional tabular data where the covariates are physically meaningful attributes, such methods are less useful for extremely high dimensional imaging data. 共変数が物理的に有意な属性である低次元表データを扱うのに有効であるが、超高次元画像データではそのような方法はあまり役に立たない。 0.57
Our work provide clinically meaningful supporting evidence useful to end users of the system, rather than support the developers’ understanding of how the model reaches its decision. 我々の研究は、開発者がモデルがどのように決定に達するかを理解することを支援するのではなく、システムのエンドユーザーにとって有用な臨床的に有意義な証拠を提供する。 0.56
Another approach is to train a classifier whose predictions rely on higher-level concepts. もう一つのアプローチは、予測が高レベルな概念に依存する分類器を訓練することである。 0.54
Unsupervised methods can make for a more interpretable model for general purpose tasks but cannot take advantage of strong domain knowledge ubiquitous in healthcare (Alvarez Melis and Jaakkola, 2018). 教師なしの手法は、汎用的なタスクに対してより解釈可能なモデルを作ることができるが、医療においてユビキタスな強力なドメイン知識を利用することはできない(Alvarez Melis と Jaakkola, 2018)。 0.51
Alterna- tively, concept bottleneck models that learn concepts with supervision have been applied to arthritis grading (Koh et al , 2020), retinal disease classification (De Fauw et al , 2018), and other applications (Losch et al , 2019; Bucher et al , 2019). アルテナ 集中的に、監督によって概念を学ぶコンセプトボトルネックモデルは、関節炎格付け(koh et al , 2020)、網膜疾患分類(de fauw et al , 2018)、その他の応用(losch et al , 2019; bucher et al , 2019)に適用される。 0.53
This strategy relies on the appropriate choice of the concepts to maintain good performance. この戦略は、優れたパフォーマンスを維持するための概念の適切な選択に依存します。 0.69
In contrast, our model predictions do not solely rely on supporting evidence, thus avoiding the undue influence the choice of supporting evidence or concepts might have on the accuracy of the task label prediction. 対照的に、我々のモデル予測は支持する証拠のみに依存しないので、支持する証拠や概念の選択がタスクラベル予測の正確さに与える不適切な影響を避けることができる。 0.77
In our work, predictions and evidence are separate outputs of the model. 我々の研究では、予測と証拠はモデルの別の出力である。 0.65
Most closely related prior method focus on learning a mapping to the product space of the task label and supporting evidence (Hind et al , 2019; Codella et al , 2019), with application to text classification (Zaidan et al , 2007; Zhang et al , 2016). 最も密接に関連している事前メソッドは、タスクラベルの製品領域へのマッピングの学習と、テキスト分類(zaidan et al , 2007; zhang et al , 2016)の適用による証拠の支援(hind et al , 2019; codella et al , 2019)である。 0.85
In contrast, we learn a structured output where known relationships between predictions and evidence are enforced. 対照的に、予測と証拠の間の既知の関係が強制される構造化アウトプットを学習する。 0.61
We inject domain specific knowledge and require our model to provide supporting evidence that is clinically feasible under a specific prediction. 我々はドメイン固有の知識を注入し、特定の予測の下で臨床的に可能な証拠を提供するためにモデルが必要である。 0.67
A recently demonstrated unsupervised strategy that requires a forward model that relates supporting evidence to a subset of the input features is also relevant (Raghu et al , 2021). 最近実証された、証拠を入力特徴のサブセットに関連付けるフォワードモデルを必要とする教師なしの戦略も重要である(Raghu et al , 2021)。 0.65
This method can be difficult to implement in our radiograph grading task as it assumes knowledge of an accurate forward model, from supporting evidence to a high dimensional image, which is infeasible for most medical imaging problems. 本手法は, 証拠から高次元画像まで, 正確な前方モデルの知識を前提としているため, 医用画像の撮影が困難である。
訳抜け防止モード: 本手法は, 精度の高いフォワードモデルの知識を前提としているため, 評価課題において実装が困難である。 証拠の裏付けから高次元画像まで 医療画像のほとんどの問題に 当てはまらない
0.84
2.2. Logical Constraints 2.2. 論理的制約 0.54
There are multiple ways to represent symbolic constraints. 象徴的な制約を表現する方法はいくつかある。 0.55
For example, trees have been used to express subsumption relationships between attributes, e g , hierarchical annotation of medical images (Dimitrovski et al , 2011). 例えば、木は、医学画像の階層的アノテーション(dimitrovski et al , 2011)のような属性間の仮定関係を表現するのに使われてきた。 0.77
Hierarchical multi-label learning aims to enforce such constraints (Bi and Kwok, 2011; Yan et al , 2015; Wehrmann et al , 2018; Giunchiglia and Lukasiewicz, 2020). 階層的マルチラベル学習は、このような制約を強制することを目的としている(Bi and Kwok, 2011; Yan et al , 2015; Wehrmann et al , 2018; Giunchiglia and Lukasiewicz, 2020)。 0.74
Unfortunately, trees are overly restrictive and cannot express consistency constraints that are important in our application. 残念ながら、木は過度に制限され、アプリケーションで重要な一貫性の制約を表現できません。 0.60
Alternatively, boolean statements can be quite expressive in representing logical constraints. あるいは、ブール文は論理的制約を表現する際に非常に表現力がある。 0.59
Logical constraints on model outputs can be enforced by replacing logical operators with their subdifferentiable fuzzy t-norms (Diligenti et al , 2017; Li et al , 2019) or through the use of specialized loss functions (Xu モデル出力の論理的制約は、論理演算子をその部分微分可能なファジィ t-ノルム(diligenti et al , 2017; li et al , 2019)に置き換えることや、特殊損失関数(xu)の使用によって強制される。 0.73
2 2 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
et al , 2018). Our approach to representing and enforcing logical constraints is both easier to interpret and simpler to implement. と2018年)。 論理的制約の表現と強制に対する我々のアプローチは、容易に解釈でき、実装も簡単です。 0.52
Moreover, we enforce logical constraints by making changes to how our model provides supporting evidence while keeping main task predictions unchanged. さらに,本モデルでは,主要なタスク予測を変更せずに,支持するエビデンスをどのように変更するか,という論理的制約を強制する。
訳抜け防止モード: さらに 論理的な制約を強制し メインタスクの予測を変更せずに、モデルがどのように証拠を提供するかを変更します。
0.58
3. Method In this section, we define consistency of evidence and introduce measures of inconsistency. 3.方法 本節では,証拠の一貫性を定義し,矛盾の対策を導入する。 0.53
We provide an example application to ground our definitions. 定義を根拠とするサンプルアプリケーションを提供します。 0.67
We construct novel loss functions that encourage consistency and discuss optimization that arises when training classifiers with consistent supporting evidence. 整合性を促進する新しい損失関数を構築し,一貫した支持証拠を持つ訓練用分類器で発生する最適化について議論する。 0.59
3.1. Problem Setup 3.1. 問題設定 0.36
Let x, y, and z = (z1, . . . , zK) be random variables representing an image, a C-class task label, and K binary evidence labels. x, y, z = (z1, . . . . . , zk) を、画像、cクラスタスクラベル、および k 個のバイナリ証拠ラベルを表す確率変数とする。 0.76
Let Dt be a data set that includes pairs (x, y) and (x, zk) for k = 1, . . . , K. In this work, we do not assume full tuples (x, y, z1, . . . , zK) are available. dt を k = 1, . . . , k の対 (x, y) と (x, zk) を含むデータセットとする。
訳抜け防止モード: Dt をペア (x, y ) を含むデータセットとする。 k = 1, ..., ... に対して (x, zk ) K. この研究において、我々は完全なタプル (x, ) を仮定しない。 y, z1, . , zK ) が利用可能である。
0.81
Learning joint predictors from available sub-tuples is an interesting direction that is outside the scope of this paper. 利用可能なサブタプルから共同予測器を学習することは,本論文の範囲外にある興味深い方向である。
訳抜け防止モード: 利用可能なサブタプルからの学習ジョイント予測 この論文の範囲外にある興味深い方向です。
0.76
Moreover, we allow the same image x to be included as part of several different pairs in the data set Dt. さらに、同じ画像 x をデータセット Dt に含まれる複数の異なるペアの一部として含めることができる。 0.80
We use the training data set Dt to build probabilistic classifiers p(y | x; θ) and p(zk | x; θ) for k = 1, . . . , K. The maximum a posteriori (MAP) estimates of the task label y and evidence labels z is obtained via k = 1, . . . . . , k に対して確率的分類器 p(y | x; θ) と p(zk | x; θ) を構築するために訓練データセットdt を用いる。
訳抜け防止モード: トレーニングデータセットdtを使用して確率的分類器p(y | x; θ )を構築する。 そして、k = 1, ..., に対して p(zk | x ; θ ) である。 k)タスクラベルy及びエビデンスラベルzの最大後続値(マップ)を推定する。
0.77
ˆy = arg max アルグ・マックス(arg max) 0.33
c∈[C] C (複数形 Cs) 0.46
ˆzk = arg max z∈{−1,+1} yzk = arg max z∂{−1,+1} 0.45
p(y = c | x; θ), p(zk = z | x; θ), p(y = c | x; θ), p(zk = z | x; θ) 0.40
(1) k = 1, . . . , K. (1) k = 1 . . . . , k. . 0.43
(2) We use ˆy(x) to express explicit dependence of the predicted label ˆy on the input image x. (2) 入力画像 x に対する予測ラベル yy の明示的依存を表現するために y(x) を用いる。 0.60
3.2. Consistent Evidence 3.2. 一貫した証拠 0.45
We assume that domain experts provide domain specific knowledge in the form of logical constraints between the task label y and the evidence labels z. ドメインの専門家はタスクラベルyとエビデンスラベルzの間の論理的制約という形でドメイン固有の知識を提供すると仮定します。 0.67
We identify two major logical constraints that are important in our application, specifically that supporting evidence should be compatible and sufficient with the task label. アプリケーションで重要な2つの主要な論理的制約を特定し、具体的には、エビデンスを支持することはタスクラベルと互換性があり、十分であるべきである。
訳抜け防止モード: アプリケーションで重要な2つの主要な論理的制約を特定します。 特に、証拠はタスクラベルと互換性があり、十分であるべきである。
0.63
Let I1 : [C] → P([K]) be the indexing function for evidence that is incompatible with a particular value of task label, where we use P(·) to denote the power set. I1 にしよう。 [C] → P([K]) はタスクラベルの特定の値と互換性のない証拠のインデックス関数であり、P(·) を用いてパワー集合を表す。
訳抜け防止モード: I1 にしよう。 [C ] → P([K ] ) は、タスクラベルの特定の値と相容れない証拠のインデックス関数である。 ここでは、電力集合を表すために P ( · ) を使う。
0.68
Specifically, if evidence labels {zi1, . . . , ziM} are incompatible with task label y = c, then I1(c) = {i1, . . . , iM}. 具体的には、エビデンスラベル {zi1, . , . , ziM} がタスクラベル y = c と互換性がない場合、I1(c) = {i1, . . , iM} となる。 0.74
Let I2 : [C] → P([K]) be the indexing function for evidence that directly supports a particular value of task label. I2 : [C] → P([K]) をタスクラベルの特定の値を直接支持する証拠のインデックス関数とする。 0.75
We assume that I1 and I2 are provided by domain experts. I1とI2はドメインの専門家によって提供されると仮定する。 0.58
Definition 1 (Consistent Evidence) The task label y ∈ [C] and the evidence label vector z = (z1, . . . , zK) ∈ {−1, +1}K are consistent if 定義 1 (Consistent Evidence) タスクラベル y ∈ [C] とエビデンスラベルベクトル z = (z1, . . . , zK) ∈ {−1, +1}K が整合であること。 0.80
∀k ∈ I1(y) : zk = −1, ∃k ∈ I2(y) : zk = +1. zk ∈ i1(y) : zk = −1, zk ∈ i2(y) : zk = +1 である。 0.86
(3) (4) The first criterion specifies that no evidence is incompatible with the task label y. (3) (4) 最初の基準は、いかなる証拠もタスクラベル y と矛盾しないことを明記している。 0.46
The second criterion specifies that there should be at least one direct evidence label present that supports the task label y. 第2の基準は、タスクラベルyをサポートする少なくとも1つの直接証拠ラベルが存在することを規定している。 0.61
In reality, perfectly consistent evidence may not be necessary or possible. 実際、完全に一貫した証拠は必要ないかもしれない。 0.66
For example, domain experts often specify constraints with a notion of uncertainty, e g , I1(y) is incompatible with y most of the time except for occasional corner cases. 例えば、ドメインの専門家はしばしば不確実性の概念で制約を規定するが、例えば、I1(y) は時折コーナーケースを除いて、y と非互換である。 0.73
In addition, certain direct evidence might be so rare that it becomes impossible to include it in I2(y). さらに、ある直接的な証拠は極めて稀であり、i2(y) に含めることは不可能になる。 0.78
Therefore, it is perfectly sensible that there is no direct evidence present in some cases, if we have not included the corresponding evidence label in the construction. したがって、建設中に対応する証拠ラベルを含まない場合、直接の証拠が存在しないことは、完全に合理的である。 0.63
This motivates us to consider these constraints in probabilistic terms. これはこれらの制約を確率論的に考える動機となる。 0.57
Definition 1 is a specification over the values that random variables can take. 定義1は、変数が取ることのできる値に関する仕様である。 0.77
The same definition applies to the true data distribution {y, z} and to the predicted distribution {ˆy, ˆz}. 同じ定義は、真のデータ分布 {y, z} と予測された分布 {y, z} にも適用される。 0.87
In practice, we construct training data {y, z} to be perfectly consistent and demonstrate a training method that encourages the model outputs {ˆy, ˆz} to be consistent as well. 実際には、トレーニングデータ {y, z} を完全一貫性を持たせるために構築し、モデルの出力である {y, z} を一貫性を持たせるトレーニング方法を実証する。 0.72
Moreover, we are not restricted to predicting the findings in ∪c∈[C]I2(c). また, この結果の予測には, C[C]I2(c) の予測に制限されない。 0.64
If some findings provide useful information but are not directly supportive, they can still be included in the set of evidence labels. いくつかの発見が有益な情報を提供しているが、直接支援的でない場合は、証拠ラベルのセットに含めることができる。 0.63
3.3. Example Application This section illustrates the construction of indexing functions I1 and I2 for the pulmonary edema grading task that motivated our work. 3.3. 応用例 本報では, 肺浮腫の診断作業において, 作業の動機となる指標機能i1, i2の構成について述べる。 0.56
Pulmonary edema is defined as an abnormal accumulation of fluid in the lungs. 肺浮腫は肺内の液体の異常蓄積と定義される。 0.66
Higher hydrostatic ハイハイドロスタティック 0.61
3 3 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
pressure in the vasculature causes more severe symptoms. 血管内の圧力はより重篤な症状を引き起こす。 0.71
Typically, radiologists grade the severity of edema based on findings that are typical of the most severe stage of pulmonary edema (Gluecker et al , 1999). 放射線学者は、肺浮腫の最も重篤な段階の典型例(Gluecker et al , 1999)に基づいて、浮腫の重症度を分類する。 0.73
We use a categorization that identifies four edema in order of increasing severity: no severity levels, edema (0), mild edema (1), moderate edema (2), and severe edema (3) (Liao et al , 2019; Horng et al , 2021). 重症度を高めるために4つの浮腫を識別する分類法を用いて, 重症度レベル, 浮腫(0), 軽度浮腫(1), 中等浮腫(2), 重度浮腫(3) (Liao et al , 2019; Horng et al , 2021)。 0.57
The edema severity grading task involves assigning a severity level y ∈ {0, 1, 2, 3} to a test image. 浮腫重症度評価タスクは、テスト画像に重症度レベル y ∈ {0, 1, 2, 3} を割り当てることを含む。 0.68
In this task, there are 4 classes, i.e., C = 4. このタスクには4つのクラス、すなわち C = 4 がある。 0.73
Table 1: Findings that directly support a particular 表1: 特定のものを直接サポートする発見 0.87
severity level. Severity y 重大度レベル 重度Y 0.38
0 (none) Findings I2(y) - 0であった。 発見 I2(y) - 0.72
1 (mild) 1 (複数形 1s) 0.54
2 (moderate) 3 (severe) 2(モデレート) 3 (複数形 3s) 0.59
vascular congestion hilar congestion peribronchial cuffing 血管詰まり ヒラリ詰まり 腹腔周囲のカフリング 0.61
septal lines interstitial abnormality air bronchograms parenchymal opacity 中隔線の間質的異常 エアブロンチグラムのパレンキマル不透明性 0.57
Table 2: Examples of consistent evidence. 表2: 一貫した証拠の例。 0.79
Severity y Evidence z 重大性 y 証拠 z 0.74
1 2 peribronchial cuffing 1 2 気管支周囲カフリング 0.38
vascular congestion septal lines interstitial abnormality 間質性異常の血管渋滞中隔線 0.78
In our work, we identify K = 7 supporting evidence labels deemed useful by clinicians, as shown in Table 1. 本研究では, 臨床医が有用とみなす証拠ラベルを, 表1に示すようにK = 7と同定する。 0.73
They are canonical radiological manifestation of the underlying pathology. これらは下層の病理の標準放射線学的徴候である。 0.50
End users expect presence of these findings to be indicative of a specific edema severity level. エンドユーザーはこれらの発見の存在が特定の浮腫の重症度を示すと期待している。 0.59
As an example, radiologists grade an image as moderate edema if they observe septal lines (short parallel lines at the periphery of the lung) or intersti- 例えば、放射線科医は、中隔線(肺の周囲の短い平行線)や間質線を観察した場合、中程度の浮腫として画像を分類する。 0.66
Table 3: Examples of inconsistent evidence. 表3: 矛盾した証拠の例。 0.80
First two examples are incompatible. 最初の2つの例は互換性がない。 0.52
The latter two examples are insufficient. 後者の2つの例は不十分である。 0.62
Severity y Evidence z 重大性 y 証拠 z 0.74
1 2 1 3 hilar congestion septal lines 1 2 1 3 ヒラー渋滞セプタルライン 0.42
vascular congestion interstitial abnormality air bronchograms 血管渋滞間質的異常空気ブロンチグラム 0.79
– septal lines tial abnormality (excess fluids in the supporting tissue within the lung). – セプタルライン tial異常(肺の支持組織に液体を排出する)。 0.49
Note that presence of evidence from a lower value of edema severity is not inconsistent. なお、浮腫重篤の低い値からの証拠の存在は矛盾しない。 0.56
For example, radiologists may at the same time observe presence of vascular congestion (enlargement of pulmonary veins) and septal lines in a moderate edema case. 例えば、放射線科医は中等度浮腫の症例において、血管収縮(肺静脈の拡大)と中隔線の存在を同時に観察することができる。 0.77
In the severity grading task, we consider an evidence label as incompatible if its presence directly supports a higher level severity level. 重大度評価タスクでは、その存在がより高い重大度レベルを直接支持するならば、エビデンスラベルは非互換であると考える。 0.56
Thus define I1(c) = このように定義する I1(c) = 0.50
(cid:48) ). (cid:48) ). 0.41
I2(c (5) (cid:91) I2(c) (5) (出典:91年) 0.42
c(cid:48)>c c(cid:48)>c 0.46
As an example, a model that grades an image as moderate edema should not use air bronchograms (opacification of alveoli) as supporting evidence. 例えば、中程度の浮腫として画像を分類するモデルは、証拠としてエアブロンチグラム(アルベオリのオパシエーション)を使用するべきではない。 0.70
We consider evidence as insufficient when no direct evidence for edema severity grading is present. 浮腫重度グレーディングの直接的な証拠が存在しない場合, 証拠は不十分であると考えられる。 0.59
As an example, a model which grades an image as severe edema cannot rely on septal lines only to support its prediction. 例えば、イメージを重度の浮腫として評価するモデルは、その予測をサポートするためにのみセプタルラインに頼ることはできない。 0.70
Tables 2 and 3 illustrate further examples of con- 表 2 と 3 は con- のさらなる例を示します 0.69
sistent and inconsistent evidence, respectively. sistent と un consistent evidence はそれぞれ一致しない。 0.63
3.4. Measuring Inconsistency 3.4. 不整合の測定 0.31
We quantify the inconsistency probabilistically based on Definition 1. 定義1に基づいて確率的に不整合を定量化する。 0.60
First, we define a measure of incompatibility as the probability that there is an incompatible evidence label まず、不適合性の尺度を非互換な証拠ラベルが存在する確率として定義する。 0.74
P 4  (cid:91) P 4 シュ(出典:91年) 0.45
k∈I1(y)  . kftpi1(y)  . 0.35
{zk = +1} zk = +1} である。 0.60
(6) (6) 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
To facilitate computation, we upper bound this probability using union bound by 計算を容易にするために、結合境界を用いてこの確率を上限とする。 0.55
R1(y, z) = R1(y, z) = 0.48
k∈I1(y) P [zk = +1] . kftpi1(y) p[zk = +1] である。 0.46
(7) We provide an estimate of incompatibility over data set D by taking expectation over its empirical distribution (7) 我々は、その経験的分布を期待してデータセットDの非互換性を推定する。 0.58
R1(D) = E(y,z)∼D r1(d) = e(y,z)\d である。 0.66
1 [zk = +1] 1[zk = +1] 0.48
(8) (cid:88) (8) (cid:88) 0.41
 (cid:88) k∈I1(y) ※(第88回) kftpi1(y) 0.35
3.5. Consistency Regularization 3.5. 一貫性規則化 0.46
Models trained naively to predict labels y and z jointly are not guaranteed to be consistent. ラベル y と z を共同で予測する訓練されたモデルは一貫性が保証されない。 0.69
Here, we provide regularizers that encourage supporting evidence to be more consistent. ここでは,証拠の一貫性を高めるためのレギュレータを提供する。 0.56
Observe that Equations 7 and 11 are upper bounds on the true probability of model being inconsistent. 方程式 7 と 11 は、モデルが矛盾する真の確率の上限である。 0.71
We can simply use these upper bounds, or modification thereof, as regularizers. 単にこれらの上界やその修正を正規化子として使うことができる。 0.62
We opt to use cross entropy to avoid inconsistent evidence. 我々は矛盾する証拠を避けるためにクロスエントロピーを使うことにした。 0.55
To penalize incompatibility, we define 非互換性を罰するために 0.53
 ,  . where we have replaced P [zk = +1] with 1 [zk = +1] since zk is binary valued.  ,  . ここで P[zk = +1] を 1[zk = +1] に置き換えた。 0.48
Intuitively, R1(D) is the average count of evidence labels incompatible with the task label. 直感的には、R1(D) はタスクラベルと互換性のないエビデンスラベルの平均数である。 0.54
R1(θ) = −Ex∼D r1(θ) = エクセド 0.68
In this work, we use Equation 8 as a measure of incompatible evidence. 本研究では、非互換な証拠の尺度として方程式8を用いる。 0.74
We also note that one could eliminate the dependency on the size of I1(y) by defining また、I1(y) のサイズへの依存を定義によって排除できる点にも注意する。 0.72
 1 (cid:88)  1 (cid:88) 0.41
E(y,z)∼D 略称はe(y,z)。 0.56
|I1(y)| k∈I1(y) i1(y)| kftpi1(y) 0.37
1 [zk = +1] 1[zk = +1] 0.48
(9) We prefer the measure of incompatibility defined in Equation 8 for measuring incompatibility as it arises naturally from bounding the probability of incompatible evidence. (9) 我々は、矛盾する証拠の確率の境界から自然に生じる不適合性を測定するために、方程式8で定義される不適合性の尺度を好む。 0.51
Similarly, we define a measure of insufficiency as 同様に、不完全性の尺度を定義します。 0.56
the probability that there is no sufficient evidence 十分な証拠がないという確率 0.71
(cid:101)R1(θ) = −Ex∼D (cid:101)R1(θ) =-Ex\D 0.32
(cid:34) (cid:88) (cid:34)(cid:88) 0.36
(cid:88) c∈[C] (cid:88) C (複数形 Cs) 0.43
k∈I1(c)  (cid:92) kftpi1(c) ※(第92回) 0.37
P k∈I2(y) {zk = −1} P k・I2(y) zk = −1} である。 0.44
 , which leads to an upper bound  , 上界につながります 0.42
R2(y, r2(y) である。 0.46
z) = min k∈I2 z) = min kservleti2 0.38
(y) P [zk = −1] (y) P[zk = −1] 0.45
and its empirical estimate (cid:20) 経験的な推定は (cid:20) 0.50
(cid:20) R2(D) = E(y,z)∼D (cid:20) r2(d) = e(y,z)\d である。 0.52
min k∈I2(y) min (複数形 mins) 0.54
[1 − 1 [zk = +1]] [1 − 1 [zk = +1]] 0.42
= 1 − E(y,z)∼D d = 1 − e(y,z) である。 0.76
max k∈I2(y) max (複数形 maxs) 0.57
1 [zk = +1] 1[zk = +1] 0.48
. (13) (10) . (13) (10) 0.42
(11) (12) (cid:21) (11) (12) (出典:21) 0.51
(cid:21)  (cid:88) (出典:21) ※(第88回) 0.56
k∈I1(ˆy(x)) k・I1(シュイ(x)) 0.55
ln p(zk = −1 | x; θ) ln p(zk = −1 | x; θ) 0.46
 . (14) Intuitively, R1(θ) penalizes evidence probability that is incompatible with the predicted task label.  . (14) 直感的には、R1(θ) は予測されたタスクラベルと互換性のない証拠確率を罰する。 0.47
Including R1(θ) in the loss function is equivalent to supplying pseudo negative samples for evidence obtained from the predicted task label ˆy. 損失関数にR1(θ)を含むことは、予測されたタスクラベルから得られた証拠に対して擬似負のサンプルを供給することと等価である。
訳抜け防止モード: 損失関数における R1(θ ) を含むことは同値である 予測されたタスクラベルから得られた証拠に偽陰性サンプルを供給する。
0.74
Instead of penalizing incompatibility with respect to MAP estimate of the task label ˆy(x), we can penalize incompatibility for each value of task label weighted by the posterior probability, i.e., タスクラベル sy(x) のマップ推定に関して非互換性をペナライズする代わりに、後確率に重みづけられたタスクラベルの各値に対する非互換性をペナライズすることができる。
訳抜け防止モード: タスクラベル y(x) のMAP推定に対する不整合性を罰する代わりに ) 後続確率によって重み付けされたタスクラベルの各値,すなわち,不整合性をペナルティ化することができる。
0.73
p(y = c | x; θ)· p(y = c | x; θ)· 0.42
ln p(zk = −1 | x; θ) ln p(zk = −1 | x; θ) 0.46
. (15) (cid:35) . (15) (cid:35) 0.41
(cid:21) In contrast to Equation 14 where gradients cannot flow through ˆy(x) due to the arg max operator, Equation 15 provides a softer regularizer that affects the predictions of both the task and the evidence labels. (出典:21) グラデーションがarg max演算子によって sy(x) を流れることができない等式14とは対照的に、等式15はタスクとエビデンスラベルの両方の予測に影響を与えるよりソフトな正則化子を提供する。 0.70
Similarly, we define R2(θ) = −Ex∼D 同様に定義します r2(θ) = エクセド 0.76
(cid:20) ln max (cid:20) マックス 0.37
k∈I2(ˆy(x)) k・I2(シュイ(x)) 0.57
p(zk = +1 | x; θ)) p(zk = +1 | x; θ)) 0.46
. (16) Note that R2(D) is the average count of absence of direct evidence. . (16) R2(D) は直接証拠が存在しない平均的な数である。 0.56
Now we can provide an upper bound on probability of inconsistent evidence R(y, z) = R1(y, z)+R2(y, z) and its empirical estimate R(D) = R1(D) + R2(D). ここで、矛盾する証拠 R(y, z) = R1(y, z)+R2(y, z) の確率と、その経験的推定 R(D) = R1(D) + R2(D) の確率の上限を与えることができる。 0.86
Intuitively, R2(θ) encourages presence of some evIncluding idence to support predicted task label. 直感的には、R2(θ) は予測されたタスクラベルをサポートするために evIncluding idence の存在を奨励する。 0.55
R2(θ) in the loss function is equivalent to supplying pseudo positive samples obtained from the predicted task label ˆy. 損失関数のR2(θ)は、予測されたタスクラベルから得られた擬陽性サンプルを供給することと同値である。
訳抜け防止モード: 損失関数の R2(θ ) は同値である 予測されたタスクラベルから得られた偽陽性サンプルを供給。
0.82
5 5 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
Similar to Equation 15, we can penalize insuffi- Equation 15と同様、Insuffiをペナルティ化できます。 0.70
ciency using posterior probability as weights, 後方確率を重みとして用いた硬度 0.56
(cid:101)R2(θ) = −Ex∼D (cid:101)R2(θ) =-Ex\D 0.32
(cid:34) (cid:88) (cid:34)(cid:88) 0.36
c∈[C] C (複数形 Cs) 0.46
p(y = c | x; θ)· p(y = c | x; θ)· 0.42
(cid:35) gradient update involves random sampling of a label (task or evidence), assembling a mini-batch of data corresponding to the sampled label, computing the objective function, and updating parameters with backpropagated gradients. (cid:35) 勾配更新には、ラベル(タスクまたはエビデンス)のランダムサンプリング、サンプルラベルに対応するデータのミニバッチの組み立て、目的関数の計算、逆伝播勾配によるパラメータの更新が含まれる。 0.57
This approach enables us to learn even if some labels are missing for some images. このアプローチでは,画像にラベルがない場合でも学習することができる。 0.67
We normalize images to zero mean and unit variance, and resize them to 224x224 pixels. 画像を平均と単位のばらつきゼロに正規化し、224×224ピクセルにリサイズする。 0.73
We apply random image augmentations to images, e g , crop, horizontal flip, brightness and contrast variations, to alleviate model overfitting. モデルオーバーフィッティングを緩和するために,画像,例えば作物,水平フリップ,輝度,コントラストの変動に対してランダムな画像拡張を適用する。 0.76
LSEi∈[n](xi) = log(cid:80) LSEi・[n](xi) = log(cid:80) 0.45
We implement Equation 16 by substituting the max operator with a soft maximum operator, i.e., i exp(xi). 我々は、最大演算子にソフトな最大演算子、すなわち i exp(xi) を置換することで、方程式16を実装する。
訳抜け防止モード: Equation 16 by を実装します。 max演算子にソフトな最大演算子、すなわちi exp(xi)を置換する。
0.76
This way, we enforce sufficiency of evidence by upscaling probabilities of direct evidence that are larger to begin with. このようにして、我々は、最初より大きい直接的証拠の確率を増大させることで、証拠の充実を強制する。 0.58
We use exactly the same network architecture, data augmentation, and optimization parameters to isolate the impact of the proposed regularization on consistency and performance. 提案する規則化が一貫性とパフォーマンスに与える影響を分離するために、まったく同じネットワークアーキテクチャ、データ拡張、最適化パラメータを使用します。 0.70
We compute mean and standard deviation statistics for inconsistency and test prediction from 3 runs with different random seed. 不整合とテスト予測のための平均偏差と標準偏差の統計をランダムシードの異なる3つの実行から算出する。 0.68
ln max k∈I2(c) ln max (複数形 ln maxs) 0.56
p(zk = +1 | x; θ)) p(zk = +1 | x; θ)) 0.46
. (17) In our work, we focus on regularizers R1(θ) and R2(θ). . (17) 本研究では、正規化器 R1(θ) と R2(θ) に焦点を当てる。 0.50
In Appendix B, we provide preliminary comparison of regularizers R1(θ) and R2(θ) with the soft vestigation of soft regularizers to future work. Appendix B では、正則化器 R1(θ) と R2(θ) の予備的な比較と、ソフト正則化器のソフトな検定を将来の作業と比較する。 0.59
regularizers (cid:101)R1(θ) and (cid:101)R2(θ). 正規化器 (cid:101)R1(θ) と (cid:101)R2(θ) である。 0.65
We leave further in- 3.6. 我々はさらに去る。 3.6. 0.52
Optimization We apply deep multitask learning for joint predictions of y, z1,··· , zK. 最適化 我々は, y, z1,··· , zK の合同予測に深層マルチタスク学習を適用した。 0.70
In particular, we parameterize p(y | x; θ) and p(zk | x; θ) for k = 1, . . . , K with neural network f (x; θ) and assume function f outputs logits over K + 1 marginals. 特に、p(y | x; θ) と p(zk | x; θ) を k = 1, . . . , k をニューラルネットワーク f (x; θ) でパラメータ化し、関数 f が k + 1 の辺点上のロジットを出力すると仮定する。 0.80
jective is simply the empirical risk, 形容詞は単に経験的なリスクです 0.64
Given a classification loss function L(·,·), the obL(θ) = E(x,y)∼Dt [L(y, f (x; θ))] 分類損失関数 L(·,·) が与えられたとき、 obL(θ) = E(x,y) = Dt [L(y, f (x; θ))] 0.71
(18) E(x,zk)∼Dt [L(zk, f (x; θ))] . (18) e(x,zk) dt [l(zk, f(x; θ))] ] である。 0.58
(19) K(cid:88) (19) K(第88回) 0.53
k=1 + k=1 である。 + 0.37
1 K We add consistency regularization to multitask classification loss, which yields a regularized empirical risk minimization problem 1K マルチタスクの分類損失に一貫性の正規化を追加し、正規化された経験的リスク最小化問題を引き起こす 0.47
θ L(θ) + ω1R1(θ) + ω2R2(θ), min θ L(θ) + ω1R1(θ) + ω2R2(θ) min 0.46
(20) where ω1, ω2 ∈ R+ are coefficients that control the (20) ω1, ω2 ∈ R+ は係数であり 0.59
degree of regularization. 4. Implementation Details 正規化の程度。 4.実装の詳細 0.75
We use residual networks to parameterize our probabilistic classifiers (He et al , 2016). 我々は残差ネットワークを用いて確率的分類器をパラメータ化する(He et al , 2016)。 0.77
The network is modified to output a (C + K)-dimensional vector representing the posterior marginal probabilities for y, z1, . . . , zK. このネットワークは、y, z1, . . , zk の後縁確率を表す(c + k)次元ベクトルを出力するように修正される。 0.77
We use weighted cross entropy loss as L(·,·) to handle class imbalances. クラス不均衡の処理にはL(·,·)として重み付きクロスエントロピー損失を用いる。 0.76
We employ the Adam optimizer with a constant learning rate of 2 · 10−4 with 我々は、adamオプティマイザを用いて、一定の学習率を 2 · 10−4 とする。 0.49
mini-batch size of 32 for stochastic optimization of network parameters (Kingma and Ba, 2015). ネットワークパラメータの確率最適化のためのミニバッチサイズ32(Kingma and Ba, 2015)。 0.85
Each 6 Figure 2: Model それぞれ 6 図2:モデル 0.65
inconsistency across different values of ˆy evaluated on the test set ˆD for a naively trained model, i.e., ω1 = ω2 = 0. 異なる値にまたがる矛盾は、ナイーブに訓練されたモデル、すなわち ω1 = ω2 = 0 に対するテスト集合 sd 上で評価される。 0.71
The majority of inconsistent evidence comes from incompatible evidence associated with small values of the predicted task label ˆy. 矛盾する証拠の大部分は、予測されたタスクラベルの小さな値に関連する互換性のない証拠に由来する。 0.62
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
(a) Vary ω1, fix ω2 = 0 (a) ω1 を変更、ω2 = 0 を固定する 0.74
(b) Fix ω1 = 0, vary ω2 (b) ω1 = 0 を固定する。 0.79
(c) Vary ω1 = ω2 together (c) ω1 = ω2 を一緒に変更する 0.65
Figure 3: The effect of varying strength of regularizations during training on model consistency. 図3: トレーニング中の正規化の強度の変化がモデルの一貫性に及ぼす影響。 0.77
Here R1,R2 is short hand for R1( ˆD),R2( ˆD), respectively. ここで、R1,R2は、それぞれR1(n) とR2(n) の短手である。 0.74
The proposed regularizers R1(θ),R2(θ) encourage the model to provide more compatible evidence (left) or more sufficient evidence (middle), respectively. 提案された正規化子 r1(θ)、r2(θ) は、モデルにそれぞれより互換性のある証拠(左)または十分な証拠(中間)を提供するよう促す。
訳抜け防止モード: 提案された正則化器 R1(θ),R2(θ) の励振 より互換性のある証拠(左)またはより十分な証拠(中)を提供するモデル。
0.75
The application of regularizers at the same time encourages the model to provide more consistent evidence (right). 同時に正規化器の応用は、モデルにより一貫した証拠を提供することを奨励する(右)。 0.68
5. Experiments 5.1. 5.実験 5.1. 0.59
Data We use a subset of 238,086 frontal-view chest X-ray from the MIMIC-CXR data set (Johnson et al , 2019). データ 我々はMIMIC-CXRデータセット(Johnson et al , 2019)から238,086個の胸部X線を抽出した。 0.75
We split the data set into training (217,016), validation (10,445), and test (10,625) sets randomly. データセットをトレーニング(217,016)、検証(10,445)、テスト(10,625)にランダムに分割した。 0.72
The performance of predicted evidence is computed over this test set. 予測されたエビデンスの性能はこのテストセット上で計算される。 0.65
There is no patient overlap between training, validation and test sets. トレーニング、検証、テストセットの間には、患者の重複はありません。 0.62
Edema severity labels are extracted from associated reports by searching for keywords that are indicative of a specific disease stage. 特定の疾患ステージを示すキーワードを検索することにより、関連する報告から浮腫重度ラベルを抽出する。 0.71
The 7,802 labeled image/report pairs are split into training (6,656), validation (648), and test (498) set. 7,802ラベル付きイメージ/レポートペアは、トレーニング(6,656)、検証(648)、テスト(498)セットに分割される。
訳抜け防止モード: 7,802のラベル付き画像/レポートペアはトレーニング(6,656)に分けられる。 検証 (648 ) およびテスト (498 ) セット。
0.76
The test set was corrected for keyword matching errors by an expert radiologist, as detailed in prior work (Chauhan et al , 2020). テストセットは、事前の作業(chauhan et al , 2020)で詳述されたように、専門家の放射線技師によるキーワードマッチングエラーのために修正された。 0.63
We use ˆD to denote this test set that includes images and predicted labels (x, ˆy, ˆz). 我々は、画像と予測されたラベル(x、y、z)を含むこのテストセットを表すのに、sD を用いる。 0.63
All subsequent evaluations of model consistency and performance is computed using ˆD. モデル整合性および性能のその後の評価は、すべて シュD を用いて計算される。 0.55
5.2. Model Inconsistency 5.2. モデル不整合 0.50
We examine model inconsistency overall and over partitions of data with respect to values of predicted label ˆy. 本稿では,予測ラベルの値に対するデータの分割および分割に関するモデル不整合について検討する。 0.64
The sum of model inconsistency over the partitions gives the quantities R1( ˆD) in Equation 8 and R2( ˆD) in Equation 13. 分割上のモデルの不整合の和は、方程式 8 における r1(-d) と方程式 13 における r2(--d) の量を与える。 0.68
Figure 2 reports model inconsistency over partitions of ˆy for a model that is trained without consistency regularization, i.e., ω1 = ω2 = 0. 図2は、一貫性の正規化なしで訓練されたモデル、すなわち ω1 = ω2 = 0 に対する sy の分割上のモデル矛盾を報告します。 0.70
We observe that R1( ˆD) is typically larger than R2( ˆD) due to the fact that R1( ˆD) is essentially an average count of po- 我々は、R1( >D) が R2( >D) よりも典型的に大きいのは、R1( >D) が本質的にpo の平均数であるという事実からである。 0.68
tentially many incorrect evidence labels, while R2( ˆD) is an average count of missing evidence, and therefore is upper bounded by 1. 時空的に多くの誤った証拠がラベル付けされるが、r2(-d) は欠落した証拠の平均数であり、従って上界は 1 である。 0.65
We also observe a downward trend in values of R1( ˆD) with increasing values for ˆy. また, y の値の増加とともに R1 の値が下降する傾向が観察される。 0.76
This is reasonable as there are many ways to make mistake with a small ˆy, while no way to provide conflicting evidence when ˆy = 3 in our framework. これは、小さな sy で誤りを犯す方法はたくさんありますが、フレームワークの sy = 3 では、矛盾する証拠を提供する方法はありません。 0.68
5.3. Consistency Regularization 5.3. 一貫性規則化 0.46
To demonstrate that proposed regularization promotes model consistency, we vary values of ω1, ω2 in the objective function and train multiple models. 提案する正規化がモデルの一貫性を促進することを示すために、目的関数内の ω1, ω2 の値を変え、複数のモデルを訓練する。 0.63
We select the most accurate model on the validation set and compute inconsistency on the test set ˆD. 検証セット上で最も正確なモデルを選択して,テストセット上の不整合を演算する。 0.75
Figure 3 demonstrates the effects of regularization on model consistency. 図3は、モデルの一貫性に対する正規化の効果を示しています。 0.57
We observe that the regularizers R1(θ) and R2(θ) are effective in reducing the respective intended model inconsistency, indicated by a reduction of R1( ˆD) in Figure 3 図3で示すように、正規化器 R1(θ) と R2(θ) は、それぞれが意図したモデルの不整合を低減するのに有効である。
訳抜け防止モード: 正規化器 R1(θ ) と R2(θ ) がそれぞれ意図したモデルの矛盾を低減するのに有効である。 図3で R1 の減少によって示される
0.84
(a) and R2( ˆD) in Figure 3 図3における (a) と R2( >D) 0.81
(b) respectively. Additionally, we observe that penalizing R1( ˆD) inadvertently makes R2( ˆD) larger and vice versa. (b)それぞれ。 さらに、ペナリゼーションr1(-d)が不注意にr2(-d)を大きくし、その逆も観察する。 0.65
This makes intuitive sense, since a model that is more likely to predicts absence of evidence will これは直感的には理にかなっている。証拠の欠如を予測しがちなモデルでは
訳抜け防止モード: これは直感的な理屈です なぜならモデルが 証拠の欠如を 予測する可能性が高く
0.77
(i) less likely to provide incompatible evidence and 一 相容れない証拠を与える可能性が低いこと 0.60
(ii) less likely to provide some direct evidence. (ii)直接的証拠を提示する可能性は低い。 0.77
We observe that we can reduce both types of inconsistency by regularizing with both loss terms, as shown in Figure 3(c). 図3(c)に示すように、両方の損失項を正則化することにより、両タイプの矛盾を低減できる。 0.69
It important to note that even though R2( ˆD) is relatively small in models trained with ω1 = 0, regularizing with R2( ˆD) is necessary as we want to avoid situations in Figure 3(a) where R2( ˆD) becomes intolerably large. ω1 = 0 で訓練されたモデルでは R2( >D) は比較的小さいが、R2( >D) での正則化は図 3(a) で R2( >D) が耐え難いほど大きくなる状況を避けるために必要である。 0.81
7 7 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
Figure 4: Correctly and incorrectly classified test images with supporting evidence given by a consistent model (ω1 = ω2 = 10.). 図4: 一貫性のあるモデル (ω1 = ω2 = 10) によって与えられる証拠を裏付ける正当かつ正しく分類されたテスト画像。 0.75
We use I(c) to denote the set of evidence labels detected in the image that directly support disease stage c. i(c)を用いて病期cを直接支持する画像から検出された証拠ラベルのセットを示す。 0.76
5.4. Interpretability 5.4. 解釈可能性 0.39
Figure 4 illustrates how a consistent model (trained with ω1 = ω2 = 10) provides supporting evidence for randomly sampled test images. 図4は、(ω1 = ω2 = 10で訓練された)一貫したモデルが、ランダムにサンプリングされたテスト画像の支持証拠を提供する方法を示している。 0.55
We provide correctly and incorrectly classified test images for each severity level. 重度レベル毎に、正しくかつ正しく分類されたテスト画像を提供する。 0.66
We observe that the regularized model provides consistent evidence in all 8 examples, even in cases where model prediction of task label is not correct. 正則化モデルは,タスクラベルのモデル予測が正しくない場合でも,全8例に一貫した証拠を提供する。 0.76
How does providing consistent supporting evidence build trust in the model ? 一貫して支持する証拠を提供することは、どのようにモデルを信頼するか? 0.61
We note that supporting findings are already described in radiological reports and can be easily mined for training and verified in an image. また,すでに放射線学的な報告で報告されており,訓練や画像による検証が容易に行えることに留意した。 0.61
When the supporting evidence is clearly correct, it builds additional trust in the predicted task label. 裏付ける証拠が明確に正しい場合、予測されたタスクラベルにさらなる信頼を築く。 0.70
When the consistent but wrong evidence is presented, it is easy to see in the image and helps the end users understand why the main task label is 一貫性があるが間違った証拠が提示されると、画像で簡単に確認でき、エンドユーザーがメインタスクラベルがなぜあるのかを理解するのに役立つ。 0.69
wrong. Our method avoid confusions that arise from model providing inconsistent evidence. 間違ってる 提案手法は,矛盾する証拠を提示するモデルから生じる混乱を避ける。 0.61
Crucially, evidence labels should not only be consistent, but also correct. 重要なのは、エビデンスラベルが一貫性を持つだけでなく、正しいこと。 0.43
To this point, we reported performance of evidence detection in Section 5.5. そこで我々は,第5節で証拠検出の実績を報告した。 0.63
Our proposed regularizers offers a complementary tool to help end users understand why the model erred. 提案するレギュラライザは、エンドユーザーがなぜモデルが乱れたのかを理解するのに役立つ補完的なツールを提供します。 0.47
Our method can be integrated with technologies, e g , RCNN, GradCAM (Girshick et al , 2014; Selvaraju et al , 2016), that provide localization, i.e., confirmation that the model is focusing on the correct regions in the image. 本手法は,Girshick et al , 2014; Selvaraju et al , 2016 など,画像中の正しい領域に着目したモデルの有効性を確認する技術と統合することができる。
訳抜け防止モード: 我々の手法は、例えばRCNNなどの技術と統合することができる。 GradCAM (Girshick et al, 2014 ; Selvaraju et al, 2016 ) ローカライゼーション、すなわち、モデルが画像内の正しい領域に焦点を当てていることを確認します。
0.72
5.5. Performance-Consiste ncy Tradeoff 5.5. パフォーマンス・一貫性のトレードオフ 0.35
Next, we show that we can achieve good model consistency without compromising predictive performance. 次に,予測性能を損なうことなく,適切なモデルの一貫性を実現できることを示す。 0.69
We vary ω1, ω2 together in the objective function and ω1, ω2 は目的関数で一緒に変化する。 0.75
8 8 0.43
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
Figure 5: The effect of regularization on model inconsistency (left 2) and performance of predicting task label y (middle 2) and evidence labels z (right 2). 図5: モデル不整合に対する正規化の効果(左2)とタスクラベルyの予測性能(中)とエビデンスラベルz(右2)。 0.66
Here R1,R2 is short hand for R1( ˆD),R2( ˆD), respectively. ここで、R1,R2は、それぞれR1(n) とR2(n) の短手である。 0.74
When regularizing for both R1,R2, e g , down the diagonals of the matrix, we notice dramatic decrease in model inconsistency and competitive performance for the regularized model. R1,R2,egの2つの正則化を行列の対角線で行うと、正則化モデルに対するモデル不整合と競合性能が劇的に低下することに気づく。 0.69
Acknowledgments This work was supported in part by NIH NIBIB NAC P41EB015902 grant, MIT Lincoln Laboratory, MIT JClinic, MIT Deshpande Center, and Philips. 承認 この研究は、NIH NIBIB NAC P41EB015902、MIT Lincoln Laboratory、MIT JClinic、MIT Deshpande Center、およびPhilipsによって支援された。 0.63
train multiple models. 複数のモデルを訓練する。 0.57
We select for the most accurate model on the validation set for subsequent evaluations. 検証セット上で最も正確なモデルを選択し,その後の評価を行う。 0.77
Figure 5 demonstrates that we can ensure satisfactory model consistency. 図5は、十分なモデルの一貫性を保証できることを示しています。 0.54
At the same time, the regularized model achieves similar performance on the severity grading task. 同時に、正規化モデルは、重大度評価タスクにおいて同様の性能を達成する。 0.65
The improvement in performance can be attributed empirically to fact that heavily regularized models over-fit less. パフォーマンスの改善は、非常に規則化されたモデルが過度に適合しないという事実を実証的に評価することができる。 0.48
However, we do observe a drop in the average performance of the model for predicting evidence. しかし, モデルの平均性能は低下し, 証拠の予測が可能となった。 0.69
The drop in predicted evidence performance is tolerable if we consider that the model rarely provides inconsistent supporting evidence. モデルが矛盾する証拠をほとんど提供しないと考えると、予測された証拠の減少は許容できる。 0.66
Figure 5 reinforces previous observation that penalizing R1( ˆD) makes R2( ˆD) higher and vice versa, when ωi for i = 1, 2 being held constant is different from 0. 図5は、ペナライジング r1(-d) が r2(-d) を高くし、逆に i = 1, 2 を定数とする ωi が 0 と異なるという以前の観測を補強するものである。 0.72
Figure 3 shows the first column, the first row, and the diagonal slices of the grid in left 2 sub-figures in Figure 5. 図3は、図5の第1の列、第1の行、図2のグリッドの対角スライスを示しています。 0.77
We refer the reader to Table 4 in Appendix A for detailed numbers of inconsistency and performance along the diagonal slice of the grid. 本稿では, グリッドの対角線スライスに沿った不整合と性能の詳細な数値について, 表4を参照する。 0.69
6. Conclusion We argue for supplementing model predictions with supporting evidence that is deemed useful by end users. 結論 エンドユーザーにとって有用と考えられる証拠を裏付けるモデル予測の補足について論じる。 0.47
We defined a notion of consistent evidence via incorporating domain specific constraints. ドメイン固有の制約を取り入れることで、一貫性のある証拠の概念を定義しました。 0.49
Then, we proposed ways to measure and enforce such constraints during model training. そこで我々は,モデルトレーニング中にそのような制約を計測し,強制する方法を提案した。 0.60
We evaluated our method on the pulmonary edema severity grading task, which provides a grounding for our consistent evidence framework. 本手法を肺浮腫重症度評価タスクで評価し,一貫したエビデンス枠組みの基盤となるものを検討した。 0.63
We demonstrated that consistent models remain competitive on the main task. 一貫性のあるモデルがメインタスクで競争力を維持することを実証した。 0.55
9 9 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
References David Alvarez Melis and Tommi Jaakkola. 参考文献 David Alvarez MelisとTommi Jaakkola。 0.53
Towards Robust Interpretability with Self-Explaining Neural Networks. 自己説明型ニューラルネットワークによるロバスト解釈 0.68
In Advances in Neural Information Processing Systems, volume 31. 神経情報処理システムの進歩, 第31巻 0.60
Curran Associates, Inc., 2018. curran associates, inc.、2018年。 0.45
Wei Bi and James T. Kwok. wei bi と james t. kwok。 0.57
Multi-label classification on tree- and DAG-structured hierarchies. 木およびDAG構造階層上の多ラベル分類 0.75
In Proceedings of the 28th International Conference on International Conference on Machine Learning, ICML’11, pages 17–24, Madison, WI, USA, June 2011. 第28回機械学習国際会議(international conference on machine learning, icml’11, pages 17–24, madison, wi, usa, june 2011)の議事録。
訳抜け防止モード: 第28回国際機械学習会議の開催にあたって icml’11, pages 17–24, madison, wi, usa, june 2011 を参照。
0.71
Omnipress. ISBN 978-1-4503-0619-5. オムニプレス ISBN 978-1-4503-0619-5。 0.29
Maxime Bucher, St´ephane Herbin, and Fr´ed´eric JuSemantic Bottleneck for Computer Vision rie. maxime bucher, st éephane herbin, fr はコンピュータビジョン rie のための eric jusemantic bottleneck を考案した。 0.46
Tasks. In C. V. Jawahar, Hongdong Li, Greg Mori, and Konrad Schindler, editors, Computer Vision – ACCV 2018, Lecture Notes in Computer Science, pages 695–712, Cham, 2019. タスク。 C.V. Jawahar, Hongdong Li, Greg Mori, Konrad Schindler, editors, Computer Vision – ACCV 2018, Lecture Notes in Computer Science, pages 695–712, Cham, 2019
訳抜け防止モード: タスク。 C. V. Jawahar, Hongdong Li, Greg Mori and Konrad Schindler, Editors, Computer Vision – ACCV 2018, コンピュータサイエンスの講義ノート 695-712, Cham, 2019
0.69
Springer International Publishing. Springer International Publishing(英語) 0.71
ISBN 978-3-030-20890-5. ISBN 978-3-030-20890-5。 0.19
doi: 10.1007/978-3-030-20 890-5 44. 10.1007/978-3-030-20 890-5 44。 0.20
Rich Caruana, Yin Lou, Johannes Gehrke, Paul Koch, Marc Sturm, and Noemie Elhadad. Rich Caruana、Yin Lou、Johannes Gehrke、Paul Koch、Marc Sturm、Noemie Elhadad。 0.35
Intelligible Models for HealthCare: Predicting Pneumonia Risk and Hospital 30-day Readmission. 医療のための知性モデル:肺炎のリスクと30日間の入院の予知。 0.64
In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining - KDD ’15, pages 1721–1730, Sydney, NSW, Australia, 2015. 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining - KDD ’15, page 1721–1730, Sydney, NSW, Australia, 2015 に参加して
訳抜け防止モード: 第21回ACM SIGKDD国際知識発見会議に参加して and Data Mining - KDD ’ 15 page 1721–1730, Sydney NSW、オーストラリア、2015年。
0.78
ACM Press. ISBN 978-1-4503-3664-2. acmプレス。 ISBN 978-1-4503-3664-2。 0.51
doi: 10.1145/2783258.2788 613. 10.1145/2783258.2788 613 0.27
Geeticka Chauhan, Ruizhi Liao, William Wells, Jacob Andreas, Xin Wang, Seth Berkowitz, Steven Horng, Peter Szolovits, and Polina Golland. Geeticka Chauhan, Ruizhi Liao, William Wells, Jacob Andreas, Xin Wang, Seth Berkowitz, Steven Horng, Peter Szolovits, Polina Golland
訳抜け防止モード: geeticka chauhan, ruizhi liao, william wells, jacob andreas xin wang、seth berkowitz、steven horng、peter szolovits。 そしてポリナ・ゴラン
0.54
Joint modeling of chest radiographs and radiology reports for pulmonary edema assessment. 肺浮腫評価のための胸部X線写真と放射線検査の併用モデリング 0.72
In International Conference on Medical Image Computing and Computer-Assisted Intervention, pages 529– 539. International Conference on Medical Image Computing and Computer-Assisted Intervention』529-539頁。 0.43
Springer, 2020. スプリンガー、2020年。 0.59
Noel C. F. Codella, Michael Hind, Karthikeyan Natesan Ramamurthy, Murray Campbell, Amit Dhurandhar, Kush R. Varshney, Dennis Wei, and Aleksandra Mojsilovi´c. Noel C. F. Codella, Michael Hind, Karthikeyan Natesan Ramamurthy, Murray Campbell, Amit Dhurandhar, Kush R. Varshney, Dennis Wei, Aleksandra Mojsilovi ́c
訳抜け防止モード: noel c. f. codella, michael hind, karthikeyan natesan ramamurthy. murray campbell, amit dhurandhar, kush r. varshney, dennis wei アレクサンドラ・モジシロヴィ(aleksandra mojsilovi)。
0.74
Teaching AI to Explain its Decisions Using Embeddings and Multi-Task Learning. 埋め込みとマルチタスク学習を使ってAIに意思決定を説明する。 0.70
ICML Workshop on Human in the Loop Learning, June 2019. ICML Workshop on Human in the Loop Learning, June 2019 0.37
Jeffrey De Fauw, Joseph R. Ledsam, Bernardino Romera-Paredes, Stanislav Nikolov, Nenad Tomasev, Sam Blackwell, Harry Askham, Xavier Glo- Jeffrey De Fauw, Joseph R. Ledsam, Bernardino Romera-Paredes, Stanislav Nikolov, Nenad Tomasev, Sam Blackwell, Harry Askham, Xavier Glo 0.47
rot, Brendan O’Donoghue, Daniel Visentin, George van den Driessche, Balaji Lakshminarayanan, Clemens Meyer, Faith Mackinder, Simon Bouton, Kareem Ayoub, Reena Chopra, Dominic King, Alan Karthikesalingam, C´ıan O. Hughes, Rosalind Raine, Julian Hughes, Dawn A. Sim, Catherine Egan, Adnan Tufail, Hugh Montgomery, Demis Hassabis, Geraint Rees, Trevor Back, Peng T. Khaw, Mustafa Suleyman, Julien Cornebise, Pearse A. Keane, and Olaf Ronneberger. rot, Brendan O’Donoghue, Daniel Visentin, George van den Driessche, Balaji Lakshminarayanan, Clemens Meyer, Faith Mackinder, Simon Bouton, Kareem Ayoub, Reena Chopra, Dominic King, Alan Karthikesalingam, C ́ıan O. Hughes, Rosalind Raine, Julian Hughes, Dawn A. Sim, Catherine Egan, Adnan Tufail, Hugh Montgomery, Demis Hassabis, Geraint Rees, Trevor Back, Peng T. Khaw, Mustafa Suleyman, Julie Cornenise, Pearse A. Kene, or Roner
訳抜け防止モード: 腐れ! brendan o'donoghue, daniel visentin, george van den driessche, balaji lakshminarayanan, clemens meyer, faith mackinder, サイモン・ブートン、カリーム・アユブ、リーナ・チョプラ、ドミニク王。 alan karthikesalingam, c ́ıan o. hughes, rosalind raine, ジュリアン・ヒューズ ドーン・a・シム、キャサリン・イーガン、アドナン・トゥフェイル、ヒュー・モンゴメリー demis hassabis, geraint rees, trevor back, peng t. khaw, mustafa suleyman、julien cornebise、pearse a. keane、olaf ronneberger。
0.64
Clinically applicable deep learning for diagnosis and referral in retinal disease. 網膜疾患における診断・紹介のための臨床応用深層学習 0.76
Nature Medicine, 24 (9):1342–1350, September 2018. 自然医学、24 (9):1342-1350、2018年9月。 0.61
ISSN 1078-8956, 1546-170X. ISSN 1078-8956, 1546-170X。 0.30
doi: 10.1038/s41591-018-0 107-6. doi 10.1038/s41591-018-0 107-6。 0.17
Michelangelo Diligenti, Soumali Roychowdhury, and Marco Gori. Michelangelo Diligenti, Soumali Roychowdhury, Marco Gori 0.30
Integrating Prior Knowledge into Deep Learning. 事前知識をディープラーニングに統合する。 0.62
In 2017 16th IEEE International Conference on Machine Learning and Applications (ICMLA), pages 920–923, December 2017. 2017年12月、第16回ieee international conference on machine learning and applications (icmla) 920-923ページ。 0.78
doi: 10.1109/ICMLA.2017.0 0-37. doi: 10.1109/icmla 2017.00-37。 0.31
Ivica Dimitrovski, Dragi Kocev, Suzana Loskovska, and Saˇso Dˇzeroski. イヴィツァ・ディミトロフスキー(Ivica Dimitrovski)、ドラギ・コセフ(Dragi Kocev)、スザナ・ロスコフスカ(Suzana Loskovska)、サッソ・ダッロスキー(Sáso D'zeroski)。 0.47
Hierarchical annotation of medical images. 医用画像の階層的アノテーション。 0.75
Pattern Recognition, 44(10-11): 2436–2449, October 2011. パターン認識, 44(10-11): 2436-2449, 2011年10月 0.72
ISSN 00313203. ISSN 00313203。 0.80
doi: 10.1016/j.patcog.201 1.03.026. doi: 10.1016/j.patcog.201 1.03.026。 0.17
Ross Girshick, Jeff Donahue, Trevor Darrell, and Jitendra Malik. Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik 0.34
Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. 高精度物体検出とセマンティックセグメンテーションのためのリッチ特徴階層 0.74
In 2014 IEEE Conference on Computer Vision and Pattern Recognition, pages 580–587, June 2014. 2014年6月、ieee conference on computer vision and pattern recognition 580–587ページ。 0.72
doi: 10.1109/CVPR.2014.81 . doi: 10.1109/cvpr.2014.81 。 0.40
Eleonora Giunchiglia and Thomas Lukasiewicz. Eleonora Giunchiglia and Thomas Lukasiewicz 0.34
Coherent hierarchical multi-label classification networks. コヒーレント階層型マルチラベル分類ネットワーク 0.81
In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 9662–9673. h. larochelle, m. ranzato, r. hadsell, m. f. balcan, and h. lin, editors, advances in neural information processing systems, volume 33, pages 9662–9673 ではニューラル情報処理系が進歩している。
訳抜け防止モード: H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan とH. Lin, 編集者, ニューラル情報処理システムの発展 巻33、9662-9673頁。
0.86
Curran Associates, Inc., 2020. カーラン・アソシエイツ、2020年。 0.44
Thomas Gluecker, Patrizio Capasso, Pierre Schnyder, Fran¸cois Gudinchet, Marie-Denise Schaller, Jean-Pierre Revelly, Ren´e Chiolero, Peter Vock, and St´ephan Wicky. トーマス・グルーッカー、パトリツィオ・カパッソ、ピエール・シュナイダー、フラン・シコイ・グダンチェット、マリー=デニス・シャルラー、ジャン=ピエール・レヴェリー、レン=エ・チオレロ、ピーター・ボック、セント・エファン・ウィッキー。
訳抜け防止モード: Thomas Gluecker, Patrizio Capasso, Pierre Schnyder, Fran scois Gudinchet Marie - Denise Schaller, Jean - Pierre Revelly, Ren ́e Chiolero ピーター・フォックとセント・セファン・ウィッキー。
0.84
Clinical and Radiologic Features of Pulmonary Edema. 肺浮腫の臨床と放射線学的特徴 0.76
RadioGraphics, 19(6): 1507–1531, November 1999. ラジオグラフィック、19(6)1507-1531、1999年11月。 0.65
ISSN 0271-5333. ISSN 0271-5333。 0.71
doi: 10.1148/radiographic s.19.6.g99no211507. ドイ:10.1148/ラジオグラフィ19.6.g99no211507 0.18
Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. he、xiangyu zhang、shaoqing ren、jian sunの開明。 0.54
Deep Residual Learning for Image Recogni- 画像認識のための深層残留学習 0.74
10 10 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
tion. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 770– 778, June 2016. ティメント 2016年、IEEE Conference on Computer Vision and Pattern Recognition (CVPR) にて、2016年6月770-778頁。 0.53
doi: 10.1109/CVPR.2016.90 . 10.1109/CVPR.2016.90 0.24
Michael Hind, Dennis Wei, Murray Campbell, Noel C. F. Codella, Amit Dhurandhar, Aleksandra Mojsilovi´c, Karthikeyan Natesan Ramamurthy, and Kush R. Varshney. Michael Hind, Dennis Wei, Murray Campbell, Noel C. F. Codella, Amit Dhurandhar, Aleksandra Mojsilovi ́c, Karthikeyan Natesan Ramamurthy, Kush R. Varshney
訳抜け防止モード: マイケル・ハインド、デニス・ウェイ、マレー・キャンベル、ノエル・c・f・コーデラ amit dhurandhar氏、aleksandra mojsilovi氏、karthikeyan natesan ramamurthy氏、kush r. varshney氏。
0.55
TED: Teaching AI to ExIn Proceedings of the 2019 plain its Decisions. TED: 2019年の決定の成果をAIに教える。 0.65
AAAI/ACM Conference on AI, Ethics, and Society, pages 123–129, Honolulu HI USA, January 2019. AAAI/ACM Conference on AI, Ethics, and Society, page 123-129, Honolul HI USA, January 2019 0.43
ACM. ISBN 978-1-4503-6324-2. acm。 ISBN 978-1-4503-6324-2 0.42
doi: 10. 1145/3306618.3314273 . ドイ:10です 1145/3306618.3314273 . 0.36
Steven Horng, Ruizhi Liao, Xin Wang, Sandeep Dalal, Polina Golland, and Seth J. Berkowitz. Steven Horng, Ruizhi Liao, Xin Wang, Sandeep Dalal, Polina Golland, Seth J. Berkowitz 0.38
Deep Learning to Quantify Pulmonary Edema in Chest Radiographs. 胸部X線写真における肺浮腫の定量化 0.62
Radiology: Artificial Intelligence, 3 (2):e190228, March 2021. 放射線学:人工知能、(2):e190228、2021年3月。 0.67
ISSN 2638-6100. ISSN 2638-6100。 0.35
doi: 10.1148/ryai.2021190 228. doi 10.1148/ryai.2021190 228 0.29
Alistair E. W. Johnson, Tom J. Pollard, Seth J. Berkowitz, Nathaniel R. Greenbaum, Matthew P. Lungren, Chih-ying Deng, Roger G. Mark, and Steven Horng. alistair e. w. johnson、tom j. pollard、seth j. berkowitz、nathaniel r. greenbaum、matthew p. lungren、chih-ying deng、roger g. mark、steven horng。
訳抜け防止モード: Alistair E. W. Johnson, Tom J. Pollard, Seth J. Berkowitz Nathaniel R. Greenbaum, Matthew P. Lungren, Chih - ying Deng, ロジャー・G・マーク、スティーブン・ホーン。
0.86
MIMIC-CXR, a de-identified publicly available database of chest radiographs with free-text reports. MIMIC-CXR - 胸部X線写真と自由テキストレポートのデータベース。 0.56
Scientific Data, 6(1):317, December 2019. 論文6(1):317, 2019年12月。 0.64
doi: 10.1038/ s41597-019-0322-0. doi: 10.1038/ s41597-019-0322-0。 0.20
ISSN 2052-4463. ISSN 2052-4463。 0.37
Diederik P. Kingma and Jimmy Ba. ディデリック・P・キングマとジミー・バ 0.45
Adam: A Method for Stochastic Optimization. Adam: 確率最適化の方法です。 0.67
ICLR, 2015. ICLR、2015年。 0.80
Pang Wei Koh, Thao Nguyen, Yew Siang Tang, Stephen Mussmann, Emma Pierson, Been Kim, and Percy Liang. Pang Wei Koh, Thao Nguyen, Yew Siang Tang, Stephen Mussmann, Emma Pierson, Been Kim, Percy Liang
訳抜け防止モード: pang wei koh, thao nguyen, yew siang tang, stephen mussmann エマ・ピアソン、キム、パーシー・リアン。
0.54
Concept Bottleneck Models. コンセプトボトルネックモデル。 0.74
In ICML, January 2020. ICML、2020年1月。 0.82
Tao Li, Vivek Gupta, Maitrey Mehta, and Vivek Srikumar. Tao Li、Vivek Gupta、Maitrey Mehta、Vivek Srikumar。 0.32
A Logic-Driven Framework for ConIn Proceedings of the sistency of Neural Models. ConIn Proceedings of the sistency of Neural Models の論理駆動型フレームワーク 0.74
2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3924–3935, Hong Kong, China, November 2019. 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), page 3924–3935, Hong Kong, China, November 2019
訳抜け防止モード: 2019年自然言語処理における経験的手法に関する会議と第9回自然言語処理国際共同会議(emnlp - ijcnlp) 3924-3935頁、香港、中国、2019年11月。
0.74
Association for Computational Linguistics. doi: 10.18653/v1/D19-1405 . 計算言語学会会員。 doi: 10.18653/v1/d19-1405 。 0.45
Ruizhi Liao, Jonathan E. Rubin, Grace Lam, Seth J. Berkowitz, Sandeep Dalal, William Wells, Steven Horng, and Polina Golland. Ruizhi Liao, Jonathan E. Rubin, Grace Lam, Seth J. Berkowitz, Sandeep Dalal, William Wells, Steven Horng, Polina Golland
訳抜け防止モード: ruizhi liao, jonathan e. rubin, grace lam, seth j. berkowitz, サンディープ・ダラル、ウィリアム・ウェルズ、スティーブン・ホーン、ポリナ・ゴラン。
0.62
Semi-supervised Learning for Quantification of Pulmonary Edema in Chest X-Ray Images. 胸部x線画像における肺浮腫定量化のための半教師付き学習 0.59
ArXiv, abs/1902.10785, 2019. arxiv、abs/1902.10785、2019年。 0.49
Max Losch, Mario Fritz, and Bernt Schiele. マックス・ロス、マリオ・フリッツ、バーント・シエレ。 0.64
Interpretability Beyond Classification Output: Semantic Bottleneck Networks. 分類出力を超えた解釈可能性:セマンティックボトルネックネットワーク。 0.56
arXiv:1907.10882 [cs], July 2019. arXiv:1907.10882 [cs], July 2019 0.47
Aniruddh Raghu, John Guttag, Katherine Young, Eugene Pomerantsev, Adrian V. Dalca, and Collin M. Stultz. Aniruddh Raghu、John Guttag、Katherine Young、Eugene Pomerantsev、Adrian V. Dalca、Collin M. Stultz。
訳抜け防止モード: ジョン・グットタグ キャサリン・ヤング ユージーン・ポメランツェフ adrian v. dalca と collin m. stultz 。
0.41
Learning to predict with supporting evidence: Applications to clinical risk prediction. 支持証拠による予測への学習:臨床リスク予測への応用。 0.80
In Proceedings of the Conference on Health, Inference, and Learning, pages 95–104, Virtual Event USA, April 2021. 健康、推論、学習に関する会議の議事録』95-104頁、バーチャルイベントusa、2021年4月。 0.66
ACM. ISBN 978-1-45038359-2. acm。 ISBN 978-1-45038359-2。 0.54
doi: 10.1145/3450439.3451 869. 10.1145/3450439.3451 869 0.27
Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. Marco Tulio Ribeiro、Sameer Singh、Carlos Guestrin。 0.64
”Why Should I Trust You? なぜあなたを信頼すべきなのか? 0.66
”: Explaining the Predictions of Any Classifier. ”: Any Classifierの予測を説明する。 0.81
In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’16, pages 1135–1144, New York, NY, USA, August 2016. 第22回ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD'16, page 1135–1144, New York, NY, USA, August 2016 に参加して 0.85
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
ISBN 978-1-4503-4232-2. ISBN 978-1-4503-4232-2 0.19
doi: 10.1145/2939672.2939 778. doi: 10.1145/2939672.2939 778。 0.52
Ramprasaath R. Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, and Dhruv Batra. Ramprasaath R. Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, Dhruv Batra 0.38
Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization. Grad-CAM: Gradientベースのローカライゼーションによるディープネットワークからのビジュアル説明。 0.62
International Journal of Computer Vision, 2016. International Journal of Computer Vision, 2016 (英語) 0.82
doi: 10.1007/s11263-019-0 1228-7. doi: 10.1007/s11263-019-0 1228-7。 0.18
ISSN 0920-5691, 1573-1405. ISSN 0920-5691, 1573-1405 0.37
Jonatas Wehrmann, Ricardo Cerri, and Rodrigo Barros. Joatas Wehrmann, Ricardo Cerri, Rodrigo Barros 0.28
Hierarchical Multi-Label Classification NetIn International Conference on Machine works. 階層型マルチラベル分類NetIn International Conference on Machine Works 0.40
Learning, pages 5075–5084. 5075-5084頁。 0.23
PMLR, July 2018. 2018年7月、PMLR。 0.62
Jingyi Xu, Zilu Zhang, Tal Friedman, Yitao Liang, and Guy Broeck. ジンギ・クウ、ジル・ジャン、タル・フリードマン、イタオ・リアン、ガイ・ブローク。 0.44
A Semantic Loss Function for Deep Learning with Symbolic Knowledge. 記号知識を用いた深層学習における意味的損失関数 0.78
In Proceedings of the 35th International Conference on Machine Learning, pages 5502–5511. 第35回機械学習国際会議紀要5502-5511頁。 0.60
PMLR, July 2018. 2018年7月、PMLR。 0.62
Zhicheng Yan, Hao Zhang, Robinson Piramuthu, Vignesh Jagadeesh, Dennis DeCoste, Wei Di, and Yizhou Yu. Zhicheng Yan, Hao Zhang, Robinson Piramuthu, Vignesh Jagadeesh, Dennis DeCoste, Wei Di, Yizhou Yu
訳抜け防止モード: Zhicheng Yan, Hao Zhang, Robinson Piramuthu, Vignesh Jagadeesh デニス・デコート(Dennis DeCoste)、ワイ・ディ(Wei Di)、ユー(Yizhou Yu)。
0.66
HD-CNN: Hierarchical Deep Convolutional Neural Networks for Large Scale Visual In 2015 IEEE International ConRecognition. HD-CNN: 2015年のIEEE International Conrecognitionにおいて、大規模ビジュアルのための階層的な深層畳み込みニューラルネットワーク。 0.60
ference on Computer Vision (ICCV), pages 2740– 2748, Santiago, Chile, December 2015. en:ference on computer vision (iccv), pages 2740–2748, santiago, chile, 2015年12月。 0.81
IEEE. ISBN 978-1-4673-8391-2. IEEE。 ISBN 978-1-4673-8391-2 0.30
doi: 10.1109/ICCV.2015.31 4. doi: 10.1109/iccv.2015.31 4。 0.39
Omar Zaidan, Jason Eisner, and Christine Piatko. オマール・ザイダン、ジェイソン・アイズナー、クリスティーヌ・ピアトコ。 0.50
Using “Annotator Rationales” to Improve Ma- アノテーションの合理化」を使ってMaを改善する 0.61
11 11 0.43
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
In Huchine Learning for Text Categorization. テキスト分類のためのハチネス学習 0.66
man Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference, pages 260–267, Rochester, New York, April 2007. Man Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference, pages 260-267, Rochester, New York, 2007年4月
訳抜け防止モード: Man Language Technologies 2007 : The Conference of the North American Chapter of the Association for Computational Linguistics ; Proceedings of the Main Conference 260-267頁、ロチェスター、ニューヨーク、2007年4月。
0.81
Association for Computational Linguistics. Ye Zhang, Iain Marshall, and Byron C. Wallace. 計算言語学会会員。 イ・チャン、イアン・マーシャル、バイロン・c・ウォレス。 0.45
Rationale-Augmented Convolutional Neural NetIn Proceedings of works for Text Classification. テキスト分類のための研究の合理化・畳み込み型ニューラルネインプロシージャ 0.57
the 2016 Conference on Empirical Methods in Natural Language Processing, pages 795–804, Austin, Texas, November 2016. 2016 conference on empirical methods in natural language processing, pages 795–804, austin, texas, november 2016 (英語) 0.43
Association for Computational Linguistics. doi: 10.18653/v1/D16-1076 . 計算言語学会会員。 10.18653/v1/D16-1076 。 0.43
Bolei Zhou, Aditya Khosla, Agata Lapedriza, Aude Oliva, and Antonio Torralba. Bolei Zhou、Aditya Khosla、Agata Lapedriza、Aude Oliva、Antonio Torralba。 0.67
Learning Deep FeaIn 2016 tures for Discriminative Localization. Deep FeaIn 2016年、差別的ローカライゼーションのためのチュール。 0.54
IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 2921–2929, Las Vegas, NV, USA, June 2016. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), page 2921–2929, Las Vegas, NV, USA, June 2016
訳抜け防止モード: ieee conference on computer vision and pattern recognition (cvpr) 2921-2929頁、ラスベガス、nv、アメリカ、2016年6月。
0.66
IEEE. ISBN 978-14673-8851-1. IEEE。 ISBN 978-14673-8851-1。 0.32
doi: 10.1109/CVPR.2016.31 9. 10.1109/CVPR.2016.31 9 0.23
Appendix A. Table for Figure 5. Appendix A. Table for Figure 5 (英語) 0.84
Table 4 provides detailed numbers on inconsistency and performance. 表4は一貫性と性能に関する詳細な数値を提供する。 0.57
Appendix B. Training with Soft appendix b. ソフトトレーニング 0.55
Regularizer We compare behavior of model trained using hard regularizers R1(θ),R2(θ) versus the soft regularizers ˜R1(θ), ˜R2(θ). 正規化 ハード正則化 R1(θ),R2(θ) を用いて訓練されたモデルの挙動をソフト正則化 >R1(θ), >R2(θ) を用いて比較する。 0.61
In Figure 6, we note that the soft regularizers reduce model inconsistency while maintain model consistency in a similar manner to hard regularizers. 図6では、ソフトな正則化器はハードな正則化器と同様の方法でモデルの整合性を保ちながらモデルの整合性を低下させる。 0.61
Unlike those trained with hard regularizers, models trained with soft regularizers seem to avoid the decrease in performance for evidence detection. ハード正則化器で訓練されたモデルとは異なり、ソフト正則化器で訓練されたモデルは証拠検出の性能低下を避けるように思われる。 0.48
12 12 0.42
英語(論文から抽出)日本語訳スコア
Image Classification with Consistent Supporting Evidence 一貫した支持証拠を用いた画像分類 0.66
Table 4: The effect of regularization on model inconsistency and performance of predicting task label y and evidence label 表4:正規化がモデル不整合とタスクラベルyとエビデンスラベルの予測性能に及ぼす影響 0.69
z. ∗ stands for baseline model that is trained to predict task label z. ∗ はタスクラベルを予測するために訓練されたベースラインモデルを表す 0.66
y. Standard deviation is shown after ±. y.標準偏差は±の後に示される。 0.73
We notice dramatic decrease in model inconsistency and competitive performance for the regularized model. 正規化モデルに対するモデル不整合と競合性能の劇的な低下に気付く。 0.74
ω1, ω2 R1( ˆD) R2( ˆD) acc (y) auc (y) ω1, ω2 r1(-d) r2(-d) acc (y) auc (y) 0.45
acc (vascular congestion) acc (hilar congestion) acc (peribronchial cuffing) acc (septal lines) acc (interstitial abnormality) acc (air bronchograms) acc (parenchymal opacity) acc (複数形 accs または acc (複数形 accs または accs または accs) 0.32
* 0.524 ± 0.017 0.836 ± 0.008- * 0.524 ± 0.017 0.836 ± 0.008- 0.34
0.0,0.0 0.507 ± 0.084 0.048 ± 0.011 0.524 ± 0.005 0.852 ± 0.004 0.795 ± 0.018 0.771 ± 0.047 0.804 ± 0.041 0.869 ± 0.010 0.649 ± 0.011 0.863 ± 0.019 0.706 ± 0.018 0.0,0.0 0.507 ± 0.084 0.048 ± 0.011 0.524 ± 0.005 0.852 ± 0.004 0.795 ± 0.018 0.771 ± 0.047 0.804 ± 0.041 0.869 ± 0.010 0.649 ± 0.011 0.863 ± 0.019 0.706 ± 0.018 0.24
3.0,3.0 0.277 ± 0.103 0.023 ± 0.019 0.523 ± 0.008 0.865 ± 0.004 0.793 ± 0.026 0.801 ± 0.031 0.802 ± 0.032 0.859 ± 0.043 0.647 ± 0.002 0.881 ± 0.030 0.764 ± 0.020 3.0,3.0 0.277 ± 0.103 0.023 ± 0.019 0.523 ± 0.008 0.865 ± 0.004 0.793 ± 0.026 0.801 ± 0.031 0.802 ± 0.032 0.859 ± 0.043 0.647 ± 0.002 0.881 ± 0.030 0.764 ± 0.020 0.24
10.0,6.0 0.218 ± 0.205 0.030 ± 0.023 0.512 ± 0.014 0.862 ± 0.002 0.777 ± 0.005 0.759 ± 0.016 0.795 ± 0.026 0.796 ± 0.037 0.630 ± 0.014 0.888 ± 0.015 0.756 ± 0.009 10.0,6.0 0.218 ± 0.205 0.030 ± 0.023 0.512 ± 0.014 0.862 ± 0.002 0.777 ± 0.005 0.759 ± 0.016 0.795 ± 0.026 0.796 ± 0.037 0.630 ± 0.014 0.888 ± 0.015 0.756 ± 0.009 0.24
30.0,10.0 0.112 ± 0.049 0.019 ± 0.007 0.499 ± 0.022 0.846 ± 0.006 0.763 ± 0.015 0.679 ± 0.040 0.789 ± 0.040 0.845 ± 0.023 0.606 ± 0.006 0.860 ± 0.018 0.738 ± 0.009 30.0,10.0 0.112 ± 0.049 0.019 ± 0.007 0.499 ± 0.022 0.846 ± 0.006 0.763 ± 0.015 0.679 ± 0.040 0.789 ± 0.040 0.845 ± 0.023 0.606 ± 0.006 0.860 ± 0.018 0.738 ± 0.009 0.24
Figure 6: The effect of regularization on model inconsistency (left 2) and performance of predicting task label y (middle 2) and evidence labels z (right 2), when model is trained using the hard regularizers R1(θ),R2(θ) (top) versus the soft regularizers ˜R1(θ), ˜R2(θ) (bottom). 図6: モデルの不整合(左2)とタスクラベルy(中)とエビデンスラベルz(右2)に対する正規化の効果 ハード正規化器r1(θ),r2(θ)(トップ)とソフト正規化器sr1(θ),r2(θ)(ボット)を用いてモデルが訓練された場合。 0.74
Here R1,R2 is short hand for R1( ˆD),R2( ˆD), respectively. ここで、R1,R2は、それぞれR1(n) とR2(n) の短手である。 0.74
13 13 0.85
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。