論文の概要、ライセンス

# (参考訳) 視覚処理におけるフィードバックの役割--予測的符号化の視点から [全文訳有]

On the role of feedback in visual processing: a predictive coding perspective ( http://arxiv.org/abs/2106.04225v1 )

ライセンス: CC BY 4.0
Andrea Alamia, Milad Mozafari, Bhavin Choksi and Rufin VanRullen(参考訳) 脳にインスパイアされた機械学習は、特にコンピュータビジョンにおいて考慮されつつある。 いくつかの研究では、畳み込みネットワークにトップダウンフィードバック接続が組み込まれていることが研究されているが、これらの接続が機能的に有用であるかどうかは不明である。 ここでは,雑音条件下での物体認識の文脈において,この問題に対処する。 我々は,深層畳み込みネットワーク(cnns)をフィードフォワード視覚処理のモデルと考え,クリーン画像の再構成や分類のために訓練されたフィードバック接続(予測フィードバック)を通じて予測符号化(pc)ダイナミクスを実装する。 種々の実験状況下での予測フィードバックの計算的役割を直接評価するために,ネットワークのリカレントダイナミクスを制御するハイパーパラメータを最適化し,解釈する。 つまり、トップダウン接続と予測コーディングダイナミクスが機能的に有益かどうかを最適化プロセスに判断させます。 異なるモデルの深さとアーキテクチャ(3層cnn, resnet18, efficientnetb0)と様々なタイプのノイズ(cifar100-c)に対して、ネットワークはノイズレベルが増加するにつれてトップダウンの予測にますます依存していることがわかった。 さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。 総じて,感覚系におけるフィードバック接続の計算的役割を確認することによって,神経科学に関連する新たな知見を与えるとともに,これらが現在の視覚モデルのロバスト性を改善する方法を明らかにすることによって,機械学習に寄与する。

Brain-inspired machine learning is gaining increasing consideration, particularly in computer vision. Several studies investigated the inclusion of top-down feedback connections in convolutional networks; however, it remains unclear how and when these connections are functionally helpful. Here we address this question in the context of object recognition under noisy conditions. We consider deep convolutional networks (CNNs) as models of feed-forward visual processing and implement Predictive Coding (PC) dynamics through feedback connections (predictive feedback) trained for reconstruction or classification of clean images. To directly assess the computational role of predictive feedback in various experimental situations, we optimize and interpret the hyper-parameters controlling the network's recurrent dynamics. That is, we let the optimization process determine whether top-down connections and predictive coding dynamics are functionally beneficial. Across different model depths and architectures (3-layer CNN, ResNet18, and EfficientNetB0) and against various types of noise (CIFAR100-C), we find that the network increasingly relies on top-down predictions as the noise level increases; in deeper networks, this effect is most prominent at lower layers. In addition, the accuracy of the network implementing PC dynamics significantly increases over time-steps, compared to its equivalent forward network. All in all, our results provide novel insights relevant to Neuroscience by confirming the computational role of feedback connections in sensory systems, and to Machine Learning by revealing how these can improve the robustness of current vision models.
公開日: Tue, 8 Jun 2021 10:07:23 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] V C . 8 ] 略称はC。 0.73
s c [ 1 v 5 2 2 4 0 sc [ 1 v 5 2 2 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
On the role of feedback in visual processing: a 視覚処理におけるフィードバックの役割について:a 0.83
predictive coding perspective 予測的コーディングの観点 0.65
Andrea Alamia∗ アンドレア・アラミア∗ 0.50
CerCo, CNRS, 31052 Toulouse, France CerCo, CNRS, 31052 トゥールーズ, フランス 0.81
andrea.alamia@cnrs.f r andrea.alamia@cnrs.f r 0.59
Milad Mozafari* Milad Mozafari* 0.85
CerCo, CNRS, 31052 Toulouse, France IRIT, CNRS, 31062, Toulouse, France CerCo, CNRS, 31052 トゥールーズ, フランス IRIT, CNRS, 31062 トゥールーズ, フランス 0.74
milad.mozafari@cnrs. fr milad.mozafari@cnrs. fr 0.59
Bhavin Choksi bhavin choksi氏 0.69
CerCo, CNRS, 31052 Toulouse, France CerCo, CNRS, 31052 トゥールーズ, フランス 0.81
bhavin.choksi@cnrs.f r bhavin.choksi@cnrs.f r 0.59
Rufin VanRullen CerCo, CNRS, 31052 Toulouse, France Rufin Rön CerCo, CNRS, 31052 トゥールーズ, フランス 0.71
ANITI, Université de Toulouse, 31062, France ANITI, Université de Toulouse, 31062, フランス 0.81
rufin.vanrullen@cnrs .fr rufin.vanrullen@cnrs .fr 0.59
Abstract Brain-inspired machine learning is gaining increasing consideration, particularly in computer vision. 概要 脳にインスパイアされた機械学習は、特にコンピュータビジョンにおいて考慮されつつある。 0.52
Several studies investigated the inclusion of top-down feedback connections in convolutional networks; however, it remains unclear how and when these connections are functionally helpful. いくつかの研究では、畳み込みネットワークにトップダウンフィードバック接続が組み込まれていることが研究されているが、これらの接続が機能的に有用であるかどうかは不明である。
訳抜け防止モード: 畳み込みネットワークにおけるトップダウンフィードバック接続の包摂性に関する研究 しかし、これらの接続が機能的にどのように、いつ役に立つのかは不明だ。
0.57
Here we address this question in the context of object recognition under noisy conditions. ここでは,雑音条件下での物体認識の文脈において,この問題に対処する。 0.60
We consider deep convolutional networks (CNNs) as models of feed-forward visual processing and implement Predictive Coding (PC) dynamics through feedback connections (predictive feedback) trained for reconstruction or classification of clean images. 我々は,深層畳み込みネットワーク(cnns)をフィードフォワード視覚処理のモデルと考え,クリーン画像の再構成や分類のために訓練されたフィードバック接続(予測フィードバック)を通じて予測符号化(pc)ダイナミクスを実装する。 0.76
To directly assess the computational role of predictive feedback in various experimental situations, we optimize and interpret the hyper-parameters controlling the network’s recurrent dynamics. 各種実験状況における予測フィードバックの計算的役割を直接評価するために,ネットワークのリカレントダイナミクスを制御するハイパーパラメータを最適化し,解釈する。 0.84
That is, we let the optimization process determine whether top-down connections and predictive coding dynamics are functionally beneficial. つまり、トップダウン接続と予測コーディングダイナミクスが機能的に有益かどうかを最適化プロセスに判断させます。 0.69
Across different model depths and architectures (3-layer CNN, ResNet18, and EfficientNetB0) and against various types of noise (CIFAR100-C), we find that the network increasingly relies on top-down predictions as the noise level increases; in deeper networks, this effect is most prominent at lower layers. 異なるモデルの深さとアーキテクチャ(3層cnn, resnet18, efficientnetb0)と様々なタイプのノイズ(cifar100-c)に対して、ネットワークはノイズレベルが増加するにつれてトップダウンの予測にますます依存していることがわかった。 0.72
In addition, the accuracy of the network implementing PC dynamics significantly increases over time-steps, compared to its equivalent forward network. さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。 0.88
All in all, our results provide novel insights relevant to Neuroscience by confirming the computational role of feedback connections in sensory systems, and to Machine Learning by revealing how these can improve the robustness of current vision models. 総じて,感覚系におけるフィードバック接続の計算的役割を確認することによって,神経科学に関連する新たな知見を与えるとともに,これらが現在の視覚モデルのロバスト性を改善する方法を明らかにすることによって,機械学習に寄与する。
訳抜け防止モード: 総じて、我々の結果は神経科学に関する新しい知見を提供する。 感覚システムにおけるフィードバック接続の 計算的役割を確認します 機械学習に 現在の視覚モデルの頑丈さを いかに改善できるかを明らかにすることです
0.78
1 Introduction Feed-forward deep convolutional networks (DCNs) reached remarkable accuracy in several visual tasks, including image classification. 1 はじめに フィードフォワード深層畳み込みネットワーク(DCN)は、画像分類を含む視覚的タスクにおいて顕著な精度に達した。 0.70
Interestingly, DCNs share several similarities with biological visual systems. 興味深いことに、DCNは生物学的視覚システムといくつかの類似点を共有している。 0.42
For example, both systems have a hierarchical structure, in which neurons in the higher (lower) levels of the hierarchy have larger (smaller) receptive field sizes and respond to more complex (simpler) stimuli [1]. 例えば、両方の系は階層構造を持ち、階層の上位(より低い)レベルのニューロンはより大きい(より小さい)受容野の大きさを持ち、より複雑な(より単純な)刺激に反応する[1]である。 0.75
Further, representational [2] and functional similarities [3] between the feed-forward DCNs and the brain’s feed-forward visual pathway have provided novel opportunities to study the brain through the lens of DCNs. さらに、フィードフォワードDCNと脳のフィードフォワード視覚経路との間の表現的[2]と機能的類似性[3]は、DCNのレンズを通して脳を研究する新しい機会となった。 0.86
∗Equal Contribution ∗Equal Contribution 0.88
Preprint. Under review. プレプリント。 レビュー中。 0.63
英語(論文から抽出)日本語訳スコア
However, contrary to biological visual systems, DCNs blunder significantly when confronted with noisy images and adversarial attacks, revealing an important deficit in robustness [4, 5, 6]. しかし, 生体視覚システムとは対照的に, 雑音画像や敵対的攻撃に直面すると, dcnsは著しく鈍化し, 頑健性の欠如がみられた [4, 5, 6]。 0.73
One main difference with their biological counterpart consists in the lack of recurrent or feedback connections. 生物学的な違いの1つは、リカレント接続やフィードバック接続の欠如である。 0.68
It has been shown that the brain relies on feedback pathways for robust object recognition under challenging conditions [7, 8, 9, 10, 11]. 難易度 [7, 8, 9, 10, 11] では,脳はロバストな物体認識のためのフィードバック経路に依存していることが示されている。
訳抜け防止モード: 脳は困難条件下でロバストな物体認識のためのフィードバック経路に依存していることが示されている[7]。 8 , 9 , 10 , 11 ] .
0.83
In recent years, several approaches aimed to introduce feedback connections in deep networks to improve not only biological plausibility but also model robustness, and accuracy [12, 13, 14, 15]. 近年,生体適合性だけでなく,ロバスト性,精度(12,13,14,15)をモデル化するために,深層ネットワークにフィードバック接続を導入するアプローチがいくつかある。 0.82
Importantly, feedback connections can be trained either in a supervised fashion to optimize the task objective (e g , object recognition) or in an unsupervised way to minimize the reconstruction errors (i.e., prediction errors). 重要なのは、タスクの目的(オブジェクト認識など)を最適化するために教師ありの方法で、あるいは再構成エラー(すなわち予測エラー)を最小化する教師なしの方法で、フィードバック接続をトレーニングできることです。 0.66
In the latter case, feedback connections are trained to predict the activity of lower layers, and the network can be described as a hierarchical generative model. 後者の場合、フィードバック接続は下層の活動を予測するために訓練され、ネットワークは階層的生成モデルとして記述できる。 0.71
More generally, top-down predictions represent prior expectations about lower layers activity, updated based on the incoming sensory evidence over iterations. より一般的には、トップダウンの予測は、イテレーションよりもやってくる知覚的エビデンスに基づいて更新される下位層のアクティビティに対する事前の期待を表している。
訳抜け防止モード: より一般的に、トップダウン予測は下位層のアクティビティに対する事前の期待を表している。 繰り返しの感覚的証拠に基づいて 更新された
0.54
This interpretation about the role of top-down connections finds its natural place in a prominent framework in Neuroscience, namely Predictive Coding [16, 17]. トップダウン接続の役割に関するこの解釈は、神経科学の顕著な枠組み、すなわち予測符号化(Predictive Coding) [16, 17]において、その自然な位置を見出している。
訳抜け防止モード: トップダウン接続の役割に関するこの解釈は、神経科学の卓越した枠組みの中で自然の場所を見つける。 予測符号化 [16 , 17 ]
0.68
The Predictive Coding (PC) paradigm in Neuroscience is endorsed by a large body of neuroscientific experimental evidence [18, 19, 20, 21]. 神経科学における予測符号化(PC)パラダイムは、多くの神経科学実験証拠[18, 19, 20, 21]によって支持されている。 0.68
It characterizes perception as an inference process in which sensory information is combined with prior expectations to attain the final percept. 感覚情報が最終知覚に達するための事前の期待と組み合わされる推論プロセスとして知覚を特徴付ける。 0.68
Accordingly, PC postulates two fundamental terms: predictions and prediction errors (PEs). したがって、PCは予測と予測エラー(PE)という2つの基本的な用語を仮定する。 0.65
Considering the visual system as a hierarchical structure, these two signals interact between subsequent brain regions in an iterative process. 視覚系を階層構造として考えると、これらの2つの信号は反復的なプロセスで後続の脳領域の間で相互作用する。 0.64
Ideally, the interplay between feedback predictions and feed-forward PEs converges over iterations into a state in which predictions fully represent the sensory information and PE falls to zero. 理想的には、フィードバック予測とフィードフォワードPEの相互作用は繰り返しに収束し、予測は感覚情報を完全に表現し、PEはゼロになる。 0.63
Although several models implemented and described this dynamic in different conditions [22, 23, 24], the functional role of these two main actors remains largely unexplored. 異なる条件 [22, 23, 24] でこれを実装し記述したモデルがいくつかあるが、これらの2つの主要なアクターの機能的役割はほとんど解明されていない。
訳抜け防止モード: いくつかのモデルは異なる条件[22, 23, 24]でこれを実装し記述した。 この2人の主役の役割は 明らかにされていない
0.69
Here, we address this question by taking a computational perspective and leveraging current state-ofthe-art deep neural networks used in visual object recognition. 本稿では,この課題を計算的な視点から解決し,視覚物体認識に使用される最先端のディープニューラルネットワークを活用することで解決する。 0.63
The key insight in our approach consists in letting the network decide for itself (through hyper-parameter optimization) whether top-down connections are functionally beneficial; we then evaluate the outcome across various experimental (noise) conditions. 私たちのアプローチにおける重要な洞察は、トップダウン接続が機能的に有益かどうか(ハイパーパラメータ最適化を通じて)ネットワーク自身を判断できるようにすることにあります。 0.72
On the one hand, from a Neuroscience point of view, our results supported the hypothesis that feedback plays a crucial role in the cortical processes involved in biological vision. 一方,神経科学的な観点からは,生体視覚に関わる皮質過程においてフィードバックが重要な役割を担っているという仮説を支持した。 0.76
On the other hand, from a machine learning perspective, our simulations demonstrated a more robust class of models based on an established biologically inspired framework. 一方,機械学習の観点からは,確立された生物学的にインスパイアされたフレームワークに基づいた,より堅牢なモデルのクラスがシミュレーションによって実証された。 0.68
2 Methods 2.1 Predictive Coding Dynamics 2つの方法 2.1 予測符号化ダイナミクス 0.65
Irrespective of the considered architecture, we implemented the proposed predictive coding dynamics through a stack of modules called PCoders. 検討したアーキテクチャに関わらず,pcodersと呼ばれるモジュールのスタックを通じて,提案する予測符号化ダイナミクスを実装した。 0.69
The activity of each PCoder mi at time-step t is driven by four terms, as described in the following equation: 時間ステップ t における各 PCoder mi の活動は、以下の式に示す4つの項によって駆動される。 0.78
mi(t + 1) = µmi(t) + γFi(mi−1(t + 1), θf f mi(t + 1) = μmi(t) + γFi(mi−1(t + 1), θf f 0.99
i ) + βBi+1(mi+1(t), θf b i) + βBi+1(mi+1(t), θf b 0.84
i+1) − α∇i(t), i+1) − α(t) 0.90
(1) i(t) = MSE(Bi(mi(t), θf b (1) yi(t) = MSE(Bi(mi(t), θf b 0.83
i i ), mi−1(t)), 私は i) mi−1(t)) 0.61
(2) , and Bi+1 computes i+1 given mi+1. 2) と Bi+1 は mi+1 の i+1 を計算する。 0.69
The gradient ∇i(t) is calculated 勾配 i(t) が計算される 0.80
where Fi computes the feed-forward drive of the ith PCoder with parameters θf f the feedback drive (prediction) with parameters θf b with respect to the activity of the higher layer (mi(t)) as suggested in predictive coding theory. Fi は ith PCoder のフィードフォワードドライブをパラメータ θf f で計算し、パラメータ θf b でパラメータ θf b を予測符号化理論で示唆されるような高層 (mi(t)) の活動について計算する。 0.77
A specific hyper-parameter modulates each term. 特定のハイパーパラメータは各項を変調する。 0.68
First, each PCoder’s activity is initialized by a feedforward pass, i.e., without considering memory or top-down connections, in line with experimental observations in biological visual systems [25, 26]. 第一に、各PCoderのアクティビティは、例えば、メモリやトップダウン接続を考慮せずにフィードフォワードパスによって初期化され、生物学的視覚系における実験的な観察 [25, 26]。 0.78
Then, at successive time-steps, the activity is determined by several terms. そして、連続する時間ステップにおいて、アクティビティを複数の用語で決定する。 0.64
First, a memory term, regulated by the µ hyper-parameter, that retains information from previous time-steps, essentially acting as a time constant. まず、μハイパーパラメータによって制御されるメモリ用語は、基本的に時間定数として振る舞う以前の時間ステップの情報を保持する。 0.72
The γ and β hyperparameters modulate the feed-forward drive and feedback error terms, which reflect information from the lower and higher layers, respectively. γハイパーパラメータとβハイパーパラメータはフィードフォワード駆動とフィードバックエラー項を変調し、それぞれ下位層と上位層からの情報を反映する。 0.78
The modulation of the first three terms is normalized, i.e. 最初の3つの項の変調は正規化される。 0.81
β + γ + µ = 1. β + γ + µ = 1. 0.85
Lastly, the α hyper-parameter modulates the feed-forward error term, which 最後に、αハイパーパラメータはフィードフォワードエラー項を変調する。 0.65
2 2 0.85
英語(論文から抽出)日本語訳スコア
aims at reducing the prediction-error, i.e. 予測エラーを減らすことを目的としています。 0.59
the mean squared error (MSE) between the prediction by a PCoder and the activity of the lower one (or the “input stimuli” in case of the first PCoder). 平均二乗誤差(MSE)は、PCoderによる予測と下方の動き(第1のPCoderの場合は「入力刺激」)の間の誤差である。 0.68
As an implementation detail, we multiply α by a scaling factor (see Appendix A.2) to remove the effect of batch, layer, and (de)convolution kernel size. 実装の詳細として、我々は、バッチ、レイヤ、および(de)畳み込みカーネルサイズの影響を取り除くために、スケーリング係数でαを乗算する(Appendix A.2)。 0.64
As postulated by predictive coding formulation, the feedback and feed-forward error terms regulate each PCoder’s activity to reduce prediction-errors over time. 予測符号の定式化によって仮定されたように、フィードバックとフィードフォワードエラー項は各pcoderのアクティビティを規制し、時間とともに予測エラーを減らす。 0.59
Importantly, the dynamic described above is equivalent to the one proposed by Rao and Ballard in 1999 [17], with the only difference being the feed-forward term (for the mathematical proof see [27]). 重要なことに、上述の力学はラオとバラードが1999 [17] で提唱したものと同値であり、唯一の違いはフィードフォワード項である(数学的証明については [27] を参照)。 0.59
2.2 Architectures 2.2 アーキテクチャ 0.65
Shallow model We first implemented a shallow three-layer CNN with two additional dense layers having 120 and 10 neurons, respectively. 浅層モデル まず、120と10のニューロンを持つ2つの高密度層を持つ浅い3層CNNを実装した。 0.66
As shown in figure 1A, the convolutional layers have 12, 18 and 24 channels and a kernel size equal to 5 × 5. 図1Aに示すように、畳み込み層は12と18と24のチャネルを持ち、カーネルサイズは5×5である。 0.76
Max-pooling operations with stride equal to 2 were applied from lower to higher layers. ストライドが2に等しい最大プール操作を低層から高層に適用した。 0.72
In this network, we consider each convolutional layer as a PCoder which predicts the lower one’s activity through a bilinear upsampling operation with scale factor equal to 2, followed by a transposed convolutional layer with window size equal to 3 × 3. このネットワークでは,各畳み込み層をPCoderとみなし,2倍のスケール係数を持つ双線形アップサンプリング操作により,ウィンドウサイズが3×3の転置畳み込み層を導出する。
訳抜け防止モード: 本ネットワークでは,各畳み込み層をPCoderとみなし,2 倍のスケール係数をもつ双線形アップサンプリング操作により,下層の活性を予測する。 次に、ウィンドウサイズが3×3に等しい転位した畳み込み層が続く。
0.82
The number of channels for the transposed convolution is set in accordance to the prediction target. 変換された畳み込みのチャンネル数は予測対象に応じて設定される。 0.65
Extending to Deep Architectures Given a very deep architecture, it is not computationally efficient to have every layer predicting the preceding one. 深いアーキテクチャへの拡張 非常に深いアーキテクチャが与えられた場合、全ての層に前のアーキテクチャを予測させる計算効率は高くありません。 0.67
Instead, we decided to add PC dynamics to blocks of layers (i.e. 代わりに、レイヤのブロック(つまり)にPCダイナミックスを追加することにしました。 0.58
each PCoder is a sequence of layers). 各PCoderはレイヤのシーケンスである)。 0.66
We took advantage of “Predify”, a python package introduced in [27], that allows to introduce PC dynamics in pre-trained feed-forward networks. トレーニング済みフィードフォワードネットワークにPCダイナミクスを導入することが可能な[27]に導入されたピソンパッケージである“Predify”を活用しました。 0.74
In the present paper, we introduce PResNet18 and PEffNetB0 by adding the proposed PC dynamics to feed-forward ResNet18 and EfficientNetB0 architectures, respectively. 本稿では,提案するpcダイナミクスをfeed-forward resnet18 と efficientnetb0 アーキテクチャにそれぞれ加えることにより,presnet18 と peffnetb0 を紹介する。 0.68
To explore more diversity over input images and network depth, we examined PResNet18 and PEffNetB0 on CIFAR100 and ImageNet, respectively. 入力画像とネットワーク奥行きの多様性を調べるため,それぞれcifar100とimagenet上のpresnet18とpeffnetb0を調査した。 0.68
For PEffNetB0 we used the original EfficientNetB0 architecture with pretrained weights on ImageNet as the feed-forward backbone; However, in order to improve ResNet18 performance on small CIFAR100 images, we lowered the kernel size of the first convolutional layer to 3 × 3 and omitted its following max-pooling layer to prevent information loss in early layers. peffnetb0 では、imagenet をフィードフォワードバックボーンとしてプリトレーニングしたオリジナルの efficientnetb0 アーキテクチャを使用しましたが、小さな cifar100 イメージでの resnet18 のパフォーマンスを改善するため、第1畳み込み層のカーネルサイズを 3 × 3 に削減し、次の max-pooling 層を省略して、初期のレイヤにおける情報損失を防止しました。 0.65
We implemented the block-wise PC dynamics into ResNet18 and EfficientNetB0 by splitting their layers into five and eight PCoders, respectively (see supplementary section A.1). resnet18 と efficientnetb0 にブロック単位の pc ダイナミクスをそれぞれ 5 層と 8 層に分けて実装した(補足節 a.1)。 0.78
Regardless of the feed-forward architecture, we used a general procedure to define the feed-forward (F) and feedback (B) drive modules. フィードフォワードアーキテクチャにかかわらず、フィードフォワード(F)およびフィードバック(B)ドライブモジュールを定義するために一般的な手順を用いた。 0.78
Assume that there are n blocks of layers in the feed-forward network. フィードフォワードネットワークにはnブロックのレイヤが存在すると仮定する。 0.68
Let y = fi(x) denote the computation done by block i where x and y have the size (cin, hin, win) and (cout, hout, wout), respectively. y = fi(x) は x と y がそれぞれサイズ (cin, hin, win) と (cout, hout, wout) を持つブロック i によって行われる計算を表す。 0.76
Then, Fi is fi and Bi is a 2D up-scaling operation by the factor of (hin/hout, win/wout) followed by a transposed convolutional layer with cout channels and 3 × 3 window size. fi は fi で、bi は (hin/hout, win/wout) の係数と cout チャネルと 3 × 3 のウィンドウサイズを持つ変換された畳み込み層による2次元のスケールアップ演算である。 0.76
2.3 Training Parameters 2.3 トレーニングパラメータ 0.75
i ) parameters separately with different loss functions. i) 異なる損失関数を持つパラメータ。 0.72
First, we trained θf f まず θf f を訓練し 0.76
Supervised feed-forward In both shallow and deep models we trained the feed-forward (θf f ) and i feedback (θf b to optimize the cross-entropy loss (classification) without using the iterative PC dynamics (i.e., in one forward pass). 浅層モデルと深層モデルの両方で教師ありフィードフォワード(θf f)とiフィードバック(θf b)を訓練し、反復的なpcダイナミクス(つまり1回のフォワードパス)を使わずにクロスエントロピー損失(分類)を最適化した。 0.71
Accordingly, we used a cross-entropy loss with Stochastic Gradient Descent (SGD) optimizer for the shallow model with learning rate 0.01 and momentum 0.9. その結果, 学習速度0.01, 運動量0.9の浅いモデルに対して, 確率勾配Descent (SGD) オプティマイザを用いたクロスエントロピー損失を用いた。 0.69
In the case of deep networks, we trained the modified ResNet18 on CIFAR100 training images for 200 epochs using SGD optimizer with initial learning rate 0.1, momentum 0.9, and weight decay 5e-4. 深層ネットワークの場合,初期学習率0.1,運動量0.9,体重減衰5e-4のSGDオプティマイザを用いて,CIFAR100トレーニング画像の修正ResNet18を200エポックで訓練した。 0.72
We applied learning rate decay factor 0.2 at epochs 60, 120, and 160. 学習速度減衰係数 0.2 をエポック60, 120, 160 に応用した。 0.76
For PeffNetB0, we used the pretrained ImageNet model described in [28]. PeffNetB0の場合、[28]で記述された事前訓練されたImageNetモデルを使用しました。 0.58
i Unsupervised feedback Next, we optimized θf b i s with reconstruction objectives, that is the MSE between the activity of PCoders and their top-down reconstruction on the next time-step. 私は 次に、教師なしのフィードバックにより、次の時間ステップでpコーダのアクティビティとトップダウンのリコンストラクションの間のmseであるθf b i sを最適化した。 0.51
This unsupervised approach is akin to a generative process, in which higher layers predict the activity of lower layers, in line with the predictive coding framework. この教師なしのアプローチは、予測的コーディングフレームワークに従って、上位層が下位層のアクティビティを予測する生成プロセスに似ている。 0.64
For the shallow network we used an SGD 浅いネットワークではSGDを使いました 0.76
3 3 0.85
英語(論文から抽出)日本語訳スコア
Figure 1: Shallow model architecture and Predictive Coding dynamics. 図1: 浅いモデルアーキテクチャと予測的コーディングダイナミクス。 0.77
The upper part shows the architecture of the shallow model, composed of three convolutional layers and two fully connected ones. 上部は3つの畳み込み層と2つの完全な連結層からなる浅いモデルのアーキテクチャを示している。 0.83
According to Predictive Coding dynamics, the convolutional layers’ activity is regulated by four terms, each one modulated by a specific hyper-parameter. 予測的符号化ダイナミクスによれば、畳み込み層の活動は4つの項で制御され、それぞれが特定のハイパーパラメータによって変調される。 0.67
optimizer with learning rate 0.01 and momentum 0.9. 学習率 0.01 と運動量 0.9 のオプティマイザ。 0.53
While for both of the deep architectures, we employed Adam [29] optimizer with learning rate 0.001 and weight decay 5e-4 for 50 epochs. 両アーキテクチャとも,Adam[29]オプティマイザを学習率0.001,ウェイト崩壊5e-4で50エポックに適用した。 0.65
Supervised feedback In the shallow model, we also explored the role of the top-down connections when their parameters are trained for classification rather than reconstruction (as in the previous case). 浅層モデルにおける教師付きフィードバックでは、(前例のように)パラメータがリコンストラクションではなく分類のために訓練されたとき、トップダウン接続の役割についても検討した。 0.69
In this case both the θf f i are optimized simultaneously for 10 time-steps to minimize i the cross-entropy loss. この場合、θf f i はクロスエントロピー損失を最小化するために10の時間ステップで同時に最適化される。 0.71
We used an SGD optimizer with learning rate = 0.005 and momentum = 0.9. 学習速度が0.005、運動量が0.9のSGDオプティマイザを用いた。 0.56
Since the learning takes place over time-steps, the network optimizes the weights given the PC dynamics described in equation 1. 学習は時間ステップで行われるので、ネットワークは方程式1で記述されたpcダイナミクスの重み付けを最適化する。 0.71
Importantly, during learning we kept the hyper-parameters values to γ = β = µ = 1/3 and α = 0.01. 重要なことは、学習中、ハイパーパラメータ値は γ = β = μ = 1/3、α = 0.01 に保ったことである。 0.61
and θf b 2.4 Training Hyper-Parameters そして θf b 2.4 トレーニングハイパーパラメーター 0.74
After the training of the network’s parameters, we froze them (including the statistics of batch normalization layers) and optimized uniquely the hyper-parameters γ, β and α (with µ constrained to be 1 − β − γ, see Appendix A.2). ネットワークのパラメータのトレーニングの後、それらを凍結し(バッチ正規化層の統計を含む)、超パラメータ γ, β, α を一意に最適化する(μ は 1 − β − γ に制限されているが、Appendix A.2)。 0.82
Particularly, we repeated the optimization multiple times with different noise types and levels, to investigate the role of each term given different levels of perturbation. 特に,各項が摂動レベルが異なる場合,各項の役割について検討するため,異なる雑音の種類やレベルで何度も最適化を繰り返した。 0.77
We considered a Cross-Entropy loss function averaged across time-steps. 時間ステップ平均のクロスエントロピー損失関数を検討した。 0.72
In the shallow model we used an Adam optimizer with learning rate equal to 0.001, a weight decay equal to 5e-4 and a batch size of 128 images. 浅層モデルでは,学習率0.001,重量減衰5e-4,バッチサイズ128画像のadamオプティマイザを用いた。 0.66
For each noise type and level, we repeated the experiment with 10 random initializations of each hyper-parameter drawn from the uniform probability distribution in the interval [0, 1]. 各ノイズタイプとレベルについて,区間[0, 1]における一様確率分布から引き出されたハイパーパラメータの10個のランダム初期化実験を繰り返した。 0.86
We used Adam optimizer with the same weight decay for deep models; however, we employed two separate learning rates equal to 0.01 for γ and λ, and 0.0001 for α. 深部モデルではアダム・オプティマイザを同じ重量減衰で用いたが,γとλの0.01とαの0.0001の2つの異なる学習率を用いた。 0.75
We set batch-size to 128 and 16 for PResNet18 and PEffNetB0, respectively. バッチサイズを presnet18 と peffnetb0 それぞれ 128 と 16 に設定した。 0.68
All the scripts and the trained parameters of the main experiments are available on GitHub2. 主要な実験のスクリプトとトレーニングされたパラメータはすべてGitHub2で入手できる。 0.80
2.5 Stimuli The parameters of both the shallow and the deeper networks were trained on clean images, using CIFAR-10, CIFAR-100 and ImageNet. 2.5刺激 浅いネットワークと深いネットワークのパラメータは、CIFAR-10、CIFAR-100、ImageNetを用いてクリーンな画像に基づいてトレーニングされた。 0.59
The hyper-parameters were optimized using different levels and types of noise. ハイパーパラメータは、異なるレベルと種類のノイズを使って最適化された。 0.59
Regarding the shallow model, we used additive Gaussian and Salt&Pepper noise, spanning 3 different levels (Gaussian: σ = 0.2, 0.4 and 0.8; Salt&Pepper: pixel percentage = 2%, 4% and 8%). 浅部モデルでは3つのレベル(ガウス語:σ = 0.2, 0.4, 0.8, ソルト&ペッパー: ピクセルパーセンテージ= 2%, 4%, 8%)にまたがる加法的ガウス音とソルト&ペッパー雑音を用いた。 0.73
We used CIFAR100-C, a dataset containing five levels of 19 different corruption types [6] to train PResNet18’s hyper-parameters. CIFAR100-Cは、PResNet18のハイパーパラメータをトレーニングするために、5レベルの19種類の汚職タイプ [6]を含むデータセットです。 0.59
Finally, in order to train hyper-parameters of the deep PEffNetB0, we used the ImageNet validation set and applied five levels of Gaussian (σ= 0.5, 0.75, 1, 1.25, and 1.5) and Salt&Pepper (percentage = 5%, 10%, 15%, 20%, and 30%) noise. 最後に、深層ペフネットb0のハイパーパラメータをトレーニングするためにimagenet検証セットを使い、ガウス音(σ=0.5, 0.75, 1, 1.25, 1.5)とソルト&ペッパー雑音(パーセント = 5%, 10%, 15%, 20%, 30%)の5レベルを適用した。 0.76
2https://github.com/ artipago/Role_of_Fee dback_in_Predictive_ Coding 2https://github.com/ artipago/Role_of_Fee dback_in_Predictive_ codeding 0.18
4 αβγmimi-1mi+1CONVOLUTIONAL LAYERS[12, 32, 32]DENSE LAYERS[18, 16, 16][24, 8, 8][120][10]FEEDFORWARD DRIVEFEEDBACK ERROR FEEDFORWARD ERROR MEMORY 4 αβγ-mimi-1mi+1CONVOLUTIONal LAYERS[12, 32, 32]DENSE LAYERS[18, 16, 16][24, 8, 8][120][10]FeedForwared DRIVEFEEDBACKErrorFE EDFORWARDエラーメモリ 0.88
英語(論文から抽出)日本語訳スコア
3 Results 3.1 Three-Layer Model 3結果 3.1 三層モデル 0.71
We first tested our hypothesis on a shallow model composed of three convolutional and three dense layers (see panel A of figure 1). 最初に3つの畳み込み層と3つの密集層からなる浅層モデルで仮説を検証した(図1のパネルaを参照)。 0.71
The advantage of choosing a smaller network consists in promptly exploring several approaches before replicating in deeper state-of-the-art networks. より小さなネットワークを選択する利点は、より深い最先端のネットワークを複製する前に、素早くいくつかのアプローチを探索することです。 0.54
Specifically, we investigated the role of each term in equation (1): 1) when training feedback weights for reconstruction or classification (unsupervised vs supervised), 2) via some ablation simulations, and 3) regarding the robustness to adversarial attacks. 具体的には,(1)再現や分類のためのフィードバック重み(教師なし対教師なし)を訓練する場合,(2)いくつかのアブレーションシミュレーションを通して,(3)敵の攻撃に対するロバスト性について検討した。 0.74
3.1.1 Feedback weights: reconstruction vs. classification 3.1.1フィードバックウェイト:レコンストラクション対分類 0.64
We first assessed the role of the feedback and each term in equation (1) when the top-down parameters were optimized for reconstruction. まず,トップダウンパラメータを再構成に最適化した方程式(1)におけるフィードバックと各項の役割について検討した。 0.73
After having trained the forward weights for classification (Supplementary figure 5A), we trained the feedback weights optimizing the reconstruction loss of each PCoder (figure 5C). 予備図5Aの前後の重みを訓練した後,各PCoderの復元損失を最適化するフィードバック重みを訓練した(図5C)。 0.79
This approach is in line with the PC interpretation, in which topdown connections generate predictions to explain lower layers’ activity (i.e., minimize prediction errors, or the reconstruction loss). このアプローチは、トップダウン接続が下位層の動作を説明するために予測を生成するPC解釈(すなわち、予測エラーの最小化や再構成損失)と一致している。 0.81
In this case backward weights are trained in an unsupervised fashion. この場合、後方重量は教師なしの方法で訓練される。 0.62
Once both forward and backward connections were optimized (for classification and reconstruction, respectively), we froze all parameters and trained only the hyper-parameters (γ, β and α in equation 1). 前向きと後向きの接続が最適化されると(それぞれ分類と再構成のために)、全てのパラメータを凍結し、方程式1のハイパーパラメータ(γ, β, α)のみを訓練した。 0.76
As shown in figure 2A, with both Gaussian and Salt&Pepper noise the hyper-parameter modulating the top-down feedback (i.e., β in equation 1) increases as a function of the noise level, supporting the hypothesis that top-down connections are crucial for visual processing in noisy conditions. 図2Aに示すように、ガウスノイズとソルト・ペッパーノイズの両方で、トップダウンフィードバック(方程式1のβ)を調節するハイパーパラメータはノイズレベルの関数として増加し、トップダウン接続がノイズ条件下での視覚処理に不可欠であるという仮説を支持する。 0.74
Remarkably, also α, which modulates the amount of bottom-up prediction-error, increases with the noise level for both types of noise. 注目すべきは、ボトムアップ予測エラーの量を変調するαも、両方のノイズのノイズレベルによって増加することである。 0.68
Similar results were obtained when training the top-down parameters for classification rather than reconstruction (i.e., supervised approach). 再建ではなく分類のためのトップダウンパラメータのトレーニング(教師ありアプローチ)では同様の結果が得られた。 0.70
As in the unsupervised case, when freezing the parameters and optimizing exclusively the hyper-parameters for different noise levels, we observed an increase of both bottom-up (α) and top-down (β) errors as a function of the noise level. 教師なしの場合と同様に、パラメータを凍結し、異なるノイズレベルのハイパーパラメータのみを最適化する場合、ノイズレベルの関数としてボトムアップ(α)とトップダウン(β)のエラーの増加が観察された。 0.79
Yet, figure 2C shows that top-down parameters trained for reconstruction proved more robust to noisy images than those trained for classification. しかし、図2cは、復元のために訓練されたトップダウンパラメーターが、分類のために訓練された画像よりもノイズ画像に対してより堅牢であることを示している。 0.43
Next, we compared the networks’ performance with equivalent forward networks. 次に、ネットワークのパフォーマンスを等価なフォワードネットワークと比較した。 0.72
First, we trained (on clean images) four types of forward networks: either having the same forward architecture as the shallow network (labeled “same” in figure 2B, and resulting in a slightly smaller number of parameters), or having a larger number of parameters by increasing either the kernel size, or the number of features, or the layers (labeled “kernel”, “feat” and “deep”, respectively). まず、(クリーンイメージ上で)4種類のフォワードネットワークをトレーニングしました。すなわち、浅いネットワークと同じフォワードアーキテクチャ(図2bで“same”と表示され、パラメータがわずかに少ない)を持つか、カーネルサイズ、機能数、あるいはレイヤ(それぞれ“kernel”、”feat”、”deep”と表示)を増加させることで、より多くのパラメータを持つかのどちらかです。 0.69
As summarized in figure 2B, both networks implementing predictive coding dynamics (in cyan and green in the figure) perform systematically better than all the forward networks, irrespective of the noise type and level. 図2Bで要約したように、ノイズの種類やレベルに関わらず、どちらのネットワークも予測的符号化力学(図のシアンおよびグリーン)を実装しており、全てのフォワードネットワークよりも体系的に優れている。 0.62
This result demonstrates that feedback connections, and specifically predictive coding dynamics, improve network robustness to noise. この結果は、フィードバック接続、特に予測的符号化ダイナミクスが、ノイズに対するネットワークの堅牢性を改善することを示す。
訳抜け防止モード: この結果は フィードバック接続、特に予測符号化ダイナミクスは、ノイズに対するネットワークの堅牢性を改善する。
0.77
3.1.2 Ablation studies 3.1.2 アブレーション研究 0.53
We then investigated how selectively removing the top-down or the bottom-up error term influences the results. 次に,トップダウンあるいはボトムアップエラー項の選択的除去が結果に与える影響について検討した。 0.63
Importantly, we focused specifically on the unsupervised network, whose top-down parameters are trained for reconstruction, and that better represents the PC dynamics. 重要なことは、トップダウンパラメータが再構成のために訓練されている教師なしネットワークに特化して、PCのダイナミクスをより良く表現することです。 0.58
As shown in figure 2A, when removing the top-down error term, the forward error hyper-parameter increases with the noise levels and doubles its value as compared to the full model (labeled “unsupervised" in the figure). 図2Aに示すように、トップダウンエラー項を除去するとき、フォワードエラーハイパーパラメータはノイズレベルによって増加し、フルモデル(図の「教師なし」ラベル)と比較してその値が倍になる。 0.70
On the other hand, when removing the forward error term, we observed an increase of the feedback term with the noise levels, as in the full model. 一方,前方誤差項の除去においては,全モデルのように,雑音レベルによるフィードバック項の増加が観察された。 0.72
Concerning the networks performance, figure 2C reveals that removing the top-down feedback degrades the accuracy with higher noise levels (especially with Gaussian noise), confirming the conclusion that top-down feedback plays a crucial role in the processing of degraded images. ネットワーク性能に関して、図2cは、トップダウンフィードバックの除去は、より高いノイズレベル(特にガウスノイズ)で精度を低下させ、トップダウンフィードバックが劣化画像の処理において重要な役割を果たすことを確認している。 0.68
3.1.3 Adversarial attacks To further confirm the hypothesis that top-down feedback is important for robustness, we froze the networks (feedforward, full predictive coding, or ablated networks) with manual configurations of the hyper-parameters and then tested their robustness against targeted L∞ Random Projected Gradient Descent (RPGD) [30] and Basic Iterative Method (BIM) [31] attacks, after unrolling 3.1.3 敵攻撃 トップダウンフィードバックがロバスト性にとって重要であるという仮説をさらに裏付けるために、ハイパーパラメータのマニュアル構成でネットワーク(フィードフォワード、完全予測符号化、または短縮ネットワーク)を凍結し、ターゲットのL∞ランダム予測勾配降下(RPGD) [30] と基本反復法(BIM) [31] 攻撃に対してロバスト性をテストする。 0.66
5 5 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Shallow model results. 図2: 浅いモデル結果。 0.69
A) The plots show the hyper-parameters (HPs) value relative to the clean images as a function of the noise levels. A) プロットは, ノイズレベルの関数として, クリーン画像に対するハイパーパラメータ(HP)値を示す。 0.80
Each column shows the relative HPs trained in different conditions: supervised, unsupervised, without feedback error, or forward error. 各カラムは、教師なし、教師なし、フィードバックエラーなし、フォワードエラーなどの異なる条件で訓練された相対的なHPを示す。 0.51
The first row shows the feedback error term, the memory, and the forward drive term, the second row shows the forward error term on a separate scale, for Gaussian (solid line) and Salt&Pepper (dashed lines) noise. 第1行はフィードバックエラー項、メモリ、フォワードドライブ項を示し、第2行はガウス(固線)とソルト・ペッパー(破線)のノイズに対して、フォワードエラー項を別のスケールで示す。
訳抜け防止モード: 最初の行は、フィードバックエラー項、メモリを示しています。 そして フォワードドライブの項 2行目は フォワードエラーの項を 別スケールで示します Gaussian (ソリッドライン)とSalt&Pepper (ダッシュライン)のノイズに対して。
0.70
In all conditions, the feedback-error and forward-error terms increase with the noise levels. あらゆる条件において、フィードバックエラーとフォワードエラーはノイズレベルに応じて増加する。 0.65
B) The models implementing PC dynamics (in green and cyan) perform better than equivalent feed-forward networks, especially when trained in an unsupervised fashion (cyan). B)PCダイナミックス(グリーンとシアン)を実装したモデルは、特に教師なし(シアン)で訓練された場合、同等のフィードフォワードネットワークよりも優れている。 0.65
C) Performance of the PC models, as a function of the noise levels, measured at the last time-step. C) 騒音レベルの関数としてのPCモデルの性能は, 最終段階において測定される。 0.85
Contrasting supervised (SUP) and unsupervised (UNSUP) models reveals the effects of feedback training objective, whereas comparing the ablation models with UNSUP shows the effect of each error term on accuracy. 教師付き (SUP) モデルと教師なし (UNSUP) モデルとの対比では, フィードバックトレーニング対象の影響が示される一方, UNSUP モデルとの比較では, 誤差項が精度に与える影響が示されている。
訳抜け防止モード: 対照型 (SUP) と非教師型 (UNSUP) モデルでは, フィードバック学習目標の効果を明らかにする。 一方, アブレーションモデルとUNSUPを比較すると, 誤差項が精度に与える影響が示された。
0.75
D) The graph shows the median perturbation to obtain a successful attack using different HPs. d) このグラフは、異なるhpsを用いて成功した攻撃を得るための中央値の摂動を示す。 0.61
Orange and red bars have higher feedback and forward error terms (paler colors correspond to smaller error terms), and blue and black bars represent the feed-forward and the full model, respectively. オレンジと赤のバーは高いフィードバックと前方のエラー項(より薄い色は小さなエラー項に対応する)を持ち、青と黒のバーはそれぞれフィードフォワードとフルモデルを表す。 0.85
Our simulations reveal that PC models with higher feedback values (orange, black bars) are more robust to adversarial perturbations. シミュレーションの結果, 高いフィードバック値(オレンジ, ブラックバー)を持つPCモデルは, 対向的摂動に対してより堅牢であることがわかった。 0.65
them for 10 time-steps to keep their depths constant. 深度を一定に保つのに10時間かかる。 0.58
We use Foolbox API 2.4.0 [32] and measure the median perturbation required to successfully fool the networks. foolbox api 2.4.0 [32]を使い、ネットワークを騙すのに必要な中央値の摂動を測定する。 0.56
As shown in figure 2D, we observe that networks with higher top-down feedback (two orange bars in the figure have α = 0 and γ = β = µ = 0.33; and β = 0.5, γ = 0.3, µ = 0.2, respectively) reveal better robustness to the attacks as compared to the equivalent forward network (in blue in the figure, with γ = 1 and all other hyper-parameters set to zero). 図2Dに示すように、より高いトップダウンフィードバックを持つネットワーク(図中の2つのオレンジ色のバーは α = 0 と γ = β = μ = 0.33 を持ち、β = 0.5, γ = 0.3, μ = 0.2 である)は、等価なフォワードネットワーク(図中では γ = 1 と他のすべてのハイパーパラメータが 0 に設定されている)と比較して、攻撃に対するより良い堅牢性を示す。 0.80
Interestingly, a forward network leveraging only the feed-forward error shows a similar (lack of) robustness to the attack as the forward network (in red in the figure, both networks having γ = 1, and α = 1 and α = 2, respectively; all other hyper-parameters set to zero). 興味深いことに、フィードフォワードエラーのみを活用するフォワードネットワークは、フォワードネットワークと同様の(欠如した)ロバスト性を示している(図では、どちらもγ = 1 と α = 1 と α = 2 を持ち、他のすべてのハイパーパラメータは 0 に設定されている)。 0.70
Additionally, adding the feed-forward error to the model with top-down connections, slightly reduces its robustness (black bars in the picture, both networks with α = 1 and γ = 0.3, while β = µ = 0.33 and β = 0.5 µ = 0.2, respectively). さらに、トップダウン接続を持つモデルにフィードフォワード誤差を加えると、その堅牢性はわずかに低下する(図中の黒棒は、それぞれα = 1 と γ = 0.3、β = μ = 0.33 と β = 0.5 μ = 0.2)。 0.79
These results confirm that top-down connections are useful for adversarial robustness (as shown on a different dataset with a different PC implementation by Huang and colleagues [12]), but also suggest that feedforward error correction does not help adversarial robustness. これらの結果は,トップダウン接続が敵のロバスト性(Huangらによる異なるPC実装のデータセットで示されているように)に有用であることを確認するとともに,フィードフォワード誤り訂正が敵のロバスト性に寄与しないことを示唆している。
訳抜け防止モード: これらの結果は、トップダウン接続が敵の堅牢性に有用であることを確認する(Huangらによる異なるPC実装の異なるデータセットで示されている[12])。 フィードフォワードの誤り訂正は 敵の堅牢性に役立ちません
0.73
This is likely because the feedforward prediction errors emphasize the input perturbation, which the generative feedback was not trained to account for. これは、フィードフォワード予測エラーが入力の摂動を強調しているためであり、生成フィードバックは考慮すべきではない。
訳抜け防止モード: これはおそらく フィードフォワード予測誤差は入力の摂動を強調し、生成フィードバックが考慮されるように訓練されなかった。
0.77
6 SUPERVISEDGAUSSIANSA LT PEPPERUNSUPERVISEDNO FB-ERRNO FF-ERR0.5-0.500.5-0. 500.5-0.500.2-0.2010 20.50FF-ERRFB-ERRMEM ORYFF-DRIVENOISE LEVELRELATIVE HYPER-PARAM VALUE70NOISE LEVEL ICLEAN40704060404020 PERFORMANCE [%]SUPERVISEDUNSUPERVIS EDFF (SAME)FF (KERNEL)FF (FEAT)FF (DEEP)AB7050C3070503 0GAUSSIANSALT PEPPERNOISE LEVELSPERFORMANCE [%]GAUSSIANSALT PEPPERNOISE LEVEL IIGAUSSIANSALT PEPPERNOISE LEVEL IIIGAUSSIANSALT PEPPERMEDIAN ADVERSARIAL PERTURBATION FOR SUCCESSFUL ATTACKRPGD BIMFFFF-ERRFB-ERRFUL L1e-41040840DNO FB-ERRNO FF-ERRSUPUNSUP 6 SUPERVISEDGAUSSIANSA LT PEPPERUNSUPERVISEDNO FB-ERRNO FF-ERR0.5-0.500.5-0. 500.5-0.500.2-0.2010 20.50FF-ERRFB-ERRMEM ORYFF-DRIVENOISE LEVELRELATIVE HYPER-PARAM VALUE70NOISE LEVEL ICLEAN40704060404020 PERFORMANCE [%]SUPERVISEDUNSUPERVIS EDFF (SAME)FF (KERNEL)FF (FEAT)FF (DEEP)AB7050C3070503 0GAUSSIANSALT PEPPERNOISE LEVELSPERFORMANCE [%]GAUSSIANSALT PEPPERNOISE LEVEL IIGAUSSIANSALT PEPPERNOISE LEVEL IIIGAUSSIANSALT PEPPERMEDIAN ADVERSARIAL PERTURBATION FOR SUCCESSFUL ATTACKRPGD BIMFFFF-ERRFB-ERRFUL L1e-41040840DNO FB-ERRNO FF-ERRSUPUNSUP 0.70
英語(論文から抽出)日本語訳スコア
Figure 3: Values of hyper-parameters and accuracy of the deep predictive coding networks. 図3: ハイパーパラメータの値と深層予測符号化ネットワークの精度。 0.78
(A) PResNet18 with shared hyper-parameters that are trained on CIFAR100-C images. (A)CIFAR100-C画像でトレーニングした共有ハイパーパラメータを持つPResNet18。 0.69
(B) PResNet18 and (C) PEffNetB0 with separate hyper-parameters that are trained respectively on CIFAR100-C and ImageNet under Gaussian and Salt&Pepper noise. (B) PResNet18 と (C) PEffNetB0 は、それぞれ CIFAR100-C と ImageNet でガウスノイズとソルト・ペッパーノイズの下で訓練される。 0.72
Plots in the first column show the hyper-parameters as a function of PCoders under medium noise level. 第1列のプロットは中音レベルにおけるPCodersの機能としてハイパーパラメータを示す。 0.79
The circles indicate PCoders with maximum feedback error. 円は最大フィードバック誤差でPCodersを示す。 0.73
In middle columns, relative values of hyper-parameters are plotted across noise levels. 中間カラムでは、ハイパーパラメータの相対値がノイズレベルにわたってプロットされる。 0.70
In case of separate hyper-parameters, the PCoder with maximum feedback error is shown. 分離したハイパーパラメータの場合、最大フィードバックエラーを持つpcoderが示される。 0.76
Accuracy change for each noise level is depicted in the last column. ノイズレベル毎の精度変化を最後の列に示す。 0.67
Error bars show standard error of the mean (SEM) over 19 CIFAR100-C noise types. エラーバーは、19のCIFAR100-Cノイズタイプの平均(SEM)の標準誤差を示す。 0.75
In all cases, the networks achieve accuracy gain by utilizing more feedback and forward error as the noise severity increases. いずれの場合も、ノイズの深刻度が高まるにつれて、より多くのフィードバックと前方誤差を利用することで、ネットワークの精度向上を実現している。
訳抜け防止モード: いずれの場合も、ネットワークは精度の向上を達成する。 騒音の重大さが増すにつれて フィードバックと前方誤差が増大します
0.59
See supplementary Figures 7-12 for the absolute values of hyper-parameters and changes in recognition accuracy per noise type and level. 超パラメータの絶対値とノイズタイプとレベルによる認識精度の変化について、補足図7-12を参照。 0.74
3.2 Deep Models 3.2.1 Shared hyper-parameters 3.2深層モデル 3.2.1 共有ハイパーパラメータ 0.61
Similar to the three-layer network, we examined PResNet18 with a single set of α, β, and γ, that is shared between all the PCoders. 3層ネットワークと同様に,すべてのPCoder間で共有される1組のα,β,γを用いてPResNet18を検討した。 0.73
In this experiment, we followed the unsupervised training approach explained for the three-layer network using the CIFAR100 dataset. 本実験では,CIFAR100データセットを用いた3層ネットワークの教師なしトレーニング手法に追従した。 0.76
After having optimized the top-down connections for reconstruction, we froze the weights and trained the hyper-parameters to minimize the average cross-entropy loss over five time-steps. リコンストラクションのためにトップダウン接続を最適化した後、重みを凍結し、ハイパーパラメータをトレーニングし、平均的なクロスエントロピー損失を5つの時間ステップで最小化する。 0.54
We performed this optimization independently on each noise type and noise level of the CIFAR100-C dataset. CIFAR100-Cデータセットの各ノイズタイプとノイズレベルに依存しない最適化を行った。 0.70
Figure 3A shows the average hyper-parameter values across all 19 noise types relative to those learned using “clean” images. 図3Aは、"クリーン"画像を用いて学習した19のノイズタイプの平均ハイパーパラメータ値を示している。 0.75
Confirming the results of the shallow model, we observed that the roles of feedback and feed-forward error become more crucial as the noise level increases. 浅層モデルの結果を確認し,ノイズレベルが増加するにつれてフィードバックとフィードフォワードエラーの役割がより重要になることを確認した。 0.87
Importantly, the average accuracy change across time-steps reveals a very robust (but marginal) improvement with respect to the feed-forward ResNet18 for all levels of noise. 重要なのは、時間ステップの平均精度の変化が、あらゆるレベルのノイズに対してフィードフォワードresnet18に対して非常に堅牢な(しかし限界的な)改善を示すことだ。 0.59
Remarkably, the importance of feedback connections shines more as the noise severity increases. 驚くべきことに、ノイズの深刻さが増すにつれて、フィードバック接続の重要性が高まる。 0.52
7 10480100PResNet18PEffNetB0NOISE LEVELNOISE LEVELNOISE LEVELNOISE LEVELGAUSSIANSALT PEPPER0.4-0.40HYPER- PARAM HYPER-PARAM 081e-4-0.200.21e-402 PCoder0.400.80.4000. 60.4-0.4000.511.5NOI SE LEVELNOISE LEVELNOISE LEVELNOISE LEVELACCURACY [%]SHAREDSEPARATEACCURA CY [%]ACCURACY [%]ACCURACY [%]FF-ERRFB-ERRMEMORYFF -DRIVELEVEL4LEVEL2LE VEL3LEVEL1LEVEL5AC02 015TIME STEPTIME STEP2CIFAR-100CCIFAR -100CSEPARATEPResNet 18BTIME STEPTIME STEP00.10.400.80.400 .8HYPER-PARAM HYPER-PARAM PCODER2PCODER101.5-1 .501.5-1RELATIVE 7 10480100PResNet18PEffNetB0NOISE LEVELNOISE LEVELNOISE LEVELNOISE LEVELGAUSSIANSALT PEPPER0.4-0.40HYPER- PARAM HYPER-PARAM 081e-4-0.200.21e-402 PCoder0.400.80.4000. 60.4-0.4000.511.5NOI SE LEVELNOISE LEVELNOISE LEVELNOISE LEVELACCURACY [%]SHAREDSEPARATEACCURA CY [%]ACCURACY [%]ACCURACY [%]FF-ERRFB-ERRMEMORYFF -DRIVELEVEL4LEVEL2LE VEL3LEVEL1LEVEL5AC02 015TIME STEPTIME STEP2CIFAR-100CCIFAR -100CSEPARATEPResNet 18BTIME STEPTIME STEP00.10.400.80.400 .8HYPER-PARAM HYPER-PARAM PCODER2PCODER101.5-1 .501.5-1RELATIVE 0.58
英語(論文から抽出)日本語訳スコア
3.2.2 Separate hyper-parameters 3.2.2 分離ハイパーパラメータ 0.47
Encouraged by the results in the “shared” approach described above, we decided to provide each PCoder with a separate set of hyper-parameters. 上で述べた“共有”アプローチの結果から、各PCoderに別のハイパーパラメータセットを提供することにしました。 0.64
Our reasoning was that different stages of the hierarchical visual processing would benefit differently from the combination of top-down and bottom-up information, thus granting to the network more flexibility in accounting for different representations across different layers. 私たちの推論は、階層的なビジュアル処理の異なるステージは、トップダウン情報とボトムアップ情報の組み合わせと異なる利益をもたらすため、ネットワークが異なるレイヤにまたがる異なる表現を計算できる柔軟性が増すことでした。 0.70
As in the previous experiment, we trained PResNet18’s hyper-parameters on CIFAR100-C images. 前回の実験と同様に、CIFAR100-C画像上でPResNet18のハイパーパラメータをトレーニングしました。 0.59
Moreover, in order to validate our previous results on a more complex dataset, we trained PEffNetB0’s hyper-parameters on the ImageNet2012 validation set for five levels of Gaussian and Salt&Pepper noises. さらに、より複雑なデータセットで以前の結果を検証するために、ImageNet2012検証セットでPEffNetB0のハイパーパラメータを5レベルのガウスノイズとソルト・ペッパーノイズでトレーニングしました。 0.68
Introducing a separate set of hyper-parameters in each PCoder resulted in a very significant boost in recognition accuracy of both networks, under all conditions. 各PCoderに別々のハイパーパラメータセットを導入することで、すべての条件下で両方のネットワークの認識精度が大幅に向上した。 0.79
As illustrated in the last column of Figure 3B, PResNet18 consistently improved the recognition accuracy across time-steps on all noise types and levels, revealing an average improvement around 6% in the most noisy condition. 図3Bの最後のコラムに示されているように、PResNet18は、すべてのノイズタイプとレベルのタイムステップにおける認識精度を一貫して改善し、最もノイズの多い条件では平均6%改善した。 0.66
Remarkably, we could replicate these results using the deeper network PEffNetB0 with eight PCoders. 注目すべきは、これらの結果を8つのPCoderを持つより深いネットワークPEffNetB0を使って再現できることだ。 0.51
As shown in Figure 3C, PC dynamics with different hyper-parameters per PCoder yielded an impressive increase in accuracy above 20% and above 15% in the worst condition of Gaussian and Salt&Pepper noise, respectively. 図3Cに示すように、PCoder毎に異なるハイパーパラメータを持つPCダイナミクスは、ガウスノイズとソルト・ペッパーノイズの最悪の条件で、それぞれ20%以上、15%以上精度が著しく向上した。 0.67
We then investigated the trend of hyper-parameters across PCoders. 次に,PCoderにおけるハイパーパラメータの傾向を検討した。 0.56
This analysis shed some light on the role of the hyper-parameters as a function of their hierarchical stage in the network. この分析は、ネットワークにおける階層的ステージの関数としてのハイパーパラメータの役割に光を当てた。 0.85
Remarkably, we obtained very consistent results on both networks, and across different noise types. 顕著なことに、両ネットワークと異なるノイズタイプで非常に一貫した結果を得た。 0.70
The first column in panels B and C of Figure 3 shows the values of hyper-parameters as a function of PCoders for the medium noise level (level 3, results don’t change across noise levels, see supplementary figures 10-12). 図3のパネルBとCの最初の列は、中音レベルのPCodersの関数としてハイパーパラメータの値を示している(レベル3はノイズレベルによって変化しないが、補足図10-12を参照)。 0.82
Regardless of the considered model, we found that the PCoder with the largest amount of feedback error hyper-parameter (indicated by a circle in the figure), is consistently situated at the lower layers of the network, whereas the feedback tends to zero at higher layers. 検討したモデルにかかわらず,最大量のフィードバックエラーハイパーパラメータ(図中の円で示される)を持つPCoderがネットワークの下位層に常に配置されているのに対して,フィードバックは上位層でゼロになる傾向にあることがわかった。 0.82
This suggests that the beneficial effects of top-down connections are best achieved at lower layers of the visual hierarchy, where high-level expectations shape low level features to maximize the final classification. これは、トップダウン接続の有益な効果は、最高レベルの期待が最終分類を最大化するために低レベルの特徴を形作る、視覚階層の下位層において最もよく達成されることを示唆している。 0.58
In addition, the second and third columns of Figure 3B, C confirmed our previous results, revealing how the feedback-error term increases as a function of the noise levels in the PCoder with its highest values (i.e., the second for PResNet18, and either the first or the second in PEffNetB0, depending on the noise type). さらに、図3B、Cの2列目と3列目は、PCoderのノイズレベルの関数としてフィードバックエラー項が最も高い値(PResNet18では2列目、PEffNetB0では2列目、ノイズタイプによって2列目)でどのように増加するかを確認した。
訳抜け防止モード: さらに図3Bの2番目の列と3番目の列も Cは我々の以前の結果を確認し、PCoderのノイズレベルの関数としてフィードバック-エラー項がどのように増加するかを明らかにした。 PResNet18の2番目、PEffNetB0の1番目か2番目。 ノイズの種類によっては)
0.69
This result confirms once again the hypothesis that robust object recognition requires more top-down influence (i.e., feedback and feed-forward error terms) as the level of noise increases. この結果は、ノイズのレベルが増加するにつれて、頑健なオブジェクト認識はよりトップダウンの影響(フィードバックやフィードフォワードエラー用語)を必要とするという仮説を再確認する。 0.70
4 Discussion 4.1 Summary of the Results 4 討論 4.1 結果の概要 0.78
Starting from an established framework in Neuroscience, namely Predictive Coding (PC), we investigated the role of top-down feedback connections in models of vision. 神経科学における確立されたフレームワーク、すなわち予測コーディング(pc)から始め、視覚モデルにおけるトップダウンフィードバック接続の役割を調査した。 0.72
The significance of our work spans across Neuroscience and machine learning, contributing substantially to both fields. 私たちの仕事の重要性は、神経科学と機械学習にまたがり、両方の分野に大きく貢献しています。
訳抜け防止モード: 私たちの仕事は神経科学と機械学習にまたがる。 両方の分野に大きく貢献しています
0.69
First, our results demonstrated how predictive coding dynamics increase the network’s robustness to various types of noisy stimuli compared to equivalent feed-forward networks. まず, 予測的符号化が, 等価フィードフォワードネットワークと比較して, 各種ノイズ刺激に対するネットワークの堅牢性を高めることを示す。 0.79
Additionally, systematic optimization of hyper-parameters revealed how the feedback contribution increases with the noise severity, especially in the early stages of the network, providing important information about the role of top-down processes in visual processing. さらに、高パラメータの体系的な最適化により、特にネットワークの初期段階において、ノイズ重大度によってフィードバックの寄与が増加し、視覚処理におけるトップダウンプロセスの役割について重要な情報を提供する。 0.73
Compared with prior studies, one original aspect of our approach is our empirical procedure, in which we let the optimization process converge to the optimal solution in each noise level. 先行研究と比較して、我々のアプローチの本来の側面は、各ノイズレベルの最適解に最適化過程を収束させる経験的手順である。 0.79
4.2 Previous Work Previous studies explored the supervised approach to train feedback connections for classification rather than reconstruction objectives. 4.2 前編 前回の研究では、再構築目的ではなく、分類のためのフィードバック接続を訓練するための教師付きアプローチが検討された。 0.58
Feedback Networks [33] introduced top-down and temporal skip connections in a recurrent convolutional module, demonstrating an increase in performance followed by improvements in early features representation, taxonomic predictions, and curriculum learning. フィードバックネットワーク [33] は、繰り返し畳み込みモジュールにトップダウンおよびテンポラリスキップ接続を導入し、パフォーマンスが向上し、初期の特徴表現、分類学的予測、カリキュラム学習が改善された。 0.66
Similarly, Nayebi and colleagues [14] proposed a ConvRNN architecture, incorporating gating and 同様に、Nayebi氏と同僚たちは[14]、ゲーティングを取り入れたConvRNNアーキテクチャを提案した。 0.62
8 8 0.85
英語(論文から抽出)日本語訳スコア
skip connections, which significantly improved object recognition performance. スキップ接続により、オブジェクト認識性能が大幅に向上した。 0.64
Considering models advocating more explicitly for biological plausibility, Linsley and colleagues [34] suggested another recurrent vision model, equipped with horizontal and gated recurrent units (hGRU). 生物学的妥当性をより明確に提唱するモデルを考えると、Linsley氏と同僚[34]は水平およびゲートリカレントユニット(hGRU)を備えた別の繰り返し視覚モデルを提案した。 0.69
Its performance improves specifically in recognition tasks involving long-range spatial dependencies. その性能は、特に長距離空間依存を含む認識タスクにおいて向上する。 0.59
Supported by experimental studies [9], Kubilius and colleagues also proposed a brain-inspired architecture named CorNet, which includes feedback and skip connections. 実験的な研究[9]で支援されたKubilius氏らは、フィードバックとスキップ接続を含むCorNetという、脳にインスパイアされたアーキテクチャも提案した。 0.58
Interestingly, it reveals high neural similarity to cortical visual areas such as V4 and IT [13]. 興味深いことに、V4やIT[13]のような皮質視覚領域と高い神経類似性を示す。 0.71
In the PC domain, Chalasani and Principe [35] proposed a hierarchical, generative model based on PC dynamics, including context-sensitive priors on the latent representations. pcドメインにおいて、chalasaniとprincipe [35]は、潜在表現の文脈に敏感な優先を含む、pcダイナミクスに基づく階層的生成モデルを提案した。 0.67
Their architecture demonstrated how top-down connections from higher layers are instrumental in solving lower layers ambiguities, providing some noise robustness. 彼らのアーキテクチャは、上位層からのトップダウン接続が下位層の曖昧さを解決するのにどのように役立つかを示し、いくつかのノイズロバスト性を提供した。 0.40
The model proposed in [36] is the closest one to ours. 36]で提案されているモデルは、我々の最も近いモデルです。 0.73
Despite following PC dynamics and the principal similarities, their model presents some critical limitations. pcダイナミクスと主要な類似性に従うにもかかわらず、モデルにはいくつかの重要な制限がある。 0.53
More specifically, all weights are trained for object recognition only at the last time step, resulting in a biologically implausible behavior, in which near-chance performance is observed until the final iteration. より具体的には、全ての重みは最終段階でのみオブジェクト認識のために訓練され、生物学的に目立たない振る舞いとなり、最終イテレーションまで近距離性能が観察される。 0.69
A more in-depth comparison between this work and our proposed method is presented in [27]. この研究と提案手法のより詳細な比較が[27]で示されています。 0.82
Finally, Huang and colleagues [12] implemented unsupervised feedback connections by optimizing for “self consistency” between the input image features, latent variables and label distribution. 最後に,Huang氏ら[12]は,入力画像特徴,潜伏変数,ラベル分布の“自己整合性”を最適化することにより,教師なしのフィードバック接続を実装した。 0.60
Despite a different dynamics, PC principles inspired their implementation, which also provided some robustness against gradient-based adversarial attacks on Fashion-MNIST and CIFAR10. 異なるダイナミクスにもかかわらず、PCの原理は、Fashion-MNISTとCIFAR10に対する勾配ベースの敵攻撃に対して頑丈な結果となった。 0.58
4.3 Insights for and from Neuroscience 4.3 神経科学の展望と展望 0.66
It is possible to characterize the role of top-down feedback either as an unsupervised, generative process which predicts lower layers’ activities, or as a supervised, discriminative process to optimize classification. トップダウンフィードバックの役割は、下位層のアクティビティを予測する教師なし、ジェネレーティブなプロセス、あるいは分類を最適化するための教師なし、差別的なプロセスとして特徴づけることができる。
訳抜け防止モード: トップダウンフィードバックの役割を特徴づけることができる 下層の活動を予測する、教師なしの、生成プロセスとして。 分類を最適化する 差別的なプロセスとして
0.71
Besides being more biologically plausible, our simulations with the shallow model revealed that the unsupervised approach is more robust to noise than the supervised one, as shown in figure 2B. さらに, 浅層モデルを用いたシミュレーションにより, 教師なしアプローチは, 教師なしアプローチよりも雑音に対して頑健であることが判明した。 0.50
However, when trained with supervision, feedback connections do not converge to the unsupervised solution, as shown in figure 5C which compares the reconstruction errors in shallow models optimized for classification (supervised) or reconstruction (unsupervised). しかし、監督の下でトレーニングされた場合、フィードバック接続は、分類(教師なし)や再構成(教師なし)に最適化された浅いモデルの再構成エラーを比較する図5cに示すように、教師なしのソリューションに収束しません。 0.53
Interestingly, when we independently optimized each PCoder in deeper networks (roughly equivalent to different brain regions across the hierarchy of visual processes), we observed consistently higher modulation of top-down activity in lower regions, and relatively less top-down feedback in higher areas. 興味深いことに、より深いネットワークで各PCoderを独立に最適化したとき(主に視覚過程の階層で異なる脳領域に相当)、下位領域におけるトップダウン活動の調整が一貫して増加し、上位領域では比較的少ないトップダウンフィードバックが観察された。 0.57
Choksi and Mozafari et al [27] further demonstrates that the proposed biologically-inspire d feedback dynamics iteratively project the noisy inputs towards the learned data manifold, similar to previous studies using different approaches [37, 38, 39, 40]. Choksi と Mozafari et al [27] はさらに、提案された生物学的にインスパイアされたフィードバックは、異なるアプローチ [37, 38, 39, 40] を用いた以前の研究と同様、学習データ多様体へのノイズ入力を反復的に投影することを示した。 0.68
Future research may test this prediction directly in biological brains by recording the top-down cortical activity at different stages of the visual hierarchy, and validate the hypothesis that early brain regions benefit the most from top-down feedback during visual perception in noisy conditions. 将来の研究では、視覚階層の異なる段階でトップダウンの皮質活動を記録することによって、この予測を直接生体脳でテストし、騒がしい環境での視覚知覚におけるトップダウンフィードバックから、早期の脳領域が最も利益を得るという仮説を検証することができる。 0.66
Our results demonstrated how top-down and bottom-up processes influence perception in different challenging conditions. その結果,トップダウンプロセスとボトムアッププロセスが,異なる課題条件における知覚にどのように影響するかを示した。 0.43
However, how does the brain modulate each term’s contribution (i.e., each hyper-parameter) during natural vision? しかし、脳は自然視における各項の寄与(すなわち、各ハイパーパラメータ)をどのように調節するか。 0.76
Attention mechanisms may be responsible for the regulation of top-down processes by increasing feedback response during noisy conditions [41, 42]. 注意機構は, 騒音条件下でのフィードバック応答を増加させることにより, トップダウンプロセスの制御に寄与する可能性がある [41, 42]。 0.67
Accordingly, it could be possible to envision a model inspired by current transformer architectures where a biologically plausible attention system modulates hyper-parameters based on input features or top-down expectations [43]. したがって、生物学的に可視な注意システムが入力特徴やトップダウン予測に基づいてハイパーパラメータを変調する現行のトランスフォーマーアーキテクチャにインスパイアされたモデルを想定することが可能である[43]。 0.72
Expectation is another important process that modulates top-down feedback in the human brain [44, 45]. 期待は人間の脳におけるトップダウンフィードバック(44,45])を調節する重要なプロセスである。 0.71
In our model, the forward pass initializes the activity in each layer based on the first processing of the input (i.e., without the recurrent PC dynamic). 私たちのモデルでは、フォワードパスは入力の最初の処理に基づいて各レイヤのアクティビティを初期化する(つまり、リカレントpc動的でない)。 0.71
However, it is possible to initialize the network’s activity based on top-down beliefs, according to PC dynamics: the last layer of the hierarchy encodes the predictions of the expected input (i.e., a given class in a classification dataset), and propagates such predictions to initialize the activity of lower layers, similarly to the brain processes involved in sensory expectations [46, 47]. しかし、pc dynamicsによると、ネットワークのアクティビティをトップダウンの信念に基づいて初期化することが可能である:階層の最後の層は、期待される入力の予測をエンコードし(すなわち、分類データセットの所定のクラス)、そのような予測を伝播して、知覚期待(46,47])に関連する脳プロセスと同様に、下位層のアクティビティを初期化する。 0.76
Future work could explore how such expectations may influence the network behavior and accuracy. 将来の研究は、そのような期待がネットワークの振る舞いと正確性にどのように影響するかを探求する。 0.44
9 9 0.85
英語(論文から抽出)日本語訳スコア
Broader Impact Despite its outstanding achievements, artificial intelligence (AI) revealed significant reliability limitations when tested in challenging conditions. 幅広い影響 その優れた成果にもかかわらず、人工知能 (ai) は困難な条件下での試験でかなりの信頼性の限界を明らかにした。 0.61
Addressing these concerns is becoming a crucial goal for the scientific community, as AI is gaining an important place in our daily lives. こうした懸念に対処することは、AIが私たちの日常生活において重要な位置を占めつつあるため、科学コミュニティにとって重要な目標になりつつある。
訳抜け防止モード: これらの懸念に対処する 科学界にとって重要な目標となり AIは私たちの日常生活において重要な位置を占めています。
0.66
In this work, we leverage an established framework in Neuroscience –namely Predictive Coding- to address this problem and investigate the role of feedback in robust visual processing. 本研究では,神経科学における確立されたフレームワーク(すなわち予測符号化)を活用してこの問題に取り組み,堅牢な視覚処理におけるフィードバックの役割について検討する。 0.59
Our results suggested that inspiration from the human brain can be beneficial for artificial vision, and our model provides a remarkable tool to study the visual system in biological brains [48]. 以上の結果から,人間の脳からのインスピレーションは人工視覚に有益であり,生体脳の視覚系を研究するための優れたツールである[48]。 0.75
On the one hand brain-inspired approaches can boost artificial sensory processes in ecological (noisy) situations. 一方、脳にインスパイアされたアプローチは、生態的な(ノイズの多い)状況において、人工的な感覚プロセスを促進する。 0.49
On the other hand, we are aware of the possible nefarious use of human-like artificial systems, and we encourage researchers and policymakers to consider these issues and their societal implications. 一方,我々は,人間のような人工システムの誤用の可能性を認識し,研究者や政策立案者に対して,これらの問題とその社会的意義について検討するよう促している。 0.71
Acknowledgments and Disclosure of Funding 資金調達の承認と開示 0.77
RV is supported by an ANITI (Artificial and Natural Intelligence Toulouse Institute) Research Chair (grant ANR-19-PI3A-0004), and two ANR grants AI-REPS (ANR-18-CE37-0007-01 ) and OSCI-DEEP (ANR-19-NEUC-0004). RVは、AI-REPS (ANR-19-CE37-0007-01 ) とOSCI-DEEP (ANR-19-NEUC-0004) の2つのANR-19-PI3A-0004が支援している。 0.57
References [1] David H Hubel and Torsten N Wiesel. 参照 [1] david h hubel and torsten n wiesel。 0.61
Receptive fields of single neurones in the cat’s striate ネコ線条体における単一ニューロンの受容野 0.57
cortex. The Journal of physiology, 148(3):574–591, 1959. 大脳皮質 The Journal of physiology, 148(3):574–591, 1959。 0.68
[2] Seyed-Mahdi Khaligh-Razavi and Nikolaus Kriegeskorte. [2] seyed-mahdi khaligh-razaviとnikolaus kriegeskorte。 0.45
Deep supervised, but not unsupervised, models may explain it cortical representation. 深く監督されるが、教師されないモデルでは、皮質表現を説明することがある。 0.41
PLoS computational biology, 10(11):e1003915, 2014. plos computational biology, 10(11):e1003915, 2014を参照。 0.86
[3] Pouya Bashivan, Kohitij Kar, and James J DiCarlo. [3]Pouya Bashivan、Kohitij Kar、James J DiCarlo。 0.61
Neural population control via deep image 深部画像による神経集団制御 0.76
synthesis. Science, 364(6439), 2019. 合成 364(6439)、2019年。 0.47
[4] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, and Rob Fergus. 4]Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus。 0.74
Intriguing properties of neural networks. ニューラルネットワークの興味深い性質 0.67
arXiv preprint arXiv:1312.6199, 2013. arXiv preprint arXiv:1312.6199, 2013 0.81
[5] A Nguyen, J Yosinski, and J Clune. [5]Nguyen、J Yosinski、J Clune。 0.56
Deep neural networks are easily fooled: High confidence ディープニューラルネットワークは簡単に騙される:高い信頼度 0.70
predictions for unrecognizable images. 認識不能なイメージの予測です 0.63
arxiv, cs. arXiv preprint arXiv:1412.1897, 2014. arxiv、cs。 arXiv preprint arXiv:1412.1897, 2014 0.77
[6] Dan Hendrycks and Thomas Dietterich. 6]Dan HendrycksとThomas Dietterich。 0.69
Benchmarking neural network robustness to common ニューラルネットワークの信頼性のベンチマーク 0.66
corruptions and perturbations. arXiv preprint arXiv:1903.12261, 2019. 腐敗と混乱 arXiv preprint arXiv:1903.12261, 2019 0.65
[7] Dean Wyatte, David J Jilk, and Randall C O’Reilly. 9] Dean Wyatte氏、David J Jilk氏、Randall C O’Reilly氏。 0.74
Early recurrent feedback facilitates visual 早期の反復フィードバックは視覚的に 0.65
object recognition under challenging conditions. 困難な条件下での物体認識 0.76
Frontiers in psychology, 5:674, 2014. 心理学のフロンティア、2014年5:674。 0.53
[8] Tim C Kietzmann, Courtney J Spoerer, Lynn KA Sörensen, Radoslaw M Cichy, Olaf Hauk, and Nikolaus Kriegeskorte. 8]Tim C Kietzmann, Courtney J Spoerer, Lynn KA Sörensen, Radoslaw M Cichy, Olaf Hauk, Nikolaus Kriegeskorte。 0.72
Recurrence is required to capture the representational dynamics of the human visual system. 反復は、人間の視覚システムの表現力学を捉えるために必要である。 0.68
Proceedings of the National Academy of Sciences, 116(43):21854–21863, 2019. 国立科学アカデミー紀要 116 (43):21854–21863, 2019 0.60
[9] Kohitij Kar, Jonas Kubilius, Kailyn Schmidt, Elias B Issa, and James J DiCarlo. 9]Kohitij Kar, Jonas Kubilius, Kailyn Schmidt, Elias B Issa, James J DiCarlo。 0.71
Evidence that recurrent circuits are critical to the ventral stream’s execution of core object recognition behavior. リカレント回路が中心となる物体認識行動の実行に重要であるという証拠がある。 0.67
Nature neuroscience, 22(6):974–983, 2019. 自然神経科学 22(6):974–983, 2019。 0.82
[10] Karim Rajaei, Yalda Mohsenzadeh, Reza Ebrahimpour, and Seyed-Mahdi Khaligh-Razavi. [10]Karim Rajaei,Yalda Mohsenzadeh,Reza Ebrahimpour,Seyed-Ma hdi Khaligh-Razavi。 0.89
Beyond core object recognition: Recurrent processes account for object recognition under occlusion. コアオブジェクト認識を超えて、リカレントプロセスは、隠蔽下でオブジェクト認識を行う。 0.65
PLoS computational biology, 15(5):e1007001, 2019. plos computational biology, 15(5):e1007001, 2019を参照。 0.88
[11] Kohitij Kar and James J DiCarlo. 11]Kohitij KarとJames J DiCarlo。 0.67
Fast recurrent processing via ventrolateral prefrontal cortex is needed by the primate ventral stream for robust core visual object recognition. 腹側前頭前野を介する高速再電流処理は, 健常児の心的物体認識のために, 霊長類腹側流で必要である。 0.53
Neuron, 109(1):164–176, 2021. ニューロン 109(1):164–176, 2021。 0.83
[12] Y Huang, J Gornet, S Dai, Z Yu, T Nguyen, DY Tsao, and A Anandkumar. [12]Y Huang、J Gornet、S Dai、Z Yu、T Nguyen、DY Tsao、A Anandkumar。 0.70
Neural networks ニューラルネットワーク 0.70
with recurrent generative feedback. 反復的な生成フィードバックで 0.73
arxiv, cs. arXiv preprint arXiv:2007.09200, 2020. arxiv、cs。 arXiv preprint arXiv:2007.09200, 2020 0.77
[13] Jonas Kubilius, Martin Schrimpf, Aran Nayebi, Daniel Bear, Daniel LK Yamins, and James J DiCarlo. Jonas Kubilius氏、Martin Schrimpf氏、Aran Nayebi氏、Daniel Bear氏、Daniel LK Yamins氏、James J DiCarlo氏。 0.73
Cornet: Modeling the neural mechanisms of core object recognition. Cornet: コアオブジェクト認識の神経メカニズムをモデル化する。 0.86
BioRxiv, page 408385, 2018. BioRxiv, page 408385, 2018。 0.79
10 10 0.85
英語(論文から抽出)日本語訳スコア
[14] Aran Nayebi, Daniel Bear, Jonas Kubilius, Kohitij Kar, Surya Ganguli, David Sussillo, James J DiCarlo, and Daniel LK Yamins. 14] Aran Nayebi, Daniel Bear, Jonas Kubilius, Kohitij Kar, Surya Ganguli, David Sussillo, James J DiCarlo, Daniel LK Yamins。 0.75
Task-driven convolutional recurrent models of the visual system. ビジュアルシステムのタスク駆動畳み込みリカレントモデル。 0.60
arXiv preprint arXiv:1807.00053, 2018. arXiv preprint arXiv:1807.00053, 2018 0.80
[15] Siming Yan, Xuyang Fang, Bowen Xiao, Harold Rockwell, Yimeng Zhang, and Tai Sing Lee. [15]Yan、Xuyang Fang、Bower Xiao、Harold Rockwell、Yimeng Zhang、Tai Sing Lee。 0.60
Recurrent feedback improves feedforward representations in deep neural networks. リカレントフィードバックはディープニューラルネットワークのフィードフォワード表現を改善する。 0.64
arXiv preprint arXiv:1912.10489, 2019. arXiv preprint arXiv:1912.10489, 2019 0.81
[16] Yanping Huang and Rajesh PN Rao. 16]Yanping HuangとRajesh PN Rao。 0.66
Predictive coding. Wiley Interdisciplinary Reviews: 予測符号化。 Wiley Interdisciplinary Reviews 0.62
Cognitive Science, 2(5):580–593, 2011. 認知科学, 2(5):580–593, 2011。 0.79
[17] Rajesh PN Rao and Dana H Ballard. Rajesh PN RaoとDana H Ballard。 0.50
Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects. 視覚野における予測符号化:ある種の古典的受容野効果の機能的解釈。 0.62
Nature neuroscience, 2(1):79–87, 1999. 自然神経科学 2(1):79-87, 1999。 0.75
[18] James M Kilner, Karl J Friston, and Chris D Frith. ジェームズ・M・キルナー、カール・J・フリーストン、クリス・D・フリース。 0.62
Predictive coding: an account of the mirror 予測符号化:鏡の説明 0.53
neuron system. Cognitive processing, 8(3):159–166, 2007. ニューロンシステム 認知処理, 8(3):159–166, 2007 0.66
[19] Torsten Baldeweg. トーステン・バルデヴェーク(Torsten Baldeweg)。 0.39
Repetition effects to sounds: evidence for predictive coding in the auditory 音への反復効果:聴覚における予測符号化の証拠 0.77
system. Trends in cognitive sciences, 2006. システム 2006年、認知科学を専攻。 0.52
[20] Marta I Garrido, James M Kilner, Klaas E Stephan, and Karl J Friston. Marta I Garrido氏、James M Kilner氏、Klaas E Stephan氏、Karl J Friston氏。 0.72
The mismatch negativity: ミスマッチの否定性: 0.75
a review of underlying mechanisms. 基礎となるメカニズムのレビュー。 0.65
Clinical neurophysiology, 120(3):453–463, 2009. 臨床神経生理学120(3):453–463, 2009 0.84
[21] Jakob Hohwy, Andreas Roepstorff, and Karl Friston. Jakob Hohwy氏、Andreas Roepstorff氏、Karl Friston氏。 0.64
Predictive coding explains binocular 予測符号化が双眼鏡を説明する 0.45
rivalry: An epistemological review. rivalry: 認識論的レビュー。 0.79
Cognition, 108(3):687–701, 2008. 書評 108(3):687–701, 2008。 0.76
[22] Karl Friston and Stefan Kiebel. 22]カール・フリストンとステファン・キーベル 0.59
Predictive coding under the free-energy principle. 自由エネルギー原理に基づく予測符号化 0.72
Philosophical Transactions of the Royal Society B: Biological Sciences, 364(1521):1211–1221, 2009. 哲学 The Royal Society B: Biological Sciences, 364(1521):1211-1221, 2009 0.74
[23] Andrea Alamia and Rufin VanRullen. 23]アンドレア・アラミアとルフィン・ヴァンルーレン 0.59
Alpha oscillations and traveling waves: Signatures of アルファ振動と進行波:そのシグネチャ 0.70
predictive coding? PLoS Biology, 17(10):e3000487, 2019. 予測符号化? PLoS Biology, 17(10):e3000487, 2019。 0.81
[24] Michael W Spratling. 24]マイケル・w・スプラトリング 0.61
Predictive coding as a model of response properties in cortical area v1. 皮質領域 v1 における応答特性のモデルとしての予測符号化 0.72
Journal of neuroscience, 30(9):3531–3543, 2010. Journal of Neuroscience, 30(9):3531–3543, 2010 0.92
[25] Rufin VanRullen and Simon J Thorpe. Rufin VanRullen氏とSimon J Thorpe氏。 0.63
Is it a bird? is it a plane? 鳥ですか。 飛行機か? 0.56
ultra-rapid visual categorisation of natural and artifactual objects. 超高速視覚分類 自然と人工の物体です 0.70
Perception, 30(6):655–668, 2001. 30(6):655-668, 2001。 0.77
[26] Rufin VanRullen and Simon J Thorpe. Rufin VanRullen氏とSimon J Thorpe氏。 0.63
The time course of visual processing: from early 視覚処理の時間経過:早期から 0.67
perception to decision-making. 意思決定に対する認識。 0.61
Journal of cognitive neuroscience, 13(4):454–461, 2001. 認知神経科学誌 13(4):454–461, 2001。 0.83
[27] Bhavin Choksi, Milad Mozafari, Callum Biggs O’May, Benjamin Ador, Andrea Alamia, and Rufin VanRullen. Bhavin Choksi, Milad Mozafari, Callum Biggs O’May, Benjamin Ador, Andrea Alamia, そしてRufin VanRullen。 0.65
Predify: Augmenting deep neural networks with brain-inspired predictive coding dynamics. Predify: 脳にインスパイアされた予測コーディングダイナミクスによるディープニューラルネットワークの強化。 0.66
2021. [28] Mingxing Tan and Quoc Le. 2021. [28] mingxing tan と quoc le です。 0.72
Efficientnet: Rethinking model scaling for convolutional neural networks. Efficientnet: 畳み込みニューラルネットワークのモデルスケーリングを再考する。 0.81
In International Conference on Machine Learning, pages 6105–6114. 機械学習に関する国際会議、6105-6114頁。 0.76
PMLR, 2019. 2019年、PMLR。 0.72
[29] Diederik P Kingma and Jimmy Ba. 29] dieerik p kingmaとjimmy ba。 0.58
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
arXiv preprint arXiv プレプリント 0.83
arXiv:1412.6980, 2014. arxiv:1412.6980, 2014年。 0.38
[30] Aleksander Madry, Aleksandar Makelov, Ludwig Schmidt, Dimitris Tsipras, and Adrian Vladu. Aleksander Madry氏、Aleksandar Makelov氏、Ludwig Schmidt氏、Dimitris Tsipras氏、Adrian Vladu氏。 0.69
Towards deep learning models resistant to adversarial attacks. 敵対的攻撃に抵抗するディープラーニングモデルに向けて 0.67
arXiv preprint arXiv:1706.06083, 2017. arXiv preprint arXiv:1706.06083, 2017 0.79
[31] Ian J Goodfellow, Jonathon Shlens, and Christian Szegedy. Ian J Goodfellow氏、Jonathon Shlens氏、Christian Szegedy氏。 0.64
Explaining and harnessing adversar- ial examples. 逆境の説明と活用- ialの例。 0.68
arXiv preprint arXiv:1412.6572, 2014. arXiv preprint arXiv:1412.6572, 2014 0.80
[32] Jonas Rauber, Wieland Brendel, and Matthias Bethge. [32]Jonas Rauber、Wieland Brendel、Matthias Bethge。 0.61
Foolbox: A python toolbox to benchmark the robustness of machine learning models. foolbox: マシンラーニングモデルの堅牢性をベンチマークするためのpythonツールボックス。 0.74
In Reliable Machine Learning in the Wild Workshop, 34th International Conference on Machine Learning, 2017. 第34回In Reliable Machine Learning in the Wild Workshop, 34th International Conference on Machine Learning, 2017 0.91
[33] Amir R Zamir, Te-Lin Wu, Lin Sun, William B Shen, Bertram E Shi, Jitendra Malik, and Silvio Savarese. [33]Amir R Zamir, Te-Lin Wu, Lin Sun, William B Shen, Bertram E Shi, Jitendra Malik, Silvio Savarese。 0.84
Feedback networks. フィードバックネットワーク。 0.72
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 1308–1317, 2017. Proceedings of the IEEE conference on computer vision and pattern recognition, page 1308–1317, 2017 0.80
[34] Drew Linsley, Junkyung Kim, Vijay Veerabadran, and Thomas Serre. Drew Linsley, Junkyung Kim, Vijay Veerabadran, Thomas Serre 0.47
Learning long-range spatial dependencies with horizontal gated-recurrent units. 水平ゲート繰り返し単位による長距離空間依存性の学習 0.64
arXiv preprint arXiv:1805.08315, 2018. arXiv preprint arXiv:1805.08315, 2018 0.79
[35] Rakesh Chalasani and Jose C Principe. [35]Rakesh Chalasani氏とJosé C Principe氏。 0.83
Deep predictive coding networks. 深層予測符号化ネットワーク。 0.81
arXiv preprint arXiv プレプリント 0.83
arXiv:1301.3541, 2013. arXiv:1301.3541, 2013。 0.64
11 11 0.85
英語(論文から抽出)日本語訳スコア
[36] Haiguang Wen, Kuan Han, Junxing Shi, Yizhen Zhang, Eugenio Culurciello, and Zhongming Liu. [36]ハイガン・ウン、クアン・ハン、ジュンキョン・シ、イッシェン・チャン、ユーゲニオ・クルシエロ、ジュンミン・リウ。 0.48
Deep predictive coding network for object recognition. 物体認識のための深部予測符号化ネットワーク 0.82
In International Conference on Machine Learning, pages 5266–5275. 国際機械学習会議において5266-5275頁。 0.79
PMLR, 2018. 2018年、PMLR。 0.68
[37] Dongyu Meng and Hao Chen. [37]ドンギュ・メングとホー・チェン 0.44
Magnet: a two-pronged defense against adversarial examples. マグネット:敵の例に対する2本の防御。 0.70
In Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security, pages 135–147, 2017. 2017 ACM SIGSAC Conference on Computer and Communications Security, page 135–147, 2017 に参加。 0.79
[38] Shiwei Shen, Guoqing Jin, Ke Gao, and Yongdong Zhang. [38]紫泉、広慶晋、華雅、慶東章。 0.50
Ape-gan: Adversarial perturbation Ape-gan:逆行性摂動 0.60
elimination with gan. arXiv preprint arXiv:1707.05474, 2017. ganによる除去。 arXiv preprint arXiv:1707.05474, 2017 0.71
[39] Pouya Samangouei, Maya Kabkab, and Rama Chellappa. [39]Pouya Samangouei、Maya Kabkab、Rama Chellappa。 0.63
Defense-gan: Protecting classifiers against adversarial attacks using generative models. ディフェンスガン: 生成モデルを用いた敵攻撃に対する分類器の保護。 0.66
arXiv preprint arXiv:1805.06605, 2018. arXiv preprint arXiv:1805.06605, 2018 0.79
[40] Ajil Jalal, Andrew Ilyas, Constantinos Daskalakis, and Alexandros G Dimakis. Ajil Jalal氏、Andrew Ilyas氏、Constantinos Daskalakis氏、Alexandros G Dimakis氏。 0.64
The robust manifold defense: Adversarial training using generative models. 頑健な多様体防御: 生成モデルを用いた逆トレーニング。 0.71
arXiv preprint arXiv:1712.09196, 2017. arXiv preprint arXiv:1712.09196, 2017 0.79
[41] Farhan Baluch and Laurent Itti. 41]Farhan BaluchとLaurent Itti。 0.66
Mechanisms of top-down attention. トップダウン注意のメカニズム。 0.65
Trends in neurosciences, 34(4):210–224, 2011. 神経科学の動向 34(4):210–224, 2011. 0.73
[42] Harriet Feldman and Karl Friston. ハリエット・フェルドマンとカール・フリーストン。 0.41
Attention, uncertainty, and free-energy. 注意、不確実性、自由エネルギー。 0.67
Frontiers in human 人間におけるフロンティア 0.57
neuroscience, 4:215, 2010. 神経科学 2010年4月2日 0.61
[43] Rufin VanRullen and Andrea Alamia. 43]Rufin VanRullen氏とAndrea Alamia氏。 0.77
Gattanet: Global attention agreement for convolutional gattanet: 畳み込みのためのグローバルな注意合意 0.65
neural networks. ニューラルネットワーク。 0.65
arXiv preprint arXiv:2104.05575, 2021. arXiv preprint arXiv:2104.05575, 2021 0.81
[44] Floris P De Lange, Micha Heilbron, and Peter Kok. [44]Floris P de Lange、Micha Heilbron、Peter Kok。 0.66
How do expectations shape perception? 期待はどのように知覚を形成するか? 0.51
Trends in cognitive sciences, 22(9):764–779, 2018. 認知科学のトレンド, 22(9):764–779, 2018。 0.77
[45] Christopher Summerfield and Floris P De Lange. 45] クリストファー・サマーフィールドと フローリス・p・デ・ランジェ 0.53
Expectation in perceptual decision making: neural and computational mechanisms. 知覚的意思決定への期待:神経と計算のメカニズム。 0.78
Nature Reviews Neuroscience, 15(11):745–756, 2014. Nature Reviews Neuroscience, 15(11):745–756, 2014 0.95
[46] Christopher Summerfield and Tobias Egner. 46] クリストファー・サマーフィールドと トビアス・エグナー 0.52
Expectation (and attention) in visual cognition. 視覚認知における期待(および注意)。 0.78
Trends in cognitive sciences, 13(9):403–409, 2009. 認知科学のトレンド 13(9):403–409, 2009 0.73
[47] Peter Kok and Floris P de Lange. [47]Peter KokとFloris P de Lange。 0.77
Predictive coding in sensory cortex. 感覚野における予測符号化 0.63
In An introduction to model-based cognitive neuroscience, pages 221–244. 特集にあたって モデルに基づく認知神経科学、221–244頁。 0.50
Springer, 2015. [48] Zhaoyang Pang, Callum Biggs O’May, Bhavin Choksi, and Rufin VanRullen. 2015年、春。 [48]Zhaoyang Pang, Callum Biggs O’May, Bhavin Choksi, Rufin VanRullen。 0.63
Predictive coding feedback results in perceived illusory contours in a recurrent neural network. 予測的符号化フィードバックは、繰り返しニューラルネットワークにおける錯覚の輪郭を知覚する。 0.67
arXiv preprint arXiv:2102.01955, 2021. arXiv preprint arXiv:2102.0 1955, 2021 0.73
12 12 0.85
英語(論文から抽出)日本語訳スコア
A Appendix appendix (複数形 appendixs) 0.35
A.1 Deep Network Architectures A.1 ディープネットワークアーキテクチャ 0.72
In this part, we explain how we split each of the ResNet18 and EfficientNetB0 into blocks of layers and converted them into PCoders. 本稿では,ResNet18とEfficientNetB0のそれぞれをレイヤブロックに分割してPCoderに変換する方法について説明する。 0.73
We used a modified ResNet18 architecture that works better with 32x32 images from the CIFAR100 dataset. 我々は、CIFAR100データセットから32x32イメージのResNet18アーキテクチャを改良した。 0.78
ResNet18 is a sequence of residual blocks, each of which consists of a sequence of convolution, batch normalization, and ReLU layers. ResNet18は残余ブロックのシーケンスであり、それぞれが畳み込み、バッチ正規化、ReLUレイヤで構成されている。 0.68
Due to the residual connections around each block, we chose to never split them into multiple PCoders. 各ブロックの接続が残っていたため、我々はそれらを複数のPCoderに分割しないことにした。 0.62
However, a single PCoder may contain more than one residual blocks in its feedforward module (F). しかし、単一のpcoderはそのfeedforwardモジュール(f)に複数の残余ブロックを含むことができる。 0.80
More precisely, we split the modified ResNet18 into 5 PCoders. より正確には、修正されたresnet18を5つのpcoderに分割する。 0.50
PCoder1 contains the first Convolution and Batch Normalization layers. PCoder1は、最初のConvolution and Batch Normalizationレイヤを含んでいる。 0.58
PCoder2 to PCoder5 contain two consecutive residual blocks each. PCoder2 と PCoder5 はそれぞれ2つの連続した残余ブロックを含む。 0.58
In the case of PEffNetB0, we used the PyTorch implementation of EfficientNetB0 provided in https: //github.com/rwightm an/pytorch-image-mod els. PEffNetB0の場合、https: //github.com/rwightm an/pytorch-image-mod elsで提供されるEfficientNetB0のPyTorch実装を使用しました。 0.56
In this implementation, EfficientNetB0 is split into eight blocks of layers (considering the first convolution and batch normalization layers as a separate block). この実装では、 efficientnetb0は8つのレイヤに分割される(第1の畳み込み層とバッチ正規化層を別のブロックとして考える)。 0.66
Except for the classification block, we converted each block into a PCoder. 分類ブロックを除いて、各ブロックをPCoderに変換しました。 0.78
Please see Table 1 for more details on deep predictive coding architectures and their PCoders. 詳細な予測コーディングアーキテクチャとそのpcoderについて、テーブル1を参照してください。 0.70
Table 1: Architectures of PResNet18 and PEffNetB0. 表1:PResNet18とPEffNetB0のアーキテクチャ。 0.76
Conv (channel, size, stride), Deconv (channel, size, stride), Upsample (scale_factor), BN is BatchNorm, [ ]+ is ReLU, and [ ]∗ is SiLU. Conv(チャネル、サイズ、ストライド)、Deconv(チャネル、サイズ、ストライド)、Upsample(scale_facto r)、BNはBatchNorm、[ ]+はReLU、[ ]∗はSiLUである。
訳抜け防止モード: conv (channel, size, stride ) deconv (channel, stride ) size, stride )、upsample (scale_factor ) bn は batchnorm である。 [ ] + は relu であり、[ ] ∗ は silu である。
0.80
EfficientBlock corresponds to each block in the PyTorch implementation of EfficientNetB0. EfficientBlockは、EfficientNetB0のPyTorch実装の各ブロックに対応する。 0.80
See Table 2 for the structure of ResNet BasicBlocks ResNet BasicBlocks の構造に関する表 2 を参照。 0.88
PResNet18 Input Size: 3x32x32 PRESNet18 入力サイズ:3x32x32 0.62
Fi Bi Fi PEffNetB0 フィ 備 フィ PEffNetB0 0.57
Input Size: 3x224x224 入力サイズ:3x224x224 0.61
PCoder1 PCoder2 PCoder1 PCoder2 0.78
PCoder3 PCoder4 PCoder3 PCoder4 0.78
PCoder5 PCoder6 PCoder7 PCoder8 PCoder5 PCoder6 PCoder7 PCoder8 0.65
[BN (Conv (64, 3, 1))]+ [BasicBlock (64, 3, 1)]+ [BasicBlock (64, 3, 1)]+ [BasicBlock (128, 3, 2)]+ [BasicBlock (128, 3, 1)]+ [BasicBlock (256, 3, 2)]+ [BasicBlock (256, 3, 1)]+ [BasicBlock (512, 3, 2)]+ [BasicBlock (512, 3, 1)]+ [bn (conv (64, 3, 1))]+ [basicblock (64, 3, 1)]+ [basicblock (64, 3, 1)]+ [basicblock (128, 3, 2)]+ [basicblock (128, 3, 1)]+ [basicblock (256, 3, 2)]+ [basicblock (256, 3, 1)]+ [basicblock (512, 3, 2)]+ [basicblock (512, 3, 1)]+ [basicblock (512, 3, 1)]+]+ [basicblock (512, 3, 1)]+]+ [basicblock (512, 3, 1)]+ ]+ [basicblock (512, 3, 1)]+ [basicblock (512, 3, 1)] ] 0.76
- Bi Upsample (2) Deconv (3, 3, 1) Deconv (32, 3, 1) - 備 Upsample (2) Deconv (3, 3, 1) Deconv (32, 3, 1) 0.69
Deconv (3, 3, 1) deconv (複数形 deconvs) 0.31
[BN (Conv (32, 3, 2))]∗ [BN(Conv(32, 3, 2))]* 0.63
Deconv (64, 3, 1) Deconv (64, 3, 1) 0.85
EfficientBlock0 Upsample (2) 効率性ブロック0 Upsample (2) 0.61
Deconv (64, 3, 1) Deconv (64, 3, 1) 0.85
Upsample (2) Upsample (2) 0.85
Deconv (128, 3, 1) Deconv (128, 3, 1) 0.85
Upsample (2) Upsample (2) 0.85
Deconv (256, 3, 1) デコンヴ(256, 3, 1) 0.75
- EfficientBlock1 - 効率的なBlock1 0.60
EfficientBlock2 効率的なBlock2 0.36
EfficientBlock3 EfficientBlock4 EfficientBlock5 EfficientBlock6 EfficientBlock3 EfficientBlock4 EfficientBlock5 EfficientBlock6 0.65
Upsample (2) Upsample (2) 0.85
Deconv (16, 3, 1) Deconv (複数形 Deconvs) 0.27
Upsample (2) Upsample (2) 0.85
Deconv (24, 3, 1) Deconv (24, 3, 1) 0.85
Upsample (2) Upsample (2) 0.85
Deconv (40, 3, 1) Deconv (80, 3, 1) Deconv (40, 3, 1) Deconv (80, 3, 1) 0.85
Upsample (2) Upsample (2) 0.85
Deconv (112, 3, 1) Deconv (192, 3, 1) deconv (112, 3, 1) deconv (192, 3, 1) 0.83
Table 2: Architecture of BasicBlock(i, j, k). 表2: BasicBlock(i, j, k)のアーキテクチャ。 0.71
Each BasicBlock is a residual block where the input is added to the output of the block. それぞれの BasicBlock は残余ブロックであり、そのブロックの出力に入力が加算される。 0.81
When k (cid:54)= 1, the input passes through a Conv(i,1,2) and a BatchNorm before being added to the output. k (cid:54) = 1 の場合、入力は出力に追加される前に Conv(i,1,2) と BatchNorm を通過する。 0.80
BasicBlock (i, j, k) [BN (Conv (i, j, k))]+ BasicBlock (i, j, k) [BN (Conv (i, j, k))]+ 0.74
BN (Conv (i, j, 1)) BN (Conv (i, j, 1)) 0.85
A.2 Implementation Details Training Hyper-Parameters Since µ, γ, and λ should satisfy the constraint µ + γ + λ = 1, independently optimizing them with backpropagation leads to invalid values. A.2 実施内容 ハイパーパラメータのトレーニング μ, γ, λは制約 μ + γ + λ = 1 を満たすべきであるので、バックプロパゲーションでそれらを独立に最適化すると、無効な値となる。
訳抜け防止モード: A.2 実施内容 過度パラメータのトレーニング μ, γ, λは制約 μ + γ + λ = 1 を満たすべきである。 独立して バックプロパゲーションで最適化すると 無効な値になる
0.60
To solve this issue, we made use of auxiliary parameters. この問題を解決するために,補助パラメータを用いた。 0.82
Precisely, let µaux, γaux, and λaux denote three auxiliary parameters. 正確には、μaux, γaux, λaux は3つの補助パラメータを表す。 0.66
Then, we compute µ, γ, and λ as follows: 次に μ, γ, λ を次のように計算する。 0.76
µ = γ = σ(µaux) µ = γ = σ(μaux) 0.89
σ(µaux) + σ(γaux) + σ(βaux) σ(μaux) + σ(γaux) + σ(βaux) 0.98
σ(γaux) σ(µaux) + σ(γaux) + σ(βaux) σ(γaux) σ(μaux) + σ(γaux) + σ(βaux) 0.98
, , 13 (3) , , 13 (3) 0.85
(4) (4) 0.85
英語(論文から抽出)日本語訳スコア
where β = σ(βaux) どこに β = σ(βaux) 0.83
σ(µaux) + σ(γaux) + σ(βaux) σ(μaux) + σ(γaux) + σ(βaux) 0.98
, σ(x) = 1 , σ(x) = 1 0.85
1 + exp(−x) 1 + exp(−x) 0.97
. (5) (6) While the auxiliary parameters can take on any real value, the corresponding hyper-parameters are thus constrained between 0 and 1, summing to 1. . (5) (6) 補助パラメータは任意の実値を取ることができるが、対応するハイパーパラメータは0と1の間に制約される。 0.83
Gradient Scaling taken with respect to the activation of the higher layer (mi). 勾配スケーリングは、上位層(mi)の活性化に関して取られる。 0.67
That is, In our dynamics, the error (i) is defined as a scalar quantity whose gradient is その通りです。 我々の力学では、誤差(i)は勾配が勾配であるスカラー量として定義される 0.63
i = 1 K (mk 〈i〉 1K (mk) 0.71
i−1 − pk i−1)2 i−1 − pk i−1)2 0.78
(7) where pi−1 (= B(mi, θf b i+1)) represents the prediction made for mi−1 and K represents the number of elements in mi−1 ( = channels*width*heigh t). (7) pi−1 (= b(mi, θf b i+1)) は mi−1 の予測を表し、k は mi−1 (= channels*width*heigh t) の元の数を表す。 0.85
Thus, the error-correction term at position j itself becomes, したがって、位置 j における誤差補正項は、それ自身となる。 0.57
∂i ∂mj i ∂i ∂mj i である。 0.39
= 1 K ∂(mk = 1K ∂(mk) 0.83
i−1 − pk ∂mj i i−1 − pk ∂mj i 0.78
i−1)2 (8) Equation 8 highlights how the dimensionality of the prediction (equivalently the error term) affects the gradients, scaling them with a factor K that can differ across layers by orders of magnitude. i−1)2 (8) 方程式8は、予測の次元性(正確には誤差項)が勾配にどのように影響するかを強調し、それらをk因子で拡大し、層ごとに桁違いにすることができる。
訳抜け防止モード: i−1)2 (8) 方程式8は、予測の次元性(つまり誤差項)が勾配に与える影響を強調する。 大きさによって層をまたがって異なる係数kでそれらをスケーリングする。
0.81
This effect is worsened for CNNs where the gradients outside of the receptive field (of size C) of element mj この効果は、要素mjの受容野外(サイズC)の勾配がCNNに悪影響を及ぼす。 0.62
i will be zero, K(cid:88) 俺はゼロだ k(cid:88) 0.64
k ∂(mk i−1 − pk ∂mj i k ∂(mk) i−1 − pk ∂mj i 0.85
i−1)2 ∂(mk i−1)2 ∂(mk) 0.85
i−1 − pk ∂mj i i−1 − pk ∂mj i 0.78
i−1)2 (9) C(cid:88) i−1)2 (9) c(cid:88) 0.81
k = To counteract this, we apply a layer-specific scaling factor to the error gradients. k = これに対応するために、レイヤー固有のスケーリング係数を誤差勾配に適用する。 0.80
Assuming that the partial derivative of the error for each pair of connected neurons i, j is i.i.d normally distributed around 0 : 一対の連結ニューロン i に対する誤差の部分微分が j であると仮定すると、j は通常 0 : 付近に分布する。
訳抜け防止モード: 一対の連結ニューロン i に対する誤差の部分微分を仮定する。 j は i.i.d で、通常 0:
0.68
K(cid:88) k k(cid:88) k 0.82
K(cid:88) k k(cid:88) k 0.82
It can be shown that, それを示すことができる。 0.73
∂(mk i−1 − pk ∂mj i ∂(mk) i−1 − pk ∂mj i 0.85
i−1)2 ∼ N (0, σ2) i−1)2 N (0, σ2) 0.80
C(cid:88) ∂i ∂mj i c(cid:88) ∂i ∂mj i である。 0.60
= 1 K ∂(mk = 1K ∂(mk) 0.83
i−1 − pk ∂mj i i−1 − pk ∂mj i 0.78
i−1)2 ∼ N (0, i−1)2 N (0。 0.62
Cσ2 K 2 ) (10) Cσ2 K2)。 (10) 0.75
(11) gradient. We multiply the gradient by a factor of(cid:112)K 2/C to scale them and apply a more meaningful (11) 勾配だ 勾配を(cid:112)k 2/c に乗じてスケールし、より意味のあるものを適用する。 0.66
Equation 11 provides a way to, at least partly, counteract the effect of the dimensionality for our 等式11は、少なくとも部分的には、我々の次元の効果を反動する方法を提供する 0.78
k step size for correcting the errors. k エラーを修正するためのステップサイズ。 0.81
Execution Time We tested the shallow models and the deeper networks on different machines. 実行時間 異なるマシン上で、浅いモデルと深いネットワークをテストしました。 0.73
All the simulations of the shallow models, including the 10 different initializations, took approximately 4 days using 1 GPU Nvidia GTX 1080Ti with 11Gb. 10の異なる初期化を含む浅いモデルのシミュレーションはすべて、1つのGPU Nvidia GTX 1080Tiと11Gbを使用して約4日間を要した。 0.79
The training of PResNet18 on CIFAR-C took approximatively 2 weeks, whereas PEffNetB0 was trained in 6 days, using a machine equipped with 1 GPU Nvidia TitanV with 12Gb. CIFAR-CでのPResNet18のトレーニングには2週間を要し、PEffNetB0は1台のGPU Nvidia TitanVと12Gbを搭載したマシンを使用して6日間で訓練された。 0.66
14 14 0.85
英語(論文から抽出)日本語訳スコア
A.3 Supplementary Figures In this section, we present the supplementary figures which complement the main text. A.3 補足図 本節では本本文を補完する補足図形について述べる。 0.58
The first three figures (fig. 最初の3つの数字(図)。 0.66
4-6) show the full results of the shallow model: the value of its hyper-parameters (figure 4), the results concerning the training of its parameters (figure 5), and the accuracy over time steps (figure 6). 4-6) 浅層モデルの完全な結果を示す: ハイパーパラメータの値(第4図)、パラメータのトレーニングに関する結果(第5図)、時間ステップの精度(第6図)。 0.73
Figures 7 and 8 show the relative accuracy for PResNet18 on all noise levels in CFIAR100-C, using shared or separate hyperparameters, respectively. 図7と8は、CFIAR100-Cの全てのノイズレベルにおけるPResNet18の相対的精度を示している。 0.68
The last four figures (fig 9-12) report all the hyper-parameters values for PResNet18 and PEffNetB0, considering different noise levels and -in the case of separate hyper-parameters- each PCoder. 最後の4つの図(9-12図)は、PResNet18 と PEffNetB0 のすべてのハイパーパラメータを報告し、ノイズレベルと - 個別のハイパーパラメータの場合- を考慮している。 0.65
Figure 4: Hyper-parameters for the shallow model. 図4: 浅いモデルのハイパーパラメータ。 0.69
A) Each subplot shows the hyper-parameter values for the unsupervised and supervised networks (left and right column, respectively) for gaussian and salt&pepper noise (first and second row, respectively). a) 各サブプロットは、ガウスノイズとソルト&ペッパーノイズ(それぞれ1行目と2列目)に対する教師なしネットワーク(それぞれ左列と右列)のハイパーパラメータ値を示す。 0.74
The color code is consistent with the main figure and indicated at the bottom of the figure. 色コードは主図と一致し、図の下部に示される。 0.60
The feedforward-error refers to its own y-axis shown to the right of each panel. feedforward-errorは、各パネルの右に示す独自のy軸を指す。 0.76
B) Same as in A but for the ablation models, in which either the feedback-error (left column) or the feedforward-error (right column) were removed. B) アブレーションモデルではAと同じで, フィードバックエラー(左列)またはフィードフォワードエラー(右列)が除去された。 0.73
15 00.40.20.800.10.050. 200.10.050.200.40.20 .800.40.800.30.600.3 0.600.40.800.40.800. 40.800.40.800.40.800 .10.050.200.10.050.2 00.40.20.800.40.20.8 NOISE LEVELNOISE LEVELNOISE LEVELNOISE LEVELPARAM. 15 00.40.20.800.200.200 .200.200.200.200.200 .40.800.30.600.30.80 0.40.800.40.800.40.8 00.40.40.800.10.050. 200.200.200.200.40.2 0.40.20.8NOISE LEVELNOISE LEVELNOISE LEVELNOISE LEVELPARAM 0.47
VALUEPARAM. VALUEPARAM 0.48
VALUEPARAM. VALUEPARAM 0.48
VALUEPARAM. VALUEPARAM 0.48
VALUEUNSUPERVISEDSUP ERVISEDGAUSSIANSALT& amp;PEPPER GAUSSIANSALT&PEPPER ABNO FEEDBACK ERRORNO FEEDFORWARD ERRORFEEDFORWARD DRIVEFEEDBACK ERROR FEEDFORWARD ERROR MEMORY 2121.302020.6.30.6 ValueunSUPervisedgas USSIANSALT&PEPPER GASSIANSALT&PEPPER ABNO FEEDBACK ERRORNO FEEDFORWARD ERRORFEEDFORWARD DRIVEFEEDBACK ERROR FEEDFORWARD ERRORORORWARD ERROR MEMORY 2121.302020.6 0.71
英語(論文から抽出)日本語訳スコア
Figure 5: Shallow models training. 図5: 浅層モデルのトレーニング。 0.78
A) Networks’ accuracy during the training. a) トレーニング中のネットワークの精度。 0.72
In the supervised case the hyper-parameters were kept fixed, whereas in the unsupervised case we report the accuracy of the forward pass only. 監督例ではハイパーパラメータが固定され,非監督例では前方通過のみの精度が報告された。 0.56
B) Training accuracy of the forward networks. b) フォワードネットワークのトレーニング精度。 0.63
C) Reconstruction loss for each Pcoder in the shallow model. c) 浅層モデルにおける各pコーダの再構成損失 0.86
For comparison, we report to the right the reconstruction loss in the supervised network (note that in this case the network was not trained for reconstruction). 比較のために,監視ネットワークにおける再構成損失を右側に報告する(この場合,ネットワークは再構築のために訓練されていないことに注意)。 0.78
D) Accuracy of the supervised network as a function of the time-steps in the first and last block of training. D) トレーニングの第1ブロック及び最終ブロックにおける時間ステップの関数としての教師ネットワークの正確性。 0.78
Figure 6: Accuracy over time steps of both shallow models trained for reconstruction (left column) or classification (right column). 図6: 再構築(左カラム)または分類(右カラム)のために訓練された浅いモデルの時間ステップの精度。 0.82
The colors represent different noise levels for Gaussian (first row) and Salt&pepper noise (second row). 色はガウス(第1列)とソルト・アンド・ペッパー(第2列)のノイズレベルが異なる。 0.64
16 ACCURACY50701030EPOC HS16206111L1L2L30.00 080.00060.00040.0002 RECONSTRUCTION LOSS(UNSUPERVISED) EPOCHS1620611162408T IME STEPSE1E20SAMEDEEPFE ATKERNELSUPERVISEDUN SUPERVISED (FW pass)2.01.0RECONSTRU CTION LOSS(SUPERVISED) 0.7090.0182.971EPOCH S16206111ABCACCURACY 50701030DACCURACY507 01030GAUSSIANSALT&am p;PEPPER UNSUPERVISEDSUPERVIS ED305070ACCURACY3550 70ACCURACY3050703050 704286010TIME STEPS4286010TIME STEPS42860104286010N 1N2N3N4 16 ACCURACY5070701030EP OCHS16206111L1L2L30. 00080.00060.00040.00 02Reconstructation LOSS(UNSUPERVISED) EPOCHS16206162408TIM E STEPSE1E20SAMEDEFEAT KERELELSUPERVISEDUNS UPERVISED (FW pass)2.01.0RECONSTRU CTION LOSS(SUPERVISED) 0.7090.0182.971EPOCH S16616111ABCACCURACY 50703030DACCURACY507 0701030GAUSSIANSALT& amp;PEPPERUNSUPERVISED30 50707070707030GAUSSI ANSALT&PEPPERUNSUPERVISED30 50705070707070707070 70703070307030703070 30703070307070303030 70303070703030303030 30303030303030303030 303030EETEETEETFEATK ERKERSEDSITSITSITSNN NNNNNNNNNNNNN2 0.48
英語(論文から抽出)日本語訳スコア
Figure 7: Recognition accuracy of PResNet18 with shared hyper-parameters on each of the CIFAR100C noise types and levels. 図7: cifar100cのノイズタイプとレベルごとにハイパーパラメータを共有するpresnet18の認識精度。 0.80
Each plot shows the change in accuracy with respect to the feedforward baseline (i.e. 各プロットはフィードフォワードベースライン(すなわち、フィードフォワードベースライン)に対する精度の変化を示す。 0.74
ResNet18) for each noise type. ノイズタイプ毎にResNet18)。 0.73
Each color indicates a noise level. それぞれの色はノイズレベルを示す。 0.81
Numbers below the noise names denote the absolute recognition accuracy at time-step 0 (feedforward baseline). ノイズ名の下の数字は、時間ステップ0(フィードフォワードベースライン)における絶対認識精度を表す。 0.75
17 17 0.85
英語(論文から抽出)日本語訳スコア
Figure 8: Recognition accuracy of PResNet18 with separate hyper-parameters per PCoder on each of the CIFAR100-C noise types and levels. 図8: CIFAR100-CのノイズタイプとレベルごとにPCoder毎に別々のハイパーパラメータを持つPResNet18の認識精度。 0.81
Each plot shows the change in accuracy with respect to the feedforward baseline (i.e. 各プロットはフィードフォワードベースライン(すなわち、フィードフォワードベースライン)に対する精度の変化を示す。 0.74
ResNet18) for each noise type. ノイズタイプ毎にResNet18)。 0.73
Each color indicates a noise level. それぞれの色はノイズレベルを示す。 0.81
Numbers below the noise names denote the absolute recognition accuracy at time-step 0 (feedforward baseline). ノイズ名の下の数字は、時間ステップ0(フィードフォワードベースライン)における絶対認識精度を表す。 0.75
Figure 9: Absolute values of hyper-parameters of PResNet18 when they are shared among PCoders. 図9: PCoders間で共有されるPResNet18のハイパーパラメータの絶対値。 0.80
Each line shows the average value of a hyper-parameter across all 19 CIFAR100-C noise types. 各行は、19種類のCIFAR100-Cノイズタイプの平均値を示す。 0.69
Error bars indicate standard error of the mean. エラーバーは平均の標準エラーを示す。 0.67
The value feedforward error hyper-parameter is plotted with a second y-axis (red). 値feedforwardエラーハイパーパラメータは、第2のy軸(red)でプロットされる。 0.73
Noise level 0 denotes clean images. ノイズレベル0はクリーンな画像を表す。 0.65
18 18 0.85
英語(論文から抽出)日本語訳スコア
Figure 10: Absolute values of hyper-parameters of PResNet18 when each PCoder uses separate ones. 図10:presnet18のハイパーパラメータの絶対値 各pcoderが別々のものを使用する場合。 0.71
Each plot shows the results of training hyper-parameters as a function of PCoders for a particular noise level. 各プロットは、特定の雑音レベルに対するPCodersの機能としてハイパーパラメータのトレーニング結果を示す。 0.81
Each line shows the average value of a hyper-parameter across all 19 CIFAR100-C noise types. 各行は、19種類のCIFAR100-Cノイズタイプの平均値を示す。 0.69
Error bars indicate standard error of the mean. エラーバーは平均の標準エラーを示す。 0.67
The value feedforward error hyper-parameter is plotted with a second y-axis (red). 値feedforwardエラーハイパーパラメータは、第2のy軸(red)でプロットされる。 0.73
Noise level 0 denotes clean images. ノイズレベル0はクリーンな画像を表す。 0.65
Figure 11: Absolute values of hyper-parameters of PEffNetB0 when each PCoder uses separate ones. 図11:peffnetb0のハイパーパラメータの絶対値 各pcoderが別々のものを使用する場合。 0.70
Each plot shows the absolute value of a hyper-parameter as a function of PCoders for a particular level of Gaussian noise. それぞれのプロットは、ガウス雑音の特定のレベルに対するPCodersの関数としてハイパーパラメータの絶対値を示す。 0.79
The value feedforward error hyper-parameter is plotted with a second y-axis (red). 値feedforwardエラーハイパーパラメータは、第2のy軸(red)でプロットされる。 0.73
Noise level 0 denotes clean images. ノイズレベル0はクリーンな画像を表す。 0.65
19 19 0.85
英語(論文から抽出)日本語訳スコア
Figure 12: Absolute values of hyper-parameters of PEffNetB0 when each PCoder uses separate ones. 図12:peffnetb0のハイパーパラメータの絶対値 各pcoderが別々のものを使用する場合。 0.70
Each plot shows the absolute value of a hyper-parameter as a function of PCoders for a particular level of Salt&Pepper noise. 各プロットは、特定のレベルのソルト・ペッパーノイズに対するpcoderの関数としてハイパーパラメータの絶対値を示す。 0.77
The value feedforward error hyper-parameter is plotted with a second y-axis (red). 値feedforwardエラーハイパーパラメータは、第2のy軸(red)でプロットされる。 0.73
Noise level 0 denotes clean images. ノイズレベル0はクリーンな画像を表す。 0.65
20 20 0.85
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。