論文の概要: Fermi-Bose Machine
- arxiv url: http://arxiv.org/abs/2404.13631v1
- Date: Sun, 21 Apr 2024 12:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 18:11:42.965380
- Title: Fermi-Bose Machine
- Title(参考訳): Fermi-Bose マシン
- Authors: Mingshan Xie, Yuchen Wang, Haiping Huang,
- Abstract要約: 意味的に意味のある表現学習を提案し,同じラベルを持つ入力の表現を隠蔽層に縮小し,異なるラベルの表現を退避させる(フェルミオンに限る)。
この階層的な学習は自然界において局所的であり、生物学的に妥当である。
この局所的コントラスト学習をMNISTベンチマークデータセットに適用することにより、標準パーセプトロンの敵的脆弱性を大幅に軽減できることを示す。
- 参考スコア(独自算出の注目度): 8.201224848190753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distinct from human cognitive processing, deep neural networks trained by backpropagation can be easily fooled by adversarial examples. To design a semantically meaningful representation learning, we discard backpropagation, and instead, propose a local contrastive learning, where the representation for the inputs bearing the same label shrink (akin to boson) in hidden layers, while those of different labels repel (akin to fermion). This layer-wise learning is local in nature, being biological plausible. A statistical mechanics analysis shows that the target fermion-pair-distance is a key parameter. Moreover, the application of this local contrastive learning to MNIST benchmark dataset demonstrates that the adversarial vulnerability of standard perceptron can be greatly mitigated by tuning the target distance, i.e., controlling the geometric separation of prototype manifolds.
- Abstract(参考訳): 人間の認知処理とは違い、バックプロパゲーションによって訓練されたディープニューラルネットワークは、敵対的な例によって容易に騙される。
意味的に意味のある表現学習を設計するために、バックプロパゲーションを廃止し、代わりに、同じラベルを持つ入力の表現が、異なるラベルを持つもの(フェルミオンに類似)に対して、隠れた層で収縮する(ボソンに類似)ローカルコントラスト学習を提案する。
この階層的な学習は自然界において局所的であり、生物学的に妥当である。
統計力学解析により、ターゲットフェルミオン対距離が重要なパラメータであることが示された。
さらに、MNISTベンチマークデータセットへのこの局所的コントラスト学習の適用により、標準パーセプトロンの対角的脆弱性は、ターゲット距離、すなわち、プロトタイプ多様体の幾何学的分離を制御することによって、大幅に緩和できることが示される。
関連論文リスト
- A Self-Organizing Clustering System for Unsupervised Distribution Shift Detection [1.0436203990235575]
本稿では,分布変化のモニタリングと検出のための連続学習フレームワークを提案する。
特に,2つのトポロジ保存マップ(自己組織化マップ)とスケール不変マップ(スケール不変マップ)の投影について検討する。
本手法は教師なしコンテキストと教師なしコンテキストの両方に適用できる。
論文 参考訳(メタデータ) (2024-04-25T14:48:29Z) - Improving Weakly-Supervised Object Localization Using Adversarial Erasing and Pseudo Label [7.400926717561454]
本稿では,弱教師付きオブジェクトローカライゼーションの枠組みについて検討する。
それは、画像と画像レベルのクラスラベルのみを使用して、オブジェクトクラスとその位置を予測できるニューラルネットワークをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2024-04-15T06:02:09Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Training set cleansing of backdoor poisoning by self-supervised
representation learning [0.0]
バックドアまたはトロイの木馬攻撃は、ディープニューラルネットワーク(DNN)に対するデータ中毒攻撃の重要なタイプである
教師付きトレーニングは, バックドアパターンと関連するターゲットクラスとの間に, 通常の特徴と真の起源のクラスとの間により強い関連性を持つことが示唆された。
そこで本研究では,教師なし表現学習を用いて,バックドアポゾンによるトレーニングサンプルの強調を回避し,同じクラスのサンプルに類似した特徴埋め込みを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-19T03:29:58Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Generating Out of Distribution Adversarial Attack using Latent Space
Poisoning [5.1314136039587925]
本稿では,実際の画像が破損しない敵の例を生成する新しいメカニズムを提案する。
潜在空間表現は、画像の固有構造を改ざんするために利用される。
勾配ベースの攻撃とは対照的に、潜時空間中毒は、トレーニングデータセットの独立かつ同一分布をモデル化する分類器の傾きを利用する。
論文 参考訳(メタデータ) (2020-12-09T13:05:44Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。