論文の概要: Brain-inspired Distributed Memorization Learning for Efficient
Feature-free Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2402.14598v1
- Date: Sun, 4 Feb 2024 09:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 16:45:09.789512
- Title: Brain-inspired Distributed Memorization Learning for Efficient
Feature-free Unsupervised Domain Adaptation
- Title(参考訳): 効率的な特徴のない教師なしドメイン適応のための脳インスパイア分散記憶学習
- Authors: Jianming Lv, Depin Liang, Zequan Liang, Yaobin Zhang, Sijun Xia
- Abstract要約: 本稿では,移動モデルの高速領域適応を支援するために,勾配のない分散記憶学習機構,すなわちDMLを提案する。
特に、DMLはランダムに連結されたニューロンを用いてインパルスとして伝播する入力信号の関連を記憶し、その信頼度に基づいて分散記憶を関連付けることで最終的な決定を行う。
- 参考スコア(独自算出の注目度): 7.4604380121459055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared with gradient based artificial neural networks, biological neural
networks usually show a more powerful generalization ability to quickly adapt
to unknown environments without using any gradient back-propagation procedure.
Inspired by the distributed memory mechanism of human brains, we propose a
novel gradient-free Distributed Memorization Learning mechanism, namely DML, to
support quick domain adaptation of transferred models. In particular, DML
adopts randomly connected neurons to memorize the association of input signals,
which are propagated as impulses, and makes the final decision by associating
the distributed memories based on their confidence. More importantly, DML is
able to perform reinforced memorization based on unlabeled data to quickly
adapt to a new domain without heavy fine-tuning of deep features, which makes
it very suitable for deploying on edge devices. Experiments based on four
cross-domain real-world datasets show that DML can achieve superior performance
of real-time domain adaptation compared with traditional gradient based MLP
with more than 10% improvement of accuracy while reducing 87% of the timing
cost of optimization.
- Abstract(参考訳): 勾配に基づくニューラルネットワークと比較して、生物学的ニューラルネットワークは通常、勾配バックプロパゲーションを使わずに未知の環境に迅速に適応できるより強力な一般化能力を示す。
人間の脳の分散記憶機構に着想を得て,移動モデルの高速領域適応を支援するために,新しい勾配のない分散記憶学習機構DMLを提案する。
特に、DMLはランダムに連結されたニューロンを用いてインパルスとして伝播する入力信号の関連を記憶し、その信頼度に基づいて分散記憶を関連付けることで最終的な決定を行う。
さらに重要なことに、dmlはラベルのないデータに基づいて強化された記憶処理を実行し、深い機能を微調整することなく新しいドメインに迅速に適応することができるため、エッジデバイスへのデプロイに非常に適しています。
4つのクロスドメイン実世界のデータセットに基づく実験により、DMLは従来の勾配ベースのMLPと比較して、10%以上の精度向上を実現し、最適化のタイミングコストの87%を削減できることがわかった。
関連論文リスト
- SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Towards Interpretable Deep Local Learning with Successive Gradient Reconciliation [70.43845294145714]
グローバルバックプロパゲーション(BP)に対するニューラルネットワークトレーニングの信頼性の回復が、注目すべき研究トピックとして浮上している。
本稿では,隣接モジュール間の勾配調整を連続的に調整する局所的学習戦略を提案する。
提案手法はローカルBPとBPフリー設定の両方に統合できる。
論文 参考訳(メタデータ) (2024-06-07T19:10:31Z) - Selective Memory Recursive Least Squares: Recast Forgetting into Memory
in RBF Neural Network Based Real-Time Learning [2.31120983784623]
放射ベース関数ニューラルネットワーク(RBFNN)に基づくリアルタイム学習タスクでは、忘れるメカニズムが広く使用されている。
本稿では,従来の記憶機構を記憶機構に再キャストする選択記憶再帰最小二乗法(SMRLS)を提案する。
SMRLSでは、RBFNNの入力空間を有限個の分割に均等に分割し、各分割から合成されたサンプルを用いて合成目的関数を開発する。
論文 参考訳(メタデータ) (2022-11-15T05:29:58Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Learning with Local Gradients at the Edge [14.94491070863641]
我々は、Target Projection Gradient Descent (tpSGD) と呼ばれる新しいバックプロパゲーションフリー最適化アルゴリズムを提案する。
tpSGDは、任意の損失関数を扱うために、直接ランダムターゲット射影を一般化する。
我々は、深層ニューラルネットワークのトレーニングにおけるtpSGDの性能を評価し、マルチ層RNNへのアプローチを拡張した。
論文 参考訳(メタデータ) (2022-08-17T19:51:06Z) - Predictive coding, precision and natural gradients [2.1601966913620325]
学習精度の高い階層型予測符号化ネットワークは,教師あり学習課題や教師なし学習課題を解くことができることを示す。
イメージ入力の教師なし自動符号化に適用すると、決定論的ネットワークは階層的に整理され、非絡み合った埋め込みを生成する。
論文 参考訳(メタデータ) (2021-11-12T21:05:03Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Randomized Automatic Differentiation [22.95414996614006]
我々は、ランダム化自動微分(RAD)のための一般的なフレームワークとアプローチを開発する。
RADは、分散の見返りにメモリを減らし、バイアスのない見積もりを計算できる。
本稿では,フィードフォワードネットワークのバッチサイズを小さくし,繰り返しネットワークの場合と同様の回数でRADが収束することを示す。
論文 参考訳(メタデータ) (2020-07-20T19:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。