論文の概要: Evolving Afferent Architectures: Biologically-inspired Models for Damage-Avoidance Learning
- arxiv url: http://arxiv.org/abs/2602.04807v1
- Date: Wed, 04 Feb 2026 17:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.667045
- Title: Evolving Afferent Architectures: Biologically-inspired Models for Damage-Avoidance Learning
- Title(参考訳): 知覚的アーキテクチャの進化:損傷回避学習のための生物学的モデル
- Authors: Wolfgang Maass, Sabine Janzen, Prajvi Saxena, Sach Mukherjee,
- Abstract要約: 本稿では,CAT(Computational Afferent Traces)を適応的,内部的リスク信号として生成するフレームワークを提案する。
CATをベースとした進化型アーキテクチャは,手作りのベースラインよりも効率が高く,老朽性に優れていることがわかった。
- 参考スコア(独自算出の注目度): 7.564968351077574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Afferent Learning, a framework that produces Computational Afferent Traces (CATs) as adaptive, internal risk signals for damage-avoidance learning. Inspired by biological systems, the framework uses a two-level architecture: evolutionary optimization (outer loop) discovers afferent sensing architectures that enable effective policy learning, while reinforcement learning (inner loop) trains damage-avoidance policies using these signals. This formalizes afferent sensing as providing an inductive bias for efficient learning: architectures are selected based on their ability to enable effective learning (rather than directly minimizing damage). We provide theoretical convergence guarantees under smoothness and bounded-noise assumptions. We illustrate the general approach in the challenging context of biomechanical digital twins operating over long time horizons (multiple decades of the life-course). Here, we find that CAT-based evolved architectures achieve significantly higher efficiency and better age-robustness than hand-designed baselines, enabling policies that exhibit age-dependent behavioral adaptation (23% reduction in high-risk actions). Ablation studies validate CAT signals, evolution, and predictive discrepancy as essential. We release code and data for reproducibility.
- Abstract(参考訳): 本稿では,CAT(Computational Afferent Traces)を適応的,内部的リスク信号として生成するフレームワークであるAfferent Learningを紹介する。
進化的最適化 (outer loop) は効果的なポリシー学習を可能にする知覚的センシングアーキテクチャを発見し、強化学習 (inner loop) はこれらの信号を使用して損傷回避ポリシーを訓練する。
アーキテクチャは、効果的な学習を可能にする能力に基づいて選択される(ダメージを直接最小化するのではなく)。
我々は、滑らかさと有界雑音の仮定の下で理論収束を保証する。
バイオメカニカル・デジタル双生児の長期水平移動(生命コースの複数年)における挑戦的状況における一般的なアプローチについて述べる。
ここでは、CATベースの進化型アーキテクチャは、手作りのベースラインよりもはるかに効率が高く、年齢依存性の行動適応を示すポリシー(リスクの高い行動の23%削減)を実現している。
アブレーション研究は、CAT信号、進化、予測上の相違を必須とする。
再現性のためのコードとデータをリリースします。
関連論文リスト
- The Effect of Architecture During Continual Learning [2.1485350418225244]
本稿では,ソボレフ空間のアーキテクチャと重みを共同でモデル化する数学的枠組みを提案する。
モデル重みのみの学習は、分布シフト下での破滅的な忘れを緩和するには不十分であることを示す。
フィードフォワード、畳み込み、グラフニューラルネットワークを含む回帰と分類に関する実証的研究は、最適なアーキテクチャと重みの学習が同時に性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2026-01-27T16:29:42Z) - Adaptive Learning Guided by Bias-Noise-Alignment Diagnostics [0.7519872646378835]
本稿では,誤り適応進化を明示的にモデル化する診断駆動学習フレームワークを提案する。
これらの診断は、損失または時間差(TD)誤差軌跡の軽量統計からオンラインで計算される。
論文 参考訳(メタデータ) (2025-12-30T19:57:52Z) - A Guide to Robust Generalization: The Impact of Architecture, Pre-training, and Optimization Strategy [50.33847176405776]
6つのデータセット,40の事前訓練アーキテクチャ,2つの特別な損失,3つの適応プロトコルにまたがる実験的検討を行った。
大規模なデータセット上で教師付きで事前訓練された畳み込みニューラルネットワークは、しばしば最高のパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-12T19:38:35Z) - Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - A Novel Neural-symbolic System under Statistical Relational Learning [47.30190559449236]
NSF-SRLと呼ばれる統計的関係学習に基づくニューラルシンボリック・フレームワークを提案する。
シンボリック推論の結果は、深層学習モデルによる予測の洗練と修正に利用され、深層学習モデルはシンボリック推論プロセスの効率を高める。
我々は、このアプローチがニューラルシンボリックシステムの新しい標準となり、汎用人工知能の分野における将来の研究を促進すると信じている。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - B-Learner: Quasi-Oracle Bounds on Heterogeneous Causal Effects Under
Hidden Confounding [51.74479522965712]
本稿では,B-Learnerと呼ばれるメタラーナーを提案する。
我々は、その推定が有効で、鋭く、効率的であることを証明し、既存の方法よりも一般的な条件下で構成推定器に対して準オーラル特性を持つことを示した。
論文 参考訳(メタデータ) (2023-04-20T18:07:19Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - AdaXpert: Adapting Neural Architecture for Growing Data [63.30393509048505]
実世界のアプリケーションでは、データボリュームとクラス数が動的に増加する可能性があるため、データが増大することが多い。
データボリュームの増加やクラスの数を考えると、期待できるパフォーマンスを得るためには、ニューラルネットワークのキャパシティを瞬時に調整する必要がある。
既存のメソッドは、データの増大する性質を無視したり、特定のデータセットの最適なアーキテクチャを独立して検索しようとする。
論文 参考訳(メタデータ) (2021-07-01T07:22:05Z) - Towards sample-efficient episodic control with DAC-ML [0.5735035463793007]
人工知能におけるサンプル効率問題は、少数のエピソードでアクションポリシーを最適化する現在のDeep Reinforcement Learningモデルが存在しないことを指す。
近年の研究では、学習速度を改善するためにメモリシステムとアーキテクチャバイアスを追加することで、この制限を克服しようと試みている。
本稿では、心と脳の分散適応制御(DAC)理論の設計原理を利用して、新しい認知アーキテクチャを構築する。
論文 参考訳(メタデータ) (2020-12-26T16:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。