論文の概要: Repair Brain Damage: Real-Numbered Error Correction Code for Neural Network
- arxiv url: http://arxiv.org/abs/2602.00076v1
- Date: Wed, 21 Jan 2026 06:22:12 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-02-08 13:03:33.806169
- Title: Repair Brain Damage: Real-Numbered Error Correction Code for Neural Network
- Title(参考訳): 脳損傷の修復:ニューラルネットワークのリアルタイム誤り訂正符号
- Authors: Ziqing Li, Myung Cho, Qiutong Jin, Weiyu Xu,
- Abstract要約: 記憶障害や計算ミスを経験するニューラルネットワーク(NN)を考える。
本稿では,メモリエラーと計算エラーの両方を検出・修正できる,新しい実数ベースの誤り訂正符号(ECC)を提案する。
- 参考スコア(独自算出の注目度): 4.487182316338205
- License:
- Abstract: We consider a neural network (NN) that may experience memory faults and computational errors. In this paper, we propose a novel real-number-based error correction code (ECC) capable of detecting and correcting both memory errors and computational errors. The proposed approach introduces structures in the form of real-number-based linear constraints on the NN weights to enable error detection and correction, without sacrificing classification performance or increasing the number of real-valued NN parameters.
- Abstract(参考訳): 記憶障害や計算ミスを経験するニューラルネットワーク(NN)を考える。
本稿では,メモリエラーと計算エラーの両方を検出・修正できる,新しい実数ベースの誤り訂正符号(ECC)を提案する。
提案手法は,NN重み付けにおける実数ベース線形制約の形で構造を導入し,分類性能を犠牲にしたり,実数値NNパラメータの数を増やしたりすることなく,誤り検出と修正を可能にする。
関連論文リスト
- On the interpretability of neural network decoders [1.4767596539913115]
我々は、NNデコーダの基盤となるデコードロジックを理解するために、機械学習の分野から確立された解釈可能性手法を利用する。
我々は、NNの特定の復号決定がどのように解釈できるかを示し、NNが、シンドロームとフラグキュービットの測定から得られる情報の基本構造を捉えることを学ぶ方法を明らかにする。
論文 参考訳(メタデータ) (2025-02-27T16:55:28Z) - Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Deep Quantum Error Correction [73.54643419792453]
量子誤り訂正符号(QECC)は、量子コンピューティングのポテンシャルを実現するための鍵となる要素である。
本研究では,新しいエンペンド・ツー・エンドの量子誤りデコーダを効率的に訓練する。
提案手法は,最先端の精度を実現することにより,QECCのニューラルデコーダのパワーを実証する。
論文 参考訳(メタデータ) (2023-01-27T08:16:26Z) - CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation [4.570841222958966]
本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
ニューラルネットワークの予測精度は、変動とノイズの下で1.69%以下から回復可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T19:13:33Z) - Converting Artificial Neural Networks to Spiking Neural Networks via
Parameter Calibration [21.117214351356765]
スパイキングニューラルネットワーク(SNN)は、次世代ニューラルネットワークの1つとして認識されている。
本研究では、ANNの重みをSNNにコピー&ペーストするだけで、必然的にアクティベーションミスマッチが発生することを論じる。
そこで本研究では,アクティベーションミスマッチを最小限に抑えるため,パラメータの調整を行う層ワイドパラメータキャリブレーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T18:22:09Z) - Fault-Tolerant Neural Networks from Biological Error Correction Codes [45.82537918529782]
哺乳類大脳皮質の格子細胞では、アナログ誤差補正符号が神経スパイクノイズから状態を保護するために観測されている。
ここでは、これらの生物学的エラー訂正符号を用いて、各ニューロンの欠陥がシャープしきい値以下である場合、信頼性の高い計算を実現する、普遍的なフォールトトレラントニューラルネットワークを開発する。
フォールトからフォールトトレラントニューラルネットワークへの位相遷移の発見は、大脳皮質における信頼性の高い計算のメカニズムを示唆している。
論文 参考訳(メタデータ) (2022-02-25T18:55:46Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Towards Explainable Bit Error Tolerance of Resistive RAM-Based Binarized
Neural Networks [7.349786872131006]
抵抗性RAM(RRAM)のような不揮発性メモリは、エネルギー効率が向上するストレージである。
バイナリニューラルネットワーク(BNN)は、精度を損なうことなく、ある種のエラーを許容することができる。
BNNのビットエラー耐性(BET)は、トレーニング中にウェイトサインを反転させることによって達成できる。
論文 参考訳(メタデータ) (2020-02-03T17:38:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。