論文の概要: Fuzzing the brain: Automated stress testing for the safety of ML-driven neurostimulation
- arxiv url: http://arxiv.org/abs/2512.05383v1
- Date: Fri, 05 Dec 2025 02:43:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.878263
- Title: Fuzzing the brain: Automated stress testing for the safety of ML-driven neurostimulation
- Title(参考訳): 脳のファジング:MLによる神経刺激の安全性のための自動ストレステスト
- Authors: Mara Downing, Matthew Peng, Jacob Granley, Michael Beyeler, Tevfik Bultan,
- Abstract要約: 機械学習モデルは、視覚補綴などの神経補綴装置で電気刺激パターンを生成するために、ますます使われている。
ML駆動神経刺激システムにおいて,安全でない刺激パターンを検出し,特徴付けるための系統的,定量的アプローチを提案する。
- 参考スコア(独自算出の注目度): 6.763690463901025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: Machine learning (ML) models are increasingly used to generate electrical stimulation patterns in neuroprosthetic devices such as visual prostheses. While these models promise precise and personalized control, they also introduce new safety risks when model outputs are delivered directly to neural tissue. We propose a systematic, quantitative approach to detect and characterize unsafe stimulation patterns in ML-driven neurostimulation systems. Approach: We adapt an automated software testing technique known as coverage-guided fuzzing to the domain of neural stimulation. Here, fuzzing performs stress testing by perturbing model inputs and tracking whether resulting stimulation violates biophysical limits on charge density, instantaneous current, or electrode co-activation. The framework treats encoders as black boxes and steers exploration with coverage metrics that quantify how broadly test cases span the space of possible outputs and violation types. Main results: Applied to deep stimulus encoders for the retina and cortex, the method systematically reveals diverse stimulation regimes that exceed established safety limits. Two violation-output coverage metrics identify the highest number and diversity of unsafe outputs, enabling interpretable comparisons across architectures and training strategies. Significance: Violation-focused fuzzing reframes safety assessment as an empirical, reproducible process. By transforming safety from a training heuristic into a measurable property of the deployed model, it establishes a foundation for evidence-based benchmarking, regulatory readiness, and ethical assurance in next-generation neural interfaces.
- Abstract(参考訳): 目的: 機械学習(ML)モデルは、視覚補綴などの神経補綴装置において電気的刺激パターンを生成するためにますます用いられる。
これらのモデルは正確でパーソナライズされたコントロールを約束する一方で、モデルアウトプットが神経組織に直接配信される際の新たな安全性リスクも導入する。
ML駆動神経刺激システムにおいて,安全でない刺激パターンを検出し,特徴付けるための系統的,定量的アプローチを提案する。
アプローチ:我々は、カバレッジ誘導ファジングとして知られる自動ソフトウェアテスト手法を神経刺激領域に適用する。
ここで、ファジィングはモデル入力を摂動させてストレステストを行い、結果として生じる刺激が電荷密度、瞬時電流、または電極共活性化に生物物理学的制限に違反しているかどうかを追跡する。
このフレームワークは、エンコーダをブラックボックスとして扱い、テストケースがアウトプットと違反タイプの範囲にまたがる範囲をいかに広くテストするかを定量化するカバレッジメトリクスを使って、ステアサーベイを行う。
主な結果:網膜と大脳皮質の深部刺激エンコーダに適用し、確立された安全限界を超える多様な刺激機構を系統的に明らかにする。
2つの違反出力カバレッジメトリクスは、安全でないアウトプットの最大数と多様性を特定し、アーキテクチャとトレーニング戦略間の解釈可能な比較を可能にする。
意義: 暴力に焦点を当てたファジィングは、実験的で再現可能なプロセスとして安全性の評価を再構築する。
トレーニングヒューリスティックからデプロイされたモデルの測定可能な特性に安全性を変換することで、次世代のニューラルネットワークにおけるエビデンスベースのベンチマーク、規制の即応性、倫理的保証の基礎を確立する。
関連論文リスト
- AI-Powered Machine Learning Approaches for Fault Diagnosis in Industrial Pumps [0.0]
本研究では,実世界のセンサデータを用いた産業用ポンプシステムにおける早期故障検出の実践的アプローチを提案する。
フレームワークはスケーラブルで、解釈可能で、リアルタイムな産業展開に適している。
論文 参考訳(メタデータ) (2025-08-21T13:33:09Z) - An Adversarial-Driven Experimental Study on Deep Learning for RF Fingerprinting [6.145167956956878]
無線周波数(RF)フィンガープリントは、有望な物理層デバイス識別機構として登場した。
ディープラーニング(DL)手法はこの領域で最先端のパフォーマンスを実証している。
生の受信信号に対するDLモデルの訓練により,RF指紋と環境・信号パターンの特徴を絡み合わせる結果が得られた。
論文 参考訳(メタデータ) (2025-07-18T17:42:20Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - NeuRel-Attack: Neuron Relearning for Safety Disalignment in Large Language Models [14.630626774362606]
大型言語モデル(LLM)の安全性アライメントは、有害な内容を抑えるためにニューロンの活性化を調節する微調整機構によって達成される。
本稿では,安全性の制約を負うニューロンを同定し,修正することにより,不整合を誘導する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-29T05:49:35Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Neuro-BERT: Rethinking Masked Autoencoding for Self-supervised Neurological Pretraining [24.641328814546842]
本稿では、フーリエ領域におけるマスク付き自己エンコーディングに基づく神経信号の自己教師付き事前学習フレームワークであるNeuro-BERTを提案する。
本稿では、入力信号の一部をランダムにマスキングし、欠落した情報を予測するFourier Inversion Prediction (FIP)と呼ばれる新しい事前学習タスクを提案する。
提案手法をいくつかのベンチマークデータセットで評価することにより,Neuro-BERTは下流神経関連タスクを大きなマージンで改善することを示す。
論文 参考訳(メタデータ) (2022-04-20T16:48:18Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。