論文の概要: An Experience Report on Regression-Free Repair of Deep Neural Network Model
- arxiv url: http://arxiv.org/abs/2503.07079v1
- Date: Mon, 10 Mar 2025 09:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:54.459061
- Title: An Experience Report on Regression-Free Repair of Deep Neural Network Model
- Title(参考訳): 深部ニューラルネットワークモデルの回帰自由修復に関する経験報告
- Authors: Takao Nakagawa, Susumu Tokumoto, Shogo Tokui, Fuyuki Ishikawa,
- Abstract要約: ディープニューラルネットワーク(DNN)に基づくシステムは、業界でますます利用されている。
本稿では,業界におけるDNN更新の要件を特定し,その要件を満たす技術を用いたケーススタディを提案する。
- 参考スコア(独自算出の注目度): 1.9293307272923828
- License:
- Abstract: Systems based on Deep Neural Networks (DNNs) are increasingly being used in industry. In the process of system operation, DNNs need to be updated in order to improve their performance. When updating DNNs, systems used in companies that require high reliability must have as few regressions as possible. Since the update of DNNs has a data-driven nature, it is difficult to suppress regressions as expected by developers. This paper identifies the requirements for DNN updating in industry and presents a case study using techniques to meet those requirements. In the case study, we worked on satisfying the requirement to update models trained on car images collected in Fujitsu assuming security applications without regression for a specific class. We were able to suppress regression by customizing the objective function based on NeuRecover, a DNN repair technique. Moreover, we discuss some of the challenges identified in the case study.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に基づくシステムは、業界でますます利用されている。
システム運用の過程では、DNNのパフォーマンスを改善するために更新する必要がある。
DNNを更新する場合、高い信頼性を必要とする企業で使用されるシステムは、可能な限りレグレッションを少なくする必要がある。
DNNの更新はデータ駆動型であるため、開発者が期待したレグレッションを抑えるのは難しい。
本稿では,業界におけるDNN更新の要件を特定し,その要件を満たす技術を用いたケーススタディを提案する。
ケーススタディでは,特定クラスの回帰を伴わないセキュリティアプリケーションを想定し,富士通で収集した車両画像に基づいてトレーニングしたモデルを更新する必要性を満たすことを目的とした。
我々はDNN修復技術であるNeuRecoverに基づいて目的関数をカスタマイズすることで回帰を抑えることができた。
また,ケーススタディで特定される課題についても論じる。
関連論文リスト
- Reusing Deep Learning Models: Challenges and Directions in Software Engineering [3.733306025181894]
ディープニューラルネットワーク(DNN)は多くの分野で最先端のパフォーマンスを達成する。
DNNは知的努力と計算コストの両方において開発に費用がかかる。
このビジョンペーパーは、DNNの再使用に対する現在のアプローチの課題について述べる。
論文 参考訳(メタデータ) (2024-04-25T15:42:10Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - NeuRecover: Regression-Controlled Repair of Deep Neural Networks with
Training History [2.7904991230380403]
ある行動を修正するための訓練は、しばしば他の行動に破壊的な影響を与える。
この問題は、エンジニアが安全や信頼の保証活動の失敗を調査する必要がある場合に重要である。
本稿では,どのDNNパラメータを変更するべきかを学習履歴を用いて判断し,レグレッションを抑える新しい修復法を提案する。
論文 参考訳(メタデータ) (2022-03-01T02:47:12Z) - Black-box Safety Analysis and Retraining of DNNs based on Feature
Extraction and Clustering [0.9590956574213348]
DNNエラーの根本原因を自動的に識別するブラックボックスアプローチであるSAFEを提案する。
これは、ImageNetで事前訓練された転送学習モデルを使用して、エラー誘発画像から特徴を抽出する。
次に、密度に基づくクラスタリングアルゴリズムを適用し、誤りのもっともらしい原因をモデル化した画像の任意の形状のクラスタを検出する。
論文 参考訳(メタデータ) (2022-01-13T17:02:57Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。