論文の概要: A Comprehensive Study of Deep Learning Model Fixing Approaches
- arxiv url: http://arxiv.org/abs/2512.23745v1
- Date: Fri, 26 Dec 2025 13:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.129306
- Title: A Comprehensive Study of Deep Learning Model Fixing Approaches
- Title(参考訳): 深層学習モデル固定法に関する総合的研究
- Authors: Hanmo You, Zan Wang, Zishuo Dong, Luanqi Mo, Jianjun Zhao, Junjie Chen,
- Abstract要約: ディープラーニング(DL)は様々な産業領域で広く採用されている。
DLシステムは障害を起こしやすいため、機能不全がユーザを重大なリスクに晒す可能性がある。
我々は16の最先端のDLモデル修正手法について大規模な実証的研究を行った。
- 参考スコア(独自算出の注目度): 14.450289718338842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) has been widely adopted in diverse industrial domains, including autonomous driving, intelligent healthcare, and aided programming. Like traditional software, DL systems are also prone to faults, whose malfunctioning may expose users to significant risks. Consequently, numerous approaches have been proposed to address these issues. In this paper, we conduct a large-scale empirical study on 16 state-of-the-art DL model fixing approaches, spanning model-level, layer-level, and neuron-level categories, to comprehensively evaluate their performance. We assess not only their fixing effectiveness (their primary purpose) but also their impact on other critical properties, such as robustness, fairness, and backward compatibility. To ensure comprehensive and fair evaluation, we employ a diverse set of datasets, model architectures, and application domains within a uniform experimental setup for experimentation. We summarize several key findings with implications for both industry and academia. For example, model-level approaches demonstrate superior fixing effectiveness compared to others. No single approach can achieve the best fixing performance while improving accuracy and maintaining all other properties. Thus, academia should prioritize research on mitigating these side effects. These insights highlight promising directions for future exploration in this field.
- Abstract(参考訳): ディープラーニング(DL)は、自律運転、インテリジェントヘルスケア、プログラミング支援など、さまざまな産業領域で広く採用されている。
従来のソフトウェアと同様に、DLシステムは障害を起こしやすい。
その結果、これらの問題に対処する多くのアプローチが提案されている。
本稿では、モデルレベル、層レベル、ニューロンレベルのカテゴリにまたがる16の最先端のDLモデル修正アプローチに関する大規模な実証的研究を行い、その性能を総合的に評価する。
我々は、それらの修正の有効性(主な目的)だけでなく、ロバスト性、公正性、後方互換性といった他の重要な特性への影響も評価する。
包括的かつ公平な評価を確保するため、実験のための統一的な実験環境内に、さまざまなデータセット、モデルアーキテクチャ、アプリケーションドメインのセットを使用します。
産学と産学の両方に影響を及ぼすいくつかの重要な知見を要約する。
例えば、モデルレベルのアプローチは、他のものよりも優れた修正効率を示す。
正確性を向上し、他のすべてのプロパティをメンテナンスしながら、最高の修正パフォーマンスを達成する方法はない。
したがって、学界はこれらの副作用を緩和する研究を優先すべきである。
これらの洞察は、この分野における将来の探検の有望な方向性を浮き彫りにしている。
関連論文リスト
- Adversarial Bias: Data Poisoning Attacks on Fairness [48.17618627431355]
AIシステムの公正性を意図的に侵害する研究は比較的少ない。
本研究は, 簡便な敵毒対策が, 最大不公平な行動を引き起こすのに十分であることを示す理論的解析である。
当社の攻撃は、複数のモデルやデータセットにわたる公正度メトリクスの劣化において、既存の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2025-11-11T15:09:53Z) - What Is The Performance Ceiling of My Classifier? Utilizing Category-Wise Influence Functions for Pareto Frontier Analysis [12.72818632804819]
データ中心の学習は、データ品質の観点からモデルパフォーマンスを改善することを目指している。
影響関数は、個々のトレーニングサンプルがモデル予測に与える影響を定量化する強力なフレームワークを提供する。
そこで本研究では,すべてのカテゴリにまたがる各トレーニングサンプルの影響を定量化する影響ベクトルを提案する。
論文 参考訳(メタデータ) (2025-10-04T21:33:01Z) - FAIREDU: A Multiple Regression-Based Method for Enhancing Fairness in Machine Learning Models for Educational Applications [1.24497353837144]
本稿では,複数機能にまたがる公平性向上を目的とした,新規かつ効果的な手法であるFAIREDUを紹介する。
モデル性能を損なうことなく公平性を向上するためのFAIREDUの有効性を評価する。
その結果, FAIREDUは, 性別, 人種, 年齢, その他の繊細な特徴の交叉性に対処し, モデル精度に最小限の影響を伴って, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-08T23:29:24Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - A Large-Scale Empirical Study on Improving the Fairness of Image Classification Models [22.522156479335706]
本稿では,現在ある最先端の公正性向上技術の性能を比較するための,最初の大規模実証的研究を行う。
その結果,各手法の性能は,データセットや属性によって大きく異なることがわかった。
異なる公平度評価指標は、その異なる焦点のために、明らかに異なる評価結果をもたらす。
論文 参考訳(メタデータ) (2024-01-08T06:53:33Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - FITNESS: A Causal De-correlation Approach for Mitigating Bias in Machine
Learning Software [6.4073906779537095]
バイアスデータセットは不公平で潜在的に有害な結果をもたらす可能性がある。
本稿では,感性特徴とラベルの因果関係を関連づけたバイアス緩和手法を提案する。
我々のキーとなる考え方は、因果関係の観点からそのような効果を非相関化することで、モデルが繊細な特徴に基づいて予測することを避けることである。
論文 参考訳(メタデータ) (2023-05-23T06:24:43Z) - Performance of different machine learning methods on activity
recognition and pose estimation datasets [0.0]
本稿では、リッチポーズ推定(OpenPose)とHARデータセットにおける古典的アプローチとアンサンブルアプローチを用いる。
その結果,無作為林はADLの分類において最も正確であることが示唆された。
相対的にすべてのモデルは、ロジスティック回帰とAdaBoostを除いて、両方のデータセットで優れたパフォーマンスを持つ。
論文 参考訳(メタデータ) (2022-10-19T02:07:43Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。