論文の概要: Utilizing Explainable AI for improving the Performance of Neural
Networks
- arxiv url: http://arxiv.org/abs/2210.04686v1
- Date: Fri, 7 Oct 2022 09:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:00:43.863336
- Title: Utilizing Explainable AI for improving the Performance of Neural
Networks
- Title(参考訳): ニューラルネットワークの性能向上のための説明可能なAIの利用
- Authors: Huawei Sun, Lorenzo Servadei, Hao Feng, Michael Stephan, Robert Wille,
Avik Santra
- Abstract要約: 我々はXAIから始まるモデル予測を継続的に改善するリトレーニングパイプラインを提案する。
提案手法を実生活と公開両方のデータセットで評価する。
SHAPベースのリトレーニング手法を用いた実験は、タスクをカウントする人に対して、標準の等重量リトレーニングの精度を4%向上させる。
- 参考スコア(独自算出の注目度): 6.670483888835783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, deep neural networks are widely used in a variety of fields that
have a direct impact on society. Although those models typically show
outstanding performance, they have been used for a long time as black boxes. To
address this, Explainable Artificial Intelligence (XAI) has been developing as
a field that aims to improve the transparency of the model and increase their
trustworthiness. We propose a retraining pipeline that consistently improves
the model predictions starting from XAI and utilizing state-of-the-art
techniques. To do that, we use the XAI results, namely SHapley Additive
exPlanations (SHAP) values, to give specific training weights to the data
samples. This leads to an improved training of the model and, consequently,
better performance. In order to benchmark our method, we evaluate it on both
real-life and public datasets. First, we perform the method on a radar-based
people counting scenario. Afterward, we test it on the CIFAR-10, a public
Computer Vision dataset. Experiments using the SHAP-based retraining approach
achieve a 4% more accuracy w.r.t. the standard equal weight retraining for
people counting tasks. Moreover, on the CIFAR-10, our SHAP-based weighting
strategy ends up with a 3% accuracy rate than the training procedure with equal
weighted samples.
- Abstract(参考訳): 現在、深層ニューラルネットワークは社会に直接影響を与える様々な分野で広く使われている。
これらのモデルは通常優れた性能を示すが、長い間ブラックボックスとして使用されてきた。
これを解決するために、説明可能な人工知能(XAI)はモデルの透明性を改善し、信頼性を高めることを目的とした分野として開発されている。
我々は、XAIから始まるモデル予測を一貫して改善し、最先端技術を活用するリトレーニングパイプラインを提案する。
そのために、XAIの結果、すなわちSHAP(SHapley Additive exPlanations)値を使って、データサンプルに特定のトレーニング重みを与える。
これにより、モデルのトレーニングが改善され、結果としてパフォーマンスが向上する。
提案手法をベンチマークするために,実際のデータセットと公開データセットの両方で評価する。
まず,レーダベースの人計数シナリオでその手法を実行する。
その後、公開のコンピュータビジョンデータセットであるCIFAR-10でテストした。
shap-based retrainingアプローチによる実験は、タスクを数える人の標準等重量リトレーニングの精度を4%向上させた。
さらに, CIFAR-10では, SHAPをベースとした重み付け戦略は, 同一の重み付けサンプルを用いたトレーニング手順よりも3%の精度で終了する。
関連論文リスト
- Always-Sparse Training by Growing Connections with Guided Stochastic
Exploration [46.4179239171213]
本研究では,より大規模かつスペーサーなモデルへのスケーリングに優れる,効率的な常時スパーストレーニングアルゴリズムを提案する。
我々は,VGGモデルとVTモデルを用いて,CIFAR-10/100 と ImageNet の手法を評価し,様々なスペーサー化手法と比較した。
論文 参考訳(メタデータ) (2024-01-12T21:32:04Z) - SHAPNN: Shapley Value Regularized Tabular Neural Network [4.587122314291091]
本稿では,教師あり学習のための新しい深層データモデリングアーキテクチャであるSHAPNNを紹介する。
我々のニューラルネットワークは、標準的な後方伝播最適化手法を用いて訓練され、リアルタイムに推定されたShapley値で正規化される。
我々は,これらの手法を公開データセット上で評価し,最先端のディープニューラルネットワークモデルと比較した。
論文 参考訳(メタデータ) (2023-09-15T22:45:05Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Large Deviations for Accelerating Neural Networks Training [5.864710987890994]
LAD改良反復訓練(LIIT)は,大規模な逸脱原理を用いたANNのための新しい訓練手法である。
LIITアプローチでは、LAD異常スコアに基づくサンプリング戦略を用いて、MTS(Modified Training Sample)を生成し、反復的に更新する。
MTSサンプルは、各クラスにおける観察のほとんどを異常に含めることで、トレーニングデータをうまく表現するように設計されている。
論文 参考訳(メタデータ) (2023-03-02T04:14:05Z) - Value-Consistent Representation Learning for Data-Efficient
Reinforcement Learning [105.70602423944148]
本稿では,意思決定に直接関連のある表現を学習するための,VCR(Value-Consistent Expression Learning)という新しい手法を提案する。
この想像された状態と環境によって返される実状態とを一致させる代わりに、VCRは両方の状態に$Q$-valueヘッドを適用し、2つのアクション値の分布を得る。
検索不要なRLアルゴリズムに対して,提案手法が新たな最先端性能を実現することが実証された。
論文 参考訳(メタデータ) (2022-06-25T03:02:25Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Weight Update Skipping: Reducing Training Time for Artificial Neural
Networks [0.30458514384586394]
本稿では,時間的変動を示す精度向上の観察を生かしたANNのための新しいトレーニング手法を提案する。
このような時間窓の間、ネットワークがまだトレーニングされていることを保証し、過度な適合を避けるバイアスを更新し続けます。
このようなトレーニングアプローチは、計算コストを大幅に削減して、ほぼ同じ精度を達成し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2020-12-05T15:12:10Z) - Training Sparse Neural Networks using Compressed Sensing [13.84396596420605]
本研究では,プレニングとトレーニングを1ステップに組み合わせた圧縮センシングに基づく新しい手法の開発と試験を行う。
具体的には、トレーニング中の重みを適応的に重み付けした$ell1$のペナルティを利用して、スパースニューラルネットワークをトレーニングするために、正規化二重平均化(RDA)アルゴリズムの一般化と組み合わせる。
論文 参考訳(メタデータ) (2020-08-21T19:35:54Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Adversarial Robustness: From Self-Supervised Pre-Training to Fine-Tuning [134.15174177472807]
対戦型トレーニングを自己超越に導入し,汎用的な頑健な事前訓練モデルを初めて提供する。
提案するフレームワークが大きなパフォーマンスマージンを達成できることを示すため,広範な実験を行う。
論文 参考訳(メタデータ) (2020-03-28T18:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。