論文の概要: SHIELD: A regularization technique for eXplainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2404.02611v1
- Date: Wed, 3 Apr 2024 09:56:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 17:50:35.109030
- Title: SHIELD: A regularization technique for eXplainable Artificial Intelligence
- Title(参考訳): ShiELD:eXplainable Artificial Intelligenceの正規化技術
- Authors: Iván Sevillano-García, Julián Luengo, Francisco Herrera,
- Abstract要約: 本稿では、説明可能な人工知能のための正規化手法であるShiELD(Selective Hidden Input Evaluation for Learning Dynamics)を紹介する。
従来の手法とは対照的に、ShielD正規化は目的関数にシームレスに統合され、モデル説明性を高め、性能も向上する。
ベンチマークデータセットの実験的検証は、人工知能モデルの説明可能性と全体的なパフォーマンスの改善におけるShiELDの有効性を裏付けるものだ。
- 参考スコア(独自算出の注目度): 9.658282892513386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Artificial Intelligence systems become integral across domains, the demand for explainability grows. While the effort by the scientific community is focused on obtaining a better explanation for the model, it is important not to ignore the potential of this explanation process to improve training as well. While existing efforts primarily focus on generating and evaluating explanations for black-box models, there remains a critical gap in directly enhancing models through these evaluations. This paper introduces SHIELD (Selective Hidden Input Evaluation for Learning Dynamics), a regularization technique for explainable artificial intelligence designed to improve model quality by concealing portions of input data and assessing the resulting discrepancy in predictions. In contrast to conventional approaches, SHIELD regularization seamlessly integrates into the objective function, enhancing model explainability while also improving performance. Experimental validation on benchmark datasets underscores SHIELD's effectiveness in improving Artificial Intelligence model explainability and overall performance. This establishes SHIELD regularization as a promising pathway for developing transparent and reliable Artificial Intelligence regularization techniques.
- Abstract(参考訳): 人工知能システムがドメイン間で統合されるにつれて、説明可能性への需要が増大する。
科学的コミュニティの努力は、モデルに対するより良い説明を得ることに重点を置いているが、この説明プロセスの可能性を無視してトレーニングを改善することも重要である。
既存の取り組みは主にブラックボックスモデルの説明の生成と評価に重点を置いているが、これらの評価を通じてモデルを直接強化する上では重要なギャップが残っている。
本稿では、入力データの一部を隠蔽し、予測における結果の不一致を評価することによって、モデル品質を改善するための説明可能な人工知能の正規化手法であるShiELD(Selective Hidden Input Evaluation for Learning Dynamics)を紹介する。
従来の手法とは対照的に、ShielD正規化は目的関数にシームレスに統合され、モデル説明性を高め、性能も向上する。
ベンチマークデータセットの実験的検証は、人工知能モデルの説明可能性と全体的なパフォーマンスの改善におけるShiELDの有効性を裏付けるものだ。
これは、透明で信頼性の高い人工知能正規化技術を開発するための有望な経路としてShiELD正規化を確立する。
関連論文リスト
- Science based AI model certification for untrained operational environments with application in traffic state estimation [1.2186759689780324]
さまざまなエンジニアリング領域における人工知能(AI)の役割の拡大は、AIモデルを新たな運用環境にデプロイする際の課題を強調している。
本稿では,未訓練の運用環境における事前学習データ駆動モデルの適用可能性を評価するための,科学ベースの認証手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T03:01:25Z) - Mitigating Reward Hacking via Information-Theoretic Reward Modeling [70.26019860948114]
本稿では,報酬モデリングのための汎用的で堅牢なフレームワークであるInfoRMを提案する。
我々は,潜伏空間における過最適化と外れ値の相関を同定し,報酬過最適化を検出するための有望なツールとしてInfoRMを確立した。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Data Quality Aware Approaches for Addressing Model Drift of Semantic
Segmentation Models [1.6385815610837167]
本研究では,戦闘モデルドリフトに対する2つの顕著な品質意識戦略について検討した。
前者は画像品質評価の指標を活用して、厳密に高品質なトレーニングデータを選択し、モデルの堅牢性を向上させる。
後者は、既存のモデルから学んだベクトル機能を利用して、将来のデータの選択をガイドし、モデルの以前の知識と整合させる。
論文 参考訳(メタデータ) (2024-02-11T18:01:52Z) - Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - A Review of Explainable Artificial Intelligence in Manufacturing [0.8793721044482613]
製造領域における人工知能(AI)システムの実装は、高い生産効率、優れた性能、より安全な運用を可能にする。
これらのモデルの精度が高いにもかかわらず、それらは主にブラックボックスと考えられており、人間には理解できない。
本稿では,モデルの透明性を高める手段として,説明可能な人工知能(XAI)技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-05T21:59:55Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。