論文の概要: Explainable AI: XAI-Guided Context-Aware Data Augmentation
- arxiv url: http://arxiv.org/abs/2506.03484v1
- Date: Wed, 04 Jun 2025 01:47:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.10427
- Title: Explainable AI: XAI-Guided Context-Aware Data Augmentation
- Title(参考訳): 説明可能なAI: XAIによるコンテキスト対応データ拡張
- Authors: Melkamu Abay Mersha, Mesay Gemeda Yigezu, Atnafu Lambebo Tonja, Hassan Shakil, Samer Iskander, Olga Kolesnikova, Jugal Kalita,
- Abstract要約: ラベル付きデータの不足は、堅牢で一般化可能なAIモデルを開発する上で、依然として根本的な課題である。
従来のデータ拡張技術はノイズを導入し、セマンティックドリフトを引き起こし、コンテキストコヒーレンスを乱し、制御が欠如し、過度に適合する。
我々は,XAIを用いたコンテキスト認識データ拡張を提案する。
提案手法は,説明可能性に基づく洞察に基づいて,複数の拡張サイクルにまたがる拡張データを改良する反復フィードバックループを統合する。
- 参考スコア(独自算出の注目度): 5.721631408241837
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable AI (XAI) has emerged as a powerful tool for improving the performance of AI models, going beyond providing model transparency and interpretability. The scarcity of labeled data remains a fundamental challenge in developing robust and generalizable AI models, particularly for low-resource languages. Conventional data augmentation techniques introduce noise, cause semantic drift, disrupt contextual coherence, lack control, and lead to overfitting. To address these challenges, we propose XAI-Guided Context-Aware Data Augmentation. This novel framework leverages XAI techniques to modify less critical features while selectively preserving most task-relevant features. Our approach integrates an iterative feedback loop, which refines augmented data over multiple augmentation cycles based on explainability-driven insights and the model performance gain. Our experimental results demonstrate that XAI-SR-BT and XAI-PR-BT improve the accuracy of models on hate speech and sentiment analysis tasks by 6.6% and 8.1%, respectively, compared to the baseline, using the Amharic dataset with the XLM-R model. XAI-SR-BT and XAI-PR-BT outperform existing augmentation techniques by 4.8% and 5%, respectively, on the same dataset and model. Overall, XAI-SR-BT and XAI-PR-BT consistently outperform both baseline and conventional augmentation techniques across all tasks and models. This study provides a more controlled, interpretable, and context-aware solution to data augmentation, addressing critical limitations of existing augmentation techniques and offering a new paradigm shift for leveraging XAI techniques to enhance AI model training.
- Abstract(参考訳): 説明可能なAI(XAI)は、モデルの透明性と解釈可能性の提供を超えて、AIモデルのパフォーマンスを改善する強力なツールとして登場した。
ラベル付きデータの不足は、特に低リソース言語において、堅牢で一般化可能なAIモデルを開発する上で、依然として根本的な課題である。
従来のデータ拡張技術はノイズを導入し、セマンティックドリフトを引き起こし、コンテキストコヒーレンスを乱し、制御が欠如し、過度に適合する。
これらの課題に対処するため、XAI誘導コンテキスト対応データ拡張を提案する。
この新しいフレームワークは、XAI技術を利用して、重要でない機能を修正すると同時に、ほとんどのタスク関連機能を選択的に保存する。
提案手法は,説明可能性に基づく洞察とモデルの性能向上に基づいて,複数の拡張サイクルにまたがる拡張データを改良する反復フィードバックループを統合する。
実験の結果,XAI-SR-BTとXAI-PR-BTは,XLM-Rモデルを用いたアムハラデータセットを用いて,ベースラインと比較して,ヘイトスピーチおよび感情分析タスクにおけるモデルの精度を6.6%,8.1%改善した。
XAI-SR-BTとXAI-PR-BTは、それぞれ同じデータセットとモデルで、既存の拡張テクニックを4.8%と5%で上回っている。
全体としては、XAI-SR-BTとXAI-PR-BTは、すべてのタスクやモデルにおいて、ベースラインと従来の拡張技術の両方を上回っている。
この研究は、データ拡張に対するより制御され、解釈可能で、コンテキスト対応のソリューションを提供し、既存の拡張テクニックの重要な制限に対処し、AIモデルのトレーニングを強化するためにXAIテクニックを活用するための新しいパラダイムシフトを提供する。
関連論文リスト
- VirtualXAI: A User-Centric Framework for Explainability Assessment Leveraging GPT-Generated Personas [0.07499722271664146]
eXplainable AI(XAI)の需要が増加し、AIモデルの解釈可能性、透明性、信頼性が向上した。
仮想ペルソナによる定量的ベンチマークと質的ユーザアセスメントを統合したフレームワークを提案する。
これにより、推定されたXAIスコアが得られ、与えられたシナリオに対して最適なAIモデルとXAIメソッドの両方にカスタマイズされたレコメンデーションが提供される。
論文 参考訳(メタデータ) (2025-03-06T09:44:18Z) - Verifying Machine Unlearning with Explainable AI [46.7583989202789]
港の前面監視における機械学習(MU)の検証における説明可能なAI(XAI)の有効性について検討する。
私たちの概念実証は、従来のメトリクスを超えて拡張されたMUの革新的な検証ステップとして属性機能を導入しています。
本稿では,これらの手法の有効性を評価するために,熱マップカバレッジ(HC)とアテンションシフト(AS)の2つの新しいXAI指標を提案する。
論文 参考訳(メタデータ) (2024-11-20T13:57:32Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Explainable AI for Enhancing Efficiency of DL-based Channel Estimation [1.0136215038345013]
人工知能に基づく意思決定のサポートは、将来の6Gネットワークの重要な要素である。
このようなアプリケーションでは、ブラックボックスモデルとしてAIを使用するのは危険で難しい。
本稿では,無線通信におけるチャネル推定を目的とした新しいXAI-CHESTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T16:24:21Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。