論文の概要: XAI-Enhanced Semantic Segmentation Models for Visual Quality Inspection
- arxiv url: http://arxiv.org/abs/2401.09900v1
- Date: Thu, 18 Jan 2024 11:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 16:58:58.025819
- Title: XAI-Enhanced Semantic Segmentation Models for Visual Quality Inspection
- Title(参考訳): 視覚品質検査のためのxai強調意味セグメンテーションモデル
- Authors: Tobias Clement, Truong Thanh Hung Nguyen, Mohamed Abdelaal, Hung Cao
- Abstract要約: 本稿では、CAMに基づく説明を用いて視覚的品質検査を促進させ、セマンティックセグメンテーションモデルを洗練させる枠組みを提案する。
XAI強化モデルは、特に複雑なオブジェクトセグメンテーションにおいて、オリジナルのDeepLabv3-ResNet101モデルを上回る。
- 参考スコア(独自算出の注目度): 2.0209172586699173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual quality inspection systems, crucial in sectors like manufacturing and
logistics, employ computer vision and machine learning for precise, rapid
defect detection. However, their unexplained nature can hinder trust, error
identification, and system improvement. This paper presents a framework to
bolster visual quality inspection by using CAM-based explanations to refine
semantic segmentation models. Our approach consists of 1) Model Training, 2)
XAI-based Model Explanation, 3) XAI Evaluation, and 4) Annotation Augmentation
for Model Enhancement, informed by explanations and expert insights.
Evaluations show XAI-enhanced models surpass original DeepLabv3-ResNet101
models, especially in intricate object segmentation.
- Abstract(参考訳): 製造や物流などの分野において重要な視覚品質検査システムは、精密で迅速な欠陥検出にコンピュータビジョンと機械学習を用いる。
しかし、その説明できない性質は、信頼、エラー識別、システム改善を妨げる可能性がある。
本稿では、CAMに基づく説明を用いて視覚的品質検査を促進させ、セマンティックセグメンテーションモデルを洗練させる枠組みを提案する。
私たちのアプローチは
1)モデルトレーニング
2)XAIに基づくモデル説明
3)XAI評価、及び
4) 説明及び専門家の知見により通知されたモデル強化のための注釈増強
XAI強化モデルは、特に複雑なオブジェクトセグメンテーションにおいて、オリジナルのDeepLabv3-ResNet101モデルを上回っている。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Self-eXplainable AI for Medical Image Analysis: A Survey and New Outlooks [9.93411316886105]
Self-eXplainable AI (S-XAI)は、ディープラーニングモデルのトレーニングプロセスに説明可能性を直接組み込む。
本研究は,様々な画像モダリティと臨床応用を包括的に検討する。
論文 参考訳(メタデータ) (2024-10-03T09:29:28Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - X-SHIELD: Regularization for eXplainable Artificial Intelligence [9.658282892513386]
XAIは、その説明可能性を高めながら、モデルパフォーマンスを改善するために使用することができる。
このファミリー内では、説明可能な人工知能の正規化であるXAI-ShiELD(X-SHIELD)を提案する。
この改善は、X-SHIELD正則化の有無とモデルの比較実験によって検証される。
論文 参考訳(メタデータ) (2024-04-03T09:56:38Z) - Fine-Tuning Enhances Existing Mechanisms: A Case Study on Entity
Tracking [53.66999416757543]
本研究では,微調整が言語モデルに実装された内部メカニズムに与える影響について検討する。
微調整はモデルの機械的操作を変えるのではなく、強化する。
論文 参考訳(メタデータ) (2024-02-22T18:59:24Z) - CogCoM: Train Large Vision-Language Models Diving into Details through Chain of Manipulations [61.21923643289266]
カオス・オブ・マニピュレーション(Chain of Manipulations)は、視覚言語モデル(Vision-Language Models)が、エビデンスを段階的に解決するメカニズムである。
トレーニング後、モデルは外部ツールを介さずに、本質的な操作(グラウンド、ズームインなど)を積極的に行うことで、様々な視覚的問題を解決することができる。
トレーニングされたモデルである textbfCogCoM は、4つのカテゴリの9つのベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-02-06T18:43:48Z) - Representing Timed Automata and Timing Anomalies of Cyber-Physical
Production Systems in Knowledge Graphs [51.98400002538092]
本稿では,学習されたタイムドオートマトンとシステムに関する公式知識グラフを組み合わせることで,CPPSのモデルベース異常検出を改善することを目的とする。
モデルと検出された異常の両方を知識グラフに記述し、モデルと検出された異常をより容易に解釈できるようにする。
論文 参考訳(メタデータ) (2023-08-25T15:25:57Z) - A Comprehensive Evaluation and Analysis Study for Chinese Spelling Check [53.152011258252315]
音声とグラフィックの情報を合理的に使用することは,中国語のスペルチェックに有効であることを示す。
モデルはテストセットのエラー分布に敏感であり、モデルの欠点を反映している。
一般的なベンチマークであるSIGHANは、モデルの性能を確実に評価できない。
論文 参考訳(メタデータ) (2023-07-25T17:02:38Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。