論文の概要: DSEG-LIME: Improving Image Explanation by Hierarchical Data-Driven Segmentation
- arxiv url: http://arxiv.org/abs/2403.07733v3
- Date: Tue, 08 Oct 2024 07:26:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:29:40.541006
- Title: DSEG-LIME: Improving Image Explanation by Hierarchical Data-Driven Segmentation
- Title(参考訳): DSEG-LIME:階層型データ駆動セグメンテーションによる画像説明の改善
- Authors: Patrick Knab, Sascha Marton, Christian Bartelt,
- Abstract要約: LIME(Local Interpretable Model-Agnostic Explanations)は画像解析のためのXAIフレームワークとしてよく知られている。
DSEG-LIME(Data-Driven LIME)を導入し,人間の認識機能生成のためのデータ駆動セグメンテーションを特徴とする。
我々は,事前学習したモデルのDSEG-LIMEをImageNetデータセットの画像でベンチマークする。
- 参考スコア(独自算出の注目度): 2.355460994057843
- License:
- Abstract: Explainable Artificial Intelligence is critical in unraveling decision-making processes in complex machine learning models. LIME (Local Interpretable Model-agnostic Explanations) is a well-known XAI framework for image analysis. It utilizes image segmentation to create features to identify relevant areas for classification. Consequently, poor segmentation can compromise the consistency of the explanation and undermine the importance of the segments, affecting the overall interpretability. Addressing these challenges, we introduce DSEG-LIME (Data-Driven Segmentation LIME), featuring: i) a data-driven segmentation for human-recognized feature generation, and ii) a hierarchical segmentation procedure through composition. We benchmark DSEG-LIME on pre-trained models with images from the ImageNet dataset - scenarios without domain-specific knowledge. The analysis includes a quantitative evaluation using established XAI metrics, complemented by a qualitative assessment through a user study. Our findings demonstrate that DSEG outperforms in most of the XAI metrics and enhances the alignment of explanations with human-recognized concepts, significantly improving interpretability. The code is available under: https://github. com/patrick-knab/DSEG-LIME. The code is available under: https://github. com/patrick-knab/DSEG-LIME
- Abstract(参考訳): 説明可能な人工知能は、複雑な機械学習モデルにおける意思決定プロセスの展開に不可欠である。
LIME(Local Interpretable Model-Agnostic Explanations)は画像解析のためのXAIフレームワークとしてよく知られている。
イメージセグメンテーションを使用して、分類の関連領域を特定する機能を作成する。
その結果、セグメンテーションの貧弱さは説明の一貫性を損なうことができ、セグメンテーションの重要性を損なうことになり、全体的な解釈可能性に影響を及ぼす。
これらの課題に対処するため、DSEG-LIME(Data-Driven Segmentation LIME)を紹介します。
一 人間の認識特徴生成のためのデータ駆動セグメンテーション及び
二 構成による階層的区分手続
DSEG-LIMEを、ImageNetデータセットからの画像で事前訓練したモデルでベンチマークする。
この分析は、ユーザスタディを通じて定性評価によって補完される、確立されたXAIメトリクスを用いた定量的評価を含む。
以上の結果から,DSEGはXAI指標のほとんどで優れており,人間認識概念との整合性を高め,解釈可能性を大幅に向上させることが示された。
コードは以下の通り。
https://aws.com/patrick-knab/DSEG-LIME.com
コードは以下の通り。
https://aws.com/patrick-knab/DSEG-LIME
関連論文リスト
- Freestyle Sketch-in-the-Loop Image Segmentation [116.1810651297801]
そこで我々は,視覚概念を部分的に,完全に,あるいはグループ化することで,視覚概念のセグメンテーションを可能にする,スケッチ・イン・ザ・ループ(sketch-in-the-loop)イメージセグメンテーションフレームワークを提案する。
このフレームワークは、スケッチベースの画像検索モデルと大規模事前学習モデルとの相乗効果を生かしている。
我々の目的による拡張戦略は、スケッチ誘導マスク生成の汎用性を高め、複数のレベルでセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2025-01-27T13:07:51Z) - SegXAL: Explainable Active Learning for Semantic Segmentation in Driving Scene Scenarios [1.2172320168050466]
XALに基づくセマンティックセグメンテーションモデル "SegXAL" を提案する。
SegXALは、(i)ラベルのないデータを効果的に活用し、(ii)"Human-in-the-loop"パラダイムを促進し、(iii)解釈可能な方法でモデル決定を強化する。
特に,シーン駆動シナリオにおけるセマンティックセグメンテーションに対するSegXALモデルの適用について検討する。
論文 参考訳(メタデータ) (2024-08-08T14:19:11Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Edge-aware Plug-and-play Scheme for Semantic Segmentation [4.297988192695948]
提案手法は, 改良を伴わない任意の最先端(SOTA)モデルにシームレスに統合できる。
実験結果から,提案手法は改良を伴わない任意の最先端(SOTA)モデルにシームレスに統合できることが示唆された。
論文 参考訳(メタデータ) (2023-03-18T02:17:37Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - GLIME: A new graphical methodology for interpretable model-agnostic
explanations [0.0]
本稿では,ブラックボックスモデルのための新しいグラフィカルな説明可能性ツールの開発に寄与する。
gLIMEと呼ばれる提案されたXAI方法論は、グローバル(データセット全体)またはローカルスケール(特定のデータポイント)でグラフィカルなモデルに依存しない説明を提供する。
論文 参考訳(メタデータ) (2021-07-21T08:06:40Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Unsupervised Learning Consensus Model for Dynamic Texture Videos
Segmentation [12.462608802359936]
動的テクスチャのセグメンテーションのための効果的な教師なし学習コンセンサスモデルを提案する。
提案モデルでは,分類対象画素の周辺部における再量子化局所2値パターン(LBP)ヒストグラムの値の集合を特徴として用いた。
挑戦的なSynthDBデータセットで実施された実験は、ULCMが大幅に高速で、コーディングが簡単で、単純で、パラメータが限られていることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:40:59Z) - Spatial Pyramid Based Graph Reasoning for Semantic Segmentation [67.47159595239798]
セマンティックセグメンテーションタスクにグラフ畳み込みを適用し、改良されたラプラシアンを提案する。
グラフ推論は、空間ピラミッドとして構成された元の特徴空間で直接実行される。
計算とメモリのオーバーヘッドの利点で同等のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-03-23T12:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。