論文の概要: Identifying Important Group of Pixels using Interactions
- arxiv url: http://arxiv.org/abs/2401.03785v2
- Date: Fri, 12 Apr 2024 14:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 19:16:06.771706
- Title: Identifying Important Group of Pixels using Interactions
- Title(参考訳): 相互作用を用いた重要な画素群の同定
- Authors: Kosuke Sumiyasu, Kazuhiko Kawamoto, Hiroshi Kera,
- Abstract要約: 予測信頼度の高い画素群を効率よく同定する手法であるMoXIを提案する。
提案手法は,個々の画素の影響を考慮し,ゲーム理論の概念,シェープ値,相互作用を用いる。
- 参考スコア(独自算出の注目度): 5.2980803808373516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To better understand the behavior of image classifiers, it is useful to visualize the contribution of individual pixels to the model prediction. In this study, we propose a method, MoXI ($\textbf{Mo}$del e$\textbf{X}$planation by $\textbf{I}$nteractions), that efficiently and accurately identifies a group of pixels with high prediction confidence. The proposed method employs game-theoretic concepts, Shapley values and interactions, taking into account the effects of individual pixels and the cooperative influence of pixels on model confidence. Theoretical analysis and experiments demonstrate that our method better identifies the pixels that are highly contributing to the model outputs than widely-used visualization by Grad-CAM, Attention rollout, and Shapley value. While prior studies have suffered from the exponential computational cost in the computation of Shapley value and interactions, we show that this can be reduced to quadratic cost for our task. The code is available at https://github.com/KosukeSumiyasu/MoXI.
- Abstract(参考訳): 画像分類器の挙動をよりよく理解するために、個々の画素のモデル予測への寄与を可視化することが有用である。
本研究では,予測信頼度の高い画素群を効率的に正確に同定する手法であるMoXI(\textbf{Mo}$del e$\textbf{X}$planation by $\textbf{I}$nteractions)を提案する。
提案手法は,個々の画素の影響とモデルの信頼性に対する画素の協調的影響を考慮し,ゲーム理論の概念,シェープ値,相互作用を利用する。
理論的解析と実験により,本手法はGrad-CAM,Attention Rollout,Shapley値による広義の可視化よりも,モデル出力に高い寄与力を持つ画素をよりよく同定できることが示された。
従来の研究はシェープ値と相互作用の計算において指数計算コストに悩まされてきたが、これはタスクの二次コストに還元できることを示す。
コードはhttps://github.com/KosukeSumiyasu/MoXIで入手できる。
関連論文リスト
- Bayesian Active Learning for Semantic Segmentation [9.617769135242973]
スパースピクセルレベルのアノテーションに基づくベイズ能動的学習フレームワークを提案する。
BalEntは、予測された限界化確率分布とピクセルラベルの間の情報をキャプチャする。
私たちは、Cityscapes、Camvid、ADE20K、VOC2012ベンチマークデータセットのために提案したアクティブラーニングフレームワークをトレーニングします。
論文 参考訳(メタデータ) (2024-08-03T07:26:10Z) - Semi-supervised Counting via Pixel-by-pixel Density Distribution
Modelling [135.66138766927716]
本稿では,トレーニングデータのごく一部をラベル付けした半教師付き群集カウントに着目した。
我々は1つの決定論的値ではなく、確率分布として回帰するためにピクセル単位の密度値を定式化する。
本手法は,様々なラベル付き比率設定の下で,競争相手よりも明らかに優れる。
論文 参考訳(メタデータ) (2024-02-23T12:48:02Z) - Learning county from pixels: Corn yield prediction with attention-weighted multiple instance learning [8.573309028586168]
本研究は,各郡をピクセルレベルで調査し,各郡内の詳細な情報を活用するために複数のインスタンス学習を適用した。
さらに,提案手法は,特徴データセットと作物マスクとの一貫性のない分解による「混合画素」問題に対処する。
開発されたモデルは、過去5年間で米国のコーンベルトで、他の4つの機械学習モデルを上回っている。
論文 参考訳(メタデータ) (2023-12-02T02:09:31Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Superpixels algorithms through network community detection [0.0]
コミュニティ検出は複雑なネットワーク分析の強力なツールであり、様々な研究分野の応用を見出すことができる。
スーパーピクセルは、可能な限りオリジナル情報を保存しながら、画像をより小さなレベルで表現することを目的としている。
4つの連結画素グラフ上で,最先端のコミュニティ検出アルゴリズムによって計算されたスーパーピクセルの効率について検討した。
論文 参考訳(メタデータ) (2023-08-27T13:13:28Z) - Autoencoding Conditional Neural Processes for Representation Learning [31.63717849083666]
条件付きニューラルプロセス(CNP)は、データから学習するフレキシブルで効率的なモデルのファミリーである。
PPS-VAE(Partial Pixel Space Variational Autoencoder)は、CNPコンテキストをCNPと同時に学習する潜時変数としてキャストするアモータイズされた変分フレームワークである。
論文 参考訳(メタデータ) (2023-05-29T12:10:18Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Probabilistic Deep Metric Learning for Hyperspectral Image
Classification [91.5747859691553]
本稿では,ハイパースペクトル画像分類のための確率論的深度学習フレームワークを提案する。
ハイパースペクトルセンサーが捉えた画像に対して、各ピクセルのカテゴリを予測することを目的としている。
我々のフレームワークは、既存のハイパースペクトル画像分類法に容易に適用できる。
論文 参考訳(メタデータ) (2022-11-15T17:57:12Z) - Pixel-Wise Contrastive Distillation [3.274323556083613]
本稿では,高密度予測タスクに相応しい画素レベルの自己監督蒸留フレームワークを提案する。
提案手法は, 学生と教師の出力特徴マップから対応する画素を抽出し, 知識を抽出する。
論文 参考訳(メタデータ) (2022-11-01T02:00:32Z) - PixelPyramids: Exact Inference Models from Lossless Image Pyramids [58.949070311990916]
Pixel-Pyramidsは、画像画素の関節分布を符号化するスケール特異的表現を用いたブロック自動回帰手法である。
様々な画像データセット、特に高解像度データに対する密度推定の最先端結果が得られる。
CelebA-HQ 1024 x 1024 では,フローベースモデルの並列化よりもサンプリング速度が優れているにもかかわらず,密度推定値がベースラインの 44% に向上することが観察された。
論文 参考訳(メタデータ) (2021-10-17T10:47:29Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。