論文の概要: Sanity Simulations for Saliency Methods
- arxiv url: http://arxiv.org/abs/2105.06506v1
- Date: Thu, 13 May 2021 18:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 02:46:05.558503
- Title: Sanity Simulations for Saliency Methods
- Title(参考訳): 塩分濃度法の衛生シミュレーション
- Authors: Joon Sik Kim, Gregory Plumb, Ameet Talwalkar
- Abstract要約: saliencyメソッドは、入力画像内の「重要な」ピクセルを識別することで、モデルの予測推論をキャプチャすることを目的としている。
現在、Saliencyメソッドの開発と導入は、基礎となるモデル推論へのアクセスの欠如によって妨げられている。
本研究では,サリエンシー法の評価を行うための合成評価フレームワークsmerfを設計した。
- 参考スコア(独自算出の注目度): 18.824159568744996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Saliency methods are a popular class of feature attribution tools that aim to
capture a model's predictive reasoning by identifying "important" pixels in an
input image. However, the development and adoption of saliency methods are
currently hindered by the lack of access to underlying model reasoning, which
prevents accurate method evaluation. In this work, we design a synthetic
evaluation framework, SMERF, that allows us to perform ground-truth-based
evaluation of saliency methods while controlling the underlying complexity of
model reasoning. Experimental evaluations via SMERF reveal significant
limitations in existing saliency methods, especially given the relative
simplicity of SMERF's synthetic evaluation tasks. Moreover, the SMERF
benchmarking suite represents a useful tool in the development of new saliency
methods to potentially overcome these limitations.
- Abstract(参考訳): Saliency Methodは、入力画像中の「重要な」ピクセルを識別することによって、モデルの予測推論を捉えることを目的とした、人気のある機能属性ツールのクラスである。
しかし、現在、サリエンシ手法の開発と導入は、基礎となるモデル推論へのアクセスの欠如によって妨げられているため、正確な手法評価ができない。
本研究では,モデル推論の基盤となる複雑性を制御しつつ,サリエンシー法を基礎的に評価できる合成評価フレームワークsmerfを設計した。
SMERFによる実験評価は,SMERFの合成評価タスクの比較的単純さを考えると,既存のサリエンシ手法の限界が顕著である。
さらに、SMERFベンチマークスイートは、これらの制限を克服するための新しいサリエンシ手法の開発において有用なツールである。
関連論文リスト
- BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - Return of EM: Entity-driven Answer Set Expansion for QA Evaluation [18.27357367772278]
本稿では,QAモデルの評価にエンティティ駆動型回答セット拡張を用いたソフトEMを提案する。
本手法は, 表面形状が実体の種類によっては特定のパターンに従うことがしばしばあるという観察に基づいて, 多様な表面形状を含むように金の解集合を拡張する。
論文 参考訳(メタデータ) (2024-04-24T05:08:55Z) - Exploring validation metrics for offline model-based optimisation with
diffusion models [50.404829846182764]
モデルベース最適化(MBO)では、マシンラーニングを使用して、(基底真理)オラクルと呼ばれるブラックボックス関数に対する報酬の尺度を最大化する候補を設計することに興味があります。
モデル検証中に基底オラクルに対する近似をトレーニングし、その代わりに使用することができるが、その評価は近似的であり、敵の例に対して脆弱である。
本手法は,外挿量を測定するために提案した評価フレームワークにカプセル化されている。
論文 参考訳(メタデータ) (2022-11-19T16:57:37Z) - Bayesian Evidential Learning for Few-Shot Classification [22.46281648187903]
Few-Shot 分類は、非常に限定されたラベル付きサンプルをベースクラスから新しいクラスに一般化することを目的としている。
最先端のソリューションは、サンプル間の距離を計算するための良い計量と表現空間を見つけることを含む。
有望な精度性能にもかかわらず、計量ベースのFSC手法の不確実性を効果的にモデル化する方法は依然として課題である。
論文 参考訳(メタデータ) (2022-07-19T03:58:00Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - MUC-driven Feature Importance Measurement and Adversarial Analysis for
Random Forest [1.5896078006029473]
我々は形式的手法と論理的推論を活用して、ランダムフォレスト(RF)の予測を説明する新しいモデル固有の方法を開発した。
提案手法は, 最小不飽和コア(MUC)を中心に, 特徴重要度, 局所的・グローバル的側面, および対向的サンプル分析に関する包括的ソリューションを提供する。
提案手法はユーザ中心のレポートを作成でき,リアルタイムアプリケーションにレコメンデーションを提供するのに役立つ。
論文 参考訳(メタデータ) (2022-02-25T06:15:47Z) - Sample-Efficient Reinforcement Learning via Conservative Model-Based
Actor-Critic [67.00475077281212]
モデルベース強化学習アルゴリズムは、モデルフリーのアルゴリズムよりもサンプル効率が高い。
本稿では,精度の高い学習モデルに強く依存することなく,高いサンプル効率を実現する新しい手法を提案する。
CMBACは,いくつかの課題に対して,サンプル効率の点で最先端のアプローチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-12-16T15:33:11Z) - Multicriteria interpretability driven Deep Learning [0.0]
ディープラーニングの手法はパフォーマンスで有名だが、その解釈可能性の欠如は、高い文脈での学習を妨げている。
近年のモデル手法では、モデルの内部動作をリバースエンジニアリングすることで、ポストホック解釈可能性法を提供することでこの問題に対処している。
本稿では,目的関数に知識を注入することで,モデルの結果に特徴的影響を制御できるマルチクレータ非依存手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T09:41:13Z) - Developing a Fidelity Evaluation Approach for Interpretable Machine
Learning [2.2448567386846916]
複雑なモデルの解釈性を改善するために、説明可能なAI(XAI)メソッドが使用される。
特に、ブラックボックスの説明の忠実さを評価するには、さらなる発展が必要である。
本評価は, 基礎となる予測モデルの内部メカニズム, 使用法の内部メカニズム, モデルおよびデータの複雑さが, すべて説明忠実性に影響を与えることを示唆している。
論文 参考訳(メタデータ) (2021-06-16T00:21:16Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。