論文の概要: Show or Suppress? Managing Input Uncertainty in Machine Learning Model
Explanations
- arxiv url: http://arxiv.org/abs/2101.09498v1
- Date: Sat, 23 Jan 2021 13:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:49:51.556027
- Title: Show or Suppress? Managing Input Uncertainty in Machine Learning Model
Explanations
- Title(参考訳): Show or Suppress?
機械学習モデル説明における入力不確かさの管理
- Authors: Danding Wang, Wencan Zhang and Brian Y. Lim
- Abstract要約: 特徴属性は、各測定された入力特徴値が出力推定に与える影響を説明するために、解釈可能な機械学習で広く使用されている。
入力の不確実性の認識が説明の信頼にどのように影響するかは不明です。
モデル説明において不確実性の認識を管理するための2つのアプローチを提案します。
- 参考スコア(独自算出の注目度): 5.695163312473304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attribution is widely used in interpretable machine learning to
explain how influential each measured input feature value is for an output
inference. However, measurements can be uncertain, and it is unclear how the
awareness of input uncertainty can affect the trust in explanations. We propose
and study two approaches to help users to manage their perception of
uncertainty in a model explanation: 1) transparently show uncertainty in
feature attributions to allow users to reflect on, and 2) suppress attribution
to features with uncertain measurements and shift attribution to other features
by regularizing with an uncertainty penalty. Through simulation experiments,
qualitative interviews, and quantitative user evaluations, we identified the
benefits of moderately suppressing attribution uncertainty, and concerns
regarding showing attribution uncertainty. This work adds to the understanding
of handling and communicating uncertainty for model interpretability.
- Abstract(参考訳): 特徴属性は、各測定された入力特徴値が出力推定に与える影響を説明するために、解釈可能な機械学習で広く使用されている。
しかし、測定は不確かであり、入力の不確実性に対する認識が説明の信頼にどのように影響するかは不明である。
モデル説明において,ユーザが不確実性に対する認識を管理するための2つのアプローチを提案する。1)特徴属性の不確実性を透過的に示し,2)不確実性のある特徴への寄与を抑え,また,不確実性ペナルティで規則化することで他の特徴への帰属を抑える。
シミュレーション実験,質的インタビュー,定量的ユーザ評価を通じて,帰属不確実性を適度に抑制するメリット,帰属不確実性を示すことへの懸念を明らかにした。
この作業は、モデル解釈可能性の扱いや不確実性に関する理解を深める。
関連論文リスト
- Learning Disentangled Representations of Negation and Uncertainty [25.11863604063283]
言語理論は、否定と不確実性の表現は意味的に互いに独立であり、それらが修正する内容である、と仮定している。
本研究では,変分オートエンコーダを用いて否定,不確実性,内容の表現をアンタングル化しようとする。
論文 参考訳(メタデータ) (2022-04-01T15:12:05Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Decomposing Representations for Deterministic Uncertainty Estimation [34.11413246048065]
我々は,現在の特徴密度に基づく不確実性推定器は,様々なOoD検出設定で一貫した性能を発揮できないことを示す。
本稿では,学習した表現を分解し,それらを個別に推定した不確実性を統合することを提案する。
論文 参考訳(メタデータ) (2021-12-01T22:12:01Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - A Tale Of Two Long Tails [4.970364068620608]
モデルが不確実である例を特定し、その不確実性の原因を特徴付ける。
追加情報が存在する場合の学習速度が,非典型例と雑音例とで異なるか否かを検討する。
以上の結果から,トレーニングの過程で適切に設計された介入は,異なる不確実性源の識別・識別に有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2021-07-27T22:49:59Z) - Logit-based Uncertainty Measure in Classification [18.224344440110862]
我々は,ロジット不確実性と呼ばれる分類タスクに対して,新しい,信頼性が高く,不可知な不確実性尺度を導入する。
この新たな不確実性対策は,従来の課題に対する不確実性対策よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-07-06T19:07:16Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Embracing Uncertainty: Decoupling and De-bias for Robust Temporal
Grounding [23.571580627202405]
時間接地は、言語クエリによって、未トリミングビデオ内の時間境界をローカライズすることを目的としている。
クエリの不確実性とラベルの不確実性という2つのタイプの避けられない人間の不確実性の課題に直面しています。
人間の不確実性を受け入れる新しいDeNet(Decoupling and De-bias)を提案する。
論文 参考訳(メタデータ) (2021-03-31T07:00:56Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。