論文の概要: Impact of Accuracy on Model Interpretations
- arxiv url: http://arxiv.org/abs/2011.09903v1
- Date: Tue, 17 Nov 2020 19:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:04:09.175243
- Title: Impact of Accuracy on Model Interpretations
- Title(参考訳): モデル解釈における精度の影響
- Authors: Brian Liu and Madeleine Udell
- Abstract要約: データ科学者は、実世界への影響を促進するために信頼できる解釈を選択することが不可欠である。
本稿では,解釈の質を定量化するための2つの指標を提案し,これらの指標がモデル精度とどのように異なるかを検証する実験を設計する。
様々な手法で正確にモデル化できるデータセットの場合、より単純な手法によってより高品質な解釈が得られます。
- 参考スコア(独自算出の注目度): 24.975981795360845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model interpretations are often used in practice to extract real world
insights from machine learning models. These interpretations have a wide range
of applications; they can be presented as business recommendations or used to
evaluate model bias. It is vital for a data scientist to choose trustworthy
interpretations to drive real world impact. Doing so requires an understanding
of how the accuracy of a model impacts the quality of standard interpretation
tools. In this paper, we will explore how a model's predictive accuracy affects
interpretation quality. We propose two metrics to quantify the quality of an
interpretation and design an experiment to test how these metrics vary with
model accuracy. We find that for datasets that can be modeled accurately by a
variety of methods, simpler methods yield higher quality interpretations. We
also identify which interpretation method works the best for lower levels of
model accuracy.
- Abstract(参考訳): モデル解釈は、機械学習モデルから現実世界の洞察を抽出するためにしばしば用いられる。
これらの解釈には幅広い応用があり、ビジネスレコメンデーションとして提示したり、モデルバイアスを評価するために使用することができる。
データサイエンティストは、現実世界の影響を促進するために信頼できる解釈を選択することが不可欠である。
そのためには、モデルの精度が標準解釈ツールの品質にどのように影響するかを理解する必要がある。
本稿では,モデルの予測精度が解釈品質に与える影響について検討する。
本稿では,解釈の質を定量化する2つの指標を提案し,これらの指標がモデル精度とどのように異なるかを検証する実験を設計する。
様々な手法で正確にモデル化できるデータセットの場合、より単純な手法はより高い品質の解釈をもたらす。
また,モデル精度の低下に対して,どの解釈が最善かを特定する。
関連論文リスト
- On the Calibration of Large Language Models and Alignment [63.605099174744865]
信頼性キャリブレーションは、ディープモデルの信頼性を高める重要なツールである。
構築プロセス全体を通して、アライメント言語モデルの校正を体系的に検討する。
我々の研究は、人気のあるLCMが十分に校正されているか、トレーニングプロセスがモデルの校正にどのように影響するかに光を当てています。
論文 参考訳(メタデータ) (2023-11-22T08:57:55Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。