論文の概要: Intellige: A User-Facing Model Explainer for Narrative Explanations
- arxiv url: http://arxiv.org/abs/2105.12941v1
- Date: Thu, 27 May 2021 05:11:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-05-29 06:20:25.728165
- Title: Intellige: A User-Facing Model Explainer for Narrative Explanations
- Title(参考訳): Intellige: ナラティブな説明のためのユーザファクタモデル説明器
- Authors: Jilei Yang, Diana Negoescu, Parvez Ahammad
- Abstract要約: 本稿では,ユーザ対応モデル説明器であるIntelligeを提案する。
Intelligeは、マシンラーニングプラットフォームからエンドユーザプラットフォームへのエンドツーエンドパイプラインを構築している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive machine learning models often lack interpretability, resulting in
low trust from model end users despite having high predictive performance.
While many model interpretation approaches return top important features to
help interpret model predictions, these top features may not be well-organized
or intuitive to end users, which limits model adoption rates. In this paper, we
propose Intellige, a user-facing model explainer that creates user-digestible
interpretations and insights reflecting the rationale behind model predictions.
Intellige builds an end-to-end pipeline from machine learning platforms to end
user platforms, and provides users with an interface for implementing model
interpretation approaches and for customizing narrative insights. Intellige is
a platform consisting of four components: Model Importer, Model Interpreter,
Narrative Generator, and Narrative Exporter. We describe these components, and
then demonstrate the effectiveness of Intellige through use cases at LinkedIn.
Quantitative performance analyses indicate that Intellige's narrative insights
lead to lifts in adoption rates of predictive model recommendations, as well as
to increases in downstream key metrics such as revenue when compared to
previous approaches, while qualitative analyses indicate positive feedback from
end users.
- Abstract(参考訳): 予測機械学習モデルは解釈可能性に欠けることが多く、予測性能が高いにもかかわらず、モデルエンドユーザーからの信頼は低い。
多くのモデル解釈アプローチは、モデル予測を解釈する上で重要な機能を返すが、これらのトップ機能は、エンドユーザーにとって十分に構成されたり直観的なものではないかもしれない。
本稿では,モデル予測の背後にある理論的根拠を反映した,ユーザの理解可能な解釈と洞察を生成する,ユーザ向けモデル説明器intelligeを提案する。
Intelligeは、マシンラーニングプラットフォームからエンドユーザプラットフォームへのエンドツーエンドパイプラインを構築し、モデル解釈アプローチの実装と物語の洞察のカスタマイズのためのインターフェースを提供する。
Intelligeは、Model Importer、Model Interpreter、Narrative Generator、Narrative Exporterの4つのコンポーネントで構成されるプラットフォームである。
これらのコンポーネントを説明し、LinkedInのユースケースを通じてIntelligeの有効性を実証する。
定量的なパフォーマンス分析は、intelligeのナラティブな洞察が予測モデルのレコメンデーションの採用率の上昇につながり、また、前回のアプローチと比較して収益などの下流の重要指標の増加につながることを示している一方、質的分析はエンドユーザーからのポジティブなフィードバックを示している。
関連論文リスト
- Explaining Pre-Trained Language Models with Attribution Scores: An
Analysis in Low-Resource Settings [32.03184402316848]
我々は,素早いモデルから抽出した帰属スコアの妥当性と忠実度を分析した。
プロンプトパラダイムを用いることで、低リソース環境下でモデルを微調整するよりも、より妥当な説明が得られます。
論文 参考訳(メタデータ) (2024-03-08T14:14:37Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - You Mostly Walk Alone: Analyzing Feature Attribution in Trajectory
Prediction [52.442129609979794]
軌道予測のための最近の深層学習手法は有望な性能を示す。
そのようなブラックボックスモデルが実際にどのモデルを予測するために使うのかは、まだ不明である。
本稿では,モデル性能に対する異なるキューの貢献度を定量化する手法を提案する。
論文 参考訳(メタデータ) (2021-10-11T14:24:15Z) - Model Learning with Personalized Interpretability Estimation (ML-PIE) [2.862606936691229]
ハイステークアプリケーションは、AI生成モデルを解釈可能にする必要がある。
解釈可能なモデルの合成のための現在のアルゴリズムは、目的や正規化項に依存する。
本稿では,ユーザ向けにカスタマイズされたモデルの合成手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T09:47:48Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Intuitively Assessing ML Model Reliability through Example-Based
Explanations and Editing Model Inputs [19.09848738521126]
解釈可能性メソッドは、機械学習モデルの能力に対する信頼の構築と理解を支援することを目的とする。
モデル信頼性をより直感的に評価するための2つのインターフェースモジュールを紹介します。
論文 参考訳(メタデータ) (2021-02-17T02:41:32Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - ViCE: Visual Counterfactual Explanations for Machine Learning Models [13.94542147252982]
本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
論文 参考訳(メタデータ) (2020-03-05T04:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。