論文の概要: GAM Coach: Towards Interactive and User-centered Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2302.14165v1
- Date: Mon, 27 Feb 2023 21:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 18:51:16.034216
- Title: GAM Coach: Towards Interactive and User-centered Algorithmic Recourse
- Title(参考訳): GAM Coach: インタラクティブでユーザ中心のアルゴリズムリコースを目指す
- Authors: Zijie J. Wang, Jennifer Wortman Vaughan, Rich Caruana, Duen Horng Chau
- Abstract要約: 我々はGAM(Generalized Additive Models)のカスタマイズ可能な対実的説明を生成するために整数線形プログラミングを適用する新しいオープンソースシステムであるGAM Coachを提案する。
41名の参加者による定量的ユーザスタディでは,ツールが有用で有用であり,ユーザは汎用的な計画よりもパーソナライズされたリコースプランを好んでいる。
- 参考スコア(独自算出の注目度): 28.137254018280576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) recourse techniques are increasingly used in
high-stakes domains, providing end users with actions to alter ML predictions,
but they assume ML developers understand what input variables can be changed.
However, a recourse plan's actionability is subjective and unlikely to match
developers' expectations completely. We present GAM Coach, a novel open-source
system that adapts integer linear programming to generate customizable
counterfactual explanations for Generalized Additive Models (GAMs), and
leverages interactive visualizations to enable end users to iteratively
generate recourse plans meeting their needs. A quantitative user study with 41
participants shows our tool is usable and useful, and users prefer personalized
recourse plans over generic plans. Through a log analysis, we explore how users
discover satisfactory recourse plans, and provide empirical evidence that
transparency can lead to more opportunities for everyday users to discover
counterintuitive patterns in ML models. GAM Coach is available at:
https://poloclub.github.io/gam-coach/.
- Abstract(参考訳): マシンラーニング(ML)のリコーステクニックは、ML予測を変更するアクションをエンドユーザに提供することによって、ハイテイクなドメインでますます使用されている。
しかし、リコース計画の動作性は主観的であり、開発者の期待と完全に一致しない。
本稿では,GAM(Generalized Additive Models)のカスタマイズ可能な対実的説明を生成するために,整数線形プログラミングを適用した新しいオープンソースシステムであるGAM Coachを提案する。
41名の参加者による定量的ユーザスタディでは,ツールが有用で有用であり,ユーザは汎用計画よりもパーソナライズされたリコースプランを好む。
ログ分析を通じて、ユーザによる適切なリコース計画の発見方法や、透明性がmlモデルの直観に反するパターンを発見する機会の増加につながる、という実証的な証拠を提供する。
GAM Coach は以下の https://poloclub.github.io/gam-coach/ で利用可能である。
関連論文リスト
- XRec: Large Language Models for Explainable Recommendation [5.615321475217167]
我々は、XRecと呼ばれるモデルに依存しないフレームワークを導入し、大規模言語モデルがレコメンデーションシステムにおけるユーザの振る舞いを説明することを可能にする。
我々の実験は、説明可能なレコメンデータシステムにおいて、ベースラインアプローチよりも優れた、包括的で意味のある説明を生成するXRecの能力を実証した。
論文 参考訳(メタデータ) (2024-06-04T14:55:14Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Explainable Active Learning for Preference Elicitation [0.0]
我々は、最小限のユーザ労力で情報取得を最大化することを目的として、この問題を解決するためにアクティブラーニング(AL)を採用している。
ALは、大きなラベルのない集合から情報的データを選択して、それらをラベル付けするオラクルを問い合わせる。
ベースとなる機械学習(ML)モデルを更新するために、ユーザからのフィードバック(提示された項目に関するシステムの説明のために)を情報的なサンプルから収集する。
論文 参考訳(メタデータ) (2023-09-01T09:22:33Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - User Driven Model Adjustment via Boolean Rule Explanations [7.814304432499296]
本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるようにするソリューションを提案する。
我々のインタラクティブなオーバーレイアプローチは、モデルの再トレーニングを必要とせずにこの目標を達成する。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
論文 参考訳(メタデータ) (2022-03-28T20:27:02Z) - GAM Changer: Editing Generalized Additive Models with Interactive
Visualization [28.77745864749409]
私たちは、データサイエンティストがGAM(Generalized Additive Models)を簡単にかつ責任を持って編集できるオープンソースのインタラクティブシステムであるGAM Changerを紹介します。
私たちのツールは、新しい可視化技術によって、解釈可能性(interpretability)を行動に導入します -- 人間のユーザに対して、モデル行動と知識と価値を分析、検証、調整することを可能にするのです。
論文 参考訳(メタデータ) (2021-12-06T18:51:49Z) - Hyper Meta-Path Contrastive Learning for Multi-Behavior Recommendation [61.114580368455236]
マルチビヘイビア情報によるユーザ購入予測は、現在のレコメンデーションシステムでは難しい問題である。
本稿では,ハイパーメタパスやハイパーメタグラフを構築するためのハイパーメタパスの概念を提案する。
最近のグラフコントラスト学習の成功により、異なる振る舞い間の依存関係を理解するために固定されたスキームを割り当てるのではなく、ユーザ行動パターンの埋め込みを適応的に学習する。
論文 参考訳(メタデータ) (2021-09-07T04:28:09Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。