論文の概要: Beyond Expertise and Roles: A Framework to Characterize the Stakeholders
of Interpretable Machine Learning and their Needs
- arxiv url: http://arxiv.org/abs/2101.09824v1
- Date: Sun, 24 Jan 2021 23:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:07:33.274960
- Title: Beyond Expertise and Roles: A Framework to Characterize the Stakeholders
of Interpretable Machine Learning and their Needs
- Title(参考訳): 専門家と役割を超えて:解釈可能な機械学習のステークホルダーとそのニーズを特徴づけるフレームワーク
- Authors: Harini Suresh, Steven R. Gomez, Kevin K. Nam, Arvind Satyanarayan
- Abstract要約: 多様な利害関係者がブラックボックス自動化システムを尋問し、理解しやすく、関連性があり、有用である情報を見つけることが重要である。
本稿では、より粒度の細かいフレームワークを優先して、解釈可能性ステークホルダーの専門知識と役割に基づく分類を行う。
我々は、ステークホルダーの形式的、道具的、個人的知識と、それが機械学習、データドメイン、そして一般的なミリューの文脈でどのように現れるのかを特徴付けます。
- 参考スコア(独自算出の注目度): 6.381046244250263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure accountability and mitigate harm, it is critical that diverse
stakeholders can interrogate black-box automated systems and find information
that is understandable, relevant, and useful to them. In this paper, we eschew
prior expertise- and role-based categorizations of interpretability
stakeholders in favor of a more granular framework that decouples stakeholders'
knowledge from their interpretability needs. We characterize stakeholders by
their formal, instrumental, and personal knowledge and how it manifests in the
contexts of machine learning, the data domain, and the general milieu. We
additionally distill a hierarchical typology of stakeholder needs that
distinguishes higher-level domain goals from lower-level interpretability
tasks. In assessing the descriptive, evaluative, and generative powers of our
framework, we find our more nuanced treatment of stakeholders reveals gaps and
opportunities in the interpretability literature, adds precision to the design
and comparison of user studies, and facilitates a more reflexive approach to
conducting this research.
- Abstract(参考訳): 説明責任の確保と害を軽減するため、多様な利害関係者がブラックボックスの自動化システムを疑問視し、理解しやすく、関連性があり、有用である情報を見つけることが重要である。
本稿では,ステークホルダの知識を解釈ニーズから切り離す,より粒度の細かい枠組みを優先して,事前の専門知識と役割に基づく理解可能性ステークホルダーの分類を緩和する。
我々は、ステークホルダーの形式的、道具的、個人的知識と、それが機械学習、データドメイン、そして一般的なミリューの文脈でどのように現れるのかを特徴付けます。
さらに、より高いレベルのドメイン目標と低いレベルの解釈可能性タスクを区別するステークホルダーのニーズの階層的なタイポロジーを抽出します。
フレームワークの記述的、評価的、および生成的能力を評価する際に、ステークホルダのよりニュアンスのある扱いは、解釈可能な文献のギャップと機会を明らかにし、ユーザー研究の設計と比較に精度を加え、この研究を実行するためのよりリフレクティブなアプローチを促進します。
関連論文リスト
- Local and Global Explainability Metrics for Machine Learning Predictions [0.0]
本稿では,機械学習モデルの予測を解釈するための新しい定量的メトリクスフレームワークを提案する。
提案するメトリクスはモデル非依存であり、定量化するために定義される。
結果は、これらのメトリクスがどのようにモデル予測をより包括的に理解することができるかを明らかにする。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - Modelling Assessment Rubrics through Bayesian Networks: a Pragmatic
Approach [59.77710485234197]
本稿では,学習者モデルを直接評価ルーリックから導出する手法を提案する。
本稿では,コンピュータ思考のスキルをテストするために開発された活動の人的評価を自動化するために,この手法を適用する方法について述べる。
論文 参考訳(メタデータ) (2022-09-07T10:09:12Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research [0.8707090176854576]
説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-02-15T19:54:33Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。