論文の概要: Beyond Expertise and Roles: A Framework to Characterize the Stakeholders
of Interpretable Machine Learning and their Needs
- arxiv url: http://arxiv.org/abs/2101.09824v1
- Date: Sun, 24 Jan 2021 23:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:07:33.274960
- Title: Beyond Expertise and Roles: A Framework to Characterize the Stakeholders
of Interpretable Machine Learning and their Needs
- Title(参考訳): 専門家と役割を超えて:解釈可能な機械学習のステークホルダーとそのニーズを特徴づけるフレームワーク
- Authors: Harini Suresh, Steven R. Gomez, Kevin K. Nam, Arvind Satyanarayan
- Abstract要約: 多様な利害関係者がブラックボックス自動化システムを尋問し、理解しやすく、関連性があり、有用である情報を見つけることが重要である。
本稿では、より粒度の細かいフレームワークを優先して、解釈可能性ステークホルダーの専門知識と役割に基づく分類を行う。
我々は、ステークホルダーの形式的、道具的、個人的知識と、それが機械学習、データドメイン、そして一般的なミリューの文脈でどのように現れるのかを特徴付けます。
- 参考スコア(独自算出の注目度): 6.381046244250263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure accountability and mitigate harm, it is critical that diverse
stakeholders can interrogate black-box automated systems and find information
that is understandable, relevant, and useful to them. In this paper, we eschew
prior expertise- and role-based categorizations of interpretability
stakeholders in favor of a more granular framework that decouples stakeholders'
knowledge from their interpretability needs. We characterize stakeholders by
their formal, instrumental, and personal knowledge and how it manifests in the
contexts of machine learning, the data domain, and the general milieu. We
additionally distill a hierarchical typology of stakeholder needs that
distinguishes higher-level domain goals from lower-level interpretability
tasks. In assessing the descriptive, evaluative, and generative powers of our
framework, we find our more nuanced treatment of stakeholders reveals gaps and
opportunities in the interpretability literature, adds precision to the design
and comparison of user studies, and facilitates a more reflexive approach to
conducting this research.
- Abstract(参考訳): 説明責任の確保と害を軽減するため、多様な利害関係者がブラックボックスの自動化システムを疑問視し、理解しやすく、関連性があり、有用である情報を見つけることが重要である。
本稿では,ステークホルダの知識を解釈ニーズから切り離す,より粒度の細かい枠組みを優先して,事前の専門知識と役割に基づく理解可能性ステークホルダーの分類を緩和する。
我々は、ステークホルダーの形式的、道具的、個人的知識と、それが機械学習、データドメイン、そして一般的なミリューの文脈でどのように現れるのかを特徴付けます。
さらに、より高いレベルのドメイン目標と低いレベルの解釈可能性タスクを区別するステークホルダーのニーズの階層的なタイポロジーを抽出します。
フレームワークの記述的、評価的、および生成的能力を評価する際に、ステークホルダのよりニュアンスのある扱いは、解釈可能な文献のギャップと機会を明らかにし、ユーザー研究の設計と比較に精度を加え、この研究を実行するためのよりリフレクティブなアプローチを促進します。
関連論文リスト
- Iterative Utility Judgment Framework via LLMs Inspired by Relevance in Philosophy [66.95501113584541]
ユーティリティとトピック関連性は、情報検索において重要な手段である。
本稿では,リトリーバル拡張生成のサイクルの各ステップを促進させるために,反復的ユーティリティである JudgmEnt fraMework を提案する。
論文 参考訳(メタデータ) (2024-06-17T07:52:42Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research [0.8707090176854576]
説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-02-15T19:54:33Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。