論文の概要: Epistemic values in feature importance methods: Lessons from feminist
epistemology
- arxiv url: http://arxiv.org/abs/2101.12737v1
- Date: Fri, 29 Jan 2021 18:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 08:42:10.243619
- Title: Epistemic values in feature importance methods: Lessons from feminist
epistemology
- Title(参考訳): 特徴的重要性における疫学的価値:フェミニストの疫学からの教訓
- Authors: Leif Hancox-Li and I. Elizabeth Kumar
- Abstract要約: 特徴重要度法において、どの値が暗黙的に組み込まれているか、フェミニズム的価値と矛盾しているかを検討する。
我々はフェミニストの価値観を尊重する説明をどう研究するかについて提案する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the public seeks greater accountability and transparency from machine
learning algorithms, the research literature on methods to explain algorithms
and their outputs has rapidly expanded. Feature importance methods form a
popular class of explanation methods. In this paper, we apply the lens of
feminist epistemology to recent feature importance research. We investigate
what epistemic values are implicitly embedded in feature importance methods and
how or whether they are in conflict with feminist epistemology. We offer some
suggestions on how to conduct research on explanations that respects feminist
epistemic values, taking into account the importance of social context, the
epistemic privileges of subjugated knowers, and adopting more interactional
ways of knowing.
- Abstract(参考訳): 一般大衆が機械学習アルゴリズムから説明責任と透明性を求める中で、アルゴリズムとその出力を説明する方法に関する研究論文は急速に拡大している。
特徴重要メソッドは、一般的な説明メソッドのクラスを形成する。
本稿では,フェミニストの認識論のレンズを最近の重要度研究に適用する。
本研究は, 特徴的重要性の方法と, フェミニストの認識学とどのように対立しているかについて検討する。
我々は,フェミニスト的認識主義的価値観を尊重する説明について,社会的文脈の重要性,従属する知識者の認識主義的特権を考慮し,より対話的な知識の方法を採用する方法について,研究を行う方法について提案する。
関連論文リスト
- Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Empathetic Conversational Systems: A Review of Current Advances, Gaps,
and Opportunities [2.741266294612776]
多くの研究が共感の利点を認識し、共感を会話システムに取り入れ始めた。
本稿では,5つのレビュー次元を用いて,急速に成長するこの分野について検討する。
論文 参考訳(メタデータ) (2022-05-09T05:19:48Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Understanding understanding: a renormalization group inspired model of
(artificial) intelligence [0.0]
本稿では,科学的および人工知能システムにおける理解の意味について述べる。
理解の数学的定義を与え、共通知恵とは対照的に、入力集合上の確率空間を定義する。
この枠組みに科学的理解がどのように適合するかを示し、科学的課題とパターン認識の違いを実証する。
論文 参考訳(メタデータ) (2020-10-26T11:11:46Z) - A Review on Intelligent Object Perception Methods Combining
Knowledge-based Reasoning and Machine Learning [60.335974351919816]
物体知覚はコンピュータビジョンの基本的なサブフィールドである。
最近の研究は、物体の視覚的解釈のインテリジェンスレベルを拡大するために、知識工学を統合する方法を模索している。
論文 参考訳(メタデータ) (2019-12-26T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。