論文の概要: On Explaining Unfairness: An Overview
- arxiv url: http://arxiv.org/abs/2402.10762v1
- Date: Fri, 16 Feb 2024 15:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 15:25:43.457459
- Title: On Explaining Unfairness: An Overview
- Title(参考訳): 不公平を説明する - 概観
- Authors: Christos Fragkathoulas, Vasiliki Papanikou, Danae Pla Karidi,
Evaggelia Pitoura
- Abstract要約: アルゴリズムの公正性と説明可能性は、責任あるAIを達成するための基本的な要素である。
フェアネスは,(a)フェアネス指標を高めるための説明,(b)フェアネスの原因を理解するための説明,(c)フェアネスを緩和する手法の設計を支援する説明の3つのタイプに分類される。
- 参考スコア(独自算出の注目度): 2.0277446818411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness and explainability are foundational elements for
achieving responsible AI. In this paper, we focus on their interplay, a
research area that is recently receiving increasing attention. To this end, we
first present two comprehensive taxonomies, each representing one of the two
complementary fields of study: fairness and explanations. Then, we categorize
explanations for fairness into three types: (a) Explanations to enhance
fairness metrics, (b) Explanations to help us understand the causes of
(un)fairness, and (c) Explanations to assist us in designing methods for
mitigating unfairness. Finally, based on our fairness and explanation
taxonomies, we present undiscovered literature paths revealing gaps that can
serve as valuable insights for future research.
- Abstract(参考訳): アルゴリズムの公正性と説明可能性は、責任あるAIを達成するための基本的な要素である。
本稿では,近年注目度が高まっている研究分野であるインタラクションに注目した。
この目的のために、我々はまず2つの総合的な分類を提示し、それぞれが2つの相補的な研究分野の1つを代表している。
次に、フェアネスの説明を3つのタイプに分類する。
(a)公正度指標を高めるための説明
(b)不公平の原因を理解するのに役立つ説明
(c)不公平を緩和するための方法の設計を支援するための説明
最後に、我々の公平さと説明の分類に基づいて、将来の研究にとって貴重な洞察となるギャップを明らかにする未発見の文献パスを示す。
関連論文リスト
- The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Does Faithfulness Conflict with Plausibility? An Empirical Study in Explainable AI across NLP Tasks [9.979726030996051]
私たちは、Shapleyの価値とLIMEがより忠実で妥当性が高いことを示す。
この結果から,一方の次元を一方の次元に最適化するのではなく,2つの目的を持つ説明可能性アルゴリズムを最適化する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-29T20:28:42Z) - On the Relationship Between Interpretability and Explainability in Machine Learning [2.828173677501078]
解釈可能性と説明可能性は、機械学習の分野でますます注目を集めている。
両者は予測者とその決定プロセスに関する情報を提供するため、単一のエンドに対して2つの独立した手段と見なされることが多い。
複雑なブラックボックスモデル用に設計された説明可能性技術、あるいは多くの説明可能性ツールを無視した解釈可能なアプローチ。
論文 参考訳(メタデータ) (2023-11-20T02:31:08Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective [13.124434298120494]
機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
論文 参考訳(メタデータ) (2022-06-08T18:05:46Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Fairness and Robustness of Contrasting Explanations [9.104557591459283]
対比する説明の個人の公平性と堅牢性を研究します。
反実説明の個人的公平性を改善するために,最も近い反実語の代わりに実用可能な反実語を使用することを提案する。
論文 参考訳(メタデータ) (2021-03-03T12:16:06Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。