論文の概要: SoK: Taming the Triangle -- On the Interplays between Fairness,
Interpretability and Privacy in Machine Learning
- arxiv url: http://arxiv.org/abs/2312.16191v1
- Date: Fri, 22 Dec 2023 08:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-31 03:01:10.140131
- Title: SoK: Taming the Triangle -- On the Interplays between Fairness,
Interpretability and Privacy in Machine Learning
- Title(参考訳): SoK: 三角形のモデリング - 機械学習における公正さ、解釈可能性、プライバシの相互作用について
- Authors: Julien Ferry (LAAS-ROC), Ulrich A\"ivodji (ETS), S\'ebastien Gambs
(UQAM), Marie-Jos\'e Huguet (LAAS-ROC), Mohamed Siala (LAAS-ROC)
- Abstract要約: 機械学習技術は、高い意思決定にますます使われています。
学習したモデルが人間によって監査され、理解されることを保証することが不可欠である。
解釈可能性、公正性、プライバシは、責任ある機械学習を開発する上で重要な要件です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning techniques are increasingly used for high-stakes
decision-making, such as college admissions, loan attribution or recidivism
prediction. Thus, it is crucial to ensure that the models learnt can be audited
or understood by human users, do not create or reproduce discrimination or
bias, and do not leak sensitive information regarding their training data.
Indeed, interpretability, fairness and privacy are key requirements for the
development of responsible machine learning, and all three have been studied
extensively during the last decade. However, they were mainly considered in
isolation, while in practice they interplay with each other, either positively
or negatively. In this Systematization of Knowledge (SoK) paper, we survey the
literature on the interactions between these three desiderata. More precisely,
for each pairwise interaction, we summarize the identified synergies and
tensions. These findings highlight several fundamental theoretical and
empirical conflicts, while also demonstrating that jointly considering these
different requirements is challenging when one aims at preserving a high level
of utility. To solve this issue, we also discuss possible conciliation
mechanisms, showing that a careful design can enable to successfully handle
these different concerns in practice.
- Abstract(参考訳): 機械学習技術は、大学入学、ローンの帰属、再分配予測などの高い意思決定にますます使われている。
したがって、学習したモデルが人間によって監査または理解され、差別や偏見を発生または再現せず、トレーニングデータに関する機密情報を漏洩しないようにすることが重要である。
実際、解釈可能性、公正性、プライバシは、責任ある機械学習を開発する上で重要な要件であり、これら3つ全てが過去10年間に広く研究されてきた。
しかし、それらは主に孤立していると考えられ、実際には肯定的にも否定的にも互いに相互作用する。
本稿ではsok(systematization of knowledge)論文において,これら3つのデシデラタ間の相互作用に関する文献について検討した。
より正確には、それぞれの相互作用について、同定されたシナジーと緊張を要約する。
これらの知見は、いくつかの基本的な理論的および経験的対立を浮き彫りにしつつ、高レベルの実用性を維持することを目的とした場合、これらの異なる要件を共同で検討することは困難であることを示す。
この問題を解決するために, 注意深い設計がこれらの異なる関心事を実際にうまく処理できることを示すため, 融和機構の可能性についても論じる。
関連論文リスト
- Spurious Correlations in Machine Learning: A Survey [69.89249134046086]
機械学習システムは、入力の偏りのある特徴と対応するラベルの間の急激な相関に敏感である。
これらの特徴とそのラベルとの相関は"spurious"として知られている。
我々は、機械学習モデルにおける素早い相関に対処する現在の最先端の手法の分類とともに、この問題を包括的にレビューする。
論文 参考訳(メタデータ) (2024-02-20T04:49:34Z) - Interpretability in Machine Learning: on the Interplay with
Explainability, Predictive Performances and Models [3.341112547288814]
解釈可能性は最近、機械学習の分野で注目を集めている。
機械学習における重要な概念である説明可能性、予測性能、機械学習モデルとの関係について論じる。
論文 参考訳(メタデータ) (2023-11-20T02:31:08Z) - Towards Trustworthy and Aligned Machine Learning: A Data-centric Survey
with Causality Perspectives [11.63431725146897]
機械学習の信頼性はこの分野において重要なトピックとして浮上している。
本調査は,一貫した概念集合を用いた信頼性の高い機械学習開発の背景を示す。
我々は,これらの手法を,堅牢性,敵対的堅牢性,解釈可能性,公正性にまたがる数学的語彙を持つ統一言語を提供する。
論文 参考訳(メタデータ) (2023-07-31T17:11:35Z) - Unraveling the Interconnected Axes of Heterogeneity in Machine Learning
for Democratic and Inclusive Advancements [16.514990457235932]
機械学習製品の軌道に大きく影響を及ぼす不均一性の3つの軸を特定し解析する。
我々はこれらの軸が相互依存し、相互に影響を及ぼす様子を実証し、それらを共同で検討し、対処する必要性を強調した。
この3つの軸の断片化研究が大きな課題となり、現実のシナリオの反映を欠く非現実的な解空間へと繋がるかについて論じる。
論文 参考訳(メタデータ) (2023-06-11T20:47:58Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Inherent Inconsistencies of Feature Importance [6.02357145653815]
特徴重要度は、予測結果に対する個々の特徴の寄与にスコアを割り当てる手法である。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-16T14:21:51Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。