論文の概要: SoK: Taming the Triangle -- On the Interplays between Fairness,
Interpretability and Privacy in Machine Learning
- arxiv url: http://arxiv.org/abs/2312.16191v1
- Date: Fri, 22 Dec 2023 08:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-31 03:01:10.140131
- Title: SoK: Taming the Triangle -- On the Interplays between Fairness,
Interpretability and Privacy in Machine Learning
- Title(参考訳): SoK: 三角形のモデリング - 機械学習における公正さ、解釈可能性、プライバシの相互作用について
- Authors: Julien Ferry (LAAS-ROC), Ulrich A\"ivodji (ETS), S\'ebastien Gambs
(UQAM), Marie-Jos\'e Huguet (LAAS-ROC), Mohamed Siala (LAAS-ROC)
- Abstract要約: 機械学習技術は、高い意思決定にますます使われています。
学習したモデルが人間によって監査され、理解されることを保証することが不可欠である。
解釈可能性、公正性、プライバシは、責任ある機械学習を開発する上で重要な要件です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning techniques are increasingly used for high-stakes
decision-making, such as college admissions, loan attribution or recidivism
prediction. Thus, it is crucial to ensure that the models learnt can be audited
or understood by human users, do not create or reproduce discrimination or
bias, and do not leak sensitive information regarding their training data.
Indeed, interpretability, fairness and privacy are key requirements for the
development of responsible machine learning, and all three have been studied
extensively during the last decade. However, they were mainly considered in
isolation, while in practice they interplay with each other, either positively
or negatively. In this Systematization of Knowledge (SoK) paper, we survey the
literature on the interactions between these three desiderata. More precisely,
for each pairwise interaction, we summarize the identified synergies and
tensions. These findings highlight several fundamental theoretical and
empirical conflicts, while also demonstrating that jointly considering these
different requirements is challenging when one aims at preserving a high level
of utility. To solve this issue, we also discuss possible conciliation
mechanisms, showing that a careful design can enable to successfully handle
these different concerns in practice.
- Abstract(参考訳): 機械学習技術は、大学入学、ローンの帰属、再分配予測などの高い意思決定にますます使われている。
したがって、学習したモデルが人間によって監査または理解され、差別や偏見を発生または再現せず、トレーニングデータに関する機密情報を漏洩しないようにすることが重要である。
実際、解釈可能性、公正性、プライバシは、責任ある機械学習を開発する上で重要な要件であり、これら3つ全てが過去10年間に広く研究されてきた。
しかし、それらは主に孤立していると考えられ、実際には肯定的にも否定的にも互いに相互作用する。
本稿ではsok(systematization of knowledge)論文において,これら3つのデシデラタ間の相互作用に関する文献について検討した。
より正確には、それぞれの相互作用について、同定されたシナジーと緊張を要約する。
これらの知見は、いくつかの基本的な理論的および経験的対立を浮き彫りにしつつ、高レベルの実用性を維持することを目的とした場合、これらの異なる要件を共同で検討することは困難であることを示す。
この問題を解決するために, 注意深い設計がこれらの異なる関心事を実際にうまく処理できることを示すため, 融和機構の可能性についても論じる。
関連論文リスト
- Learning Multimodal Cues of Children's Uncertainty [19.349368123567658]
本研究では,不確実性の非言語的手がかりを研究するために,発達心理学者と認知心理学者との共同で注釈付きデータセットを提案する。
次に、データ分析を行い、不確実性の異なる役割とタスクの難易度とパフォーマンスとの関係について検討する。
最後に、参加者のリアルタイムビデオクリップから不確実性を予測するマルチモーダル機械学習モデルを提案する。
論文 参考訳(メタデータ) (2024-10-17T21:46:00Z) - Between Randomness and Arbitrariness: Some Lessons for Reliable Machine Learning at Scale [2.50194939587674]
dissertation: 信頼性を犠牲にすることなくスケーラビリティを実現するために、MLにおける偏在性のソースの定量化と緩和、不確実性推定と最適化アルゴリズムのランダム性。
論文は、機械学習の信頼性測定に関する研究が法と政策の研究と密接に結びついていることの例による実証的な証明として機能する。
論文 参考訳(メタデータ) (2024-06-13T19:29:37Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Interactive Ontology Matching with Cost-Efficient Learning [2.006461411375746]
この研究は、マッチングに適したアクティブな学習方法であるDualLoopを紹介している。
既存のアクティブラーニング手法と比較すると,F1のスコアとリコールは一貫して向上した。
本稿では,建築,工学,建設(AEC)産業部門における運用実績について報告する。
論文 参考訳(メタデータ) (2024-04-11T11:53:14Z) - Towards Trustworthy and Aligned Machine Learning: A Data-centric Survey
with Causality Perspectives [11.63431725146897]
機械学習の信頼性はこの分野において重要なトピックとして浮上している。
本調査は,一貫した概念集合を用いた信頼性の高い機械学習開発の背景を示す。
我々は,これらの手法を,堅牢性,敵対的堅牢性,解釈可能性,公正性にまたがる数学的語彙を持つ統一言語を提供する。
論文 参考訳(メタデータ) (2023-07-31T17:11:35Z) - Unraveling the Interconnected Axes of Heterogeneity in Machine Learning
for Democratic and Inclusive Advancements [16.514990457235932]
機械学習製品の軌道に大きく影響を及ぼす不均一性の3つの軸を特定し解析する。
我々はこれらの軸が相互依存し、相互に影響を及ぼす様子を実証し、それらを共同で検討し、対処する必要性を強調した。
この3つの軸の断片化研究が大きな課題となり、現実のシナリオの反映を欠く非現実的な解空間へと繋がるかについて論じる。
論文 参考訳(メタデータ) (2023-06-11T20:47:58Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。