論文の概要: Insights From Insurance for Fair Machine Learning: Responsibility,
Performativity and Aggregates
- arxiv url: http://arxiv.org/abs/2306.14624v1
- Date: Mon, 26 Jun 2023 11:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:46:11.288087
- Title: Insights From Insurance for Fair Machine Learning: Responsibility,
Performativity and Aggregates
- Title(参考訳): 公正な機械学習のための保険からの洞察:責任、パフォーマンス、集約
- Authors: Christian Fr\"ohlich and Robert C. Williamson
- Abstract要約: 我々は、保険が機械学習システムの社会的位置のアナロジーとして機能すると主張している。
我々は保険の不確実性、公平性、責任の相互作用を辿る。
私たちは、機械学習の文献で見過ごされてきた3つのテーマ、すなわち責任、実行性、集約と個人間の緊張というテーマを前景に持ち込みます。
- 参考スコア(独自算出の注目度): 10.482805367361818
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We argue that insurance can act as an analogon for the social situatedness of
machine learning systems, hence allowing machine learning scholars to take
insights from the rich and interdisciplinary insurance literature. Tracing the
interaction of uncertainty, fairness and responsibility in insurance provides a
fresh perspective on fairness in machine learning. We link insurance fairness
conceptions to their machine learning relatives, and use this bridge to
problematize fairness as calibration. In this process, we bring to the
forefront three themes that have been largely overlooked in the machine
learning literature: responsibility, performativity and tensions between
aggregate and individual.
- Abstract(参考訳): 我々は、保険が機械学習システムの社会的位置のアナロジーとして機能し、機械学習の学者がリッチで学際的な保険文学から洞察を得られることを論じる。
保険における不確実性、公正性、責任の相互作用の追跡は、機械学習における公正性に対する新たな視点を提供する。
我々は、保険の公正の概念を機械学習の親類と結びつけ、この橋を使って公平性を校正として問題化する。
このプロセスでは、機械学習の文献でほとんど見過ごされていた3つのテーマ、すなわち責任、パフォーマンス、集約と個人間の緊張を前面に持ってきます。
関連論文リスト
- Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - SoK: Taming the Triangle -- On the Interplays between Fairness,
Interpretability and Privacy in Machine Learning [0.0]
機械学習技術は、高い意思決定にますます使われています。
学習したモデルが人間によって監査され、理解されることを保証することが不可欠である。
解釈可能性、公正性、プライバシは、責任ある機械学習を開発する上で重要な要件です。
論文 参考訳(メタデータ) (2023-12-22T08:11:33Z) - Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Assessing Fairness in Classification Parity of Machine Learning Models
in Healthcare [19.33981403623531]
医療における分類の公平性に関する予備的結果を示す。
また,医療の文脈において,公平性を向上し,適切な分類アルゴリズムを選択するための探索的手法を提案する。
論文 参考訳(メタデータ) (2021-02-07T04:46:27Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Adversarial Machine Learning: Bayesian Perspectives [0.4915744683251149]
Adversarial Machine Learning (AML)は、機械学習(ML)システムをセキュリティ上の脅威から保護することを目的とした、主要な分野として浮上している。
あるシナリオでは、愚かな学習システムに入力データを積極的に操作する敵が存在するかもしれません。
これにより、MLシステムが直面する可能性のある、新たなセキュリティ脆弱性のクラスと、信頼性操作に不可欠な敵の堅牢性と呼ばれる、新たな望ましいプロパティが生成される。
論文 参考訳(メタデータ) (2020-03-07T10:30:43Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。