論文の概要: Equalizing Credit Opportunity in Algorithms: Aligning Algorithmic
Fairness Research with U.S. Fair Lending Regulation
- arxiv url: http://arxiv.org/abs/2210.02516v1
- Date: Wed, 5 Oct 2022 19:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:37:46.328154
- Title: Equalizing Credit Opportunity in Algorithms: Aligning Algorithmic
Fairness Research with U.S. Fair Lending Regulation
- Title(参考訳): アルゴリズムにおける信用機会の平等化:米国公正貸出規制によるアルゴリズムフェアネス研究の調整
- Authors: I. Elizabeth Kumar, Keegan E. Hines, John P. Dickerson
- Abstract要約: 信用は、アメリカにおける財政の健全化に欠かせない要素である。
機械学習アルゴリズムは、クレジットへのアクセスを決定するためにますます使われている。
機械学習が「不公平」の様々なバージョンをエンコードできることが研究で示されている
- 参考スコア(独自算出の注目度): 27.517669481719388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Credit is an essential component of financial wellbeing in America, and
unequal access to it is a large factor in the economic disparities between
demographic groups that exist today. Today, machine learning algorithms,
sometimes trained on alternative data, are increasingly being used to determine
access to credit, yet research has shown that machine learning can encode many
different versions of "unfairness," thus raising the concern that banks and
other financial institutions could -- potentially unwittingly -- engage in
illegal discrimination through the use of this technology. In the US, there are
laws in place to make sure discrimination does not happen in lending and
agencies charged with enforcing them. However, conversations around fair credit
models in computer science and in policy are often misaligned: fair machine
learning research often lacks legal and practical considerations specific to
existing fair lending policy, and regulators have yet to issue new guidance on
how, if at all, credit risk models should be utilizing practices and techniques
from the research community. This paper aims to better align these sides of the
conversation. We describe the current state of credit discrimination regulation
in the United States, contextualize results from fair ML research to identify
the specific fairness concerns raised by the use of machine learning in
lending, and discuss regulatory opportunities to address these concerns.
- Abstract(参考訳): 信用はアメリカの財政の健全化に欠かせない要素であり、不平等なアクセスは、現在存在する人口集団間の経済的格差の大きな要因である。
今日、代替データに基づいてトレーニングされる機械学習アルゴリズムは、クレジットへのアクセスを決定するためにますます使われているが、研究によると、機械学習は多くの異なるバージョンの「不公平」をエンコードできるため、銀行や他の金融機関が、おそらく不当に、この技術を使って違法な差別を犯す可能性があるという懸念が高まっている。
米国では、貸出において差別が起こらないようにする法律や、それらを強制する責任を負う機関がある。
公正な機械学習の研究は、既存の公正な貸付政策に特有の法的、実践的な考慮を欠くことが多いし、規制当局は、信用リスクモデルが研究コミュニティのプラクティスや技術をどのように活用すべきかについて、新たなガイダンスを発行していない。
本稿は会話のこれらの側面をよりよく一致させることを目的としている。
本稿では,米国における信用差別規制の現状について述べ,公正なml研究の結果を文脈化し,貸付における機械学習の利用によって生じる公平な懸念を特定し,これらの懸念に対処するための規制の機会について論じる。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Super-App Behavioral Patterns in Credit Risk Models: Financial,
Statistical and Regulatory Implications [110.54266632357673]
従来の官僚データとは対照的に、アプリベースのマーケットプレースから派生した代替データが信用スコアモデルに与える影響を提示する。
2つの国にまたがって検証した結果、これらの新たなデータソースは、低体重者や若年者における金融行動を予測するのに特に有用であることが示された。
論文 参考訳(メタデータ) (2020-05-09T01:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。