論文の概要: Disentangling and Operationalizing AI Fairness at LinkedIn
- arxiv url: http://arxiv.org/abs/2306.00025v1
- Date: Tue, 30 May 2023 23:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 20:37:33.820726
- Title: Disentangling and Operationalizing AI Fairness at LinkedIn
- Title(参考訳): LinkedInにおけるAIフェアネスの分離と運用
- Authors: Joaquin Qui\~nonero-Candela, Yuwen Wu, Brian Hsu, Sakshi Jain, Jen
Ramos, Jon Adams, Robert Hallman, Kinjal Basu
- Abstract要約: 本稿では、LinkedInのAIフェアネスフレームワークの同等のAI処理コンポーネントに焦点を当てる。
サポートする原則を共有し、ケーススタディを通じてアプリケーションを説明する。
この論文は、AIフェアネスを大規模に運用するためのアプローチを共有するために、他の大手テック企業も参加することを願っている。
- 参考スコア(独自算出の注目度): 1.988517863110014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operationalizing AI fairness at LinkedIn's scale is challenging not only
because there are multiple mutually incompatible definitions of fairness but
also because determining what is fair depends on the specifics and context of
the product where AI is deployed. Moreover, AI practitioners need clarity on
what fairness expectations need to be addressed at the AI level. In this paper,
we present the evolving AI fairness framework used at LinkedIn to address these
three challenges. The framework disentangles AI fairness by separating out
equal treatment and equitable product expectations. Rather than imposing a
trade-off between these two commonly opposing interpretations of fairness, the
framework provides clear guidelines for operationalizing equal AI treatment
complemented with a product equity strategy. This paper focuses on the equal AI
treatment component of LinkedIn's AI fairness framework, shares the principles
that support it, and illustrates their application through a case study. We
hope this paper will encourage other big tech companies to join us in sharing
their approach to operationalizing AI fairness at scale, so that together we
can keep advancing this constantly evolving field.
- Abstract(参考訳): linkedinのスケールでのaiフェアネスの運用は、フェアネスの相互に互換性のない定義が複数存在するだけでなく、フェアネスの定義がaiがデプロイされる製品の仕様やコンテキストに依存するため、難しい。
さらに、AI実践者は、AIレベルでの公正性の期待に対処する必要があるかを明確にする必要がある。
本稿では、これらの3つの課題に対処するためにLinkedInで使用されている進化中のAIフェアネスフレームワークについて述べる。
このフレームワークは、平等な処理と同等な製品期待を分離することで、AIフェアネスを歪めます。
このフレームワークは、2つの対立する公正性の解釈のトレードオフを示すのではなく、プロダクトエクイティ戦略を補完する同等のAI処理を運用するための明確なガイドラインを提供する。
本稿では、LinkedInのAIフェアネスフレームワークの平等なAI処理コンポーネントに焦点を当て、それをサポートする原則を共有し、ケーススタディを通じてそれらのアプリケーションを説明する。
この論文は、他の大企業が、大規模にAIフェアネスを運用するためのアプローチを共有する上で、私たちに参加することを奨励してくれることを願っている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - A Seven-Layer Model for Standardising AI Fairness Assessment [0.5076419064097732]
AIシステムは、開始から使用まで、ライフサイクルのあらゆる段階でバイアスを起こしやすいことを詳しく説明します。
オープンシステム相互接続(OSI)モデルにインスパイアされた,AIフェアネスハンドリングの標準化を目的とした,新しい7層モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T17:28:07Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Explaining how your AI system is fair [3.723553383515688]
我々は,エンドユーザーに実装された公平性を説明する手段として決定木を使用することを提案する。
特定のユースケースに「公平性」を指定することは、AIシステムの信頼性を維持するための最善の方法であると主張しています。
論文 参考訳(メタデータ) (2021-05-03T07:52:56Z) - Designing Fair AI for Managing Employees in Organizations: A Review,
Critique, and Design Agenda [2.930891463766348]
労働者に対する不公平さは、労働者の努力の減少と労働者の転職の増加と関連している。
AIの不公平に関する関心にもかかわらず、デザインアジェンダを開発するための理論的かつ体系的なアプローチは存在していない。
論文 参考訳(メタデータ) (2020-02-20T22:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。