論文の概要: Joint Optimization of AI Fairness and Utility: A Human-Centered Approach
- arxiv url: http://arxiv.org/abs/2002.01621v1
- Date: Wed, 5 Feb 2020 03:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:47:29.640777
- Title: Joint Optimization of AI Fairness and Utility: A Human-Centered Approach
- Title(参考訳): AIフェアネスとユーティリティの共同最適化:人間中心のアプローチ
- Authors: Yunfeng Zhang, Rachel K. E. Bellamy, Kush R. Varshney
- Abstract要約: 我々は、異なる公正基準を同時に満たすことができないことがあるため、これらの目標間のトレードオフをどう行うかという人間の政策立案者の好みに固執することが鍵であると主張している。
このような嗜好を抽出し、これらの嗜好に応じてAIモデルを最適化するためのフレームワークといくつかの模範的手法を提案する。
- 参考スコア(独自算出の注目度): 45.04980664450894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, AI is increasingly being used in many high-stakes decision-making
applications in which fairness is an important concern. Already, there are many
examples of AI being biased and making questionable and unfair decisions. The
AI research community has proposed many methods to measure and mitigate
unwanted biases, but few of them involve inputs from human policy makers. We
argue that because different fairness criteria sometimes cannot be
simultaneously satisfied, and because achieving fairness often requires
sacrificing other objectives such as model accuracy, it is key to acquire and
adhere to human policy makers' preferences on how to make the tradeoff among
these objectives. In this paper, we propose a framework and some exemplar
methods for eliciting such preferences and for optimizing an AI model according
to these preferences.
- Abstract(参考訳): 今日では、公正性が重要な関心事である多くの高度な意思決定アプリケーションで、AIがますます使われています。
すでに、AIが偏見を受け、疑わしい、不公平な決定を下す例がたくさんある。
ai研究コミュニティは、望ましくないバイアスを計測し軽減するための多くの方法を提案しているが、人間の政策立案者からのインプットを含むものは少ない。
異なる公平性基準を同時に満たせない場合があり、公平性を達成するにはモデルの正確性などの他の目的を犠牲にする必要があるため、これらの目的のトレードオフの作り方に対する人間の政策立案者の選好を入手し、遵守することが重要であると主張する。
本稿では,このような嗜好を誘発し,その嗜好に応じてaiモデルを最適化するためのフレームワークと例示手法を提案する。
関連論文リスト
- Beyond Preferences in AI Alignment [15.878773061188516]
我々は、AIアライメントに対する優先主義的アプローチを特徴づけ、挑戦する。
人間の価値観の濃厚なセマンティックな内容が、嗜好がどのように捉えられていないかを示す。
我々は、AIシステムは、彼らの社会的役割に適した規範的基準に適合すべきであると主張する。
論文 参考訳(メタデータ) (2024-08-30T03:14:20Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - The Fairness Fair: Bringing Human Perception into Collective
Decision-Making [16.300744216179545]
我々は、公正な解決策は、社会プランナー(設計者)によって望ましいものとみなすだけでなく、人間と社会的認知によって統治されるべきであると主張している。
この目標を達成するには、コンピューティングやAIから行動経済学、人間とAIの相互作用まで幅広い学際的なアプローチが必要かについて議論する。
論文 参考訳(メタデータ) (2023-12-22T03:06:24Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - AI Fairness: from Principles to Practice [0.0]
本稿では,AIシステムにおける公平性を追求するための様々なアプローチ,手法,手法を要約し,評価する。
AIのバイアスを定義し、測定し、予防するための実践的なガイドラインを提案する。
論文 参考訳(メタデータ) (2022-07-20T11:37:46Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。