論文の概要: Moral Machine or Tyranny of the Majority?
- arxiv url: http://arxiv.org/abs/2305.17319v1
- Date: Sat, 27 May 2023 00:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:22:34.703140
- Title: Moral Machine or Tyranny of the Majority?
- Title(参考訳): マイノリティのモラルマシンかティラニーか?
- Authors: Michael Feffer, Hoda Heidari, and Zachary C. Lipton
- Abstract要約: Moral Machineプロジェクトでは、自動運転車に関する"Trolley Problems"に対する回答をクラウドソーシングした。
Noothigattu et al. は、各個人の好みを近似した線形関数を推論し、これらの線形モデルを集団全体の平均パラメータによって集約することを提案した。
本稿では,この平均化メカニズムについて検討し,戦略的効果の有無の公平性に焦点をあてる。
- 参考スコア(独自算出の注目度): 25.342029326793917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With Artificial Intelligence systems increasingly applied in consequential
domains, researchers have begun to ask how these systems ought to act in
ethically charged situations where even humans lack consensus. In the Moral
Machine project, researchers crowdsourced answers to "Trolley Problems"
concerning autonomous vehicles. Subsequently, Noothigattu et al. (2018)
proposed inferring linear functions that approximate each individual's
preferences and aggregating these linear models by averaging parameters across
the population. In this paper, we examine this averaging mechanism, focusing on
fairness concerns in the presence of strategic effects. We investigate a simple
setting where the population consists of two groups, with the minority
constituting an {\alpha} < 0.5 share of the population. To simplify the
analysis, we consider the extreme case in which within-group preferences are
homogeneous. Focusing on the fraction of contested cases where the minority
group prevails, we make the following observations: (a) even when all parties
report their preferences truthfully, the fraction of disputes where the
minority prevails is less than proportionate in {\alpha}; (b) the degree of
sub-proportionality grows more severe as the level of disagreement between the
groups increases; (c) when parties report preferences strategically, pure
strategy equilibria do not always exist; and (d) whenever a pure strategy
equilibrium exists, the majority group prevails 100% of the time. These
findings raise concerns about stability and fairness of preference vector
averaging as a mechanism for aggregating diverging voices. Finally, we discuss
alternatives, including randomized dictatorship and median-based mechanisms.
- Abstract(参考訳): 人工知能システムは、コンセンサスが欠如している倫理的な状況においてどのように振る舞うべきか、研究者たちは疑問を呈し始めた。
Moral Machineプロジェクトでは、自動運転車に関する"Trolley Problems"に対する回答をクラウドソーシングした。
その後、noothigattu et al. (2018) は、各個人の選好を近似する線形関数を推測し、これらの線形モデルを集団全体のパラメータ平均化によって集約することを提案した。
本稿では,この平均化メカニズムを,戦略的効果の存在下での公平性に焦点をあてて検討する。
人口が2つのグループで構成され、少数派が人口の0.5パーセントを占める単純な構成について検討する。
分析を単純化するため、グループ内の選好が均質である極端なケースを考察する。
少数派が優勢な競合事例のごく一部に着目して、以下の観察を行う。
(a)すべての当事者が真実に選好を報告しても、少数派が優勢である紛争のごく一部は、アルファに比例しない。
b) グループ間の不一致の度合いが増加するにつれて、サブプロポージャ性がより深刻になる。
c) 当事者が戦略的に選好を報告する場合は,純粋な戦略平衡が常に存在するとは限らない。
(d) 純粋な戦略均衡が存在する場合、多数派は時間の100%を占める。
これらの知見は、発散音声を集約するメカニズムとしての選好ベクトル平均化の安定性と公平性に関する懸念を提起する。
最後に、ランダム化された独裁と中央集権的なメカニズムを含む代替案について論じる。
関連論文リスト
- Long-Term Fairness in Sequential Multi-Agent Selection with Positive Reinforcement [21.44063458579184]
大学入学や採用のような選抜プロセスでは、少数派からの応募者に対する偏見は肯定的なフィードバックをもたらすと仮定される。
グリーディスコアとフェアネスのバランスをとるマルチエージェント・フェア・グリーディ政策を提案する。
以上の結果から, 正の強化は長期的公正性にとって有望なメカニズムであるが, 進化モデルの変動に頑健な政策を慎重に設計する必要があることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T04:03:23Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Average-Case Analysis of Iterative Voting [33.68929251752289]
反復投票は、社会的選択における戦略的意思決定の自然なモデルである。
先行研究は、選択された結果の均衡度に対する反復的な複数の効果を解析した。
本研究は, 平均ケース分析をより広範な分布クラスに拡張し, 反復的複数回による福祉改善や低下を区別する。
論文 参考訳(メタデータ) (2024-02-13T00:46:46Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z) - On Fair Selection in the Presence of Implicit Variance [17.517529275692322]
我々は、暗黙のバイアスがなくても、異なるグループからの候補者の質の推定は、別の基本的な方法、すなわち、その分散によって異なるかもしれないと論じる。
本稿では,グループ非依存正規分布から抽出される真の潜伏品質を有する簡易モデルを提案する。
人口パーティメカニズムが常に選択ユーティリティを増大させる一方で、任意の$gamma$-ruleが弱くなることを示す。
論文 参考訳(メタデータ) (2020-06-24T13:08:31Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。