論文の概要: Algorithmic neutrality
- arxiv url: http://arxiv.org/abs/2303.05103v1
- Date: Thu, 9 Mar 2023 08:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 15:34:23.953082
- Title: Algorithmic neutrality
- Title(参考訳): アルゴリズム中立性
- Authors: Milo Phillips-Brown
- Abstract要約: バイアスは我々の生活をコントロールしやすくするアルゴリズムに感染する。
検索エンジンは、政治的イデオロギーや検索エンジン運営者の金銭的利益といった特定の価値が、検索エンジンがページのランク付けに何の役割も果たさない場合に限り中立である。
私は2つの形態のバイアスと、失敗する期間バイアスと、他の価値バイアスを区別します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias infects the algorithms that wield increasing control over our lives.
Predictive policing systems overestimate crime in communities of color; hiring
algorithms dock qualified female candidates; and facial recognition software
struggles to recognize dark-skinned faces. Algorithmic bias has received
significant attention. Algorithmic neutrality, in contrast, has been largely
neglected. Algorithmic neutrality is my topic. I take up three questions. What
is algorithmic neutrality? Is algorithmic neutrality possible? When we have an
eye to algorithmic neutrality, what can we learn about algorithmic bias? To
answer these questions in concrete terms, I work with a case study: search
engines. Drawing on work about neutrality in science, I say that a search
engine is neutral only if certain values, like political ideologies or the
financial interests of the search engine operator, play no role in how the
search engine ranks pages. Search neutrality, I argue, is impossible. Its
impossibility seems to threaten the significance of search bias: if no search
engine is neutral, then every search engine is biased. To defuse this threat, I
distinguish two forms of bias, failing-on-its-own-terms bias and other-values
bias. This distinction allows us to make sense of search bias, and capture its
normative complexion, despite the impossibility of neutrality.
- Abstract(参考訳): バイアスは我々の生活をコントロールしやすくするアルゴリズムに感染する。
色コミュニティにおける犯罪を過大評価する予測警察システム、女性候補を雇用するアルゴリズム、そして顔認識ソフトウェアは、浅黒い肌の顔を認識するのに苦労している。
アルゴリズムバイアスは注目されている。
対照的にアルゴリズム中立性は無視されている。
アルゴリズム中立性は私のトピックです。
私は3つの質問を受け取ります。
アルゴリズム中立とは何か?
アルゴリズム中立性は可能か?
アルゴリズムの中立性に目を向けると、アルゴリズムのバイアスについて何を学べますか?
これらの疑問に具体的な言葉で答えるために、私はケーススタディである検索エンジンに取り組んでいます。
科学における中立性に関する著作を引用すると、検索エンジンが中立であることは、政治イデオロギーや検索エンジン運営者の金銭的利益といった特定の価値が、検索エンジンがページのランク付けに何の役割も果たさない場合に限ると私は言う。
検索中立性は不可能だ、と私は思う。
検索エンジンが中立でなければ、どの検索エンジンにもバイアスがかかる。
この脅威を解消するために、私は2種類のバイアス、未熟な期間バイアスと他の価値バイアスを区別します。
この区別により、中立性の欠如にもかかわらず、探索バイアスを理解し、その規範的な複雑さを捉えることができる。
関連論文リスト
- Algorithmic Fairness and Color-blind Racism: Navigating the Intersection [1.6317061277457001]
アルゴリズム的公正に関する多くの研究の流れがこの交差点で関心から生まれた。
人種的偏見の事例に動機づけられたものの、アルゴリズム的公正性の研究はほとんど人種差別に関する学問から切り離されている。
論文 参考訳(メタデータ) (2024-02-12T16:43:55Z) - Algorithms, Incentives, and Democracy [0.0]
アルゴリズム設計者による最適分類が集団の行動分布にどのように影響するかを示す。
次に、報酬と罰、または利害関係をアルゴリズム分類に民主化する効果を見て、社会が捕食的分類をいかに生み出すか(または促進するか)を検討する。
論文 参考訳(メタデータ) (2023-07-05T14:22:01Z) - Whole Page Unbiased Learning to Rank [62.08395647774527]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Choosing an algorithmic fairness metric for an online marketplace:
Detecting and quantifying algorithmic bias on LinkedIn [0.21756081703275995]
等資格候補に対する等機会の公平性の概念から、アルゴリズム的公正度計量を導出する。
提案手法は、LinkedInが使用している2つのアルゴリズムの性別に関するアルゴリズムバイアスを計測し、定量化する。
論文 参考訳(メタデータ) (2022-02-15T10:33:30Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Algorithms are not neutral: Bias in collaborative filtering [0.0]
アルゴリズムバイアスの議論は、データまたはアルゴリズムを構築している人々が偏っている例に焦点を当てる傾向がある。
これは、人気に悩まされ、バイアスを均質化することで知られる協調フィルタリングの例で示される。
人気と均質化バイアスは、すでに限界を更に限界化させる効果があります。
論文 参考訳(メタデータ) (2021-05-03T17:28:43Z) - The Matter of Chance: Auditing Web Search Results Related to the 2020
U.S. Presidential Primary Elections Across Six Search Engines [68.8204255655161]
私たちは、Google、Baidu、Bing、DuckDuckGo、Yahoo、Yandexの"US Election"、"Donald trump"、"Joe Biden"、"bernie Sanders"の検索結果を調べます。
その結果, 検索エンジン間の検索結果と, エージェント間の検索結果の相違が有意な差があることが示唆された。
論文 参考訳(メタデータ) (2021-05-03T11:18:19Z) - Selection-Expansion: A Unifying Framework for Motion-Planning and
Diversity Search Algorithms [69.87173070473717]
本稿では,2つの多様性探索アルゴリズム,ノベルティ探索アルゴリズムとゴール探索処理アルゴリズムの特性について検討する。
mpアルゴリズムとの関係は、ポリシーパラメータ空間と結果空間の間のマッピングの滑らかさ、あるいは滑らかさの欠如が検索効率において重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2021-04-10T13:52:27Z) - Does Fair Ranking Improve Minority Outcomes? Understanding the Interplay
of Human and Algorithmic Biases in Online Hiring [9.21721532941863]
我々は、雇用者の仕事状況や固有のバイアスなど、オンライン雇用プラットフォームにおける性別バイアスの源泉を分析した。
結果から, 公平なランキングアルゴリズムは, 少数民族の選抜率を向上するが, 求職状況や候補者のプロファイルに大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2020-12-01T11:45:27Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。