論文の概要: Algorithmic neutrality
- arxiv url: http://arxiv.org/abs/2303.05103v1
- Date: Thu, 9 Mar 2023 08:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 15:34:23.953082
- Title: Algorithmic neutrality
- Title(参考訳): アルゴリズム中立性
- Authors: Milo Phillips-Brown
- Abstract要約: バイアスは我々の生活をコントロールしやすくするアルゴリズムに感染する。
検索エンジンは、政治的イデオロギーや検索エンジン運営者の金銭的利益といった特定の価値が、検索エンジンがページのランク付けに何の役割も果たさない場合に限り中立である。
私は2つの形態のバイアスと、失敗する期間バイアスと、他の価値バイアスを区別します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias infects the algorithms that wield increasing control over our lives.
Predictive policing systems overestimate crime in communities of color; hiring
algorithms dock qualified female candidates; and facial recognition software
struggles to recognize dark-skinned faces. Algorithmic bias has received
significant attention. Algorithmic neutrality, in contrast, has been largely
neglected. Algorithmic neutrality is my topic. I take up three questions. What
is algorithmic neutrality? Is algorithmic neutrality possible? When we have an
eye to algorithmic neutrality, what can we learn about algorithmic bias? To
answer these questions in concrete terms, I work with a case study: search
engines. Drawing on work about neutrality in science, I say that a search
engine is neutral only if certain values, like political ideologies or the
financial interests of the search engine operator, play no role in how the
search engine ranks pages. Search neutrality, I argue, is impossible. Its
impossibility seems to threaten the significance of search bias: if no search
engine is neutral, then every search engine is biased. To defuse this threat, I
distinguish two forms of bias, failing-on-its-own-terms bias and other-values
bias. This distinction allows us to make sense of search bias, and capture its
normative complexion, despite the impossibility of neutrality.
- Abstract(参考訳): バイアスは我々の生活をコントロールしやすくするアルゴリズムに感染する。
色コミュニティにおける犯罪を過大評価する予測警察システム、女性候補を雇用するアルゴリズム、そして顔認識ソフトウェアは、浅黒い肌の顔を認識するのに苦労している。
アルゴリズムバイアスは注目されている。
対照的にアルゴリズム中立性は無視されている。
アルゴリズム中立性は私のトピックです。
私は3つの質問を受け取ります。
アルゴリズム中立とは何か?
アルゴリズム中立性は可能か?
アルゴリズムの中立性に目を向けると、アルゴリズムのバイアスについて何を学べますか?
これらの疑問に具体的な言葉で答えるために、私はケーススタディである検索エンジンに取り組んでいます。
科学における中立性に関する著作を引用すると、検索エンジンが中立であることは、政治イデオロギーや検索エンジン運営者の金銭的利益といった特定の価値が、検索エンジンがページのランク付けに何の役割も果たさない場合に限ると私は言う。
検索中立性は不可能だ、と私は思う。
検索エンジンが中立でなければ、どの検索エンジンにもバイアスがかかる。
この脅威を解消するために、私は2種類のバイアス、未熟な期間バイアスと他の価値バイアスを区別します。
この区別により、中立性の欠如にもかかわらず、探索バイアスを理解し、その規範的な複雑さを捉えることができる。
関連論文リスト
- Why Algorithms Remain Unjust: Power Structures Surrounding Algorithmic Activity [0.0]
改革派はアルゴリズムを取り巻く電力構造を無視しているため、アルゴリズムの不正を抑えることができない。
私はエリック・オリン・ライト(Erik Olin Wright)によって開発されたフレームワークを使って、周囲のアルゴリズムシステムの構成を調べます。
論文 参考訳(メタデータ) (2024-05-28T17:49:24Z) - Generalized quantum Arimoto-Blahut algorithm and its application to
quantum information bottleneck [55.22418739014892]
量子アリーモト・ブラフトアルゴリズムをRamakrishnanらにより一般化する。
3つの量子系を持つ量子情報ボトルネックに対して,我々のアルゴリズムを適用した。
数値解析により,我々のアルゴリズムはアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-19T00:06:11Z) - Algorithms, Incentives, and Democracy [0.0]
アルゴリズム設計者による最適分類が集団の行動分布にどのように影響するかを示す。
次に、報酬と罰、または利害関係をアルゴリズム分類に民主化する効果を見て、社会が捕食的分類をいかに生み出すか(または促進するか)を検討する。
論文 参考訳(メタデータ) (2023-07-05T14:22:01Z) - Nearly Optimal Algorithms for Linear Contextual Bandits with Adversarial
Corruptions [98.75618795470524]
本稿では,敵対的腐敗の存在下での線形文脈的包帯問題について検討する。
我々は不確実性に直面した楽観主義の原理に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-13T17:58:58Z) - How to transfer algorithmic reasoning knowledge to learn new algorithms? [23.335939830754747]
我々は,実行トレースにアクセス可能なアルゴリズムを用いて,そうでない同様のタスクを解く方法について検討する。
9つのアルゴリズムと3つの異なるグラフタイプを含むデータセットを作成します。
我々はこれを実証的に検証し、その代わりにマルチタスク学習を用いてアルゴリズム推論知識の伝達を実現する方法を示す。
論文 参考訳(メタデータ) (2021-10-26T22:14:47Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Algorithms are not neutral: Bias in collaborative filtering [0.0]
アルゴリズムバイアスの議論は、データまたはアルゴリズムを構築している人々が偏っている例に焦点を当てる傾向がある。
これは、人気に悩まされ、バイアスを均質化することで知られる協調フィルタリングの例で示される。
人気と均質化バイアスは、すでに限界を更に限界化させる効果があります。
論文 参考訳(メタデータ) (2021-05-03T17:28:43Z) - Towards Meta-Algorithm Selection [78.13985819417974]
インスタンス固有のアルゴリズム選択(AS)は、固定された候補集合からのアルゴリズムの自動選択を扱う。
メタアルゴリズムの選択は、いくつかのケースで有益であることを示す。
論文 参考訳(メタデータ) (2020-11-17T17:27:33Z) - Corralling Stochastic Bandit Algorithms [54.10645564702416]
相関アルゴリズムの後悔は、最も報酬の高い腕を含む最高のアルゴリズムの後悔よりも悪くはないことを示す。
最高報酬と他の報酬の差は、最高報酬と他の報酬の差に依存することを示す。
論文 参考訳(メタデータ) (2020-06-16T15:33:12Z) - Underestimation Bias and Underfitting in Machine Learning [2.639737913330821]
機械学習におけるアルゴリズムバイアスと呼ばれるものは、トレーニングデータの歴史的なバイアスによるものである。
時には、アルゴリズム自体によってバイアスがもたらされる(あるいは少なくとも悪化する)ことがある。
本稿では,分類アルゴリズムのバイアスに寄与する要因を理解するための初期研究について報告する。
論文 参考訳(メタデータ) (2020-05-18T20:01:56Z) - Adversarial Online Learning with Changing Action Sets: Efficient
Algorithms with Approximate Regret Bounds [48.312484940846]
睡眠の専門家やバンドイットによるオンライン学習の問題を再考する。
各タイムステップにおいて、アルゴリズムが選択できるアクションのサブセットのみが利用可能である。
我々は、一般的な睡眠専門家/バンド問題に対して、アポキシマ-レグレット保証を提供するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-03-07T02:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。