論文の概要: Where Is the Normative Proof? Assumptions and Contradictions in ML
Fairness Research
- arxiv url: http://arxiv.org/abs/2010.10407v3
- Date: Tue, 3 Nov 2020 22:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:37:58.865142
- Title: Where Is the Normative Proof? Assumptions and Contradictions in ML
Fairness Research
- Title(参考訳): ノーマティブな証明はどこにあるのか?
MLフェアネス研究における想定と矛盾
- Authors: A. Feder Cooper
- Abstract要約: Across machine learning (ML) sub-disciplines 研究者は、証明記述を容易にする数学的仮定を作成する。
数学的仮定が適用性を制限する方法と同様に、規範的仮定は特定の問題領域に対するアルゴリズムの適用性も制限する。
規範的な仮定が明確化されれば、不明確な結果や矛盾した結果が得られることがよくあります。
- 参考スコア(独自算出の注目度): 2.6397379133308214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Across machine learning (ML) sub-disciplines researchers make mathematical
assumptions to facilitate proof-writing. While such assumptions are necessary
for providing mathematical guarantees for how algorithms behave, they also
necessarily limit the applicability of these algorithms to different problem
settings. This practice is known--in fact, obvious--and accepted in ML
research. However, similar attention is not paid to the normative assumptions
that ground this work. I argue such assumptions are equally as important,
especially in areas of ML with clear social impact, such as fairness. This is
because, similar to how mathematical assumptions constrain applicability,
normative assumptions also limit algorithm applicability to certain problem
domains. I show that, in existing papers published in top venues, once
normative assumptions are clarified, it is often possible to get unclear or
contradictory results. While the mathematical assumptions and results are
sound, the implicit normative assumptions and accompanying normative results
contraindicate using these methods in practical fairness applications.
- Abstract(参考訳): Across machine learning (ML) sub-disciplines 研究者は、証明記述を容易にする数学的仮定を作成する。
このような仮定はアルゴリズムの振る舞いに関する数学的保証を提供するのに必要だが、アルゴリズムの適用性を異なる問題設定に制限する必要もある。
このプラクティスは、事実、明らかであり、ml研究で受け入れられています。
しかし、同様の注意は、この仕事の基礎となる規範的な仮定には払われていない。
このような仮定は、特にフェアネスのような明らかな社会的影響を持つMLの領域において、等しく重要であると私は主張する。
これは、数学的仮定が適用性を制限する方法と同様に、規範的仮定が特定の問題領域に対するアルゴリズムの適用性を制限するためである。
私は、トップ会場で発表された既存の論文において、規範的な仮定が明確になると、しばしば不明瞭な結果や矛盾した結果が得られることを示します。
数学的仮定と結果は健全であるが、暗黙の規範的仮定とそれに付随する規範的結果は、これらの手法を実践的公正性の適用に用いない。
関連論文リスト
- RuleArena: A Benchmark for Rule-Guided Reasoning with LLMs in Real-World Scenarios [58.90106984375913]
RuleArenaは、大規模言語モデル(LLM)が推論において複雑な現実世界のルールに従う能力を評価するために設計された、新しくて挑戦的なベンチマークである。
航空会社の荷物手数料、NBA取引、税制の3つの実践的領域をカバーするルールアリーナは、複雑な自然言語命令を扱うのにLLMの習熟度を評価する。
論文 参考訳(メタデータ) (2024-12-12T06:08:46Z) - Methods with Local Steps and Random Reshuffling for Generally Smooth Non-Convex Federated Optimization [52.61737731453222]
非マシーン学習問題は通常、標準的な滑らかさの仮定に従わない。
本稿では,ローカルステップ,クライアントの部分的参加,ランダムランダムリシャッフルによる新しい手法の提案と解析を行う。
我々の理論は、標準的な滑らかな問題に対する既知の結果と一致している。
論文 参考訳(メタデータ) (2024-12-03T19:20:56Z) - Conformal Validity Guarantees Exist for Any Data Distribution (and How to Find Them) [14.396431159723297]
理論上,共形予測はテキスト共同データ分布に拡張可能であることを示す。
最も一般的なケースは計算に実用的でないが、具体的には特定の共形アルゴリズムを導出するための手順を概説する。
論文 参考訳(メタデータ) (2024-05-10T17:40:24Z) - Betting on what is neither verifiable nor falsifiable [18.688474183114085]
我々は,このようなイベントを選択肢を通じて賭けるアプローチを提案し,また,「検証・ファルシフィケーションゲーム」の結果に賭ける手法を提案する。
したがって、我々の研究は、論理的不確実性に対するガラブラント帰納法(英語版)の既存の枠組みの代替として機能し、数学の哲学における構成主義(英語版)として知られるスタンスに関連している。
論文 参考訳(メタデータ) (2024-01-29T17:30:34Z) - Geometry-Aware Approaches for Balancing Performance and Theoretical
Guarantees in Linear Bandits [6.907555940790131]
トンプソンサンプリングとグリーディは有望な経験的性能を示したが、これは悲観的な理論的後悔の境界とは対照的である。
本研究では不確実楕円体の幾何学的特性を追跡する新しいデータ駆動手法を提案する。
ベースアルゴリズムが不十分な問題インスタンスを特定し,コース修正する。
論文 参考訳(メタデータ) (2023-06-26T17:38:45Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - On the Importance of Gradient Norm in PAC-Bayesian Bounds [92.82627080794491]
対数ソボレフ不等式の縮約性を利用する新しい一般化法を提案する。
我々は、この新たな損失段階的ノルム項が異なるニューラルネットワークに与える影響を実証的に分析する。
論文 参考訳(メタデータ) (2022-10-12T12:49:20Z) - Sequential Permutation Testing of Random Forest Variable Importance
Measures [68.8204255655161]
そこで本研究では、逐次置換テストと逐次p値推定を用いて、従来の置換テストに関連する高い計算コストを削減することを提案する。
シミュレーション研究の結果、シーケンシャルテストの理論的性質が当てはまることを確認した。
本手法の数値安定性を2つの応用研究で検討した。
論文 参考訳(メタデータ) (2022-06-02T20:16:50Z) - Do Proportionate Algorithms Exploit Sparsity? [13.303007365477862]
本稿では,比例型アルゴリズムの未検討の欠点と限界に対処する。
本研究の結果は,いくつかのスパースシナリオにおけるこれらのアルゴリズムの性能低下に対する理論的正当性や,非定常・圧縮可能なシステムを扱う場合の正当性について考察した。
論文 参考訳(メタデータ) (2021-08-16T00:56:00Z) - What is important about the No Free Lunch theorems? [0.5874142059884521]
ノー・フリー・ランチの定理は、誘導問題に対する一様分布の下では、すべての誘導アルゴリズムが等しく作用することを証明している。
定理の重要性は、それらを用いて非一様分布を含むシナリオを分析することによって生じる。
また、教師付き学習の間に「辞書」を動機付け、ブラックボックス最適化を改善する。
論文 参考訳(メタデータ) (2020-07-21T16:42:36Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。