論文の概要: Falsifying Predictive Algorithm
- arxiv url: http://arxiv.org/abs/2601.17146v1
- Date: Fri, 23 Jan 2026 19:57:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.307844
- Title: Falsifying Predictive Algorithm
- Title(参考訳): Falsifying Predictive Algorithm
- Authors: Amanda Coston,
- Abstract要約: 意図しないモデル行動に関する実証的な研究は、アルゴリズムが意図されたことよりも別の結果を予測していることを示すことが多い。
本稿では,差別的妥当性に関する統計的検証を原則として行うファルシフィケーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.4006298200630343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empirical investigations into unintended model behavior often show that the algorithm is predicting another outcome than what was intended. These exposes highlight the need to identify when algorithms predict unintended quantities - ideally before deploying them into consequential settings. We propose a falsification framework that provides a principled statistical test for discriminant validity: the requirement that an algorithm predict intended outcomes better than impermissible ones. Drawing on falsification practices from causal inference, econometrics, and psychometrics, our framework compares calibrated prediction losses across outcomes to assess whether the algorithm exhibits discriminant validity with respect to a specified impermissible proxy. In settings where the target outcome is difficult to observe, multiple permissible proxy outcomes may be available; our framework accommodates both this setting and the case with a single permissible proxy. Throughout we use nonparametric hypothesis testing methods that make minimal assumptions on the data-generating process. We illustrate the method in an admissions setting, where the framework establishes discriminant validity with respect to gender but fails to establish discriminant validity with respect to race. This demonstrates how falsification can serve as an early validity check, prior to fairness or robustness analyses. We also provide analysis in a criminal justice setting, where we highlight the limitations of our framework and emphasize the need for complementary approaches to assess other aspects of construct validity and external validity.
- Abstract(参考訳): 意図しないモデル行動に関する実証的な研究は、アルゴリズムが意図されたことよりも別の結果を予測していることを示すことが多い。
これらの露出は、アルゴリズムが意図しない量を予測するときの識別の必要性を強調します。
本稿では,アルゴリズムが意図した結果を予測するという要求が,不許可な結果よりも優れているという,差別的妥当性の統計的検証を原則として提供するファルシフィケーションフレームワークを提案する。
本手法は, 因果推論, エコノメトリ, 心理測定によるファルシフィケーションの実践に基づき, アルゴリズムが特定の不許容プロキシに対して差別的妥当性を示すかどうかを評価するために, 結果の偏差予測損失を比較した。
対象とする結果の監視が難しい環境では、複数の許容可能なプロキシ結果が利用可能になる可能性がある。
データ生成プロセスについて最小限の仮定を行う非パラメトリック仮説テスト手法を全体として使用します。
本手法は,性別に対して差別的妥当性を確立できるが,人種に関して差別的妥当性を確立できない,入場条件で説明する。
これは、フェアネスやロバストネス分析に先立って、ファルシフィケーションが早期の妥当性チェックとして機能することを示す。
また, 刑事司法における分析を行い, 枠組みの限界を強調し, 構成妥当性と外部妥当性の他の側面を評価するための補完的アプローチの必要性を強調した。
関連論文リスト
- Detecting Statistically Significant Fairness Violations in Recidivism Forecasting Algorithms [0.0]
本稿では, 統計的に有意なフェアネス指標違反を識別できる統計検査について紹介する。
我々は,国立司法研究所のデータに基づいて訓練されたリシビズム予測アルゴリズムをテストすることで,このアプローチを実証する。
論文 参考訳(メタデータ) (2025-09-18T17:15:23Z) - A Principled Approach to Randomized Selection under Uncertainty: Applications to Peer Review and Grant Funding [61.86327960322782]
本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
最適化に基づく最適化手法であるMERITを導入する。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
論文 参考訳(メタデータ) (2025-06-23T19:59:30Z) - Adaptive Sentencing Prediction with Guaranteed Accuracy and Legal Interpretability [7.737114256060652]
本稿では, 固有な法的解釈性を提供する, 飽和メカニスティック・センテンシング(SMS)モデルを提案する。
また,このモデルに対応する最小モメンタム平均平方(MLMS)適応アルゴリズムについても紹介する。
我々は、既知のパラメータのケースで設計した最良の予測器による予測精度の最良の上限を提供する。
論文 参考訳(メタデータ) (2025-05-20T07:06:00Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Inference for an Algorithmic Fairness-Accuracy Frontier [0.7743097066308449]
フェアネス・精度フロンティアのためのバイアス付き機械学習推定器を提案する。
本研究では,その分布を導出し,フェアネス文学における重要な仮説を検証するための推論手法を提案する。
提案手法は,両次元に改良を加えたフェアネス・正確性フロンティア上の代替アルゴリズムを導出することを示す。
論文 参考訳(メタデータ) (2024-02-14T00:56:09Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Counterfactual Predictions under Runtime Confounding [74.90756694584839]
本研究は, 過去のデータからすべての関連要因を抽出した環境で, 事実予測タスクについて検討する。
本稿では,この環境下での対実予測モデル学習のための2次ロバスト手法を提案する。
論文 参考訳(メタデータ) (2020-06-30T15:49:05Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。