論文の概要: Fair Decision-Making for Food Inspections
- arxiv url: http://arxiv.org/abs/2108.05523v1
- Date: Thu, 12 Aug 2021 04:17:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:27:38.597695
- Title: Fair Decision-Making for Food Inspections
- Title(参考訳): 食品検査の公平な意思決定
- Authors: Shubham Singh, Bhuvni Shah, Ian A. Kash
- Abstract要約: 本稿では,シカゴ市公衆衛生局によるレストラン検査の予測モデルの適用について再検討する。
本モデルでは,検査を行った正統性に基づいて,検査を不平等に扱うことが確認された。
我々は、オリジナルのモデルをより公平な方法で使用するためのアプローチと、公平性を達成するためのモデルのトレーニング方法の両方について検討する。
- 参考スコア(独自算出の注目度): 3.4161707164978137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the application of predictive models by the Chicago Department of
Public Health to schedule restaurant inspections and prioritize the detection
of critical violations of the food code. Performing the first analysis from the
perspective of fairness to the population served by the restaurants, we find
that the model treats inspections unequally based on the sanitarian who
conducted the inspection and that in turn there are both geographic and
demographic disparities in the benefits of the model. We examine both
approaches to use the original model in a fairer way and ways to train the
model to achieve fairness and find more success with the former class of
approaches. The challenges from this application point to important directions
for future work around fairness with collective entities rather than
individuals, the use of critical violations as a proxy, and the disconnect
between fair classification and fairness in the dynamic scheduling system.
- Abstract(参考訳): 我々は,シカゴ公衆衛生局の予測モデルを用いて,飲食店の検査をスケジュールし,食品コードの重大な違反の検出を優先する方法について再検討する。
フェアネスの観点から最初の分析を行ったところ,本モデルでは,検査を行った正当性に基づく検査を不平等に扱うことができ,また,モデルのメリットには地理的・人口的格差があることがわかった。
より公平な方法で元のモデルを使うための2つのアプローチと、フェアネスを達成するためにモデルをトレーニングする方法と、以前のアプローチでより多くの成功を収める方法を調べます。
このアプリケーションからの課題は、個人ではなく集合体との公平性、プロキシとしての批判的違反の使用、動的スケジューリングシステムにおける公平な分類と公正性の分離に関する今後の作業にとって重要な方向を示す。
関連論文リスト
- Food Image Classification and Segmentation with Attention-based Multiple
Instance Learning [51.279800092581844]
本稿では,食品画像分類とセマンティックセグメンテーションモデルを訓練するための弱教師付き方法論を提案する。
提案手法は、注意に基づくメカニズムと組み合わせて、複数のインスタンス学習アプローチに基づいている。
提案手法の有効性を検証するため,FoodSeg103データセット内の2つのメタクラスについて実験を行った。
論文 参考訳(メタデータ) (2023-08-22T13:59:47Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - iLab at SemEval-2023 Task 11 Le-Wi-Di: Modelling Disagreement or
Modelling Perspectives? [17.310208612897814]
我々は、SEMEVAL Task 11上での性能を評価するためにマルチタスクアーキテクチャを適用した。
その結果、異なるアノテータの意見を含むデータセットではマルチタスクのアプローチが不十分であることが判明した。
偏見主義的アプローチが望ましいのは、意思決定者が少数派の見解を増幅できるからだ、と我々は主張する。
論文 参考訳(メタデータ) (2023-05-10T11:55:17Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Simulating Personal Food Consumption Patterns using a Modified Markov
Chain [5.874935571318868]
本稿では,マルコフ連鎖モデルの改良と自己指導型学習を活用することにより,個人用食品消費データパターンをシミュレートする新しい枠組みを提案する。
実験の結果,ランダムシミュレーションやマルコフ連鎖法と比較して有望な性能を示した。
論文 参考訳(メタデータ) (2022-08-13T18:50:23Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。