論文の概要: A Human-In-The-Loop Approach for Improving Fairness in Predictive Business Process Monitoring
- arxiv url: http://arxiv.org/abs/2508.17477v1
- Date: Sun, 24 Aug 2025 18:05:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.54706
- Title: A Human-In-The-Loop Approach for Improving Fairness in Predictive Business Process Monitoring
- Title(参考訳): 予測的ビジネスプロセスモニタリングの公正性向上のためのヒューマン・イン・ザ・ループアプローチ
- Authors: Martin Käppel, Julian Neuberger, Felix Möhrlein, Sven Weinzierl, Martin Matzner, Stefan Jablonski,
- Abstract要約: 予測的プロセス監視は、ビジネスプロセスの実行インスタンスに対して、積極的に反応し、介入することを可能にする。
データ駆動型モデルの性質は、データの中に不公平、偏見、あるいは非倫理的なパターンを見つけるのに感受性がある。
本稿では,予測ビジネスプロセスモニタリングモデルにおいて,偏りのある決定を識別・修正するための,新しいモデルに依存しないアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.6624933615451845
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive process monitoring enables organizations to proactively react and intervene in running instances of a business process. Given an incomplete process instance, predictions about the outcome, next activity, or remaining time are created. This is done by powerful machine learning models, which have shown impressive predictive performance. However, the data-driven nature of these models makes them susceptible to finding unfair, biased, or unethical patterns in the data. Such patterns lead to biased predictions based on so-called sensitive attributes, such as the gender or age of process participants. Previous work has identified this problem and offered solutions that mitigate biases by removing sensitive attributes entirely from the process instance. However, sensitive attributes can be used both fairly and unfairly in the same process instance. For example, during a medical process, treatment decisions could be based on gender, while the decision to accept a patient should not be based on gender. This paper proposes a novel, model-agnostic approach for identifying and rectifying biased decisions in predictive business process monitoring models, even when the same sensitive attribute is used both fairly and unfairly. The proposed approach uses a human-in-the-loop approach to differentiate between fair and unfair decisions through simple alterations on a decision tree model distilled from the original prediction model. Our results show that the proposed approach achieves a promising tradeoff between fairness and accuracy in the presence of biased data. All source code and data are publicly available at https://doi.org/10.5281/zenodo.15387576.
- Abstract(参考訳): 予測的プロセス監視は、ビジネスプロセスの実行インスタンスに対して、積極的に反応し、介入することを可能にする。
不完全なプロセスインスタンスが与えられた場合、結果、次のアクティビティ、または残りの時間に関する予測が生成される。
これは強力な機械学習モデルによって実現され、予測性能が著しく向上した。
しかし、これらのモデルにおけるデータ駆動の性質は、データの中に不公平、偏見、あるいは非倫理的なパターンを見つけるのに感受性がある。
このようなパターンは、プロセス参加者の性別や年齢といった、いわゆるセンシティブな属性に基づいたバイアス付き予測につながる。
これまでの作業ではこの問題を特定し、プロセスインスタンスからセンシティブな属性を完全に取り除くことでバイアスを軽減するソリューションを提供していました。
しかし、センシティブな属性は、同じプロセスインスタンスで公平かつ不公平に使用することができる。
例えば、医療過程において、治療の決定は性別に基づいて行うことができるが、患者を受け入れる決定は性別に基づいて行うべきではない。
本稿では,予測的ビジネスプロセス監視モデルにおいて,同一の感度特性を公平かつ不公平に使用しても,バイアスのある判断を識別・修正するための,新しいモデルに依存しないアプローチを提案する。
提案手法は,従来の予測モデルから抽出した決定木モデルに簡単な変更を加えることで,公正な判断と不公平な判断を区別する。
提案手法は偏りのあるデータの存在下での公平性と正確性の間の有望なトレードオフを達成できることを示す。
すべてのソースコードとデータはhttps://doi.org/10.5281/zenodo.15387576で公開されている。
関連論文リスト
- Achieving Group Fairness through Independence in Predictive Process Monitoring [0.0]
予測プロセス監視は、特定のケースの結果を予測するなど、進行中のプロセス実行の将来の状態を予測することに焦点を当てる。
近年,この領域における機械学習モデルの適用は科学的な注目を集めている。
この研究は、独立性の調査による予測プロセス監視におけるグループフェアネス、すなわち、センシティブなグループメンバーシップによる予測が影響を受けないことを保証する。
論文 参考訳(メタデータ) (2024-12-06T10:10:47Z) - Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Automatically Reconciling the Trade-off between Prediction Accuracy and
Earliness in Prescriptive Business Process Monitoring [0.802904964931021]
本稿では,予測精度と予測聴力のトレードオフを自動的に整合する問題に着目する。
予測精度と補聴器とのトレードオフを和らげるために、文献で異なるアプローチが提示された。
予測精度と補聴器のトレードオフを整合する主要な代替手法の比較評価を行う。
論文 参考訳(メタデータ) (2023-07-12T06:07:53Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。