論文の概要: ProbLog4Fairness: A Neurosymbolic Approach to Modeling and Mitigating Bias
- arxiv url: http://arxiv.org/abs/2511.09768v1
- Date: Fri, 14 Nov 2025 01:08:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.472543
- Title: ProbLog4Fairness: A Neurosymbolic Approach to Modeling and Mitigating Bias
- Title(参考訳): ProbLog4Fairness: バイオマスのモデリングと緩和のためのニューロシンボリックアプローチ
- Authors: Rik Adriaensen, Lucas Van Praet, Jessa Bekker, Robin Manhaeve, Pieter Delobelle, Maarten Buyl,
- Abstract要約: 本稿では確率論理型プログラミング言語ProbLogのプログラムとしてバイアス仮定を定式化する。
ProbLogのニューロシンボリック拡張は、ニューラルネットワークのトレーニングプロセスにおいて、これらの仮定を簡単に統合できるようにする。
- 参考スコア(独自算出の注目度): 8.1293742603639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operationalizing definitions of fairness is difficult in practice, as multiple definitions can be incompatible while each being arguably desirable. Instead, it may be easier to directly describe algorithmic bias through ad-hoc assumptions specific to a particular real-world task, e.g., based on background information on systemic biases in its context. Such assumptions can, in turn, be used to mitigate this bias during training. Yet, a framework for incorporating such assumptions that is simultaneously principled, flexible, and interpretable is currently lacking. Our approach is to formalize bias assumptions as programs in ProbLog, a probabilistic logic programming language that allows for the description of probabilistic causal relationships through logic. Neurosymbolic extensions of ProbLog then allow for easy integration of these assumptions in a neural network's training process. We propose a set of templates to express different types of bias and show the versatility of our approach on synthetic tabular datasets with known biases. Using estimates of the bias distortions present, we also succeed in mitigating algorithmic bias in real-world tabular and image data. We conclude that ProbLog4Fairness outperforms baselines due to its ability to flexibly model the relevant bias assumptions, where other methods typically uphold a fixed bias type or notion of fairness.
- Abstract(参考訳): フェアネスの定義を運用することは実際は困難であり、複数の定義は相容れないが、それぞれの定義は間違いなく望ましい。
代わりに、特定の現実世界のタスクに特有のアドホックな仮定、例えば、そのコンテキストにおけるシステムバイアスの背景情報に基づいて、アルゴリズムバイアスを直接記述することがより簡単になるかもしれない。
このような仮定は、トレーニング中にこのバイアスを軽減するために使用できる。
しかし、同時に原則化され、柔軟で、解釈可能な仮定を組み込むためのフレームワークは、現在不足している。
我々のアプローチは、確率論的因果関係の記述を可能にする確率論的論理プログラミング言語ProbLogのプログラムとしてバイアス仮定を形式化することである。
ProbLogのニューロシンボリック拡張は、ニューラルネットワークのトレーニングプロセスにおいて、これらの仮定を簡単に統合できるようにする。
異なる種類のバイアスを表現するテンプレートセットを提案し、既知のバイアスを持つ合成表型データセットに対するアプローチの汎用性を示す。
バイアス歪みの推定値を用いて,実世界の表や画像データにおけるアルゴリズムバイアスを緩和することに成功した。
ProbLog4Fairnessは、関連するバイアスの仮定を柔軟にモデル化し、他の方法では通常一定のバイアスタイプや公平性の概念を維持できるため、ベースラインよりも優れていると結論付けている。
関連論文リスト
- ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景と前景のバイアスプロトコル上で評価し,新しい最先端のバイアスプロトコルを設定し,HMDB51では12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本研究は,偏りと偏りの一致したサンプルを正確に予測することの重要性を示す。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Certifying Fairness of Probabilistic Circuits [33.1089249944851]
本稿では,確率論的モデル,すなわち確率論的回路の一般クラスにおいて,識別パターンを探索するアルゴリズムを提案する。
また、指数関数的に多くの識別パターンを効果的に要約できる最小パターン、最大パターン、最適パターンなどの新しいパターンのクラスも導入する。
論文 参考訳(メタデータ) (2022-12-05T18:36:45Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Unsupervised Learning of Unbiased Visual Representations [12.690228982893]
ディープニューラルネットワークは、データセットバイアスの存在下で堅牢な表現を学ぶのに苦労することが多い。
この問題に対処するための既存のアプローチは、一般的にバイアス属性の明示的な監督、あるいはバイアスに関する事前の知識への依存を含む。
我々は3つの重要なステップを持つ完全に教師なしのデバイアス・フレームワークを提示する。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Using Pareto Simulated Annealing to Address Algorithmic Bias in Machine
Learning [2.055949720959582]
バランスの取れた精度と過小評価の両方を最適化する多目的最適化戦略を提案する。
我々は,この戦略の有効性を,1つの実世界のデータセットと2つの実世界のデータセットに示す。
論文 参考訳(メタデータ) (2021-05-31T15:51:43Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。