論文の概要: An Information-Flow Perspective on Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2312.10128v1
- Date: Fri, 15 Dec 2023 14:46:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 18:23:32.388007
- Title: An Information-Flow Perspective on Algorithmic Fairness
- Title(参考訳): アルゴリズム的公平性に関する情報フローの展望
- Authors: Samuel Teuber and Bernhard Beckert
- Abstract要約: 本研究は,アルゴリズムフェアネスとセキュア情報フローの概念との関係を考察することによって得られた知見を提示する。
フェアネススプレッドと呼ばれる新しい量的公正の概念を導出し、定量的情報フローを用いて容易に分析できる。
- 参考スコア(独自算出の注目度): 0.951828574518325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents insights gained by investigating the relationship between
algorithmic fairness and the concept of secure information flow. The problem of
enforcing secure information flow is well-studied in the context of information
security: If secret information may "flow" through an algorithm or program in
such a way that it can influence the program's output, then that is considered
insecure information flow as attackers could potentially observe (parts of) the
secret.
There is a strong correspondence between secure information flow and
algorithmic fairness: if protected attributes such as race, gender, or age are
treated as secret program inputs, then secure information flow means that these
``secret'' attributes cannot influence the result of a program. While most
research in algorithmic fairness evaluation concentrates on studying the impact
of algorithms (often treating the algorithm as a black-box), the concepts
derived from information flow can be used both for the analysis of disparate
treatment as well as disparate impact w.r.t. a structural causal model.
In this paper, we examine the relationship between quantitative as well as
qualitative information-flow properties and fairness. Moreover, based on this
duality, we derive a new quantitative notion of fairness called fairness
spread, which can be easily analyzed using quantitative information flow and
which strongly relates to counterfactual fairness. We demonstrate that
off-the-shelf tools for information-flow properties can be used in order to
formally analyze a program's algorithmic fairness properties, including the new
notion of fairness spread as well as established notions such as demographic
parity.
- Abstract(参考訳): 本研究は,アルゴリズム的公平性とセキュアな情報フローの概念との関係を考察することで得られた知見を示す。
シークレット情報がプログラムの出力に影響を与えるような方法でアルゴリズムやプログラムを通して"フロー"できる場合、攻撃者が秘密を監視(一部)できる可能性があるため、それは安全でない情報フローと見なされる。
セキュアな情報フローとアルゴリズム的な公平性の間には強い対応がある:もし人種、性別、年齢などの保護された属性が秘密のプログラム入力として扱われるならば、セキュアな情報フローは、これらの‘secret’属性がプログラムの結果に影響を与えないことを意味する。
アルゴリズムの公平性評価に関するほとんどの研究はアルゴリズムの影響の研究に集中しているが(しばしばアルゴリズムをブラックボックスとして扱う)、情報フローに由来する概念は、異質な処理の分析と構造的因果モデルによる異質な影響の両方に利用できる。
本稿では,量的および質的情報フロー特性と公平性との関係について検討する。
さらに,この双対性に基づいて,定量的情報フローを用いて解析し,対実的公正性に強く関係するフェアネス拡散という,新たな量的公正性の概念を導出する。
我々は,プログラムのアルゴリズム的公平性特性を解析するために,情報フロー特性の既製のツールが利用可能であることを実証した。
関連論文リスト
- Sequential Classification of Misinformation [4.557963624437785]
ソーシャルメディアプラットフォームは、真」と「一部真」と「偽」の情報を区別したいかもしれない。
本稿では,情報フローのオンライン多クラス分類の問題について考察する。
2つの検出アルゴリズムを提案する。1つはよく知られた多重逐次確率比テストに基づいており、もう1つは新しいグラフニューラルネットワークに基づく逐次決定アルゴリズムである。
論文 参考訳(メタデータ) (2024-09-07T15:43:19Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - When Fair Classification Meets Noisy Protected Attributes [8.362098382773265]
本研究は, 属性耐性, 耐雑音性, 属性ブラインドアルゴリズムを比較した, 公平な分類アルゴリズムの先進的な研究である。
本研究は,属性ブレンドとノイズ耐性公正分類器が,属性耐性アルゴリズムと同等の性能を達成できることを明らかにする。
論文 参考訳(メタデータ) (2023-07-06T21:38:18Z) - dugMatting: Decomposed-Uncertainty-Guided Matting [83.71273621169404]
そこで本稿では, 明確に分解された不確かさを探索し, 効率よく効率よく改善する, 分解不確実性誘導型マッチングアルゴリズムを提案する。
提案したマッチングフレームワークは,シンプルで効率的なラベリングを用いて対話領域を決定する必要性を緩和する。
論文 参考訳(メタデータ) (2023-06-02T11:19:50Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Fine-Grained Neural Network Explanation by Identifying Input Features
with Predictive Information [53.28701922632817]
入力領域における予測情報を用いて特徴を識別する手法を提案する。
我々の手法の中核となる考え方は、予測潜在機能に関連する入力機能のみを通過させる入力のボトルネックを活用することである。
論文 参考訳(メタデータ) (2021-10-04T14:13:42Z) - A Bayesian Framework for Information-Theoretic Probing [51.98576673620385]
我々は、探索は相互情報を近似するものとみなすべきであると論じる。
これは、表現が元の文とターゲットタスクに関する全く同じ情報をエンコードしているというかなり直感的な結論を導いた。
本稿では,ベイズ的相互情報(Bayesian mutual information)と呼ぶものを測定するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-08T18:08:36Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Fairness Perception from a Network-Centric Perspective [12.261689483681147]
ネットワーク中心の公平感知覚と呼ばれる新しい直感的機能を導入する。
フェアネス可視性として知られる群フェアネス計量に関数をどのように拡張できるかを示す。
アルゴリズムの判断が公正であると認識するために、個人を誤解させるようなフェアネスの可視性尺度の潜在的な落とし穴について説明する。
論文 参考訳(メタデータ) (2020-10-07T06:35:03Z) - Uncertainty Quantification for Deep Context-Aware Mobile Activity
Recognition and Unknown Context Discovery [85.36948722680822]
我々はα-βネットワークと呼ばれる深層モデルのコンテキスト認識混合を開発する。
高レベルの文脈を識別することで、精度とFスコアを10%向上させる。
トレーニングの安定性を確保するために、公開データセットと社内データセットの両方でクラスタリングベースの事前トレーニングを使用しました。
論文 参考訳(メタデータ) (2020-03-03T19:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。