論文の概要: Causal Perception
- arxiv url: http://arxiv.org/abs/2401.13408v1
- Date: Wed, 24 Jan 2024 12:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 14:57:21.830366
- Title: Causal Perception
- Title(参考訳): 因果知覚
- Authors: Jose M. Alvarez and Salvatore Ruggieri
- Abstract要約: 知覚は、2人の個人が同じ情報を異なる方法で解釈する際に起こる。
我々は、因果推論の下で知覚を形式化し、個人による解釈の行為を捉える。
我々は、信頼と一貫性の因果特性に基づいて、不誠実かつ矛盾した因果知覚を2種類定義する。
- 参考スコア(独自算出の注目度): 26.695316585522527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perception occurs when two individuals interpret the same information
differently. Despite being a known phenomenon with implications for bias in
decision-making, as individuals' experience determines interpretation,
perception remains largely overlooked in automated decision-making (ADM)
systems. In particular, it can have considerable effects on the fairness or
fair usage of an ADM system, as fairness itself is context-specific and its
interpretation dependent on who is judging. In this work, we formalize
perception under causal reasoning to capture the act of interpretation by an
individual. We also formalize individual experience as additional causal
knowledge that comes with and is used by an individual. Further, we define and
discuss loaded attributes, which are attributes prone to evoke perception.
Sensitive attributes, such as gender and race, are clear examples of loaded
attributes. We define two kinds of causal perception, unfaithful and
inconsistent, based on the causal properties of faithfulness and consistency.
We illustrate our framework through a series of decision-making examples and
discuss relevant fairness applications. The goal of this work is to position
perception as a parameter of interest, useful for extending the standard,
single interpretation ADM problem formulation.
- Abstract(参考訳): 知覚は、2人が同じ情報を異なる方法で解釈する際に起こる。
個人の経験が解釈を決定するにつれ、意思決定のバイアスが生じる既知の現象であるにもかかわらず、自動意思決定(ADM)システムでは認識はほとんど見過ごされ続けている。
特に、フェアネス自体が文脈に特有であり、その解釈は誰が判断しているかに依存するため、admシステムのフェアネスまたはフェアユースにかなりの影響を与える可能性がある。
本研究では,因果推論に基づく認識を定式化し,個人による解釈行為を捉える。
また、個々の経験を、個人がもたらし、使用する追加の因果知識として定式化します。
さらに,認識を誘発する属性であるロード属性を定義し,議論する。
性別や人種などの敏感な属性は、ロードされた属性の明確な例である。
我々は、信頼と一貫性の因果特性に基づいて、不誠実かつ矛盾した因果知覚を2種類定義する。
我々は、一連の意思決定例を通してフレームワークを説明し、関連する公平性の適用について論じる。
この研究の目的は、認識を関心のパラメータとして位置づけ、標準の単一解釈 ADM 問題定式化の拡張に役立てることである。
関連論文リスト
- The Impact of Explanations on Fairness in Human-AI Decision-Making: Protected vs Proxy Features [25.752072910748716]
説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接的ではあるが間接的偏見を検出するのに役立ちます。
論文 参考訳(メタデータ) (2023-10-12T16:00:16Z) - On Prediction-Modelers and Decision-Makers: Why Fairness Requires More
Than a Fair Prediction Model [1.3996171129586732]
予測に基づく意思決定の分野における暗黙の曖昧さは、予測の概念と決定の関係を考察する。
これら2つの要素が予測に基づく決定システムの最終的な公平性にどう影響するかを示す。
本稿では,予測に基づく意思決定において公平性を生み出す概念論理の理解と推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:34:42Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Quantifying Feature Contributions to Overall Disparity Using Information
Theory [24.61791450920249]
機械学習アルゴリズムがバイアス決定を行う場合、不一致の原因を理解して、なぜバイアスが存在するのかを説明するのに役立つ。
正確な意思決定メカニズムがアクセスできない場合、各特徴の観察された相違点に対する「潜在的」貢献はどのようなものか?
入力に介入できない場合、最終決定と個々の特徴の両方に存在する保護属性に関する「冗長」統計的依存を定量化する。
論文 参考訳(メタデータ) (2022-06-16T21:27:22Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Show or Suppress? Managing Input Uncertainty in Machine Learning Model
Explanations [5.695163312473304]
特徴属性は、各測定された入力特徴値が出力推定に与える影響を説明するために、解釈可能な機械学習で広く使用されている。
入力の不確実性の認識が説明の信頼にどのように影響するかは不明です。
モデル説明において不確実性の認識を管理するための2つのアプローチを提案します。
論文 参考訳(メタデータ) (2021-01-23T13:10:48Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Regularizing Reasons for Outfit Evaluation with Gradient Penalty [73.40920780576887]
我々は,判断と説得力のある説明からなるフィードバックを提供する服装評価システムを構築した。
システムは、ドメインの知識を体系的に忠実に追従する教師ありの方法で訓練される。
論文 参考訳(メタデータ) (2020-02-02T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。