論文の概要: Leveraging Contextual Counterfactuals Toward Belief Calibration
- arxiv url: http://arxiv.org/abs/2307.06513v1
- Date: Thu, 13 Jul 2023 01:22:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 16:08:31.241517
- Title: Leveraging Contextual Counterfactuals Toward Belief Calibration
- Title(参考訳): 信念校正への文脈的反事実の活用
- Authors: Qiuyi (Richard) Zhang, Michael S. Lee, Sherol Chen
- Abstract要約: メタアライメント問題は、人間の信念が多様であり、集団間で一致していないことです。
後悔の多い状況では、意思決定者の信念やそのような信念が保持される強みを更新する上で、文脈的反事実やレコメンデーションコストが重要であることが観察される。
我々は,この信念の多様性を文脈駆動の反実的推論でより均一に校正するために,信念の校正サイクルの枠組みを導入する。
- 参考スコア(独自算出の注目度): 1.418033127602866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beliefs and values are increasingly being incorporated into our AI systems
through alignment processes, such as carefully curating data collection
principles or regularizing the loss function used for training. However, the
meta-alignment problem is that these human beliefs are diverse and not aligned
across populations; furthermore, the implicit strength of each belief may not
be well calibrated even among humans, especially when trying to generalize
across contexts. Specifically, in high regret situations, we observe that
contextual counterfactuals and recourse costs are particularly important in
updating a decision maker's beliefs and the strengths to which such beliefs are
held. Therefore, we argue that including counterfactuals is key to an accurate
calibration of beliefs during alignment. To do this, we first segment belief
diversity into two categories: subjectivity (across individuals within a
population) and epistemic uncertainty (within an individual across different
contexts). By leveraging our notion of epistemic uncertainty, we introduce `the
belief calibration cycle' framework to more holistically calibrate this
diversity of beliefs with context-driven counterfactual reasoning by using a
multi-objective optimization. We empirically apply our framework for finding a
Pareto frontier of clustered optimal belief strengths that generalize across
different contexts, demonstrating its efficacy on a toy dataset for credit
decisions.
- Abstract(参考訳): データ収集の原則を慎重にキュレートしたり、トレーニングに使用する損失関数を正規化したりすることで、AIシステムに信念と価値が組み込まれています。
しかし、メタアレーメント問題は、これらの人間の信念が多様であり、集団間では一致していないことである。さらに、それぞれの信念の暗黙の強さは、人間の間でも、特に文脈をまたいで一般化しようとする場合には、うまく調整されないかもしれない。
具体的には,高い後悔状況において,意思決定者の信念やその信念が持つ強みを更新する上で,文脈的反事実とリコースコストが特に重要であることを観察する。
したがって,アライメント中の信念の正確なキャリブレーションには,反事実を含むことが重要であると考える。
まず,信念の多様性を主観性(集団内の個人を横断する)と認識的不確実性(異なる文脈にまたがる個人を含む)の2つのカテゴリに分類した。
認識の不確実性の概念を活用することにより、多目的最適化を用いて、文脈駆動の反事実推論による信念の多様性をより均質に校正する「信念校正サイクル」フレームワークを導入する。
我々は、さまざまな文脈で一般化するクラスタ化された最適な信念強度のパレートフロンティアを見つけるための枠組みを実証的に適用し、その効果を信用決定のためのおもちゃデータセット上で実証する。
関連論文リスト
- Cocoon: Robust Multi-Modal Perception with Uncertainty-Aware Sensor Fusion [26.979291099052194]
オブジェクトレベルの不確実性を認識した融合フレームワークであるCocoonを紹介します。
鍵となる革新は不均一表現に対する不確実な定量化である。
Cocoonは、通常の条件と挑戦条件の両方において、既存の静的および適応的な手法より一貫して優れている。
論文 参考訳(メタデータ) (2024-10-16T14:10:53Z) - Navigating Conflicting Views: Harnessing Trust for Learning [5.4486293124577125]
既存の信頼性フレームワークを強化するために,計算信頼に基づく割引手法を開発した。
提案手法は,Top-1精度,AUC-ROC for Uncertainty-Aware Prediction,Fleiss' Kappa,Multi-View Agreement with Ground Truthの6つの実世界のデータセットを用いて評価した。
論文 参考訳(メタデータ) (2024-06-03T03:22:18Z) - Scalarisation-based risk concepts for robust multi-objective optimisation [4.12484724941528]
この問題の多目的事例について検討する。
我々は、ロバストな多目的アルゴリズムの大多数が、ロバスト化とスカラー化という2つの重要な操作に依存していることを確認した。
これらの操作は必ずしも可換であるとは限らないので、それらが実行される順序は結果の解に影響を及ぼす。
論文 参考訳(メタデータ) (2024-05-16T16:11:00Z) - Longitudinal Counterfactuals: Constraints and Opportunities [59.11233767208572]
本稿では,反ファクトの妥当性を評価・改善するために,縦断データを用いた手法を提案する。
本研究では, 縦差と反実差を比較する指標を開発し, 先行観測した変化と反実差の類似性を評価する。
論文 参考訳(メタデータ) (2024-02-29T20:17:08Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Zero-shot Faithful Factual Error Correction [53.121642212060536]
事実の誤りを忠実に訂正することは、テキストの知識基盤の整合性を維持し、シーケンス・ツー・シーケンス・モデルにおける幻覚を防ぐために重要である。
提案するゼロショットフレームワークは,入力クレームに関する質問を定式化し,与えられたエビデンスにおける正しい回答を求め,そのエビデンスとの整合性に基づいて各補正の忠実さを評価する。
論文 参考訳(メタデータ) (2023-05-13T18:55:20Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。