論文の概要: Observational Multiplicity
- arxiv url: http://arxiv.org/abs/2507.23136v1
- Date: Wed, 30 Jul 2025 22:30:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.828032
- Title: Observational Multiplicity
- Title(参考訳): 観測的多重性
- Authors: Erin George, Deanna Needell, Berk Ustun,
- Abstract要約: 本研究では,確率的分類タスクにおいて,保護的効果として任意性がどのように生じるかを検討する。
確率的分類タスクに対する後悔の尺度を導入し、異なるトレーニングラベルの変化によってモデルの予測がどのように変化するかを測定する。
我々は、データセット内の特定のグループに対して後悔がより高いことを示し、後悔の潜在的な応用について議論する。
- 参考スコア(独自算出の注目度): 13.001275742432053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many prediction tasks can admit multiple models that can perform almost equally well. This phenomenon can can undermine interpretability and safety when competing models assign conflicting predictions to individuals. In this work, we study how arbitrariness can arise in probabilistic classification tasks as a result of an effect that we call \emph{observational multiplicity}. We discuss how this effect arises in a broad class of practical applications where we learn a classifier to predict probabilities $p_i \in [0,1]$ but are given a dataset of observations $y_i \in \{0,1\}$. We propose to evaluate the arbitrariness of individual probability predictions through the lens of \emph{regret}. We introduce a measure of regret for probabilistic classification tasks, which measures how the predictions of a model could change as a result of different training labels change. We present a general-purpose method to estimate the regret in a probabilistic classification task. We use our measure to show that regret is higher for certain groups in the dataset and discuss potential applications of regret. We demonstrate how estimating regret promote safety in real-world applications by abstention and data collection.
- Abstract(参考訳): 多くの予測タスクは、ほぼ等しく機能する複数のモデルを受け入れることができる。
この現象は、競合するモデルが個人に矛盾する予測を割り当てたとき、解釈可能性や安全性を損なう可能性がある。
本研究では,確率的分類タスクにおいて,「観測的多重性」と呼ばれる効果の結果として,任意性がどのように生じるかを検討する。
我々は、この効果が、確率を予測するために分類器を学習する幅広い応用のクラスでどのように起こるかについて論じるが、観測のデータセットは$y_i \in \{0,1\}$である。
本稿では,emph{regret} のレンズを用いて,個々の確率予測の任意性を評価することを提案する。
確率的分類タスクに対する後悔の尺度を導入し、異なるトレーニングラベルの変化によってモデルの予測がどのように変化するかを測定する。
本稿では,確率的分類課題における後悔を推定する汎用的手法を提案する。
我々は、データセット内の特定のグループに対して後悔がより高いことを示し、後悔の潜在的な応用について議論する。
我々は, 実世界のアプリケーションにおいて, 後悔を見積もることが, 禁忌やデータ収集によっていかに安全性を促進するかを実証する。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Explainability as statistical inference [29.74336283497203]
本稿では、解釈可能な予測を生成するために設計された一般的な深層確率モデルを提案する。
モデルパラメータは最大限の確率で学習でき、任意の予測ネットワークアーキテクチャに適応することができる。
実験により,複数命令を用いるとより合理的な解釈が得られることが示された。
論文 参考訳(メタデータ) (2022-12-06T16:55:10Z) - Rashomon Capacity: A Metric for Predictive Multiplicity in Probabilistic
Classification [4.492630871726495]
予測多重性は、分類モデルが個々のサンプルに矛盾する予測を割り当てたときに発生する。
ラショモン容量と呼ばれる確率的分類における予測多重度の新しい尺度を導入する。
ラショモン・キャパシティは利害関係者に矛盾するモデルを開示するための原則的戦略をもたらすことを示す。
論文 参考訳(メタデータ) (2022-06-02T20:44:19Z) - Predictive Multiplicity in Probabilistic Classification [25.111463701666864]
確率的分類における予測的乗数性を測定するための枠組みを提案する。
実世界のタスクにおける予測多重度の発生頻度と頻度を実証する。
その結果,予測多重度をより広範囲に報告する必要性が強調された。
論文 参考訳(メタデータ) (2022-06-02T16:25:29Z) - Estimating Structural Disparities for Face Models [54.062512989859265]
機械学習では、異なるサブ人口間でのモデルの性能や結果の差を測定することで、しばしば異質度の測定が定義される。
本研究では、人間の顔に訓練されたコンピュータビジョンモデルや、顔属性予測や影響推定などのタスクについて、そのような分析を行う。
論文 参考訳(メタデータ) (2022-04-13T05:30:53Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Thought Flow Nets: From Single Predictions to Trains of Model Thought [39.619001911390804]
人間が複雑な問題を解くと、すぐに決定が下されることはめったにない。
その代わり、彼らは直感的な決定から始まり、間違いを見つけ、矛盾を解決し、異なる仮説の間を飛び交う。
論文 参考訳(メタデータ) (2021-07-26T13:56:37Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。