論文の概要: Measure of Strength of Evidence for Visually Observed Differences
between Subpopulations
- arxiv url: http://arxiv.org/abs/2101.00362v3
- Date: Wed, 20 Sep 2023 00:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 02:56:11.511394
- Title: Measure of Strength of Evidence for Visually Observed Differences
between Subpopulations
- Title(参考訳): サブポピュレーション間の視覚的差異に対するエビデンス強度の測定
- Authors: Xi Yang, Jan Hannig, Katherine A. Hoadley, Iain Carmichael, J.S.
Marron
- Abstract要約: The Population difference Criterion is proposed to evaluate the statistics importance of visually-observed subpopulation difference。
高次元の文脈では、分布モデルは疑わしい。
高信号の文脈では、従来の置換テストはペアワイズ比較が貧弱である。
- 参考スコア(独自算出の注目度): 3.874390479912011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For measuring the strength of visually-observed subpopulation differences,
the Population Difference Criterion is proposed to assess the statistical
significance of visually observed subpopulation differences. It addresses the
following challenges: in high-dimensional contexts, distributional models can
be dubious; in high-signal contexts, conventional permutation tests give poor
pairwise comparisons. We also make two other contributions: Based on a careful
analysis we find that a balanced permutation approach is more powerful in
high-signal contexts than conventional permutations. Another contribution is
the quantification of uncertainty due to permutation variation via a bootstrap
confidence interval. The practical usefulness of these ideas is illustrated in
the comparison of subpopulations of modern cancer data.
- Abstract(参考訳): 視覚的に観察されたサブポピュレーション差の強さを測定するために,視覚的に観察されたサブポピュレーション差の統計的意義を評価するために,Population difference Criterionを提案する。
高次元の文脈では、分布モデルは疑わしいが、高信号の文脈では、従来の置換テストはペアワイズ比較が貧弱である。
注意深い分析に基づいて、バランスのとれた置換アプローチは、従来の置換よりも高符号の文脈でより強力であることが分かりました。
もうひとつの貢献は、ブートストラップ信頼区間による置換変動による不確実性の定量化である。
これらの概念の実用的有用性は、現代のがんデータのサブポピュレーションの比較で示される。
関連論文リスト
- Causal vs. Anticausal merging of predictors [57.26526031579287]
同じデータを用いて、因果方向と反因果方向の融合予測器から生じる差について検討した。
帰納的バイアスとしてCausal Maximum Entropy (CMAXENT) を用いて予測器をマージする。
論文 参考訳(メタデータ) (2025-01-14T20:38:15Z) - Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Logistic Regression Equivalence: A Framework for Comparing Logistic
Regression Models Across Populations [4.518012967046983]
本研究は, 個体群差に対する既定寛容レベルの同値試験が, 推論の精度を高めることを論じる。
診断データについては、等価モデルと等価でないモデルの例を示す。
論文 参考訳(メタデータ) (2023-03-23T15:12:52Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Telescoping Density-Ratio Estimation [21.514983459970903]
我々は、テレスコープ密度比推定(TRE)という新しいフレームワークを導入する。
TREは高次元空間における高相似密度の比を推定できる。
実験により、TREは既存の単一比法よりも大幅に改善できることが示された。
論文 参考訳(メタデータ) (2020-06-22T12:55:06Z) - Fractional norms and quasinorms do not help to overcome the curse of
dimensionality [62.997667081978825]
マンハッタンの距離や分数的な準位数 lp は、分類問題における次元性の呪いを克服するのに役立ちます。
系統的な比較では、p=2, 1, 0.5 の lp に基づく kNN の性能の違いは統計的に重要でないことが示されている。
論文 参考訳(メタデータ) (2020-04-29T14:30:12Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z) - Posterior Ratio Estimation of Latent Variables [14.619879849533662]
いくつかのアプリケーションでは、観測から無視される確率変数の分布を比較したい。
潜在変数の2つの後続確率密度関数の比を推定する問題について検討する。
論文 参考訳(メタデータ) (2020-02-15T16:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。