論文の概要: Visual High Dimensional Hypothesis Testing
- arxiv url: http://arxiv.org/abs/2101.00362v1
- Date: Sat, 2 Jan 2021 03:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 07:15:18.814154
- Title: Visual High Dimensional Hypothesis Testing
- Title(参考訳): 視覚的高次元仮説テスト
- Authors: Xi Yang, Jan Hannig, J.S. Marron
- Abstract要約: 本稿では,原版の主な3つの課題を解決するための改良型dipropermテストを提案する。
まず、強い信号を持つデータのテスト能力を高めるために、バランスの取れた置換のみを実装する。
第2に、我々の数学的解析は、バランスと従来の全ての置換のヌル挙動を補正するための調整に繋がる。
第三に、異なる文脈における結果の比較のために、テスト重要度に対する新しい信頼区間(置換変動の反射)も提案されている。
- 参考スコア(独自算出の注目度): 2.7144054584625317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In exploratory data analysis of known classes of high dimensional data, a
central question is how distinct are the classes? The Direction Projection
Permutation (DiProPerm) hypothesis test provides an answer to this that is
directly connected to a visual analysis of the data. In this paper, we propose
an improved DiProPerm test that solves 3 major challenges of the original
version. First, we implement only balanced permutations to increase the test
power for data with strong signals. Second, our mathematical analysis leads to
an adjustment to correct the null behavior of both balanced and the
conventional all permutations. Third, new confidence intervals (reflecting
permutation variation) for test significance are also proposed for comparison
of results across different contexts. This improvement of DiProPerm inference
is illustrated in the context of comparing cancer types in examples from The
Cancer Genome Atlas.
- Abstract(参考訳): 高次元データの既知のクラスに関する探索データ分析では、どのクラスがどの程度異なるのかが中心的な疑問である。
Direction Projection Permutation (DiProPerm)仮説テスト(英語版)は、データの視覚的分析と直接接続されたそれに対する回答を提供する。
本稿では,オリジナル版の3つの課題を解決する改良されたDiProPermテストを提案する。
まず、強い信号を持つデータのテスト能力を高めるために、バランスの取れた置換のみを実装する。
第2に、我々の数学的解析は、バランスと従来の全置換の両方のヌル挙動を補正する調整につながる。
第三に、異なる文脈における結果の比較のために、テスト重要度に対する新しい信頼区間(置換変動の反射)も提案されている。
このDiProPerm推論の改善は、The Cancer Genome Atlasの例でがんのタイプを比較する文脈で説明されている。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Logistic Regression Equivalence: A Framework for Comparing Logistic
Regression Models Across Populations [4.518012967046983]
本研究は, 個体群差に対する既定寛容レベルの同値試験が, 推論の精度を高めることを論じる。
診断データについては、等価モデルと等価でないモデルの例を示す。
論文 参考訳(メタデータ) (2023-03-23T15:12:52Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Telescoping Density-Ratio Estimation [21.514983459970903]
我々は、テレスコープ密度比推定(TRE)という新しいフレームワークを導入する。
TREは高次元空間における高相似密度の比を推定できる。
実験により、TREは既存の単一比法よりも大幅に改善できることが示された。
論文 参考訳(メタデータ) (2020-06-22T12:55:06Z) - Fractional norms and quasinorms do not help to overcome the curse of
dimensionality [62.997667081978825]
マンハッタンの距離や分数的な準位数 lp は、分類問題における次元性の呪いを克服するのに役立ちます。
系統的な比較では、p=2, 1, 0.5 の lp に基づく kNN の性能の違いは統計的に重要でないことが示されている。
論文 参考訳(メタデータ) (2020-04-29T14:30:12Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z) - Posterior Ratio Estimation of Latent Variables [14.619879849533662]
いくつかのアプリケーションでは、観測から無視される確率変数の分布を比較したい。
潜在変数の2つの後続確率密度関数の比を推定する問題について検討する。
論文 参考訳(メタデータ) (2020-02-15T16:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。