論文の概要: On the Information Processing of One-Dimensional Wasserstein Distances with Finite Samples
- arxiv url: http://arxiv.org/abs/2511.12881v1
- Date: Mon, 17 Nov 2025 02:16:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.605852
- Title: On the Information Processing of One-Dimensional Wasserstein Distances with Finite Samples
- Title(参考訳): 有限サンプルを用いた一次元ワッサースタイン距離の情報処理について
- Authors: Cheongjae Jang, Jonghyun Won, Soyeon Jun, Chun Kee Chung, Keehyoung Joo, Yung-Kyun Noh,
- Abstract要約: ワッサーシュタイン距離 (Wasserstein distance) は、データ空間における標本輸送距離の和である。
1次元のワッサーシュタイン距離は、速度と支持の両方に有意な密度差があることが示される。
- 参考スコア(独自算出の注目度): 7.385927297587865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging the Wasserstein distance -- a summation of sample-wise transport distances in data space -- is advantageous in many applications for measuring support differences between two underlying density functions. However, when supports significantly overlap while densities exhibit substantial pointwise differences, it remains unclear whether and how this transport information can accurately identify these differences, particularly their analytic characterization in finite-sample settings. We address this issue by conducting an analysis of the information processing capabilities of the one-dimensional Wasserstein distance with finite samples. By utilizing the Poisson process and isolating the rate factor, we demonstrate the capability of capturing the pointwise density difference with Wasserstein distances and how this information harmonizes with support differences. The analyzed properties are confirmed using neural spike train decoding and amino acid contact frequency data. The results reveal that the one-dimensional Wasserstein distance highlights meaningful density differences related to both rate and support.
- Abstract(参考訳): データ空間におけるサンプルワイド輸送距離の和であるワッサーシュタイン距離を活用することは、2つの基礎となる密度関数間の支持差を測定するために多くの応用において有利である。
しかし, 密度が実質的な点差を示す一方で, 重なり合いが著しく大きい場合, この輸送情報がこれらの違いを正確に識別できるかどうか, 特に有限サンプル設定における解析的特徴については不明である。
有限標本を用いた一次元ワッサーシュタイン距離の情報処理能力の解析によりこの問題に対処する。
ポアソン過程を利用して速度係数を分離することにより、ワッサーシュタイン距離との点密度差を捉える能力と、この情報が支持差と調和することを示す。
神経スパイクトレインデコードとアミノ酸接触周波数データを用いて解析特性を確認した。
その結果、1次元のワッサーシュタイン距離は、速度と支持の両方に関して有意な密度差を示すことが明らかとなった。
関連論文リスト
- Fast Estimation of Wasserstein Distances via Regression on Sliced Wasserstein Distances [70.94157767200342]
本稿では,スライスされたワッサーシュタイン距離の回帰に基づく高速推定法を提案する。
少数の分布対から正確なモデルを学習できることが示される。
我々の手法は、最先端のワッサーシュタイン埋め込みモデルであるワッサーシュタインワームホールよりも、ワッサーシュタイン距離の近似が常に優れている。
論文 参考訳(メタデータ) (2025-09-24T19:30:53Z) - Physics-Guided Dual Implicit Neural Representations for Source Separation [70.38762322922211]
我々は,2つの暗黙的ニューラル表現フレームワークを用いて,ソース分離のための自己教師型機械学習手法を開発した。
本手法は,復元に基づく損失関数の最小化により,生データから直接学習する。
本手法は,様々な領域にまたがるソース分離問題に対処する汎用的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-07-07T17:56:31Z) - Wasserstein Distances Made Explainable: Insights into Dataset Shifts and Transport Phenomena [3.4991519098475843]
Wassersteinの距離は、データ分散を比較するための強力なフレームワークを提供する。
我々は、様々なデータコンポーネントにWasserstein距離を効率的に正確に割り当てることのできる、Explainable AIに基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2025-05-09T15:26:38Z) - Fused Gromov-Wasserstein Variance Decomposition with Linear Optimal Transport [11.94799054956877]
2-ワッサーシュタイン空間における測度の集合のフレット分散の分解を行い、これらの測度のLOT埋め込みによって説明される分散の割合を計算する。
また, 組込みLOTの寸法, 分散率, 組込みデータに基づく機械学習分類器の分類精度との関係について検討した。
論文 参考訳(メタデータ) (2024-11-15T14:10:52Z) - Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation [82.0801585843835]
逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:38:48Z) - Ranking the information content of distance measures [61.754016309475745]
2つの異なる距離測度を用いて保持する相対的情報を評価する統計的テストを導入する。
これにより、候補者のプールから最も情報に富んだ距離を測定することができる。
論文 参考訳(メタデータ) (2021-04-30T15:57:57Z) - Depth-based pseudo-metrics between probability distributions [1.1470070927586016]
本研究では,データ深度に基づく連続確率測度と関連する中央領域の2つの疑似測度を提案する。
Wasserstein距離とは対照的に、提案された疑似メトリックは次元の呪いに苦しむことはない。
地域ベースの擬似メトリックは堅牢なw.r.tである。
両端と尾が重い。
論文 参考訳(メタデータ) (2021-03-23T17:33:18Z) - Two-sample Test using Projected Wasserstein Distance [18.46110328123008]
統計学と機械学習の基本的な問題である2サンプルテストのための予測されたワッサースタイン距離を開発する。
重要な貢献は、投影された確率分布の間のワッサーシュタイン距離を最大化する低次元線型写像を見つけるために最適射影を結合することである。
論文 参考訳(メタデータ) (2020-10-22T18:08:58Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - Disentangled Representation Learning with Wasserstein Total Correlation [90.44329632061076]
本稿では,変分オートエンコーダとワッサースタインオートエンコーダの設定に総相関を導入し,非絡み付き潜在表現を学習する。
批評家は、ワッサーシュタインの総相関項を推定する主な目的と共に、敵対的に訓練される。
提案手法は, 再建能力の犠牲が小さく, 絡み合いに匹敵する性能を有することを示す。
論文 参考訳(メタデータ) (2019-12-30T05:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。