論文の概要: Top-K Exterior Power Persistent Homology: Algorithm, Structure, and Stability
- arxiv url: http://arxiv.org/abs/2512.20325v1
- Date: Tue, 23 Dec 2025 12:49:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.875516
- Title: Top-K Exterior Power Persistent Homology: Algorithm, Structure, and Stability
- Title(参考訳): Top-K Exterior Power Persistent Homology: Algorithm, Structure, and stability
- Authors: Yoshihiro Maruyama,
- Abstract要約: 我々は、外力層を明示的な多重性を持つ単調/アンカーストリームに整理する構造的分解定理を証明した。
また、Top-$K$長ベクトルが入力バーコードのボトルネック摂動下で2ドルLipschitzであることを示し、比較モデルの下界を証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exterior powers play important roles in persistent homology in computational geometry. In the present paper we study the problem of extracting the $K$ longest intervals of the exterior-power layers of a tame persistence module. We prove a structural decomposition theorem that organizes the exterior-power layers into monotone per-anchor streams with explicit multiplicities, enabling a best-first algorithm. We also show that the Top-$K$ length vector is $2$-Lipschitz under bottleneck perturbations of the input barcode, and prove a comparison-model lower bound. Our experiments confirm the theory, showing speedups over full enumeration in high overlap cases. By enabling efficient extraction of the most prominent features, our approach makes higher-order persistence feasible for large datasets and thus broadly applicable to machine learning, data science, and scientific computing.
- Abstract(参考訳): エクターパワーは、計算幾何学における永続ホモロジーにおいて重要な役割を果たす。
本稿では, テーム永続モジュールの外部電力層におけるK$長い間隔を抽出する問題について検討する。
我々は,外力層を明示的な多重度を持つ単調な単調ストリームに整理する構造的分解定理を証明し,最優先のアルゴリズムを実現する。
また、Top-$K$長ベクトルが入力バーコードのボトルネック摂動下で2ドルLipschitzであることを示し、比較モデルの下界を証明した。
本実験は, 重なり合う場合の完全列挙の高速化を図り, 理論を裏付けるものである。
最も顕著な特徴を効率的に抽出することで、大規模なデータセットに対して高次永続性を実現することができ、機械学習、データサイエンス、科学計算に広く適用することができる。
関連論文リスト
- Stronger Normalization-Free Transformers [16.10903272016748]
ポイントワイド関数の本質的性質が学習と性能に与える影響について検討する。
ここで $mathrmerf(x) = Mathrmerf(x + s)$, ここで $mathrmerf(x)$ は再スケールされたガウス累積分布関数である。
以上の結果から,Derfの性能向上は,適合能力の向上よりも一般化の向上に起因することが示唆された。
論文 参考訳(メタデータ) (2025-12-11T18:58:49Z) - A Preliminary Study on the Promises and Challenges of Native Top-$k$ Sparse Attention [33.03212783462742]
本報告では,Top-k$アテンション機構の有効性と理論的メカニズムについて予備検討する。
実験によると、Top-k$ Decodingはダウンストリームタスクに匹敵する、あるいは超えるパフォーマンスを実現している。
正確なTop-k$Atentionの計算複雑性を考慮すると、Top-k$アルゴリズムの精度が下流タスクに与える影響について検討する。
論文 参考訳(メタデータ) (2025-12-03T06:44:02Z) - Rate optimal learning of equilibria from data [63.14746189846806]
マルチエージェント・イミテーション・ラーニング(MAIL)における理論的ギャップは,非対話的MAILの限界を特徴づけ,ほぼ最適なサンプル複雑性を持つ最初の対話的アルゴリズムを提示することによって解決する。
インタラクティブな設定では、報酬のない強化学習と対話型MAILを組み合わせたフレームワークを導入し、それをMAIL-WARMというアルゴリズムでインスタンス化する。
我々は,我々の理論を裏付ける数値的な結果を提供し,グリッドワールドのような環境において,行動クローンが学習に失敗する状況を示す。
論文 参考訳(メタデータ) (2025-10-10T12:28:35Z) - The Effect of Attention Head Count on Transformer Approximation [26.943083432025926]
変圧器の近似特性について検討し,特に注目点数の役割に着目した。
具体的には、十分な数の頭を持つ変圧器は効率的な近似を許容するが、多くの頭を持つ場合、パラメータの数は少なくとも$O(1/epsiloncT)$で、一定の$c$とシーケンス長$T$でスケールしなければならない。
論文 参考訳(メタデータ) (2025-10-08T05:27:25Z) - When and How Unlabeled Data Provably Improve In-Context Learning [31.201385551730926]
教師なしの学習は、デモが欠落したり、誤ったラベルがあったりしても効果的である。
我々は,sum_ige 0 a_i (Xtop X)iXtop y$ と $X$ と $y$ の機能と部分観測ラベルを暗黙的に構築することで,ラベル付きデータを効果的に活用できることを示す。
論文 参考訳(メタデータ) (2025-06-18T10:01:17Z) - Reasoning by Superposition: A Theoretical Perspective on Chain of Continuous Thought [64.43689151961054]
連続CoTのD$ステップを持つ2層トランスが有向グラフ到達可能性問題を解くことができることを証明した。
我々の構成では、各連続思考ベクトルは複数の探索フロンティアを同時に符号化する重ね合わせ状態である。
論文 参考訳(メタデータ) (2025-05-18T18:36:53Z) - Distributed Learning over Arbitrary Topology: Linear Speed-Up with Polynomial Transient Time [3.1789549088190414]
本研究では, ピアツーピア通信によるローカルコスト関数の和を協調的に共有する分散学習問題について検討する。
本稿では、一般的な通信グラフから抽出した2本の木を用いて、モデルパラメータと位相パラメータの両方を分散する新しいEmph Tree PushPull-(STPP)を提案する。
論文 参考訳(メタデータ) (2025-03-20T13:11:44Z) - Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers [54.20763128054692]
我々は,2層変換器が$n$-gramのマルコフ連鎖データ上でICLを実行するためにどのように訓練されているかを検討する。
クロスエントロピー ICL 損失に対する勾配流が極限モデルに収束することを証明する。
論文 参考訳(メタデータ) (2024-09-09T18:10:26Z) - Lassoed Tree Boosting [53.56229983630983]
有界断面変動のカドラー関数の大きな非パラメトリック空間において,早期に停止するn-1/4$ L2の収束速度を持つ勾配向上木アルゴリズムを証明した。
我々の収束証明は、ネストしたドンスカー類の経験的損失最小化子による早期停止に関する新しい一般定理に基づいている。
論文 参考訳(メタデータ) (2022-05-22T00:34:41Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - The Kikuchi Hierarchy and Tensor PCA [50.840260149979265]
テンソルPCA(主成分分析)問題に対して,ランタイムの増大を伴うアルゴリズムの階層化を提案する。
我々の階層は、SOS(sum-of-squares)階層に似ているが、代わりに統計物理学や関連するアルゴリズムにインスパイアされている。
論文 参考訳(メタデータ) (2019-04-08T06:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。