論文の概要: Limits of Rank Recovery in Bilinear Observation Problems
- arxiv url: http://arxiv.org/abs/2601.09754v1
- Date: Tue, 13 Jan 2026 06:11:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.839132
- Title: Limits of Rank Recovery in Bilinear Observation Problems
- Title(参考訳): 双線形観測問題におけるランク回復限界
- Authors: Seungbeom Choi,
- Abstract要約: ランクに基づく診断は、観察可能な有効次元を評価するために一般的に用いられる。
演算子を直接検討し,幅広い許容範囲にまたがる拡張階位高原を同定する。
これらの台地は、固定された問題定義内で適用された洗練手順によって取り除かれない安定な次元的欠陥を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bilinear observation problems arise in many physical and information-theoretic settings, where observables and states enter multiplicatively. Rank-based diagnostics are commonly used in such problems to assess the effective dimensionality accessible to observation, often under the implicit assumption that rank deficiency can be resolved through numerical refinement. Here we examine this assumption by analyzing the rank and nullity of a bilinear observation operator under systematic tolerance variation. Rather than focusing on a specific reconstruction algorithm, we study the operator directly and identify extended rank plateaus that persist across broad tolerance ranges. These plateaus indicate stable dimensional deficits that are not removed by refinement procedures applied within a fixed problem definition. To investigate the origin of this behavior, we resolve the nullspace into algebraic sectors defined by the block structure of the variables. The nullspace exhibits a pronounced but nonexclusive concentration in specific sectors, revealing an organized internal structure rather than uniform dimensional loss. Comparing refinement with explicit modification of the problem formulation further shows that rank recovery in the reported setting requires a change in the structure of the observation problem itself. Here, "problem modification" refers to changes that alter the bilinear observation structure (e.g., admissible operator/state families or coupling constraints), in contrast to refinements that preserve the original formulation such as tolerance adjustment and numerical reparameterizations. Together, these results delineate limits of rank recovery in bilinear observation problems and clarify the distinction between numerical refinement and problem modification in accessing effective dimensional structure.
- Abstract(参考訳): 双線型観測問題は、観測可能な状態と状態が乗法的に入力される多くの物理的および情報理論的な設定で発生する。
ランクに基づく診断は、多くの場合、数値的な洗練によってランク不足が解決できるという暗黙の仮定の下で、観察可能な有効次元を評価するために、そのような問題で一般的に用いられる。
本稿では,この仮定を,系統的寛容変動下での双線形観測作用素のランクと零度を解析することによって検討する。
特定の再構成アルゴリズムに焦点をあてるのではなく、演算子を直接研究し、幅広い許容範囲にまたがる拡張階数高原を同定する。
これらの台地は、固定された問題定義内で適用された洗練手順によって取り除かれない安定な次元的欠陥を示す。
この挙動の起源を調べるために、変数のブロック構造によって定義される代数的セクターにヌル空間を分解する。
ヌル空間は特定のセクターにおいて顕著だが非排他的な濃度を示し、一様次元の損失ではなく組織化された内部構造を示す。
問題定式化の明示的な修正と比較すると、報告された設定におけるランク回復には観察問題自体の構造の変更が必要であることが示される。
ここでは、「プロブレム修正」とは、双線形観測構造(例えば、許容演算子/状態族または結合制約)を変更する変化を指す。
これらの結果は,双線形観測問題におけるランクリカバリの限界を明確化し,有効次元構造へのアクセスにおける数値的洗練と問題修正の区別を明らかにする。
関連論文リスト
- Identification of Causal Direction under an Arbitrary Number of Latent Confounders [54.76982125821112]
実世界のシナリオでは、観測された変数は複数の潜伏変数によって同時に影響を受けることがある。
我々は,特定の方法で構築された観測変数の高次累積行列を併用する。
これらの高次累積行列の階数不足特性から,2つの観測変数間の因果非対称性が直接観察可能であることを示す。
論文 参考訳(メタデータ) (2025-10-26T15:10:00Z) - Understanding Post-Training Structural Changes in Large Language Models [3.054513120350576]
後学習は大規模言語モデル(LLM)の振る舞いを根本的に変える
本研究は,指導チューニングと長鎖蒸留(Long-CoT)の2つの広く採用されているポストトレーニング手法に焦点をあてる。
論文 参考訳(メタデータ) (2025-09-22T15:03:36Z) - Observation of disorder-free localization using a (2+1)D lattice gauge theory on a quantum processor [118.01172048932149]
量子多体系における障害によって引き起こされる現象は、解析法や数値シミュレーションに重大な課題をもたらす。
チューナブルな状態における量子回路を、全ての障害構成上の重ね合わせについて検討する。
論文 参考訳(メタデータ) (2024-10-09T05:28:14Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - Beyond the Edge of Stability via Two-step Gradient Updates [49.03389279816152]
Gradient Descent(GD)は、現代の機械学習の強力な仕事場である。
GDが局所最小値を見つける能力は、リプシッツ勾配の損失に対してのみ保証される。
この研究は、2段階の勾配更新の分析を通じて、単純だが代表的でありながら、学習上の問題に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-08T21:32:50Z) - Amortized backward variational inference in nonlinear state-space models [0.0]
変分推論を用いた一般状態空間モデルにおける状態推定の問題点を考察する。
仮定を混合することにより、加法的状態汎関数の期待の変動近似が、観測数において最も直線的に増加する誤差を誘導することを初めて確立した。
論文 参考訳(メタデータ) (2022-06-01T08:35:54Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。