論文の概要: Differentiable Integer Linear Programming is not Differentiable & it's not a mere technical problem
- arxiv url: http://arxiv.org/abs/2601.17800v1
- Date: Sun, 25 Jan 2026 11:28:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.397096
- Title: Differentiable Integer Linear Programming is not Differentiable & it's not a mere technical problem
- Title(参考訳): 微分可能な整数線形プログラミングは微分不可能であり、単なる技術的な問題ではない
- Authors: Thanawat Sornwanee,
- Abstract要約: 論文「微分線形計画法」における微分可能性の方法がいかに間違っているかを示す。
同じエラーを継承するダウンストリームの作業は、すでにいくつか存在する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We show how the differentiability method employed in the paper ``Differentiable Integer Linear Programming'', Geng, et al., 2025 as shown in its theorem 5 is incorrect. Moreover, there already exists some downstream work that inherits the same error. The underlying reason comes from that, though being continuous in expectation, the surrogate loss is discontinuous in almost every realization of the randomness, for the stochastic gradient descent.
- Abstract(参考訳): 論文『微分可能整数線形計画法』, Geng, et al , 2025 における微分可能性法は, 定理5 に示すように, いかに不正確かを示す。
さらに、同じエラーを継承するダウンストリームの作業がすでに存在する。
その根底にある理由は、連続的な予想ではあるものの、確率的勾配降下に対するランダム性のほとんどすべての実現において、代理損失は不連続であるからである。
関連論文リスト
- Limit Theorems for Stochastic Gradient Descent with Infinite Variance [51.4853131023238]
この勾配降下アルゴリズムは、適切なL'evy過程によって駆動されるオルンシュタイン-ルンシュタイン過程の定常分布として特徴付けられることを示す。
また、これらの結果の線形回帰モデルおよびロジスティック回帰モデルへの応用についても検討する。
論文 参考訳(メタデータ) (2024-10-21T09:39:10Z) - Generalizing Stochastic Smoothing for Differentiation and Gradient Estimation [59.86921150579892]
アルゴリズム,演算子,シミュレータ,その他の微分不可能関数の微分可能緩和に対する勾配推定の問題に対処する。
我々は、微分可能なソートとランキングのための分散化戦略、グラフ上の微分可能なショートパス、ポーズ推定のための微分可能なレンダリング、および微分可能なCryo-ETシミュレーションを開発する。
論文 参考訳(メタデータ) (2024-10-10T17:10:00Z) - Good regularity creates large learning rate implicit biases: edge of
stability, balancing, and catapult [49.8719617899285]
非最適化のための客観的降下に適用された大きな学習速度は、安定性の端を含む様々な暗黙のバイアスをもたらす。
この論文は降下の初期段階を示し、これらの暗黙の偏見が実際には同じ氷山であることを示す。
論文 参考訳(メタデータ) (2023-10-26T01:11:17Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Stochastic Langevin Differential Inclusions with Applications to Machine Learning [5.274477003588407]
ランゲヴィン型微分包含物の流動と性質に関する基礎的な結果を示す。
特に、解の存在が強く、また自由エネルギー関数の正準最小化が示される。
論文 参考訳(メタデータ) (2022-06-23T08:29:17Z) - Automatic differentiation of nonsmooth iterative algorithms [0.0]
適切な非膨張条件下での非平滑ピギーバック自動分化(AD)について検討した。
非平滑なピギーバック反復の引き付け集合は、保守的枠組みに残る固定点の集合値であることを示す。
本研究は,Multiple-Ball法と同様に,フォワード・バックワード,ダグラス・ラフフォード,オルタネート・ディレクト・オブ・マルチプライアのアルゴリズムを用いたパラメトリック凸最適化問題について述べる。
論文 参考訳(メタデータ) (2022-05-31T07:58:37Z) - Invariance Principle Meets Information Bottleneck for
Out-of-Distribution Generalization [77.24152933825238]
線形分類タスクには分布シフトの強い制限が必要であり、そうでなければ OOD の一般化は不可能であることを示す。
不変な特徴がラベルに関するすべての情報をキャプチャし、そうでなければ既存の成功を保っている場合、情報ボトルネックの形式が重要な障害に対処するのに役立つことを証明します。
論文 参考訳(メタデータ) (2021-06-11T20:42:27Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Iterative Methods for Computing Eigenvectors of Nonlinear Operators [8.477619837043214]
近年,著者と同僚が共著した5つのアルゴリズムの進歩を示す。
このアルゴリズムは、連続時間領域における固有関数に収束する非線形PDEとして理解することができる。
非線形デノイザの先行性に関するいくつかの例や知見とともに, 結果の数値的評価方法を示す。
論文 参考訳(メタデータ) (2020-10-06T17:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。