論文の概要: Differentiable Integer Linear Programming is not Differentiable & it's not a mere technical problem
- arxiv url: http://arxiv.org/abs/2601.17800v1
- Date: Sun, 25 Jan 2026 11:28:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.397096
- Title: Differentiable Integer Linear Programming is not Differentiable & it's not a mere technical problem
- Title(参考訳): 微分可能な整数線形プログラミングは微分不可能であり、単なる技術的な問題ではない
- Authors: Thanawat Sornwanee,
- Abstract要約: 論文「微分線形計画法」における微分可能性の方法がいかに間違っているかを示す。
同じエラーを継承するダウンストリームの作業は、すでにいくつか存在する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We show how the differentiability method employed in the paper ``Differentiable Integer Linear Programming'', Geng, et al., 2025 as shown in its theorem 5 is incorrect. Moreover, there already exists some downstream work that inherits the same error. The underlying reason comes from that, though being continuous in expectation, the surrogate loss is discontinuous in almost every realization of the randomness, for the stochastic gradient descent.
- Abstract(参考訳): 論文『微分可能整数線形計画法』, Geng, et al , 2025 における微分可能性法は, 定理5 に示すように, いかに不正確かを示す。
さらに、同じエラーを継承するダウンストリームの作業がすでに存在する。
その根底にある理由は、連続的な予想ではあるものの、確率的勾配降下に対するランダム性のほとんどすべての実現において、代理損失は不連続であるからである。
関連論文リスト
- Limit Theorems for Stochastic Gradient Descent with Infinite Variance [51.4853131023238]
この勾配降下アルゴリズムは、適切なL'evy過程によって駆動されるオルンシュタイン-ルンシュタイン過程の定常分布として特徴付けられることを示す。
また、これらの結果の線形回帰モデルおよびロジスティック回帰モデルへの応用についても検討する。
論文 参考訳(メタデータ) (2024-10-21T09:39:10Z) - Generalizing Stochastic Smoothing for Differentiation and Gradient Estimation [59.86921150579892]
アルゴリズム,演算子,シミュレータ,その他の微分不可能関数の微分可能緩和に対する勾配推定の問題に対処する。
我々は、微分可能なソートとランキングのための分散化戦略、グラフ上の微分可能なショートパス、ポーズ推定のための微分可能なレンダリング、および微分可能なCryo-ETシミュレーションを開発する。
論文 参考訳(メタデータ) (2024-10-10T17:10:00Z) - Stochastic Langevin Differential Inclusions with Applications to Machine Learning [5.274477003588407]
ランゲヴィン型微分包含物の流動と性質に関する基礎的な結果を示す。
特に、解の存在が強く、また自由エネルギー関数の正準最小化が示される。
論文 参考訳(メタデータ) (2022-06-23T08:29:17Z) - Invariance Principle Meets Information Bottleneck for
Out-of-Distribution Generalization [77.24152933825238]
線形分類タスクには分布シフトの強い制限が必要であり、そうでなければ OOD の一般化は不可能であることを示す。
不変な特徴がラベルに関するすべての情報をキャプチャし、そうでなければ既存の成功を保っている場合、情報ボトルネックの形式が重要な障害に対処するのに役立つことを証明します。
論文 参考訳(メタデータ) (2021-06-11T20:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。