論文の概要: Probing Neural Combinatorial Optimization Models
- arxiv url: http://arxiv.org/abs/2510.22131v1
- Date: Sat, 25 Oct 2025 03:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.830656
- Title: Probing Neural Combinatorial Optimization Models
- Title(参考訳): ニューラルコンビネーション最適化モデルの提案
- Authors: Zhiqin Zhang, Yining Ma, Zhiguang Cao, Hoong Chuin Lau,
- Abstract要約: ニューラル最適化(NCO)は目覚ましい性能を達成したが、その学習されたモデル表現と決定的根拠はブラックボックスのままである。
本稿では,NCOモデルを様々な探索タスクを通して解析することで,NCOモデルの解釈に向けた第一歩を踏み出す。
我々は,NCO表現のより深い分析を可能にするために,Coefficient Significance Probing (CS-Probing) という新しい探索ツールを導入する。
- 参考スコア(独自算出の注目度): 34.09732064762612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural combinatorial optimization (NCO) has achieved remarkable performance, yet its learned model representations and decision rationale remain a black box. This impedes both academic research and practical deployment, since researchers and stakeholders require deeper insights into NCO models. In this paper, we take the first critical step towards interpreting NCO models by investigating their representations through various probing tasks. Moreover, we introduce a novel probing tool named Coefficient Significance Probing (CS-Probing) to enable deeper analysis of NCO representations by examining the coefficients and statistical significance during probing. Extensive experiments and analysis reveal that NCO models encode low-level information essential for solution construction, while capturing high-level knowledge to facilitate better decisions. Using CS-Probing, we find that prevalent NCO models impose varying inductive biases on their learned representations, uncover direct evidence related to model generalization, and identify key embedding dimensions associated with specific knowledge. These insights can be potentially translated into practice, for example, with minor code modifications, we improve the generalization of the analyzed model. Our work represents a first systematic attempt to interpret black-box NCO models, showcasing probing as a promising tool for analyzing their internal mechanisms and revealing insights for the NCO community. The source code is publicly available.
- Abstract(参考訳): ニューラル組合せ最適化(NCO)は優れた性能を達成しているが、その学習されたモデル表現と決定的根拠はブラックボックスのままである。
研究者とステークホルダーはNCOモデルに関する深い洞察を必要とするため、これは学術的な研究と実践的な展開の両方を妨げる。
本稿では,NCOモデルを様々な探索タスクを通して解析することで,NCOモデルの解釈に向けた第一歩を踏み出す。
さらに,NCO表現のより深い解析を可能にするために,CS-Probing (Coefficient Significance Probing) という新しいプローブツールを導入する。
大規模な実験と分析により、NCOモデルはソリューション構築に不可欠な低レベルの情報をエンコードし、高いレベルの知識を取り込み、より良い意思決定を容易にすることが判明した。
CS-Probingを用いて、一般的なNCOモデルは、学習した表現に様々な帰納的バイアスを課し、モデルの一般化に関連する直接的な証拠を明らかにし、特定の知識に関連する重要な埋め込み次元を特定する。
これらの洞察は、例えば、マイナーなコード修正によって分析モデルの一般化を改善するなど、実践に変換される可能性がある。
我々の研究は、ブラックボックスのNCOモデルを解釈する最初の体系的な試みであり、内部メカニズムを分析し、NCOコミュニティの洞察を明らかにするための有望なツールとして、探索を見せている。
ソースコードは公開されている。
関連論文リスト
- A Comprehensive Taxonomy of Negation for NLP and Neural Retrievers [57.57320129313161]
我々は、哲学的、言語的、論理的定義から派生した否定の分類を導入した。
ニューラルネットワーク検索モデルの性能評価に使用できるベンチマークデータセットを2つ生成する。
本稿では,既存のデータセットの検索モデルの性能を解析するために,論理に基づく分類機構を提案する。
論文 参考訳(メタデータ) (2025-07-30T02:44:20Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Evidential Conditional Neural Processes [7.257751371276488]
条件付きニューラルプロセス(CNP)モデルは、数ショット問題に対処するための有望な方向を提供する。
現在のCNPモデルは、ターゲットデータポイント上での予測に対する全体的な不確実性のみをキャプチャする。
本稿では,CNPが使用する標準ガウス分布を置き換えたECNP(Evidential Conditional Neural Processs)を提案する。
論文 参考訳(メタデータ) (2022-11-30T21:50:55Z) - A Kernel-Based View of Language Model Fine-Tuning [94.75146965041131]
ニューラル・タンジェント・カーネル(NTK)が事前学習したLMの微調整を記述しているかどうかを検討する。
本稿では,ダウンストリームタスクを暗黙の単語予測問題として定式化することで,微調整中にカーネルベースのダイナミクスをしばしば引き起こすことを示す。
論文 参考訳(メタデータ) (2022-10-11T17:34:32Z) - A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers [3.8541104292281805]
説明可能なAI(XAI)の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を探索できる。
大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊からのジェットの解釈可能性について検討する。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
論文 参考訳(メタデータ) (2022-10-09T23:02:42Z) - How Good Is Neural Combinatorial Optimization? A Systematic Evaluation
on the Traveling Salesman Problem [31.451338706630583]
この研究は、ニューラル最適化ソルバと代替ソルバの総合的な比較研究を示す。
以上の結果から, NCO アプローチで学習した解法は, 従来の解法には及ばないことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-22T10:50:36Z) - On the Generalization of Neural Combinatorial Optimization Heuristics [0.7049738935364298]
提案手法は,2つの最先端モデルの一般化を著しく改善することを示す。
我々は、個別の学習課題として、与えられたインスタンス分布上でのCO問題の解法を定式化する。
新しいタスクに適応する能力の最適化を目的として,様々なタスクのモデル学習のためのメタラーニング手法について検討する。
論文 参考訳(メタデータ) (2022-06-01T22:39:35Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。