論文の概要: An In-depth Study of LLM Contributions to the Bin Packing Problem
- arxiv url: http://arxiv.org/abs/2510.27353v1
- Date: Fri, 31 Oct 2025 10:39:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.071719
- Title: An In-depth Study of LLM Contributions to the Bin Packing Problem
- Title(参考訳): ボン包装問題に対するLCMの深い貢献に関する考察
- Authors: Julien Herrmann, Guillaume Pallez,
- Abstract要約: 近年の研究では、Large Language Models (LLM) が数学的発見に寄与する興味深いアイデアを提供する可能性が示唆されている。
この主張は、LLMベースの遺伝的アルゴリズムが、一様分布とワイブル分布の下でのオンラインビンパッケージ問題に対する新たな洞察を提供する分布を生み出したという報告に動機づけられた。
本稿では,LLMが生成するアルゴリズムを詳細に解析し,その挙動と解釈可能性について検討する。
提案するアルゴリズムは, よりシンプルで, より効率的で, 解釈可能で, より一般化可能なアルゴリズムである。
- 参考スコア(独自算出の注目度): 1.589915930948668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have suggested that Large Language Models (LLMs) could provide interesting ideas contributing to mathematical discovery. This claim was motivated by reports that LLM-based genetic algorithms produced heuristics offering new insights into the online bin packing problem under uniform and Weibull distributions. In this work, we reassess this claim through a detailed analysis of the heuristics produced by LLMs, examining both their behavior and interpretability. Despite being human-readable, these heuristics remain largely opaque even to domain experts. Building on this analysis, we propose a new class of algorithms tailored to these specific bin packing instances. The derived algorithms are significantly simpler, more efficient, more interpretable, and more generalizable, suggesting that the considered instances are themselves relatively simple. We then discuss the limitations of the claim regarding LLMs' contribution to this problem, which appears to rest on the mistaken assumption that the instances had previously been studied. Our findings instead emphasize the need for rigorous validation and contextualization when assessing the scientific value of LLM-generated outputs.
- Abstract(参考訳): 近年の研究では、Large Language Models (LLM) が数学的発見に寄与する興味深いアイデアを提供する可能性が示唆されている。
この主張は、LLMベースの遺伝的アルゴリズムが、均一分布とワイブル分布の下でのオンラインビンパッケージ問題に対する新たな洞察を提供するヒューリスティックスを生み出したという報告に動機づけられた。
本研究では,LLMが生み出すヒューリスティックスを詳細に分析し,その挙動と解釈可能性について検討する。
可読性はあるものの、これらのヒューリスティックはドメインの専門家にとってもほとんど不透明なままである。
この分析に基づいて、これらの特定のbinパッケージインスタンスに適したアルゴリズムの新たなクラスを提案する。
導出アルゴリズムは、非常に単純で、より効率的で、より解釈可能で、より一般化可能であり、考慮されたインスタンス自体が比較的単純であることを示している。
次に、この問題に対するLSMsの貢献に関する主張の限界について議論する。
LLM出力の科学的価値を評価する際に,厳密な検証と文脈化の必要性を強調した。
関連論文リスト
- WakenLLM: Evaluating Reasoning Potential and Stability in LLMs via Fine-Grained Benchmarking [34.350505059394536]
大規模言語モデル(LLM)は、推論タスクにおいて未知のラベルを頻繁に出力する。
我々は、モデル非能力に起因する未知の出力の一部を定量化するフレームワーク、WakenLLMを紹介した。
論文 参考訳(メタデータ) (2025-07-22T03:21:48Z) - Mapping the Minds of LLMs: A Graph-Based Analysis of Reasoning LLM [11.181783720439563]
大規模言語モデル(LLM)は、拡張されたChain-of-Thought(CoT)生成を通じて洗練された推論能力を示す。
RLMは、数発のプロンプトによる性能劣化など、直感的で不安定な動作を示すことが多い。
RLMの推論過程をより良くモデル化するための統一的なグラフベース分析フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T03:54:57Z) - Randomly Sampled Language Reasoning Problems Elucidate Limitations of In-Context Learning [9.75748930802634]
機械学習の性能を向上させるために,テキスト内学習の能力について検討する。
非常に単純なドメインを考える: 単純な言語タスクにおける次のトークン予測。
この課題において LLM は n-gram モデルに一様に劣ることがわかった。
論文 参考訳(メタデータ) (2025-01-06T07:57:51Z) - Argumentation Computation with Large Language Models : A Benchmark Study [6.0682923348298194]
大規模言語モデル(LLM)は、ニューロシンボリックコンピューティングにおいて大きな進歩を遂げた。
我々は,様々な抽象的論証セマンティクスの拡張を決定する上でのLLMの能力を検討することを目的とする。
論文 参考訳(メタデータ) (2024-12-21T18:23:06Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。