論文の概要: The Art of Being Difficult: Combining Human and AI Strengths to Find Adversarial Instances for Heuristics
- arxiv url: http://arxiv.org/abs/2601.16849v1
- Date: Fri, 23 Jan 2026 15:56:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.753773
- Title: The Art of Being Difficult: Combining Human and AI Strengths to Find Adversarial Instances for Heuristics
- Title(参考訳): 困難であることの技:人間とAIの強さを組み合わせることで、ヒューリスティックスの逆転事例を見つける
- Authors: Henri Nikoleit, Ankit Anand, Anurag Murty Naredla, Heiko Röglin,
- Abstract要約: 我々は,理論計算機科学におけるオープンな問題に対処する上で,人間とLLMのコラボレーションの力を実証する。
FunSearchの出力を反復することにより、階層的な$k$-medianクラスタリング、binパッキング、knapsack問題、Lovszのガソリン問題の一般化のための改善された構成を同定する。
- 参考スコア(独自算出の注目度): 3.2263263383265017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate the power of human-LLM collaboration in tackling open problems in theoretical computer science. Focusing on combinatorial optimization, we refine outputs from the FunSearch algorithm [Romera-Paredes et al., Nature 2023] to derive state-of-the-art lower bounds for standard heuristics. Specifically, we target the generation of adversarial instances where these heuristics perform poorly. By iterating on FunSearch's outputs, we identify improved constructions for hierarchical $k$-median clustering, bin packing, the knapsack problem, and a generalization of Lovász's gasoline problem - some of these have not seen much improvement for over a decade, despite intermittent attention. These results illustrate how expert oversight can effectively extrapolate algorithmic insights from LLM-based evolutionary methods to break long-standing barriers. Our findings demonstrate that while LLMs provide critical initial patterns, human expertise is essential for transforming these patterns into mathematically rigorous and insightful constructions. This work highlights that LLMs are a strong collaborative tool in mathematics and computer science research.
- Abstract(参考訳): 我々は,理論計算機科学におけるオープンな問題に対処する上で,人間とLLMのコラボレーションの力を実証する。
組合せ最適化に着目し,FunSearchアルゴリズム(Romera-Paredes et al , Nature 2023)の出力を改良し,標準ヒューリスティックスに対する最先端の下位境界を導出する。
具体的には、これらのヒューリスティクスが不十分な敵インスタンスの生成を目標とする。
FunSearchの出力を反復することにより、階層的な$k$-medianクラスタリング、binパッキング、knapsack問題、そしてLovászのガソリン問題の一般化のための改善された構成を特定する。
これらの結果は、LLMに基づく進化的手法からアルゴリズム的洞察を効果的に外挿して、長期間の障壁を破る方法について説明している。
LLMは重要な初期パターンを提供するが、これらのパターンを数学的に厳密で洞察に富んだ構造に変換するためには、人間の専門知識が不可欠である。
この研究は、LLMが数学と計算機科学研究における強力な協調ツールであることを強調している。
関連論文リスト
- SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Experience-Guided Reflective Co-Evolution of Prompts and Heuristics for Automatic Algorithm Design [124.54166764570972]
組合せ最適化問題は伝統的に手作りのアルゴリズムで取り組まれている。
最近の進歩は、大規模言語モデルによる自動設計の可能性を強調している。
本稿では,自動アルゴリズム設計のためのPmpt and Heuristics (EvoPH) を用いた経験進化的リフレクティブ・ガイドを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:24:09Z) - LLM-Based Instance-Driven Heuristic Bias In the Context of a Biased Random Key Genetic Algorithm [0.9214658764451348]
本稿では,Large Language Models (LLMs) と Biased Random-Key Genetic Algorithm (BRKGA) を統合し,NP-hard Longest Run Subsequence 問題の解法を提案する。
我々のアプローチは、計算効率のよいメトリクスセットを共同設計し実装するための人間-LLM協調プロセスを導入することで、インスタンス駆動バイアスパラダイムを拡張します。
その結果, BRKGA+Llama-4-Maverickはベースラインよりも大幅に改良された。
論文 参考訳(メタデータ) (2025-09-05T21:46:41Z) - Re-evaluating LLM-based Heuristic Search: A Case Study on the 3D Packing Problem [3.473102563471572]
大規模言語モデルは、検索のためのコードを生成することができるが、そのアプリケーションは、ヒューマンクラフトフレームワーク内の単純な機能を調整することに限定されている。
制約付き3Dパッキング問題に対する完全解法の構築をLCMで行う。
この結果から,現在のLLMによる自動設計における2つの大きな障壁が浮かび上がっている。
論文 参考訳(メタデータ) (2025-09-02T13:18:47Z) - Evolutionary thoughts: integration of large language models and evolutionary algorithms [2.3633885460047765]
大規模言語モデル(LLM)は、自然言語とコードの両方を理解し、生成する際、注目すべき機能を明らかにしている。
本稿では,拡張解空間のより集中的な探索を可能にする進化的探索戦略を提案する。
論文 参考訳(メタデータ) (2025-05-09T03:32:18Z) - Leveraging Large Language Models to Develop Heuristics for Emerging Optimization Problems [0.0]
組合せ最適化問題は、しばしば効率的な解を生成するアルゴリズムに依存する。
人工知能の最近の進歩は、進化の枠組みを通じて生成を自動化する可能性を実証している。
本研究では,問題固有の記述を組み込んだコンテキスト進化型ヒューリスティックスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T10:22:49Z) - Bridging Visualization and Optimization: Multimodal Large Language Models on Graph-Structured Combinatorial Optimization [56.17811386955609]
グラフ構造上の課題は、その非線形で複雑な性質のために本質的に困難である。
本研究では,高次構造的特徴を正確に保存するために,グラフを画像に変換する手法を提案する。
マルチモーダルな大規模言語モデルと単純な検索手法を組み合わせた革新的なパラダイムを生かし、新しい効果的なフレームワークを開発することを目指す。
論文 参考訳(メタデータ) (2025-01-21T08:28:10Z) - Evaluating LLMs' Mathematical and Coding Competency through Ontology-guided Interventions [47.83142414018448]
算術的推論とコード生成という,2つの一般的な推論タスクに注目します。
i) 数学やコーディング問題に対する摂動の一般的なオントロジー, (ii) 摂動を応用するための半自動手法, (iii) 2つのデータセットを紹介する。
混乱した質問に対して、すべてのモデルで大幅なパフォーマンス低下を示します。
論文 参考訳(メタデータ) (2024-01-17T18:13:07Z) - Unveiling the Limits of Learned Local Search Heuristics: Are You the
Mightiest of the Meek? [14.195843311387591]
Tabu Searchに基づく単純な学習は、パフォーマンスと一般化性の点で最先端の学習を超越していることが示される。
今後の研究に向けて,本研究は仮定に挑戦し,エキサイティングな道を開いた。
論文 参考訳(メタデータ) (2023-10-30T20:16:42Z) - Provably Efficient Exploration for Reinforcement Learning Using
Unsupervised Learning [96.78504087416654]
強化学習(RL)問題における効率的な探索に教師なし学習を用い,本パラダイムが有効であるかどうかを考察する。
本稿では,教師なし学習アルゴリズムと非線形表RLアルゴリズムという,2つのコンポーネント上に構築された汎用的なアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T19:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。