論文の概要: Amplifying human performance in combinatorial competitive programming
- arxiv url: http://arxiv.org/abs/2411.19744v1
- Date: Fri, 29 Nov 2024 14:40:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:23:24.087046
- Title: Amplifying human performance in combinatorial competitive programming
- Title(参考訳): 組合せ競合プログラミングにおける人間のパフォーマンスの増幅
- Authors: Petar Veličković, Alex Vitvitskyi, Larisa Markeeva, Borja Ibarz, Lars Buesing, Matej Balog, Alexander Novikov,
- Abstract要約: 私たちは競争力のあるプログラミングに重点を置いています。そこでは、難解な問題に対する、可能な限り優れた解決策を見つけることを目的としています。
私たちは、GoogleのNPハードなソフトウェアエンジニアリング問題に触発されたグローバルなチームプログラミングコンペであるHash Codeの以前のイテレーションにアプローチをデプロイしています。
私たちのソリューションは、ベースラインから得られたスコアを大幅に改善し、以前のHash Codeオンライン資格ラウンドのトップパーセンタイルに到達しました。
- 参考スコア(独自算出の注目度): 41.59043428241635
- License:
- Abstract: Recent years have seen a significant surge in complex AI systems for competitive programming, capable of performing at admirable levels against human competitors. While steady progress has been made, the highest percentiles still remain out of reach for these methods on standard competition platforms such as Codeforces. Here we instead focus on combinatorial competitive programming, where the target is to find as-good-as-possible solutions to otherwise computationally intractable problems, over specific given inputs. We hypothesise that this scenario offers a unique testbed for human-AI synergy, as human programmers can write a backbone of a heuristic solution, after which AI can be used to optimise the scoring function used by the heuristic. We deploy our approach on previous iterations of Hash Code, a global team programming competition inspired by NP-hard software engineering problems at Google, and we leverage FunSearch to evolve our scoring functions. Our evolved solutions significantly improve the attained scores from their baseline, successfully breaking into the top percentile on all previous Hash Code online qualification rounds, and outperforming the top human teams on several. Our method is also performant on an optimisation problem that featured in a recent held-out AtCoder contest.
- Abstract(参考訳): 近年、競争力のあるプログラミングのための複雑なAIシステムが大幅に急増し、人間の競争相手に対して賞賛すべきレベルで実行できるようになった。
着実に進歩してきたが、最も高いパーセンタイルは、Codeforcesのような標準の競争プラットフォーム上でこれらの手法に及ばないままである。
ここでは、特定の入力に対して、計算的に難解な問題に対する良い解を見つけることを目的として、組合せ競合プログラミングに焦点を当てる。
人間のプログラマはヒューリスティックなソリューションのバックボーンを書けるので、このシナリオは人間とAIのシナジーにユニークなテストベッドを提供する。
私たちは、GoogleのNPハードなソフトウェアエンジニアリング問題に触発されたグローバルなチームプログラミングコンペであるHash Codeの以前のイテレーションにアプローチをデプロイし、FunSearchを活用してスコアリング機能を進化させました。
我々の進化したソリューションは、ベースラインから得られたスコアを大幅に改善し、以前のHash Codeオンライン資格ラウンドでトップパーセンタイルに突破し、いくつかのチームでトップヒューマンチームを上回っました。
提案手法は,最近開催されている AtCoder コンテストで紹介された最適化問題にも有効である。
関連論文リスト
- SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Design and Implementation of an Heuristic-Enhanced Branch-and-Bound
Solver for MILP [1.03905835096574]
MIPコンペティションのために開発したMixed Programs (MIP) の解法について述べる。
コンペティションのルールによって確立された計算時間に制限された10分間を考慮し、本手法は実現可能な解を見つけることに焦点を当てる。
計算能力の広い組み合わせにより、トレーニングデータセットの19の問題の11を解くことができる。
論文 参考訳(メタデータ) (2022-06-04T00:09:02Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z) - Competition-Level Code Generation with AlphaCode [74.87216298566942]
より深い推論を必要とする問題に対する新しいソリューションを作成することができるコード生成システムであるAlphaCodeを紹介する。
Codeforcesプラットフォームにおける最近のプログラミングコンペティションのシミュレーション評価において、AlphaCodeは平均54.3%のランキングを達成した。
論文 参考訳(メタデータ) (2022-02-08T23:16:31Z) - Yordle: An Efficient Imitation Learning for Branch and Bound [1.6758573326215689]
本研究では,2021年のNeurIPS Machine Learning for Combinatorial Optimization (ML4CO)コンペティションにおいて,チームqqyが得たソリューションと洞察を紹介する。
我々のソリューションは、ブランチ・アンド・バウンド(B&B)のパフォーマンス改善のための、Yordleという名前の非常に効率的な模倣学習フレームワークです。
我々の実験では、Yordleは、決定モデルのトレーニングに要する時間とデータの量を大幅に削減しながら、競争によって採用されるベースラインアルゴリズムを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-02T14:46:30Z) - Adversarial Deep Learning for Online Resource Allocation [12.118811903399951]
私たちはディープニューラルネットワークを使って、リソース割り当てと価格の問題に対するオンラインアルゴリズムをゼロから学習しています。
私たちの研究は、最悪のパフォーマンス保証の観点から、ディープニューラルネットワークを使用してオンラインアルゴリズムを設計した初めてのものです。
論文 参考訳(メタデータ) (2021-11-19T15:48:43Z) - Recent Developments in Program Synthesis with Evolutionary Algorithms [1.8047694351309207]
関連する進化的プログラム合成手法を同定し,その性能を詳細に解析する。
私たちが特定する最も影響力のあるアプローチは、スタックベース、文法誘導、および線形遺伝プログラミングである。
今後の研究のために、研究者は、プログラムのアウトプットを使用して、ソリューションの品質を評価するだけでなく、ソリューションへの道を開くことを奨励します。
論文 参考訳(メタデータ) (2021-08-27T11:38:27Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Combining Reinforcement Learning and Constraint Programming for
Combinatorial Optimization [5.669790037378094]
目標は、有限個の可能性の集合の中で最適解を見つけることである。
深部強化学習(DRL)はNP-ハード最適化問題を解くことを約束している。
制約プログラミング(CP)は最適化問題を解決する汎用ツールである。
本研究では,最適化問題の解法としてDRLとCPを用いた汎用ハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-06-02T13:54:27Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。