論文の概要: Self-Labeling the Job Shop Scheduling Problem
- arxiv url: http://arxiv.org/abs/2401.11849v1
- Date: Mon, 22 Jan 2024 11:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:21:13.059737
- Title: Self-Labeling the Job Shop Scheduling Problem
- Title(参考訳): ジョブショップスケジューリング問題の自己ラベル化
- Authors: Andrea Corsini, Angelo Porrello, Simone Calderara, Mauro Dell'Amico
- Abstract要約: 複数の解をサンプリングし、問題の目的に応じて最適なものを擬似ラベルとして使用することにより、生成モデルの訓練が容易であることを示す。
このようにして、我々は自己スーパービジョンのみに依存することにより、モデル生成能力を反復的に改善する。
- 参考スコア(独自算出の注目度): 17.17701193741025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a Self-Supervised training strategy specifically
designed for combinatorial problems. One of the main obstacles in applying
supervised paradigms to such problems is the requirement of expensive target
solutions as ground-truth, often produced with costly exact solvers. Inspired
by Semi- and Self-Supervised learning, we show that it is possible to easily
train generative models by sampling multiple solutions and using the best one
according to the problem objective as a pseudo-label. In this way, we
iteratively improve the model generation capability by relying only on its
self-supervision, completely removing the need for optimality information. We
prove the effectiveness of this Self-Labeling strategy on the Job Shop
Scheduling (JSP), a complex combinatorial problem that is receiving much
attention from the Reinforcement Learning community. We propose a generative
model based on the well-known Pointer Network and train it with our strategy.
Experiments on two popular benchmarks demonstrate the potential of this
approach as the resulting models outperform constructive heuristics and current
state-of-the-art Reinforcement Learning proposals.
- Abstract(参考訳): 本研究では,組合せ問題に特化した自己監督型学習戦略を提案する。
このような問題に教師付きパラダイムを適用する上での最大の障害の1つは、コストのかかる厳密な解法でしばしば生み出される地中真実として、高価なターゲットソリューションの必要性である。
半教師学習と自己学習に着想を得て,複数の解をサンプリングし,問題の目的に応じて最適な解を擬似ラベルとして使用することにより,生成モデルの訓練が容易であることを示す。
このように,モデル生成能力は自己スーパービジョンのみに依存して反復的に向上し,最適な情報の必要性を完全に排除する。
強化学習コミュニティから多くの注目を集めている複雑な組合せ問題であるジョブショップスケジューリング(JSP)における、このセルフラベル戦略の有効性を実証する。
本稿では,よく知られたポインタネットワークに基づく生成モデルを提案し,我々の戦略で学習する。
2つの人気のあるベンチマークに関する実験は、結果のモデルが建設的ヒューリスティックや最先端の強化学習提案を上回り、このアプローチの可能性を示している。
関連論文リスト
- Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Self-Supervised Reinforcement Learning that Transfers using Random
Features [41.00256493388967]
本研究では,タスク間の行動の伝達を,報酬の異なる自己指導型強化学習手法を提案する。
我々の手法は、報奨ラベルなしでオフラインデータセットでトレーニングできるが、新しいタスクに素早くデプロイできるという自己教師型である。
論文 参考訳(メタデータ) (2023-05-26T20:37:06Z) - Unsupervised Learning for Combinatorial Optimization with Principled
Objective Relaxation [19.582494782591386]
本研究は,最適化(CO)問題に対する教師なし学習フレームワークを提案する。
我々の重要な貢献は、緩和された目的がエントリーワイドな凹凸を満たすならば、低い最適化損失は最終積分解の品質を保証するという観察である。
特に、この観察は、対象が明示的に与えられていないアプリケーションにおいて、事前にモデル化される必要がある場合に、対象モデルの設計を導くことができる。
論文 参考訳(メタデータ) (2022-07-13T06:44:17Z) - Outcome-Driven Reinforcement Learning via Variational Inference [95.82770132618862]
我々は、報酬を最大化する問題ではなく、望ましい結果を達成するための行動を推測する問題として、強化学習に関する新たな視点について論じる。
結果として得られる結果指向推論の問題を解決するため, 定型的報酬関数を導出する新しい変分推論定式を制定する。
我々は,この手法が報酬機能の設計を不要とし,効果的なゴール指向行動へと導くことを実証的に示す。
論文 参考訳(メタデータ) (2021-04-20T18:16:21Z) - Model-based Meta Reinforcement Learning using Graph Structured Surrogate
Models [40.08137765886609]
グラフ構造化サーロゲートモデル (GSSM) と呼ばれるモデルが, 環境ダイナミクス予測における最先端の手法を上回っていることを示した。
当社のアプローチでは,テスト時間ポリシの勾配最適化を回避して,デプロイメント中の高速実行を実現しつつ,高いリターンを得ることができる。
論文 参考訳(メタデータ) (2021-02-16T17:21:55Z) - Which Model to Transfer? Finding the Needle in the Growing Haystack [27.660318887140203]
我々は後悔というよく知られた概念を通じてこの問題の形式化を提供する。
タスク非依存とタスク認識の両方の手法が,後悔を招きかねないことを示す。
そこで我々は,既存の手法よりも優れた,シンプルで効率的なハイブリッド検索戦略を提案する。
論文 参考訳(メタデータ) (2020-10-13T14:00:22Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。