論文の概要: Scalable Knowledge Refactoring using Constrained Optimisation
- arxiv url: http://arxiv.org/abs/2408.11530v1
- Date: Wed, 21 Aug 2024 11:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:17:15.235732
- Title: Scalable Knowledge Refactoring using Constrained Optimisation
- Title(参考訳): 制約付き最適化を用いたスケーラブルな知識リファクタリング
- Authors: Minghao Liu, David M. Cerna, Filipe Gouveia, Andrew Cropper,
- Abstract要約: 提案手法は,従来の最先端手法よりも高速かつ圧縮性が高く,時には60%の高速化が可能であることを示す。
複数のドメインに対する実験結果から,従来の最先端手法よりも高速かつ圧縮性の高いプログラムを,場合によっては60%高速化できることが示された。
- 参考スコア(独自算出の注目度): 18.706442683121615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge refactoring compresses a logic program by introducing new rules. Current approaches struggle to scale to large programs. To overcome this limitation, we introduce a constrained optimisation refactoring approach. Our first key idea is to encode the problem with decision variables based on literals rather than rules. Our second key idea is to focus on linear invented rules. Our empirical results on multiple domains show that our approach can refactor programs quicker and with more compression than the previous state-of-the-art approach, sometimes by 60%.
- Abstract(参考訳): 知識リファクタリングは、新しいルールを導入することでロジックプログラムを圧縮する。
現在のアプローチでは,大規模プログラムへのスケールアップに苦労しています。
この制限を克服するために、制約付き最適化リファクタリングアプローチを導入する。
最初の鍵となるアイデアは、ルールではなくリテラルに基づいて決定変数で問題をエンコードすることです。
第2の鍵となる考え方は、線形発明されたルールに焦点を当てることです。
複数の領域における実験結果から,従来の最先端手法よりも高速かつ圧縮性の高いプログラムを,場合によっては60%高速化できることが示された。
関連論文リスト
- Hierarchical Context Merging: Better Long Context Understanding for Pre-trained LLMs [61.40047491337793]
本稿では,大規模言語モデルの制約を克服する新しいトレーニングフリースキームである階層型cOntext MERging(HOMER)を提案する。
HomeRは、長いインプットを管理可能なチャンクに分割する、分別/対数アルゴリズムを使用する。
トークン削減技術がマージ毎に先行し、メモリ使用効率が保証される。
論文 参考訳(メタデータ) (2024-04-16T06:34:08Z) - Truly No-Regret Learning in Constrained MDPs [61.78619476991494]
未知のCMDPで学習するモデルベース原始双対アルゴリズムを提案する。
提案アルゴリズムは,誤差のキャンセルを伴わずにサブ線形後悔を実現する。
論文 参考訳(メタデータ) (2024-02-24T09:47:46Z) - Learning logic programs by discovering higher-order abstractions [20.57989636488575]
我々は高次最適化問題を導入する。
目標は、高階の抽象化を発見して論理プログラムを圧縮することである。
我々はこの問題を制約問題として定式化するStevieにアプローチを実装した。
論文 参考訳(メタデータ) (2023-08-16T12:50:10Z) - Learning to Accelerate Approximate Methods for Solving Integer
Programming via Early Fixing [29.29673962163146]
いくつかの反復近似法によって解かれた変数は、非常に長い反復で最終的な収束した離散状態の周りに変動する。
この観測から着想を得た我々は、これらの変動変数を収束状態に早期に固定することにより、これらの近似手法を加速することを目指している。
初期固定プロセス全体をマルコフ決定プロセスとして定式化し、模倣学習を用いて訓練する。
論文 参考訳(メタデータ) (2022-07-05T14:46:47Z) - Learning logic programs by combining programs [24.31242130341093]
我々は、小さな非分離型プログラムを学習し、それらを組み合わせるアプローチを導入する。
我々は制約駆動型LPシステムにアプローチを実装した。
ゲームプレイやプログラム合成など,複数の領域に対する実験により,既存のアプローチを劇的に上回る結果が得られた。
論文 参考訳(メタデータ) (2022-06-01T10:07:37Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Data-driven Weight Initialization with Sylvester Solvers [72.11163104763071]
本稿では,ディープニューラルネットワークのパラメータを初期化するためのデータ駆動方式を提案する。
提案手法は,特にショットや微調整の設定において有効であることを示す。
論文 参考訳(メタデータ) (2021-05-02T07:33:16Z) - Learning to Initialize Gradient Descent Using Gradient Descent [21.02474345607079]
非最適化問題は解決が難しい。
本研究では,手作りアルゴリズムの簡易な代替として,ランダムアルゴリズムよりも優れた学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-22T16:23:36Z) - Boosting Data Reduction for the Maximum Weight Independent Set Problem
Using Increasing Transformations [59.84561168501493]
最大重み独立集合問題に対する新しい一般化データ削減および変換規則を導入する。
驚くべきことに、これらのいわゆる増進変換は問題を単純化し、還元空間を開き、アルゴリズムの後にさらに小さな既約グラフが得られる。
提案アルゴリズムは, 1つのインスタンスを除くすべての既約グラフを計算し, 従来よりも多くのインスタンスを最適に解き, 最高の最先端解法よりも最大2桁高速に解き, 解法DynWVCやHILSよりも高品質な解を求める。
論文 参考訳(メタデータ) (2020-08-12T08:52:50Z) - Sparsified Linear Programming for Zero-Sum Equilibrium Finding [89.30539368124025]
我々は、この問題に対して全く異なるアプローチを示し、それは競争力があり、しばしば、以前の最先端技術よりも桁違いに優れている。
ポーカーエンドゲームの実験により、現代の線形プログラムソルバは、ゲーム固有のCFRの現代的な変種でさえも競合することを示した。
論文 参考訳(メタデータ) (2020-06-05T13:48:26Z) - Knowledge Refactoring for Inductive Program Synthesis [37.54933305877746]
人間は知識をより効率的に利用するために常に知識を再構築する。
私たちのゴールは、機械学習システムに似た能力を提供することで、より効率的に学習できるようにすることです。
論文 参考訳(メタデータ) (2020-04-21T12:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。