論文の概要: An Empirical Comparison of Cost Functions in Inductive Logic Programming
- arxiv url: http://arxiv.org/abs/2503.07554v1
- Date: Mon, 10 Mar 2025 17:22:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 18:54:08.962903
- Title: An Empirical Comparison of Cost Functions in Inductive Logic Programming
- Title(参考訳): 帰納論理プログラミングにおけるコスト関数の実証比較
- Authors: Céline Hocquette, Andrew Cropper,
- Abstract要約: 最適仮説は、トレーニングデータに対する所定のコスト関数を最小化する。
我々は,7つの標準コスト関数に対する最適仮説を学習するために制約ベースのILPシステムを拡張した。
次に、これらの標準コスト関数の下で誘導される最適仮説の一般化誤差を経験的に比較する。
- 参考スコア(独自算出の注目度): 27.6240219662896
- License:
- Abstract: Recent inductive logic programming (ILP) approaches learn optimal hypotheses. An optimal hypothesis minimises a given cost function on the training data. There are many cost functions, such as minimising training error, textual complexity, or the description length of hypotheses. However, selecting an appropriate cost function remains a key question. To address this gap, we extend a constraint-based ILP system to learn optimal hypotheses for seven standard cost functions. We then empirically compare the generalisation error of optimal hypotheses induced under these standard cost functions. Our results on over 20 domains and 1000 tasks, including game playing, program synthesis, and image reasoning, show that, while no cost function consistently outperforms the others, minimising training error or description length has the best overall performance. Notably, our results indicate that minimising the size of hypotheses does not always reduce generalisation error.
- Abstract(参考訳): 最近の帰納論理プログラミング(ILP)アプローチは最適な仮説を学習する。
最適仮説は、トレーニングデータに対する所定のコスト関数を最小化する。
トレーニングエラーの最小化、テキストの複雑さ、仮説の記述長など、多くのコスト関数がある。
しかし、適切なコスト関数を選択することは重要な問題である。
このギャップに対処するため、制約ベースのLPシステムを拡張し、7つの標準コスト関数の最適仮説を学習する。
次に、これらの標準コスト関数の下で誘導される最適仮説の一般化誤差を経験的に比較する。
ゲームプレイ,プログラム合成,画像推論など,20以上のドメインと1000以上のタスクに対する結果から,コスト関数が常に他よりも優れていないにもかかわらず,トレーニングエラーや記述長の最小化が全体的なパフォーマンスの最高であることが示された。
特に,仮説の最小化が必ずしも一般化誤差を減少させるとは限らないことが示唆された。
関連論文リスト
- Of Dice and Games: A Theory of Generalized Boosting [61.752303337418475]
我々は、コスト感受性と多目的損失の両方を組み込むために、ブースティングの有名な理論を拡張した。
我々は、コスト感受性と多目的強化の包括的理論を開発し、弱い学習保証の分類を提供する。
我々の特徴付けは、昇降の幾何学的解釈に依存しており、コスト感受性と多目的損失の間の驚くべき等価性を明らかにしている。
論文 参考訳(メタデータ) (2024-12-11T01:38:32Z) - Rational Metareasoning for Large Language Models [5.5539136805232205]
大きな言語モデル(LLM)を使用するためのコアテクニックとして,推論への関与を促す声が上がっている。
本研究は,認知科学で用いられるメタレゾニングの計算モデルに基づく新しいアプローチを導入する。
我々は不必要な推論を罰することで計算の価値を組み込む報酬関数を開発する。
論文 参考訳(メタデータ) (2024-10-07T23:48:52Z) - Contextual Linear Optimization with Bandit Feedback [35.692428244561626]
文脈線形最適化(CLO)は、ランダムコスト係数の不確実性を低減するために予測的文脈特徴を用いる。
我々は,帯域幅フィードバックを用いたCLOのためのオフライン学習アルゴリズムのクラスについて検討する。
IERMに対する高速な後悔境界を示し、不特定モデルクラスと最適化推定の柔軟な選択を可能にする。
論文 参考訳(メタデータ) (2024-05-26T13:27:27Z) - Cost-Sensitive Learning to Defer to Multiple Experts with Workload Constraints [10.917274244918985]
遅延の学習は、ML分類器よりも正確である可能性が高いときに、人間に決定を延期する方法を学ぶことによって、人間とAIのコラボレーションシステムを改善することを目的としている。
L2Dの既存の研究は、その実践的採用を妨げる主要な現実世界の側面を見落としている。
DeCCaFは新しいL2Dアプローチであり、教師付き学習を用いて、制約の少ないデータ要求下でのヒューマンエラーの確率をモデル化する。
論文 参考訳(メタデータ) (2024-03-11T16:57:20Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Optimize Planning Heuristics to Rank, not to Estimate Cost-to-Goal [0.9217021281095907]
計画のための模倣学習では、関数のパラメータは一連の解決された問題インスタンスに対して最適化される。
次に、フォワード探索アルゴリズムの与えられた変種に合わせたランキングに基づいて、損失関数の族を提案する。
様々な問題の集合に関する実験的な比較は、導出理論を絶対的に支持する。
論文 参考訳(メタデータ) (2023-10-30T11:39:49Z) - Toward Theoretical Guidance for Two Common Questions in Practical
Cross-Validation based Hyperparameter Selection [72.76113104079678]
クロスバリデーションに基づくハイパーパラメータ選択における2つの一般的な質問に対する最初の理論的治療について述べる。
これらの一般化は、少なくとも、常に再トレーニングを行うか、再トレーニングを行わないかを常に実行可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T16:37:12Z) - Quantization for decentralized learning under subspace constraints [61.59416703323886]
エージェントがサブスペース制約を最小化するために個々のコスト関数を持つ分散最適化問題を考察する。
本稿では,エージェントが確率化量子化器を用いて推定値を圧縮する適応分散型戦略を提案し,検討する。
この分析は、量子化ノイズのいくつかの一般的な条件下では、平均二乗誤差と平均ビットレートの両方で戦略が安定であることを示している。
論文 参考訳(メタデータ) (2022-09-16T09:38:38Z) - A Near-Optimal Algorithm for Univariate Zeroth-Order Budget Convex
Optimization [4.608510640547952]
我々は、Dy Searchのほぼ最適最適化誤差を保証する。
誤差境界における大域リプシッツ定数への古典的依存は、予算の粒度のアーティファクトであることを示す。
論文 参考訳(メタデータ) (2022-08-13T19:57:04Z) - Neural Optimal Transport with General Cost Functionals [66.41953045707172]
一般費用関数の最適輸送計画を計算するニューラルネットワークに基づく新しいアルゴリズムを提案する。
アプリケーションとして,クラス単位の構造を保ちながら,データ分布をマップするコスト関数を構築した。
論文 参考訳(メタデータ) (2022-05-30T20:00:19Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。