論文の概要: On the Importance of Domain Model Configuration for Automated Planning
Engines
- arxiv url: http://arxiv.org/abs/2010.07710v1
- Date: Thu, 15 Oct 2020 12:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:59:42.246556
- Title: On the Importance of Domain Model Configuration for Automated Planning
Engines
- Title(参考訳): 自動計画エンジンにおけるドメインモデル構成の重要性について
- Authors: Mauro Vallati and Lukas Chrpa and Thomas L. McCluskey and Frank Hutter
- Abstract要約: ドメインに依存しないプランナの開発は、幅広いアプリケーションで使用可能な"オフザシェルフ(off-the-shelf)"技術につながっている。
本稿では,ドメインに依存しないプランナの性能がドメインモデル構成にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 37.66825912004617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of domain-independent planners within the AI Planning
community is leading to "off-the-shelf" technology that can be used in a wide
range of applications. Moreover, it allows a modular approach --in which
planners and domain knowledge are modules of larger software applications--
that facilitates substitutions or improvements of individual modules without
changing the rest of the system. This approach also supports the use of
reformulation and configuration techniques, which transform how a model is
represented in order to improve the efficiency of plan generation.
In this article, we investigate how the performance of domain-independent
planners is affected by domain model configuration, i.e., the order in which
elements are ordered in the model, particularly in the light of planner
comparisons. We then introduce techniques for the online and offline
configuration of domain models, and we analyse the impact of domain model
configuration on other reformulation approaches, such as macros.
- Abstract(参考訳): AI Planningコミュニティ内でのドメインに依存しないプランナの開発は、幅広いアプリケーションで使用可能な“既成の”テクノロジへとつながっている。
さらに、モジュールアプローチ -- プランナーとドメイン知識がより大きなソフトウェアアプリケーションのモジュールである -- を可能にし、システムの他の部分を変更することなく、個々のモジュールの置換や改善を容易にする。
このアプローチは、計画生成の効率を改善するためにモデルがどのように表現されるかを変更する改革と構成技術の使用もサポートする。
本稿では,ドメインに依存しないプランナの性能が,ドメインモデルの構成,すなわちモデルにおける要素の順序,特にプランナ比較の点においてどのように影響するかを検討する。
次に,ドメインモデルのオンラインおよびオフライン構成手法を導入し,マクロなど他の再構成アプローチに対するドメインモデル構成の影響を分析する。
関連論文リスト
- PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - AdaptDHM: Adaptive Distribution Hierarchical Model for Multi-Domain CTR
Prediction [4.299153274884263]
本稿では,適応分布階層モデル (Adaptive Distribution Hierarchical Model, AdaptDHM) という,エレガントで柔軟なマルチディストリビューション・モデリング手法を提案する。
本モデルでは, 予測精度が向上し, トレーニング期間中の時間コストは, 他のモデルに比べて50%以上低下する。
論文 参考訳(メタデータ) (2022-11-22T09:10:37Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Dynamic Domain Generalization [10.252262302724608]
我々は、動的ドメイン一般化(DDG)と呼ばれる新しいDG変種を開発し、モデルが異なるドメインからのデータに適応するために、ネットワークパラメータをツイストすることを学ぶ。
具体的には、メタ調整器を利用して、異なるドメインの異なるデータに対して静的モデルに基づいてネットワークパラメータをツイストする。
このように、静的モデルはドメイン共有機能を学ぶために最適化され、メタ調整器はドメイン固有の機能を学ぶために設計されている。
論文 参考訳(メタデータ) (2022-05-27T11:29:03Z) - An Unsupervised Domain Adaptation Model based on Dual-module Adversarial
Training [20.71773278472982]
本稿では,ニューラルネットワークモデル(DANN)を代表的アルゴリズムとして,ドメイン・逆トレーニング(Domain-Adversarial Training of Neural Networks)実験を行う。
同じ入力を2つのモジュールに供給し,それぞれ特徴分布と予測結果を抽出する。
本稿では,予測結果の相違点と2つのモジュール間の特徴分布を求めるために,差分損失を提案する。
論文 参考訳(メタデータ) (2021-12-31T17:07:54Z) - A Consciousness-Inspired Planning Agent for Model-Based Reinforcement
Learning [104.3643447579578]
本稿では、その状態の関連部分に動的に対応できるエンドツーエンドのモデルベース深層強化学習エージェントを提案する。
この設計により、エージェントは関連するオブジェクトに参画することで効果的に計画を学ぶことができ、配布外一般化がより良くなる。
論文 参考訳(メタデータ) (2021-06-03T19:35:19Z) - Domain Invariant Representation Learning with Domain Density
Transformations [30.29600757980369]
ドメインの一般化とは、ソースドメインの集合からデータに基づいてモデルをトレーニングし、対象ドメインの見えない領域にモデルを一般化できるようにする問題を指す。
本稿では,このようなドメイン変換を学習し,本手法を実際に実装する方法を示す。
論文 参考訳(メタデータ) (2021-02-09T19:25:32Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Continual Domain-Tuning for Pretrained Language Models [8.080145221992641]
シンプルなドメインチューニング(SDT)はBioBERT, SciBERT, ClinicalBERTといったドメインチューニングモデルの作成に広く利用されている。
対象ドメインの事前学習フェーズにおいて、LMモデルは、そのソースドメインから学んだパターンを破滅的に忘れてしまう可能性がある。
SDTに対する継続学習(CL)に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2020-04-05T19:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。