論文の概要: On the Importance of Domain Model Configuration for Automated Planning
Engines
- arxiv url: http://arxiv.org/abs/2010.07710v1
- Date: Thu, 15 Oct 2020 12:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:59:42.246556
- Title: On the Importance of Domain Model Configuration for Automated Planning
Engines
- Title(参考訳): 自動計画エンジンにおけるドメインモデル構成の重要性について
- Authors: Mauro Vallati and Lukas Chrpa and Thomas L. McCluskey and Frank Hutter
- Abstract要約: ドメインに依存しないプランナの開発は、幅広いアプリケーションで使用可能な"オフザシェルフ(off-the-shelf)"技術につながっている。
本稿では,ドメインに依存しないプランナの性能がドメインモデル構成にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 37.66825912004617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of domain-independent planners within the AI Planning
community is leading to "off-the-shelf" technology that can be used in a wide
range of applications. Moreover, it allows a modular approach --in which
planners and domain knowledge are modules of larger software applications--
that facilitates substitutions or improvements of individual modules without
changing the rest of the system. This approach also supports the use of
reformulation and configuration techniques, which transform how a model is
represented in order to improve the efficiency of plan generation.
In this article, we investigate how the performance of domain-independent
planners is affected by domain model configuration, i.e., the order in which
elements are ordered in the model, particularly in the light of planner
comparisons. We then introduce techniques for the online and offline
configuration of domain models, and we analyse the impact of domain model
configuration on other reformulation approaches, such as macros.
- Abstract(参考訳): AI Planningコミュニティ内でのドメインに依存しないプランナの開発は、幅広いアプリケーションで使用可能な“既成の”テクノロジへとつながっている。
さらに、モジュールアプローチ -- プランナーとドメイン知識がより大きなソフトウェアアプリケーションのモジュールである -- を可能にし、システムの他の部分を変更することなく、個々のモジュールの置換や改善を容易にする。
このアプローチは、計画生成の効率を改善するためにモデルがどのように表現されるかを変更する改革と構成技術の使用もサポートする。
本稿では,ドメインに依存しないプランナの性能が,ドメインモデルの構成,すなわちモデルにおける要素の順序,特にプランナ比較の点においてどのように影響するかを検討する。
次に,ドメインモデルのオンラインおよびオフライン構成手法を導入し,マクロなど他の再構成アプローチに対するドメインモデル構成の影響を分析する。
関連論文リスト
- On the Utility of Domain Modeling Assistance with Large Language Models [2.874893537471256]
本稿では,大規模言語モデル(LLM)とドメインモデリング支援のための数発のプロンプト学習を利用した新しいアプローチの有用性を評価する。
このアプローチの目的は、不足するドメイン固有のデータセット上で、AIベースの補完モデルの広範なトレーニングの必要性を克服することである。
論文 参考訳(メタデータ) (2024-10-16T13:55:34Z) - MoDEM: Mixture of Domain Expert Models [23.846823652305027]
大規模言語モデル(LLM)の性能と効率を向上させる新しい手法を提案する。
本稿では、BERTベースのルータを用いて、最も適切なドメインエキスパートモデルに入力プロンプトを指示するシステムを提案する。
本研究は,本手法が同等の大きさの汎用モデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-10-09T23:52:54Z) - Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Domain-Aware Fine-Tuning of Foundation Models [18.336887359257087]
ファンデーションモデル(FM)はコンピュータビジョンに革命をもたらし、異なるドメイン間で効果的な学習を可能にした。
本稿では、異なるバックボーンアーキテクチャの比較により、FMのゼロショット領域適応ポテンシャルについて検討する。
ドメイン関連テキスト埋め込みを利用した新しいドメイン認識コンポーネントを提案する。
論文 参考訳(メタデータ) (2024-07-03T20:10:55Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Dynamic Domain Generalization [10.252262302724608]
我々は、動的ドメイン一般化(DDG)と呼ばれる新しいDG変種を開発し、モデルが異なるドメインからのデータに適応するために、ネットワークパラメータをツイストすることを学ぶ。
具体的には、メタ調整器を利用して、異なるドメインの異なるデータに対して静的モデルに基づいてネットワークパラメータをツイストする。
このように、静的モデルはドメイン共有機能を学ぶために最適化され、メタ調整器はドメイン固有の機能を学ぶために設計されている。
論文 参考訳(メタデータ) (2022-05-27T11:29:03Z) - A Consciousness-Inspired Planning Agent for Model-Based Reinforcement
Learning [104.3643447579578]
本稿では、その状態の関連部分に動的に対応できるエンドツーエンドのモデルベース深層強化学習エージェントを提案する。
この設計により、エージェントは関連するオブジェクトに参画することで効果的に計画を学ぶことができ、配布外一般化がより良くなる。
論文 参考訳(メタデータ) (2021-06-03T19:35:19Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Continual Domain-Tuning for Pretrained Language Models [8.080145221992641]
シンプルなドメインチューニング(SDT)はBioBERT, SciBERT, ClinicalBERTといったドメインチューニングモデルの作成に広く利用されている。
対象ドメインの事前学習フェーズにおいて、LMモデルは、そのソースドメインから学んだパターンを破滅的に忘れてしまう可能性がある。
SDTに対する継続学習(CL)に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2020-04-05T19:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。