論文の概要: Enhancing Numeric-SAM for Learning with Few Observations
- arxiv url: http://arxiv.org/abs/2312.10705v1
- Date: Sun, 17 Dec 2023 12:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:56:57.746890
- Title: Enhancing Numeric-SAM for Learning with Few Observations
- Title(参考訳): 少ない観察で学ぶための数値samの強化
- Authors: Argaman Mordoch, Shahaf S. Shperberg, Roni Stern, Berndan Juba
- Abstract要約: 安全行動モデル学習(N-SAM)の強化版を提案する。
N-SAM*は返却されたアクションモデルの安全性を損なうことなくそうする。
ベンチマーク領域の集合に関する実証的研究は、N-SAM* で返される作用モデルが N-SAM で返される作用モデルよりもはるかに多くの問題を解くことができることを示している。
- 参考スコア(独自算出の注目度): 13.41686187754024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant challenge in applying planning technology to real-world
problems lies in obtaining a planning model that accurately represents the
problem's dynamics. Numeric Safe Action Models Learning (N-SAM) is a recently
proposed algorithm that addresses this challenge. It is an algorithm designed
to learn the preconditions and effects of actions from observations in domains
that may involve both discrete and continuous state variables. N-SAM has
several attractive properties. It runs in polynomial time and is guaranteed to
output an action model that is safe, in the sense that plans generated by it
are applicable and will achieve their intended goals. To preserve this safety
guarantee, N-SAM must observe a substantial number of examples for each action
before it is included in the learned action model. We address this limitation
of N-SAM and propose N-SAM*, an enhanced version of N-SAM that always returns
an action model where every observed action is applicable at least in some
state, even if it was only observed once. N-SAM* does so without compromising
the safety of the returned action model. We prove that N-SAM* is optimal in
terms of sample complexity compared to any other algorithm that guarantees
safety. An empirical study on a set of benchmark domains shows that the action
models returned by N-SAM* enable solving significantly more problems compared
to the action models returned by N-SAM.
- Abstract(参考訳): 現実の問題に計画技術を適用する上で重要な課題は、問題のダイナミクスを正確に表現する計画モデルを得ることである。
Numeric Safe Action Models Learning (N-SAM)は、この問題に対処するアルゴリズムである。
離散状態変数と連続状態変数の両方を含む可能性のある領域における観測から、動作の前提条件と効果を学ぶように設計されたアルゴリズムである。
N-SAMにはいくつかの魅力的な性質がある。
多項式時間で動作し、それが生成する計画が適用可能であり、意図した目標を達成するという意味で、安全なアクションモデルを出力することが保証される。
この安全性を確保するために、N-SAMは学習されたアクションモデルに含まれる前に、各アクションのかなりの数の例を観察しなければならない。
我々は、N-SAMのこの制限に対処し、N-SAMの強化版であるN-SAM*を提案する。
N-SAM*は返却されたアクションモデルの安全性を損なうことなくそうする。
安全性を保証する他のアルゴリズムと比較して, N-SAM* は標本の複雑さの観点から最適であることを示す。
ベンチマーク領域の集合に関する実証的研究は、N-SAM* で返されるアクションモデルが N-SAM で返されるアクションモデルと比較して、はるかに多くの問題を解決することができることを示している。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - SAM-SP: Self-Prompting Makes SAM Great Again [11.109389094334894]
Segment Anything Model (SAM)は、ゼロショットセグメンテーションタスクにおいて印象的な機能を示した。
SAMは、医療画像などの特定の領域に適用した場合、顕著な劣化性能に遭遇する。
本稿では,バニラSAMモデルの拡張に適したSAM-SPという,自己プロンプトに基づくファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T13:03:05Z) - ASAM: Boosting Segment Anything Model with Adversarial Tuning [9.566046692165884]
本稿では, 対角的チューニングにより基礎モデルの性能を増幅する新しい手法であるASAMを紹介する。
我々は,自然言語処理における実装の成功に触発された,自然対逆例の可能性を生かした。
本手法は, 対向例のフォトリアリズムを維持し, 元のマスクアノテーションとの整合性を確保する。
論文 参考訳(メタデータ) (2024-05-01T00:13:05Z) - Safe Learning of PDDL Domains with Conditional Effects -- Extended Version [27.05167679870857]
実験されたほとんどの領域において、条件付きSAMはテストセット問題のほとんどを完璧に解くのに利用できることを示す。
この結果から,Conditional-SAMで学習したアクションモデルを用いて,テストセット問題を完全に解決できることが示唆された。
論文 参考訳(メタデータ) (2024-03-22T14:49:49Z) - SU-SAM: A Simple Unified Framework for Adapting Segment Anything Model in Underperformed Scenes [34.796859088106636]
SAM(Segment Any Model)は、一般的な視覚シナリオにおいて優れた一般化性を示したが、専門的なデータを理解する能力に欠けていた。
近年の手法では,パラメータ効率の手法とタスク固有の設計を組み合わせることで,特定のタスク上でSAMを微調整する手法が提案されている。
本稿では,パラメータ効率のよいSAMモデルを簡便かつ効率的に微調整できる,シンプルで統一的なフレームワーク SU-SAM を提案する。
論文 参考訳(メタデータ) (2024-01-31T12:53:11Z) - BA-SAM: Scalable Bias-Mode Attention Mask for Segment Anything Model [65.92173280096588]
我々は,Segment Anything Model (SAM)における画像分解能変動の課題に対処する。
SAMはゼロショットの汎用性で知られており、さまざまな画像サイズを持つデータセットに直面するとパフォーマンスが低下する。
我々は、各トークンが隣り合う情報を優先順位付けできるバイアスモードのアテンションマスクを提案する。
論文 参考訳(メタデータ) (2024-01-04T15:34:44Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Understanding Self-attention Mechanism via Dynamical System Perspective [58.024376086269015]
SAM(Self-attention mechanism)は、人工知能の様々な分野で広く使われている。
常微分方程式(ODE)の高精度解における固有剛性現象(SP)は,高性能ニューラルネットワーク(NN)にも広く存在することを示す。
SAMは、本質的なSPを測定するためのモデルの表現能力を高めることができる剛性対応のステップサイズ適応器でもあることを示す。
論文 参考訳(メタデータ) (2023-08-19T08:17:41Z) - SAM operates far from home: eigenvalue regularization as a dynamical
phenomenon [15.332235979022036]
シャープネス認識最小化(SAM)アルゴリズムは、ロス・ヘッセンの大きな固有値を制御することが示されている。
SAMは学習軌跡全体を通して固有値の強い正規化を提供することを示す。
本理論は,学習速度とSAM半径パラメータの関数として最大固有値を予測する。
論文 参考訳(メタデータ) (2023-02-17T04:51:20Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。