論文の概要: Kernel-based function learning in dynamic and non stationary
environments
- arxiv url: http://arxiv.org/abs/2310.02767v1
- Date: Wed, 4 Oct 2023 12:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 15:21:52.443596
- Title: Kernel-based function learning in dynamic and non stationary
environments
- Title(参考訳): 動的および非定常環境におけるカーネルに基づく関数学習
- Authors: Alberto Giaretta, Mauro Bisiacco, Gianluigi Pillonetto
- Abstract要約: 機械学習における中心的なテーマの1つは、スパースデータとノイズデータからの関数推定である。
本研究では,非定常分布下でのカーネルベースリッジ回帰と収束条件について考察する。
これは、例えば、エージェント/ロボットの集合が、感覚場を再構築するために環境を監視する必要がある、重要な探索・探索の問題を含む。
- 参考スコア(独自算出の注目度): 0.6138671548064355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One central theme in machine learning is function estimation from sparse and
noisy data. An example is supervised learning where the elements of the
training set are couples, each containing an input location and an output
response. In the last decades, a substantial amount of work has been devoted to
design estimators for the unknown function and to study their convergence to
the optimal predictor, also characterizing the learning rate. These results
typically rely on stationary assumptions where input locations are drawn from a
probability distribution that does not change in time. In this work, we
consider kernel-based ridge regression and derive convergence conditions under
non stationary distributions, addressing also cases where stochastic adaption
may happen infinitely often. This includes the important
exploration-exploitation problems where e.g. a set of agents/robots has to
monitor an environment to reconstruct a sensorial field and their movements
rules are continuously updated on the basis of the acquired knowledge on the
field and/or the surrounding environment.
- Abstract(参考訳): 機械学習の中心的なテーマは、スパースデータとノイズデータからの関数推定である。
例えば、トレーニングセットの要素がカップルであるような教師あり学習では、それぞれが入力位置と出力応答を含む。
過去数十年間、未知の関数に対する推定器の設計や、最適な予測器への収束の研究、学習率の特定に多くの研究が費やされてきた。
これらの結果は、通常、時間的に変化しない確率分布から入力位置が引き出される定常的な仮定に依存する。
本研究では,非定常分布下での,カーネルに基づくリッジ回帰と収束条件を導出し,確率的適応が無限に頻繁に発生する場合にも対処する。
例えば、エージェント/ロボットのセットは、センサーフィールドを再構築するために環境を監視しなければならず、それらの移動規則は、フィールドおよび/または周囲の環境に関する取得した知識に基づいて継続的に更新される。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - A Self-Organizing Clustering System for Unsupervised Distribution Shift Detection [1.0436203990235575]
本稿では,分布変化のモニタリングと検出のための連続学習フレームワークを提案する。
特に,2つのトポロジ保存マップ(自己組織化マップ)とスケール不変マップ(スケール不変マップ)の投影について検討する。
本手法は教師なしコンテキストと教師なしコンテキストの両方に適用できる。
論文 参考訳(メタデータ) (2024-04-25T14:48:29Z) - A Unifying Perspective on Non-Stationary Kernels for Deeper Gaussian Processes [0.9558392439655016]
代表データセットを用いて動作中のさまざまなカーネルを示し、その特性を慎重に研究し、性能を比較する。
そこで本研究では,既存のカーネルの利点を活かしたカーネルを提案する。
論文 参考訳(メタデータ) (2023-09-18T18:34:51Z) - Out of Distribution Detection via Domain-Informed Gaussian Process State
Space Models [22.24457254575906]
ロボットが見えないシナリオを安全にナビゲートするためには、オンラインのトレーニング外配布(OoD)状況を正確に検出することが重要である。
我々は,既存のドメイン知識をカーネルに埋め込む新しい手法を提案し,また(ii)遅延水平予測に基づくOoDオンラインランタイムモニタを提案する。
論文 参考訳(メタデータ) (2023-09-13T01:02:42Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Learning Operators with Coupled Attention [9.715465024071333]
本稿では,近年の注目機構の成功を動機とした,新しい演算子学習手法であるLOCAを提案する。
我々のアーキテクチャでは、入力関数は有限個の特徴にマッピングされ、その特徴は出力クエリの場所に依存する注意重みで平均化される。
これらの注意重みを積分変換と組み合わせることで、LOCAは目標出力関数の相関関係を明示的に学習することができる。
論文 参考訳(メタデータ) (2022-01-04T08:22:03Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - What training reveals about neural network complexity [80.87515604428346]
この研究は、ディープニューラルネットワーク(NN)が学習している関数の複雑さは、トレーニング中にその重みがどれほど速く変化するかによって推定できるという仮説を探求する。
我々の結果は、優れた訓練行動が良い一般化への有用なバイアスとなるという仮説を支持している。
論文 参考訳(メタデータ) (2021-06-08T08:58:00Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - The Traveling Observer Model: Multi-task Learning Through Spatial
Variable Embeddings [28.029643109302715]
我々は、連続した空間を移動し、ある場所で値を計測し、他の場所でそれらを予測する観察者として、一般的な予測システムを構築した。
この視点は、一見無関係なタスクを単一のモデルで解決できる、機械学習フレームワークにつながります。
実験では,(1)空間と時間における変数の直感的な位置の復元,(2)完全に不整合な入力空間と出力空間を持つ関連するデータセット間の正則性の利用,(3)無関係なタスク間の正則性を利用する。
論文 参考訳(メタデータ) (2020-10-05T21:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。