論文の概要: Swim: A General-Purpose, High-Performing, and Efficient Activation
Function for Locomotion Control Tasks
- arxiv url: http://arxiv.org/abs/2303.02640v1
- Date: Sun, 5 Mar 2023 11:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:33:23.145614
- Title: Swim: A General-Purpose, High-Performing, and Efficient Activation
Function for Locomotion Control Tasks
- Title(参考訳): Swim: 移動制御タスクのための汎用・高性能・効率的な活性化機能
- Authors: Maryam Abdool and Tony Dear
- Abstract要約: 活性化関数はディープラーニングアルゴリズムの性能において重要な役割を果たす。
特に、スウェーデンのアクティベーション関数はより深いモデルでReLUを上回る傾向にある。
我々はSwishの汎用的で効率的で高性能な代替手段であるSwimを提案する。
- 参考スコア(独自算出の注目度): 0.2538209532048866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Activation functions play a significant role in the performance of deep
learning algorithms. In particular, the Swish activation function tends to
outperform ReLU on deeper models, including deep reinforcement learning models,
across challenging tasks. Despite this progress, ReLU is the preferred function
partly because it is more efficient than Swish. Furthermore, in contrast to the
fields of computer vision and natural language processing, the deep
reinforcement learning and robotics domains have seen less inclination to adopt
new activation functions, such as Swish, and instead continue to use more
traditional functions, like ReLU. To tackle those issues, we propose Swim, a
general-purpose, efficient, and high-performing alternative to Swish, and then
provide an analysis of its properties as well as an explanation for its
high-performance relative to Swish, in terms of both reward-achievement and
efficiency. We focus on testing Swim on MuJoCo's locomotion continuous control
tasks since they exhibit more complex dynamics and would therefore benefit most
from a high-performing and efficient activation function. We also use the TD3
algorithm in conjunction with Swim and explain this choice in the context of
the robot locomotion domain. We then conclude that Swim is a state-of-the-art
activation function for continuous control locomotion tasks and recommend using
it with TD3 as a working framework.
- Abstract(参考訳): 活性化関数はディープラーニングアルゴリズムの性能において重要な役割を果たす。
特に、スウェーデンのアクティベーション機能は、深い強化学習モデルを含むより深いモデルにおいて、困難なタスクでReLUを上回る傾向にある。
この進歩にもかかわらず、ReLUはSwishよりも効率的であるため、好まれる機能である。
さらに、コンピュータビジョンや自然言語処理の分野とは対照的に、深層強化学習やロボット工学の領域では、swishのような新しいアクティベーション機能を採用する傾向が少なく、代わりにreluのような従来の機能を使い続けている。
これらの課題に対処するため,SwimはSwishの汎用的で効率的かつ高性能な代替品であり,その特性の解析と,報酬獲得と効率の両面から,Swishに対する高性能性の説明を提供する。
より複雑なダイナミクスを示し、ハイパフォーマンスで効率的なアクティベーション関数の恩恵を受けるため、mujocoのロコモーション連続制御タスクでスイムをテストすることに重点を置いています。
また、Swimと組み合わせてTD3アルゴリズムを使用し、ロボットの移動領域の文脈でこの選択を説明する。
スイムは連続制御ロコモーションタスクのための最先端のアクティベーション関数であり、td3を動作フレームワークとして使用することを推奨する。
関連論文リスト
- Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - Trainable Highly-expressive Activation Functions [8.662179223772089]
トレーニング可能な高表現能アクティベーション機能であるDiTACを紹介する。
DiTACはモデル表現性と性能を高め、しばしば大幅な改善をもたらす。
また、セマンティックセグメンテーション、画像生成、回帰問題、画像分類といったタスクにおいて、既存のアクティベーション関数(後者が固定可能かトレーニング可能かに関わらず)を上回っている。
論文 参考訳(メタデータ) (2024-07-10T11:49:29Z) - REBEL: A Regularization-Based Solution for Reward Overoptimization in Robotic Reinforcement Learning from Human Feedback [61.54791065013767]
報酬関数とユーザの意図、価値観、社会的規範の相違は、現実世界で破滅的なものになる可能性がある。
人間の嗜好から報酬関数を学習することで、このミスアライメント作業を軽減するための現在の方法。
本稿では,ロボットRLHFフレームワークにおける報酬正規化の新たな概念を提案する。
論文 参考訳(メタデータ) (2023-12-22T04:56:37Z) - ErfReLU: Adaptive Activation Function for Deep Neural Network [1.9336815376402716]
近年の研究では、出力に非線形性を加えるために選択されたアクティベーション関数が、ディープラーニングネットワークの有効性に大きな影響を与えることが報告されている。
研究者は最近、学習プロセスを通してトレーニングできるアクティベーション関数の開発を始めた。
Sigmoid、ReLU、Tanhなどのアートアクティベーション機能とその特性について、簡単に説明されている。
論文 参考訳(メタデータ) (2023-06-02T13:41:47Z) - Efficient Activation Function Optimization through Surrogate Modeling [15.219959721479835]
本稿は,3つのステップを通じて,芸術の状況を改善することを目的としている。
まず、Act-Bench-CNN、Act-Bench-ResNet、Act-Bench-ViTのベンチマークは、畳み込み、残留、ビジョントランスフォーマーアーキテクチャのトレーニングによって作成された。
第2に、ベンチマーク空間のキャラクタリゼーションが開発され、新しいサロゲートに基づく最適化手法が開発された。
論文 参考訳(メタデータ) (2023-01-13T23:11:14Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Transformers with Learnable Activation Functions [63.98696070245065]
我々は、Rational Activation Function (RAF) を用いて、入力データに基づいてトレーニング中の最適なアクティベーション関数を学習する。
RAFは、学習されたアクティベーション関数に従って事前学習されたモデルを分析し、解釈するための新しい研究方向を開く。
論文 参考訳(メタデータ) (2022-08-30T09:47:31Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Activation Functions: Dive into an optimal activation function [1.52292571922932]
既存のアクティベーション関数の重み付け和として定義することで、最適なアクティベーション関数を求める。
この研究は、ReLU、tanh、 sinという3つのアクティベーション関数を3つの人気のある画像データセットに使用しています。
論文 参考訳(メタデータ) (2022-02-24T12:44:11Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Learning specialized activation functions with the Piecewise Linear Unit [7.820667552233989]
本稿では, 注意深く設計した定式化学習法を組み込んだ, 区分線形単位 (pwlu) と呼ばれる新しい活性化関数を提案する。
特殊なアクティベーション機能を学び、ImageNetやCOCOなどの大規模データセットでSOTA性能を達成できます。
PWLUは推論時に実装も簡単で効率も良く、現実世界のアプリケーションにも広く適用できる。
論文 参考訳(メタデータ) (2021-04-08T11:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。