論文の概要: Sentiment Analysis for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2010.02316v1
- Date: Mon, 5 Oct 2020 20:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:40:37.066519
- Title: Sentiment Analysis for Reinforcement Learning
- Title(参考訳): 強化学習のための感性分析
- Authors: Ameet Deshpande, Eve Fleisig
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、対話生成やテキストベースのゲームなど、自然言語処理の分野で成功している。
テキスト記述を使って状態表現のみを抽出する従来の方法は、それらに固有のフィードバックを無視している。
感情分析を用いてテキストベースのゲームに高い報酬を与えると、いくつかの条件下でのパフォーマンスが向上することがわかった。
- 参考スコア(独自算出の注目度): 0.17188280334580194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While reinforcement learning (RL) has been successful in natural language
processing (NLP) domains such as dialogue generation and text-based games, it
typically faces the problem of sparse rewards that leads to slow or no
convergence. Traditional methods that use text descriptions to extract only a
state representation ignore the feedback inherently present in them. In
text-based games, for example, descriptions like "Good Job! You ate the food}"
indicate progress, and descriptions like "You entered a new room" indicate
exploration. Positive and negative cues like these can be converted to rewards
through sentiment analysis. This technique converts the sparse reward problem
into a dense one, which is easier to solve. Furthermore, this can enable
reinforcement learning without rewards, in which the agent learns entirely from
these intrinsic sentiment rewards. This framework is similar to intrinsic
motivation, where the environment does not necessarily provide the rewards, but
the agent analyzes and realizes them by itself. We find that providing dense
rewards in text-based games using sentiment analysis improves performance under
some conditions.
- Abstract(参考訳): 強化学習(RL)は、対話生成やテキストベースのゲームのような自然言語処理(NLP)の分野では成功したが、通常は緩やかな報酬の問題に直面し、収束が遅くなる。
テキスト記述を使って状態表現のみを抽出する従来の方法は、それらに固有のフィードバックを無視している。
例えば、テキストベースのゲームでは、"Good Job! You ate the food}" のような記述は進行を示し、"You entered a new room" のような記述は探索を示している。
このような肯定的かつ否定的な手がかりは、感情分析によって報酬に変換できる。
この手法は、スパース報酬問題を、解くのが容易な密集した問題に変換する。
さらに、これは報酬なしで強化学習を可能にし、エージェントはこれらの内在的な感情報酬から完全に学習する。
このフレームワークは、環境が必ずしも報酬を提供するわけではないが、エージェントが分析してそれを実現する、本質的な動機付けに似ている。
感情分析を用いたテキストベースのゲームに高い報酬を与えると、いくつかの条件下でのパフォーマンスが向上することがわかった。
関連論文リスト
- EXPLORER: Exploration-guided Reasoning for Textual Reinforcement Learning [23.83162741035859]
テキスト強化学習のための探索誘導推論剤であるEXPLORERについて述べる。
実験の結果,EXPLORERはテキストワールド調理(TW-Cooking)およびテキストワールドコモンセンス(TWC)ゲームにおいて,ベースラインエージェントよりも優れていた。
論文 参考訳(メタデータ) (2024-03-15T21:22:37Z) - RaSa: Relation and Sensitivity Aware Representation Learning for
Text-based Person Search [51.09723403468361]
関係性と感性を考慮した表現学習法(RaSa)を提案する。
RaSaにはリレーショナル・アウェア・ラーニング(RA)と感性・アウェア・ラーニング(SA)という2つの新しいタスクが含まれている。
実験によると、RaSaは既存の最先端メソッドを6.94%、4.45%、および15.35%で上回っている。
論文 参考訳(メタデータ) (2023-05-23T03:53:57Z) - Learning to Play Text-based Adventure Games with Maximum Entropy
Reinforcement Learning [4.698846136465861]
我々はテキストベースの環境にソフト・アクター・クリティック(SAC)アルゴリズムを適用する。
報酬形成技術は、エージェントがポリシーをより早く学習し、より高いスコアを得るのに役立つことを示す。
論文 参考訳(メタデータ) (2023-02-21T15:16:12Z) - Commonsense Knowledge from Scene Graphs for Textual Environments [6.617487928813374]
シーングラフデータセットなどの視覚的データセットから得られたコモンセンス推論を利用する利点について検討する。
提案手法は既存の最先端手法よりも高い性能と競争性を有する。
論文 参考訳(メタデータ) (2022-10-19T03:09:17Z) - Sentiment-Aware Word and Sentence Level Pre-training for Sentiment
Analysis [64.70116276295609]
SentiWSPは、WordレベルとSentenceレベルの事前トレーニングタスクを組み合わせた、Sentiment対応の事前トレーニング言語モデルである。
SentiWSPは、様々な文レベルおよびアスペクトレベルの感情分類ベンチマーク上で、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T12:25:29Z) - Reading and Acting while Blindfolded: The Need for Semantics in Text
Game Agents [18.743819704859703]
人工エージェントがテキストのセマンティック理解をどのように利用するかは、まだ不明である。
表現空間を正規化し,探索を促す逆ダイナミクスデコーダを提案する。
将来のエージェントの設計における我々の発見の意義を、より強い意味論的理解で議論する。
論文 参考訳(メタデータ) (2021-03-25T01:35:27Z) - Mutual Information State Intrinsic Control [91.38627985733068]
本質的に動機づけられたRLは、本質的な報酬関数を定義することによって、この制約を取り除こうとする。
心理学における自己意識の概念に動機付けられ、エージェントが自分自身を構成するものを知っているという自然な仮定を立てる。
我々は,この報酬をエージェント状態と周辺状態の相互情報として数学的に定式化する。
論文 参考訳(メタデータ) (2021-03-15T03:03:36Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Learning Dynamic Belief Graphs to Generalize on Text-Based Games [55.59741414135887]
テキストベースのゲームをプレイするには、自然言語処理とシーケンシャルな意思決定のスキルが必要である。
本研究では,原文からエンドツーエンドに学習したグラフ構造化表現を用いて,エージェントがテキストベースのゲームでどのように計画・一般化できるかを検討する。
論文 参考訳(メタデータ) (2020-02-21T04:38:37Z) - Exploration Based Language Learning for Text-Based Games [72.30525050367216]
本研究は,テキストベースのコンピュータゲームにおいて,最先端の性能を発揮できる探索・模倣学習型エージェントを提案する。
テキストベースのコンピュータゲームは、自然言語でプレイヤーの世界を記述し、プレイヤーがテキストを使ってゲームと対話することを期待する。
これらのゲームは、言語理解、問題解決、および人工エージェントによる言語生成のためのテストベッドと見なすことができるため、興味がある。
論文 参考訳(メタデータ) (2020-01-24T03:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。