論文の概要: Reasoning Implicit Sentiment with Chain-of-Thought Prompting
- arxiv url: http://arxiv.org/abs/2305.11255v4
- Date: Fri, 9 Jun 2023 01:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 16:46:43.679632
- Title: Reasoning Implicit Sentiment with Chain-of-Thought Prompting
- Title(参考訳): Chain-of-Thought Prompting による無作為感の推論
- Authors: Hao Fei, Bobo Li, Qian Liu, Lidong Bing, Fei Li, Tat-Seng Chua
- Abstract要約: 暗黙的な感情分析(ISA)では、意見の手がかりは暗黙的で曖昧な方法で得られます。
本稿では,ISA の人間的推論過程を模倣する三脚推論 (THOR) CoT フレームワークを提案する。
我々のTHOR+Flan-T5は、監督設定で最先端(SoTA)を6%以上押し上げます。
- 参考スコア(独自算出の注目度): 102.62615158010571
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While sentiment analysis systems try to determine the sentiment polarities of
given targets based on the key opinion expressions in input texts, in implicit
sentiment analysis (ISA) the opinion cues come in an implicit and obscure
manner. Thus detecting implicit sentiment requires the common-sense and
multi-hop reasoning ability to infer the latent intent of opinion. Inspired by
the recent chain-of-thought (CoT) idea, in this work we introduce a Three-hop
Reasoning (THOR) CoT framework to mimic the human-like reasoning process for
ISA. We design a three-step prompting principle for THOR to step-by-step induce
the implicit aspect, opinion, and finally the sentiment polarity. Our
THOR+Flan-T5 (11B) pushes the state-of-the-art (SoTA) by over 6% F1 on
supervised setup. More strikingly, THOR+GPT3 (175B) boosts the SoTA by over 50%
F1 on zero-shot setting. Our code is open at
https://github.com/scofield7419/THOR-ISA.
- Abstract(参考訳): 感情分析システムは、入力テキストにおける主要な意見表現に基づいて、与えられた目標の感情極性を決定する一方で、暗黙的な感情分析(ISA)では、意見の手がかりは暗黙的で曖昧な方法で現れる。
したがって、暗黙の感情を検出するには、意見の潜在意図を推測する常識とマルチホップ推論能力が必要である。
最近のチェーン・オブ・思想(CoT)のアイデアにインスパイアされた本研究では、ISAの人間的な推論プロセスを模倣するThree-hop Reasoning(THOR) CoTフレームワークを紹介します。
我々は、THORが暗黙の側面、意見、そして最後に感情の極性を段階的に誘導する3段階の原理を設計する。
我々のTHOR+Flan-T5 (11B)は、監督設定で最先端(SoTA)を6%以上押し上げます。
さらに驚くべきことに、THOR+GPT3 (175B)はゼロショット設定でSoTAを50%以上押し上げる。
私たちのコードはhttps://github.com/scofield7419/THOR-ISAで公開されています。
関連論文リスト
- Unveiling the Magic of Code Reasoning through Hypothesis Decomposition and Amendment [54.62926010621013]
我々は,大規模言語モデルの推論能力に対する新たな視点を提供するために,新しいタスクであるコード推論を導入する。
論理的推論の確立した形式に基づいて3つのメタベンチマークを要約し、8つの特定のベンチマークタスクにインスタンス化する。
本稿では,人間の複雑な問題解決手法に触発された新たな経路探索パイプラインを提案する。
論文 参考訳(メタデータ) (2025-02-17T10:39:58Z) - Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs [86.79757571440082]
OpenAIのo1のような大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な能力を示している。
我々は、o1-like LLMがしばしば異なる理性的思考を切り替える、という現象を特定する。
本稿では,思考間の早期移行を回避できる思考切替ペナルティTIPを用いた復号戦略を提案する。
論文 参考訳(メタデータ) (2025-01-30T18:58:18Z) - Reassessing the Role of Chain-of-Thought in Sentiment Analysis: Insights and Limitations [6.774149276707635]
推論技術が意味理解を促進するかどうかを考察する。
推論手法としてチェーン・オブ・シークレット・プロンプトを採用しています。
実験によると、思考の連鎖は感情分析タスクに最小限の影響を与える。
論文 参考訳(メタデータ) (2025-01-15T08:07:22Z) - NYT-Connections: A Deceptively Simple Text Classification Task that Stumps System-1 Thinkers [5.397565689903148]
我々はNew York Times Connectionsゲームから派生した358の簡単な単語分類パズルのコレクションであるNYT-Connectionsを紹介する。
このベンチマークは、素早い直感的な"システム1"思考をペナルティ化し、基本的な推論スキルを分離するように設計されている。
論文 参考訳(メタデータ) (2024-12-02T15:41:47Z) - PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - RVISA: Reasoning and Verification for Implicit Sentiment Analysis [18.836998294161834]
暗黙の感情分析(ISA)は、表現に有能なキュー語が欠如していることで大きな課題となる。
本研究では,DO LLMの生成能力とED LLMの推論能力を利用した2段階推論フレームワークであるRVISAを提案する。
論文 参考訳(メタデータ) (2024-07-02T15:07:54Z) - Do LLMs Think Fast and Slow? A Causal Study on Sentiment Analysis [136.13390762317698]
感性分析(SA)は、製品レビューのようなテキストで表される感情を特定することを目的としている。
レビューとそれに関連する感情を踏まえると、この研究は2つのタスクの組み合わせとしてSAを定式化します。
総感情スコアがすべての文レベル感情の平均を近似するとC1、総感情スコアがピークとエンドの感情の平均を近似するとC2と分類する。
論文 参考訳(メタデータ) (2024-04-17T04:04:34Z) - nicolay-r at SemEval-2024 Task 3: Using Flan-T5 for Reasoning Emotion Cause in Conversations with Chain-of-Thought on Emotion States [1.9797215742507548]
我々は既存の三脚推論手法(THOR)を用いて、感情状態(THOR状態)と、一方の話者から他方の話者への感情(THOR原因)という、大きな言語モデルによる学習を行う。
最終提出は,Flan-T5ベース(250M)とルールベースのスパン補正技術に基づいて,THOR-stateで予備調整し,THOR-cause-rrで競技トレーニングデータに微調整し,第3位と第4位(F1-proportional)と第5位(F1-strict)を15チームで実施した。
論文 参考訳(メタデータ) (2024-04-04T11:03:33Z) - Faithful Chain-of-Thought Reasoning [51.21714389639417]
CoT(Chain-of-Thought)は言語モデル(LM)のパフォーマンスを様々な推論タスクで向上させる。
翻訳と問題解決という2つの段階を含む推論フレームワークであるFithful CoTを提案する。
このことは、推論連鎖が最終回答の忠実な説明を提供することを保証している。
論文 参考訳(メタデータ) (2023-01-31T03:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。