論文の概要: Boosting Self-Efficacy and Performance of Large Language Models via Verbal Efficacy Stimulations
- arxiv url: http://arxiv.org/abs/2502.06669v1
- Date: Mon, 10 Feb 2025 16:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:18.990399
- Title: Boosting Self-Efficacy and Performance of Large Language Models via Verbal Efficacy Stimulations
- Title(参考訳): 言語モデルによる言語モデルの自己効用向上と性能向上
- Authors: Rui Chen, Tailai Peng, Xinran Xie, Dekun Lin, Zhe Cui, Zheng Chen,
- Abstract要約: 本稿では,VES(Verbal Efficacy Stimulations)を紹介する。
VESは、助力や能力といった6つの側面に対処する、励まし、挑発的、批判的な3つの言語プロンプトから構成される。
実験結果から,3種類のVESはLLMの性能を向上し,最も有効なVESはモデルによって異なることがわかった。
- 参考スコア(独自算出の注目度): 10.209999691197948
- License:
- Abstract: Significant improvements have been observed in the zero-shot capabilities of the Large Language Models (LLMs). Due to their high sensitivity to input, research has increasingly focused on enhancing LLMs' performance via direct and simple prompt engineering rather than intricate domain adaptation. Studies suggest that LLMs exhibit emotional intelligence, and both positive and negative emotions can potentially enhance task performances. However, prior interaction prompts have predominantly concentrated on a single stimulus type, neglecting to compare different stimulus effects, examine the influence of varying task difficulties, or explore underlying mechanisms. This paper, inspired by the positive correlation between self-efficacy and task performance within the social cognitive theory, introduces Verbal Efficacy Stimulations (VES). Our VES comprises three types of verbal prompts: encouraging, provocative, and critical, addressing six aspects such as helpfulness and competence. And we further categorize task difficulty, aiming to extensively investigate how distinct VES influence the self-efficacy and task achievements of language models at varied levels of difficulty. The experimental results show that the three types of VES improve the performance of LLMs on most tasks, and the most effective VES varies for different models. In extensive experiments, we have obtained some findings consistent with psychological theories, providing novel insights for future research.
- Abstract(参考訳): 大きな言語モデル(LLM)のゼロショット機能において、重要な改善が見られた。
入力に対する感度が高いことから、複雑なドメイン適応よりも直接的かつ単純なプロンプトエンジニアリングによるLCMの性能向上に重点を置いている。
LLMは感情的知性を示し、肯定的感情と否定的感情の両方がタスクパフォーマンスを高める可能性があることを研究は示唆している。
しかしながら、先行的な相互作用のプロンプトは、主に単一の刺激タイプに集中しており、異なる刺激効果の比較、様々なタスク障害の影響の調査、または基礎となるメカニズムの探索を怠っている。
本稿では,社会的認知理論における自己効力感とタスクパフォーマンスの正の相関に着想を得て,言語効力感刺激(VES)を導入した。
我々のVESは、助力や能力といった6つの側面に対処する、励まし、挑発的、批判的な3つのタイプの言語プロンプトで構成されています。
さらに,VESの違いが言語モデルの自己効力性と課題達成に与える影響を,様々な難易度で広く検討することを目的として,課題難易度を分類した。
実験結果から,3種類のVESはLLMの性能を向上し,最も有効なVESはモデルによって異なることがわかった。
広範な実験において,心理学的理論と整合したいくつかの知見が得られ,今後の研究に新たな知見が得られた。
関連論文リスト
- ReVISE: Learning to Refine at Test-Time via Intrinsic Self-Verification [53.80183105328448]
Refine via Intrinsic Self-Verification (ReVISE)は、LLMが自己検証を通じてアウトプットを自己修正できる効率的なフレームワークである。
様々な推論タスクに関する実験により、ReVISEは効率的な自己補正を実現し、推論性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-02-20T13:50:02Z) - Evaluating Vision-Language Models for Emotion Recognition [1.7409710986849658]
本稿では、画像から誘発された感情を認識するために、VLM(Large Vision-Language Models)を初めて包括的に評価する。
いくつかの実験を通して、感情認識性能が依存する重要な要因を明らかにし、その過程でVLMが犯した様々な誤りを特徴付ける。
論文 参考訳(メタデータ) (2025-02-08T18:25:31Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - Limitations in Employing Natural Language Supervision for Sensor-Based Human Activity Recognition -- And Ways to Overcome Them [10.878632018296326]
自然言語と他のモダリティ間のクロスモーダルなコントラスト事前学習は、驚くべき性能と有効性を示している。
ウェアラブルセンサを用いたヒューマンアクティビティ認識(HAR)において,このような自然言語の監視が有効かどうかを検討する。
当然のことながら、通常のエンドツーエンドのトレーニングやセルフスーパービジョンよりもはるかにパフォーマンスが劣っていることが分かりました。
論文 参考訳(メタデータ) (2024-08-21T22:30:36Z) - NegativePrompt: Leveraging Psychology for Large Language Models Enhancement via Negative Emotional Stimuli [21.846500669385193]
大規模言語モデル(LLM)は幅広い応用に不可欠なものとなっている。
LLMには感情的な知性があり、肯定的な感情刺激によってさらに発展することができる。
心理学的原理に基づく新しいアプローチであるNegativePromptを紹介する。
論文 参考訳(メタデータ) (2024-05-05T05:06:07Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。