論文の概要: Socratic Reasoning Improves Positive Text Rewriting
- arxiv url: http://arxiv.org/abs/2403.03029v2
- Date: Thu, 20 Mar 2025 13:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:31:58.594308
- Title: Socratic Reasoning Improves Positive Text Rewriting
- Title(参考訳): Socratic Reasoningはポジティブテキストの書き直しを改善する
- Authors: Anmol Goel, Nico Daheim, Christian Montag, Iryna Gurevych,
- Abstract要約: 否定的思考を肯定的思考に反映することは、精神保健や心理療法に対するいくつかの認知的アプローチの欠如である。
我々は、思考の書き直しプロセスを合理化するために、textscSocraticReframeと呼ばれる新しいフレームワークを開発した。
- 参考スコア(独自算出の注目度): 49.32560132826547
- License:
- Abstract: Reframing a negative into a positive thought is at the crux of several cognitive approaches to mental health and psychotherapy that could be made more accessible by large language model-based solutions. Such reframing is typically non-trivial and requires multiple rationalization steps to uncover the underlying issue of a negative thought and transform it to be more positive. However, this rationalization process is currently neglected by both datasets and models which reframe thoughts in one step. In this work, we address this gap by augmenting open-source datasets for positive text rewriting with synthetically-generated Socratic rationales using a novel framework called \textsc{SocraticReframe}. SocraticReframe uses a sequence of question-answer pairs to rationalize the thought rewriting process. We show that such Socratic rationales significantly improve positive text rewriting for different open-source LLMs according to both automatic and human evaluations guided by criteria from psychotherapy research. We validate our framework and the synthetic rationalizations with expert judgements from domain experts and psychology students in an IRB-approved annotation study. Our findings highlight the potential of utilizing the synergy between LLM reasoning and established psychotherapy techniques to build assistive solutions for reframing negative thoughts.
- Abstract(参考訳): 否定的思考を肯定的思考に反映させることは、大きな言語モデルベースのソリューションによってよりアクセスしやすくできる、メンタルヘルスと心理療法に対するいくつかの認知的アプローチの要点である。
このような再フレーミングは典型的に非自明であり、否定的思考の根底にある問題を解明し、より肯定的になるように変換するために複数の合理化ステップを必要とする。
しかしながら、この合理化プロセスは、現在、あるステップで思考を再編成するデータセットとモデルの両方によって無視されています。
本研究では,このギャップに対処するため,オープンソースのデータセットを,合成生成ソクラティック論理を用いた正のテキスト書き直しのために,‘textsc{SocraticReframe}’と呼ばれる新しいフレームワークを用いて拡張する。
SocraticReframeは一連の質問と回答のペアを使って思考の書き直しプロセスを合理化します。
このようなソクラテス的合理性は、心理療法研究の基準によって導かれる自動評価と人的評価の両方に応じて、異なるオープンソース LLM に対する肯定的なテキスト書き換えを著しく改善することを示します。
IRBが承認した注釈研究において、ドメインの専門家や心理学生による専門家の判断による枠組みと合理化の合理化を検証した。
本研究は, LLM推論と確立された心理療法の相乗効果を利用して, 否定的思考をリフレーミングするための支援ソリューションを構築する可能性を明らかにするものである。
関連論文リスト
- Toward Adaptive Reasoning in Large Language Models with Thought Rollback [33.714789952452094]
本稿では,Thought Rollback (TR) と呼ばれる新しい推論フレームワークを提案する。
TRにより、大規模言語モデル(LLM)は、幻覚下での問題解決に向けた効果的な推論を維持しつつ、思考構造を適応的に構築することができる」。
論文 参考訳(メタデータ) (2024-12-27T16:02:34Z) - Thought-Path Contrastive Learning via Premise-Oriented Data Augmentation for Logical Reading Comprehension [9.67774998354062]
これまでの研究は主に、Chain-of-Thought(CoT)やデータ拡張による論理的推論能力の向上に重点を置いてきた。
本稿では,CoTの論理式を生成するためのPODA(Premise-Oriented Data Augmentation)フレームワークを提案する。
また,本論文では,原案と反実例の推論経路を比較検討する新たな思考経路コントラスト学習手法についても紹介する。
論文 参考訳(メタデータ) (2024-09-22T15:44:43Z) - Promoting Constructive Deliberation: Reframing for Receptiveness [5.4346288442609945]
本稿では,先行コメントに対する信号受容性に対する不一致応答の自動再フレーミングを提案する。
リフレーミングの6つの戦略を特定します。Redditデータセットを使用して、各戦略に従ってコメントに対する返信を自動的にリフレッシュします。
その結果,本フレームワークで生成した応答は,元の応答よりもはるかに受容性が高いと認識され,汎用的な受容性ベースラインであることが判明した。
論文 参考訳(メタデータ) (2024-05-23T21:35:22Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Generating Chain-of-Thoughts with a Pairwise-Comparison Approach to Searching for the Most Promising Intermediate Thought [70.30423016640749]
CoT法(Chain-of- Thoughts)は、大規模言語モデルにステップバイステップの推論を誘導し、単純から複雑への問題解決を可能にする手法である。
大規模言語モデル (LLMs) による評価は、一般的にうるさく、信頼できないものであり、将来有望な中間的思考を選択する際の生成過程を誤解させる可能性がある。
本稿では,Vapnikの原理を動機として,ポイントワイドスコアではなくペアワイズ比較評価を用いて,有望な中間思考を探索する。
論文 参考訳(メタデータ) (2024-02-10T09:51:03Z) - Negotiated Reasoning: On Provably Addressing Relative
Over-Generalization [49.5896371203566]
過度に一般化することは認知科学における厄介な問題であり、人々は過去の経験のために過度に慎重になる可能性がある。
マルチエージェント強化学習(MARL)のエージェントも、人々が行うように相対的な過剰一般化(RO)に悩まされ、準最適協力に固執している。
近年, エージェントに対する推論能力の割り当てはアルゴリズム的にも経験的にもROを緩和できることが示されたが, ROの理論的理解は乏しい。
論文 参考訳(メタデータ) (2023-06-08T16:57:12Z) - Cognitive Reframing of Negative Thoughts through Human-Language Model
Interaction [7.683627834905736]
我々は、言語モデルが人々の否定的思考の緩和にどのように役立つかを人間中心で研究する。
文献に基づいて、思考の再編成に使用できる7つの言語属性の枠組みを定義する。
実践者から600の状況、思考、リフレームのデータセットを収集し、それを検索に強化されたテキスト内学習モデルのトレーニングに使用します。
論文 参考訳(メタデータ) (2023-05-04T00:12:52Z) - Interlock-Free Multi-Aspect Rationalization for Text Classification [33.33452117387646]
マルチアスペクト設定におけるインターロック問題に対処することを示す。
自己監督型コントラスト損失を付加した多段階学習手法を提案する。
ビールレビューデータセットにおける実験結果から,本手法は合理化性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-05-13T16:38:38Z) - Improving Response Quality with Backward Reasoning in Open-domain
Dialogue Systems [53.160025961101354]
本稿では,バニラエンコーダデコーダトレーニングに後方推論ステップを追加することで,生成モデルを双方向にトレーニングすることを提案する。
提案する後方推論ステップは、モデルがより有益で一貫性のあるコンテンツを生成するように促す。
副次的な情報を導入することなく応答品質を向上させることができる。
論文 参考訳(メタデータ) (2021-04-30T20:38:27Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。