論文の概要: Socratic Reasoning Improves Positive Text Rewriting
- arxiv url: http://arxiv.org/abs/2403.03029v1
- Date: Tue, 5 Mar 2024 15:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:32:32.430305
- Title: Socratic Reasoning Improves Positive Text Rewriting
- Title(参考訳): Socratic Reasoningはポジティブテキストの書き直しを改善する
- Authors: Anmol Goel, Nico Daheim, Iryna Gurevych
- Abstract要約: textscSocraticReframeは、一連の質問応答ペアを使用して思考書き換えプロセスの合理化を行う。
ソクラテス的合理性は、心理療法研究の基準によって導かれる自動的評価と人的評価の両方に応じて、肯定的な文章の書き直しを著しく改善することを示した。
- 参考スコア(独自算出の注目度): 60.56097569286398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reframing a negative into a positive thought is at the crux of several
cognitive approaches to mental health and psychotherapy that could be made more
accessible by large language model-based solutions. Such reframing is typically
non-trivial and requires multiple rationalization steps to uncover the
underlying issue of a negative thought and transform it to be more positive.
However, this rationalization process is currently neglected by both datasets
and models which reframe thoughts in one step. In this work, we address this
gap by augmenting open-source datasets for positive text rewriting with
synthetically-generated Socratic rationales using a novel framework called
\textsc{SocraticReframe}. \textsc{SocraticReframe} uses a sequence of
question-answer pairs to rationalize the thought rewriting process. We show
that such Socratic rationales significantly improve positive text rewriting for
different open-source LLMs according to both automatic and human evaluations
guided by criteria from psychotherapy research.
- Abstract(参考訳): 否定を肯定的な思考に反映することは、メンタルヘルスや精神療法に対する認知的アプローチの頂点であり、大規模な言語モデルに基づくソリューションによってよりアクセスしやすいものにすることができる。
このような再フレーミングは典型的には非自明であり、否定的思考の根本的な問題を明らかにするために複数の合理化ステップが必要となる。
しかし、この合理化プロセスは、データセットとモデルの両方によって無視されている。
本研究では,このギャップに対処するため,オープンソースのデータセットを,合成生成ソクラティック論理を用いた正のテキスト書き換えのために,新しいフレームワークであるtextsc{SocraticReframe} を用いて拡張する。
\textsc{socraticreframe} は一連の質問と回答のペアを使って思考の書き直しプロセスを合理化する。
このようなソクラテス的合理化は,精神療法研究の基準に基づく自動評価と人的評価の両方により,異なるオープンソースllmに対する正のテキスト書き換えを有意に改善することを示した。
関連論文リスト
- Thought-Path Contrastive Learning via Premise-Oriented Data Augmentation for Logical Reading Comprehension [9.67774998354062]
これまでの研究は主に、Chain-of-Thought(CoT)やデータ拡張による論理的推論能力の向上に重点を置いてきた。
本稿では,CoTの論理式を生成するためのPODA(Premise-Oriented Data Augmentation)フレームワークを提案する。
また,本論文では,原案と反実例の推論経路を比較検討する新たな思考経路コントラスト学習手法についても紹介する。
論文 参考訳(メタデータ) (2024-09-22T15:44:43Z) - Promoting Constructive Deliberation: Reframing for Receptiveness [5.4346288442609945]
本稿では,先行コメントに対する信号受容性に対する不一致応答の自動再フレーミングを提案する。
リフレーミングの6つの戦略を特定します。Redditデータセットを使用して、各戦略に従ってコメントに対する返信を自動的にリフレッシュします。
その結果,本フレームワークで生成した応答は,元の応答よりもはるかに受容性が高いと認識され,汎用的な受容性ベースラインであることが判明した。
論文 参考訳(メタデータ) (2024-05-23T21:35:22Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Generating Chain-of-Thoughts with a Pairwise-Comparison Approach to Searching for the Most Promising Intermediate Thought [70.30423016640749]
CoT法(Chain-of- Thoughts)は、大規模言語モデルにステップバイステップの推論を誘導し、単純から複雑への問題解決を可能にする手法である。
大規模言語モデル (LLMs) による評価は、一般的にうるさく、信頼できないものであり、将来有望な中間的思考を選択する際の生成過程を誤解させる可能性がある。
本稿では,Vapnikの原理を動機として,ポイントワイドスコアではなくペアワイズ比較評価を用いて,有望な中間思考を探索する。
論文 参考訳(メタデータ) (2024-02-10T09:51:03Z) - Negotiated Reasoning: On Provably Addressing Relative
Over-Generalization [49.5896371203566]
過度に一般化することは認知科学における厄介な問題であり、人々は過去の経験のために過度に慎重になる可能性がある。
マルチエージェント強化学習(MARL)のエージェントも、人々が行うように相対的な過剰一般化(RO)に悩まされ、準最適協力に固執している。
近年, エージェントに対する推論能力の割り当てはアルゴリズム的にも経験的にもROを緩和できることが示されたが, ROの理論的理解は乏しい。
論文 参考訳(メタデータ) (2023-06-08T16:57:12Z) - Cognitive Reframing of Negative Thoughts through Human-Language Model
Interaction [7.683627834905736]
我々は、言語モデルが人々の否定的思考の緩和にどのように役立つかを人間中心で研究する。
文献に基づいて、思考の再編成に使用できる7つの言語属性の枠組みを定義する。
実践者から600の状況、思考、リフレームのデータセットを収集し、それを検索に強化されたテキスト内学習モデルのトレーニングに使用します。
論文 参考訳(メタデータ) (2023-05-04T00:12:52Z) - NapSS: Paragraph-level Medical Text Simplification via Narrative
Prompting and Sentence-matching Summarization [46.772517928718216]
そこで我々はNapSSと呼ばれる2段階戦略を提案する。
NapSSは、オリジナルの物語の流れが保存されていることを保証しながら、関連コンテンツを特定し、単純化する。
本モデルは,英語医療コーパスのSeq2seqベースラインよりも有意に優れている。
論文 参考訳(メタデータ) (2023-02-11T02:20:25Z) - Interlock-Free Multi-Aspect Rationalization for Text Classification [33.33452117387646]
マルチアスペクト設定におけるインターロック問題に対処することを示す。
自己監督型コントラスト損失を付加した多段階学習手法を提案する。
ビールレビューデータセットにおける実験結果から,本手法は合理化性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-05-13T16:38:38Z) - Improving Response Quality with Backward Reasoning in Open-domain
Dialogue Systems [53.160025961101354]
本稿では,バニラエンコーダデコーダトレーニングに後方推論ステップを追加することで,生成モデルを双方向にトレーニングすることを提案する。
提案する後方推論ステップは、モデルがより有益で一貫性のあるコンテンツを生成するように促す。
副次的な情報を導入することなく応答品質を向上させることができる。
論文 参考訳(メタデータ) (2021-04-30T20:38:27Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。