論文の概要: Socratic Reasoning Improves Positive Text Rewriting
- arxiv url: http://arxiv.org/abs/2403.03029v1
- Date: Tue, 5 Mar 2024 15:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 14:32:32.430305
- Title: Socratic Reasoning Improves Positive Text Rewriting
- Title(参考訳): Socratic Reasoningはポジティブテキストの書き直しを改善する
- Authors: Anmol Goel, Nico Daheim, Iryna Gurevych
- Abstract要約: textscSocraticReframeは、一連の質問応答ペアを使用して思考書き換えプロセスの合理化を行う。
ソクラテス的合理性は、心理療法研究の基準によって導かれる自動的評価と人的評価の両方に応じて、肯定的な文章の書き直しを著しく改善することを示した。
- 参考スコア(独自算出の注目度): 60.56097569286398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reframing a negative into a positive thought is at the crux of several
cognitive approaches to mental health and psychotherapy that could be made more
accessible by large language model-based solutions. Such reframing is typically
non-trivial and requires multiple rationalization steps to uncover the
underlying issue of a negative thought and transform it to be more positive.
However, this rationalization process is currently neglected by both datasets
and models which reframe thoughts in one step. In this work, we address this
gap by augmenting open-source datasets for positive text rewriting with
synthetically-generated Socratic rationales using a novel framework called
\textsc{SocraticReframe}. \textsc{SocraticReframe} uses a sequence of
question-answer pairs to rationalize the thought rewriting process. We show
that such Socratic rationales significantly improve positive text rewriting for
different open-source LLMs according to both automatic and human evaluations
guided by criteria from psychotherapy research.
- Abstract(参考訳): 否定を肯定的な思考に反映することは、メンタルヘルスや精神療法に対する認知的アプローチの頂点であり、大規模な言語モデルに基づくソリューションによってよりアクセスしやすいものにすることができる。
このような再フレーミングは典型的には非自明であり、否定的思考の根本的な問題を明らかにするために複数の合理化ステップが必要となる。
しかし、この合理化プロセスは、データセットとモデルの両方によって無視されている。
本研究では,このギャップに対処するため,オープンソースのデータセットを,合成生成ソクラティック論理を用いた正のテキスト書き換えのために,新しいフレームワークであるtextsc{SocraticReframe} を用いて拡張する。
\textsc{socraticreframe} は一連の質問と回答のペアを使って思考の書き直しプロセスを合理化する。
このようなソクラテス的合理化は,精神療法研究の基準に基づく自動評価と人的評価の両方により,異なるオープンソースllmに対する正のテキスト書き換えを有意に改善することを示した。
関連論文リスト
- Few shot chain-of-thought driven reasoning to prompt LLMs for open ended
medical question answering [25.163347677278182]
我々は,実生活における臨床シナリオを模倣するために,主観的なMedQA-USMLEデータセットの修正版を提案する。
我々は、主観的なMedQAデータセットに対して、arXiv:2207.08143から5-shot-codex-CoT-promptを修正し、インクリメンタル推論のプロンプトを開発することで、より良いコントラスト学習戦略を開発する。
論文 参考訳(メタデータ) (2024-03-07T20:48:40Z) - HGOT: Hierarchical Graph of Thoughts for Retrieval-Augmented In-Context
Learning in Factuality Evaluation [22.67877393864983]
本稿では,文脈内学習における関連する文節の検索を促進するために,階層的思考グラフ(HGOT)を導入する。
このフレームワークは、複雑なクエリを管理可能なサブクエリに分割する、分割/クエリ戦略を採用している。
それは、最近提案された引用リコールと精度の指標を取り入れた、回答の選択のための自己一貫性の過半数投票を洗練する。
論文 参考訳(メタデータ) (2024-02-14T18:41:19Z) - Generating Chain-of-Thoughts with a Direct Pairwise-Comparison Approach
to Searching for the Most Promising Intermediate Thought [75.42560889109559]
思考の連鎖(CoT)法は、大きな言語モデルにステップバイステップの推論を導くために提案された。
大規模言語モデル(LLM)による評価は一般的にノイズが多く、信頼性が低いため、生成プロセスの誤解を招く可能性がある。
本稿では,最も有望な思考を直接識別する比較に基づくCoT生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-10T09:51:03Z) - Negotiated Reasoning: On Provably Addressing Relative
Over-Generalization [49.5896371203566]
過度に一般化することは認知科学における厄介な問題であり、人々は過去の経験のために過度に慎重になる可能性がある。
マルチエージェント強化学習(MARL)のエージェントも、人々が行うように相対的な過剰一般化(RO)に悩まされ、準最適協力に固執している。
近年, エージェントに対する推論能力の割り当てはアルゴリズム的にも経験的にもROを緩和できることが示されたが, ROの理論的理解は乏しい。
論文 参考訳(メタデータ) (2023-06-08T16:57:12Z) - SpellMapper: A non-autoregressive neural spellchecker for ASR
customization with candidate retrieval based on n-gram mappings [76.87664008338317]
文脈スペル補正モデルは、音声認識を改善するために浅い融合に代わるものである。
ミススペルn-gramマッピングに基づく候補探索のための新しいアルゴリズムを提案する。
Spoken Wikipediaの実験では、ベースラインのASRシステムに比べて21.4%のワードエラー率の改善が見られた。
論文 参考訳(メタデータ) (2023-06-04T10:00:12Z) - Cognitive Reframing of Negative Thoughts through Human-Language Model
Interaction [7.683627834905736]
我々は、言語モデルが人々の否定的思考の緩和にどのように役立つかを人間中心で研究する。
文献に基づいて、思考の再編成に使用できる7つの言語属性の枠組みを定義する。
実践者から600の状況、思考、リフレームのデータセットを収集し、それを検索に強化されたテキスト内学習モデルのトレーニングに使用します。
論文 参考訳(メタデータ) (2023-05-04T00:12:52Z) - NapSS: Paragraph-level Medical Text Simplification via Narrative
Prompting and Sentence-matching Summarization [46.772517928718216]
そこで我々はNapSSと呼ばれる2段階戦略を提案する。
NapSSは、オリジナルの物語の流れが保存されていることを保証しながら、関連コンテンツを特定し、単純化する。
本モデルは,英語医療コーパスのSeq2seqベースラインよりも有意に優れている。
論文 参考訳(メタデータ) (2023-02-11T02:20:25Z) - Interlock-Free Multi-Aspect Rationalization for Text Classification [33.33452117387646]
マルチアスペクト設定におけるインターロック問題に対処することを示す。
自己監督型コントラスト損失を付加した多段階学習手法を提案する。
ビールレビューデータセットにおける実験結果から,本手法は合理化性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-05-13T16:38:38Z) - Improving Response Quality with Backward Reasoning in Open-domain
Dialogue Systems [53.160025961101354]
本稿では,バニラエンコーダデコーダトレーニングに後方推論ステップを追加することで,生成モデルを双方向にトレーニングすることを提案する。
提案する後方推論ステップは、モデルがより有益で一貫性のあるコンテンツを生成するように促す。
副次的な情報を導入することなく応答品質を向上させることができる。
論文 参考訳(メタデータ) (2021-04-30T20:38:27Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。