論文の概要: Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts
- arxiv url: http://arxiv.org/abs/2307.02768v1
- Date: Thu, 6 Jul 2023 04:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 15:14:11.970897
- Title: Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts
- Title(参考訳): 未知の思考の生成、認識、再編成のためのトレーニングモデル
- Authors: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran,
Y-Lan Boureau
- Abstract要約: 本研究は,現行の言語モデルを用いて,標準的非ヘルパフル思考パターンを記述した実践資料を,事実上無制限に生成できるかどうかを考察する。
PATREFRAMEは、与えられたペルソナに条件付けされた不愉快な思考パターンを含む、約10kの思考例の新たなデータセットで、約27kの肯定的な再フレームを伴って提案する。
- 参考スコア(独自算出の注目度): 24.308016164074694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many cognitive approaches to well-being, such as recognizing and reframing
unhelpful thoughts, have received considerable empirical support over the past
decades, yet still lack truly widespread adoption in self-help format. A
barrier to that adoption is a lack of adequately specific and diverse dedicated
practice material. This work examines whether current language models can be
leveraged to both produce a virtually unlimited quantity of practice material
illustrating standard unhelpful thought patterns matching specific given
contexts, and generate suitable positive reframing proposals. We propose
PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing
unhelpful thought patterns conditioned on a given persona, accompanied by about
27k positive reframes. By using this dataset to train and/or evaluate current
models, we show that existing models can already be powerful tools to help
generate an abundance of tailored practice material and hypotheses, with no or
minimal additional model training required.
- Abstract(参考訳): 健康に対する多くの認知的アプローチは、例えば無力な思考を認識して再フレーミングするなど、過去数十年にわたってかなりの実証的支援を受けてきたが、それでも本当に広く自己啓発の形式に採用されていない。
その採用の障壁は、適切に特定され、多様な専門的な実践材料がないことです。
本研究は,現在使われている言語モデルを用いて,特定の文脈に適合する標準的な無ヘルペスな思考パターンを記述し,適切な肯定的再フレーミング提案を生成することができるかを検討する。
PATTERNREFRAMEは、与えられたペルソナに条件付けされた不愉快な思考パターンを含む、およそ10kの思考例からなる、新しいデータセットである。
このデータセットを使用して現在のモデルをトレーニングおよび/または評価することにより、既存のモデルは、必要最小限のモデルトレーニングを必要とせずに、多数の調整済みの練習資料と仮説を生成するのに有効なツールであることが示されます。
関連論文リスト
- Occam's model: Selecting simpler representations for better transferability estimation [5.329941688969535]
本稿では,事前学習したモデルの伝達可能性を評価するための2つの新しい指標を提案する。
さまざまな問題設定にまたがる最先端の代替手段に対して、提案した指標を厳格に評価する。
我々は、我々の測定値が最先端のベースラインと比較して、KendallのTauを最大32%増加させることを実験的に示した。
論文 参考訳(メタデータ) (2025-02-10T18:23:24Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - The Art of Saying No: Contextual Noncompliance in Language Models [123.383993700586]
本稿では,ユーザの要求に従わないモデルについて,コンテキスト非準拠の包括的分類を導入する。
我々の分類は、不完全、不完全、不完全、不決定、人為的要求を含む幅広いカテゴリーにまたがる。
言語モデルの非準拠性をテストするために,1000個の非準拠プロンプトの新たな評価スイートを開発するために,この分類法を用いる。
論文 参考訳(メタデータ) (2024-07-02T07:12:51Z) - When is an Embedding Model More Promising than Another? [33.540506562970776]
埋め込みは機械学習において中心的な役割を担い、あらゆるオブジェクトを数値表現に投影し、様々な下流タスクを実行するために利用することができる。
埋め込みモデルの評価は一般にドメイン固有の経験的アプローチに依存する。
本稿では, 組込み器の評価を統一的に行い, 充足性と情報性の概念を考察する。
論文 参考訳(メタデータ) (2024-06-11T18:13:46Z) - Operationalizing Specifications, In Addition to Test Sets for Evaluating
Constrained Generative Models [17.914521288548844]
生成モデルのスケールは、評価自体が実行される抽象レベルを高めるために利用することができると論じる。
我々の勧告は、生成品質を評価するための強力な手段として仕様を活用することに基づいている。
論文 参考訳(メタデータ) (2022-11-19T06:39:43Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Self-training with Few-shot Rationalization: Teacher Explanations Aid
Student in Few-shot NLU [88.8401599172922]
タスク固有のラベルと合理的性に制限された自己学習言語モデルに基づくフレームワークを開発する。
ニューラルネットワークの性能は,その合理的な予測を意識することで,大幅に向上できることを示す。
論文 参考訳(メタデータ) (2021-09-17T00:36:46Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Mnemonics Training: Multi-Class Incremental Learning without Forgetting [131.1065577648532]
マルチクラスインクリメンタルラーニング(MCIL)は、従来の概念に基づいてトレーニングされたモデルを漸進的に更新することで、新しい概念を学習することを目的としている。
本稿では,前例をパラメータ化し,エンドツーエンドで最適化できるようにする,新しい,かつ自動的なフレームワークを提案する。
CIFAR-100, ImageNet-Subset, ImageNet の3つのMCILベンチマークで大規模な実験を行い, メニーモニック・エスペクタの使用が最先端をはるかに上回ることを示す。
論文 参考訳(メタデータ) (2020-02-24T12:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。