論文の概要: InterPrompt: Interpretable Prompting for Interrelated Interpersonal Risk
Factors in Reddit Posts
- arxiv url: http://arxiv.org/abs/2311.12404v1
- Date: Tue, 21 Nov 2023 07:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 01:43:43.688197
- Title: InterPrompt: Interpretable Prompting for Interrelated Interpersonal Risk
Factors in Reddit Posts
- Title(参考訳): InterPrompt:Reddit投稿における対人的リスク要因の解釈的プロンプト
- Authors: MSVPJ Sathvik, Surjodeep Sarkar, Chandni Saxena, Sunghwan Sohn, Muskan
Garg
- Abstract要約: メンタルヘルスの専門家と臨床医は、対人リスクファクター(IRF)による精神障害の増加を観察してきた
我々は,これらのIRFを同定するための文章的指標として,個人的物語におけるTBeとPBuの誤認を認めた。
本稿では,GPT-3モデルの微調整により注意機構を向上するInterpretable Prompting(InterPrompt)手法を提案する。
- 参考スコア(独自算出の注目度): 5.959395393233878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mental health professionals and clinicians have observed the upsurge of
mental disorders due to Interpersonal Risk Factors (IRFs). To simulate the
human-in-the-loop triaging scenario for early detection of mental health
disorders, we recognized textual indications to ascertain these IRFs : Thwarted
Belongingness (TBe) and Perceived Burdensomeness (PBu) within personal
narratives. In light of this, we use N-shot learning with GPT-3 model on the
IRF dataset, and underscored the importance of fine-tuning GPT-3 model to
incorporate the context-specific sensitivity and the interconnectedness of
textual cues that represent both IRFs.
In this paper, we introduce an Interpretable Prompting (InterPrompt)} method
to boost the attention mechanism by fine-tuning the GPT-3 model. This allows a
more sophisticated level of language modification by adjusting the pre-trained
weights. Our model learns to detect usual patterns and underlying connections
across both the IRFs, which leads to better system-level explainability and
trustworthiness. The results of our research demonstrate that all four variants
of GPT-3 model, when fine-tuned with InterPrompt, perform considerably better
as compared to the baseline methods, both in terms of classification and
explanation generation.
- Abstract(参考訳): メンタルヘルスの専門家や臨床医は、対人的リスクファクター(IRF)による精神障害の増加を観察している。
メンタルヘルス障害早期発見のためのヒューマン・イン・ザ・ループ・トリージングシナリオをシミュレートするために,これらのirf : thwarted belongingness (tbe) とemceed burdensomeness (pbu) を個人的物語の中で確認するためのテキスト的適応を見出した。
これを踏まえ、我々はIRFデータセット上でGPT-3モデルを用いてNショット学習を行い、両方のIRFを表すテキストキューの文脈特異的感度と相互接続性を組み込むため、微調整GPT-3モデルの重要性を強調した。
本稿では,GPT-3モデルの微調整により注意機構を向上するInterpretable Prompting(InterPrompt)手法を提案する。
これにより、事前訓練された重みを調整することで、より洗練された言語修正が可能になる。
我々のモデルは、irfをまたいだ通常のパターンや基盤となる接続を検出することを学び、システムレベルの説明性と信頼性の向上に繋がる。
本研究の結果から,InterPromptを微調整した場合のGPT-3モデルの全4変種は,分類および説明生成の両面において,ベースライン法と比較して有意に優れた性能を示した。
関連論文リスト
- Reshaping Free-Text Radiology Notes Into Structured Reports With Generative Transformers [0.29530625605275984]
構造化報告(SR)は様々な医療社会で推奨されている。
自由テキストレポートから情報を抽出するパイプラインを提案する。
我々の研究は自然言語処理(NLP)とトランスフォーマーベースのモデルを活用することを目的としている。
論文 参考訳(メタデータ) (2024-03-27T18:38:39Z) - Optimal path for Biomedical Text Summarization Using Pointer GPT [21.919661430250798]
GPTモデルは、事実の誤りを発生させ、文脈を欠き、言葉を単純化する傾向にある。
これらの制約に対処するため、GPTモデルの注意機構をポインタネットワークに置き換えた。
ROUGEスコアを用いてポインター-GPTモデルの有効性を評価した。
論文 参考訳(メタデータ) (2024-03-22T02:13:23Z) - Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text [9.26840677406494]
私たちはLoSTデータセットを使って、Redditユーザーの投稿に低い自尊心があることを示唆するニュアンスのあるテキストキューをキャプチャします。
以上の結果から, PLM の焦点を Trigger と Consequences からより包括的な説明に移行する必要性が示唆された。
論文 参考訳(メタデータ) (2024-01-12T17:19:14Z) - Text generation for dataset augmentation in security classification
tasks [55.70844429868403]
本研究では、複数のセキュリティ関連テキスト分類タスクにおいて、このデータギャップを埋めるための自然言語テキストジェネレータの適用性を評価する。
我々は,GPT-3データ拡張戦略において,既知の正のクラスサンプルに厳しい制約がある状況において,大きなメリットを見出した。
論文 参考訳(メタデータ) (2023-10-22T22:25:14Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Reliability Check: An Analysis of GPT-3's Response to Sensitive Topics
and Prompt Wording [0.0]
GPT-3を混乱させるものは何か、モデルが特定のセンシティブなトピックにどう反応するか、そしてモデル応答にどのような影響があるのかを解析する。
GPT-3は明らかな陰謀やステレオタイプと正しく一致しないが、一般的な誤解や論争では誤りを犯す。
モデル応答はプロンプトや設定に不整合であり、GPT-3の信頼性の欠如を強調している。
論文 参考訳(メタデータ) (2023-06-09T19:07:31Z) - Evaluating Psychological Safety of Large Language Models [72.88260608425949]
我々は,大規模言語モデル(LLM)の心理的安全性を評価するために,バイアスのないプロンプトを設計した。
短い暗黒トライアド(SD-3)とビッグファイブインベントリ(BFI)の2つのパーソナリティテストを用いて5種類のLDMを試験した。
毒性を減らすための安全基準を微調整したものの、InstructGPT, GPT-3.5, GPT-4は依然として暗い性格パターンを示した。
直接選好最適化を用いたBFIからの反応を微調整したLlama-2-chat-7Bは、モデルの心理的毒性を効果的に低減する。
論文 参考訳(メタデータ) (2022-12-20T18:45:07Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - News Summarization and Evaluation in the Era of GPT-3 [73.48220043216087]
GPT-3は,大規模な要約データセット上で訓練された微調整モデルと比較する。
我々は,GPT-3サマリーが圧倒的に好まれるだけでなく,タスク記述のみを用いることで,現実性に乏しいようなデータセット固有の問題に悩まされることも示している。
論文 参考訳(メタデータ) (2022-09-26T01:04:52Z) - Interpretable Fusion Analytics Framework for fMRI Connectivity: Self-Attention Mechanism and Latent Space Item-Response Model [0.4893345190925178]
本稿では,ディープラーニングプロセスの分類結果を解釈する新しい分析フレームワークを提案する。
この枠組みを4種類の認知障害に適用することにより,本手法が重要なROI関数の決定に有効であることを示す。
論文 参考訳(メタデータ) (2022-07-04T17:01:18Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。