論文の概要: When LLM Therapists Become Salespeople: Evaluating Large Language Models for Ethical Motivational Interviewing
- arxiv url: http://arxiv.org/abs/2503.23566v1
- Date: Sun, 30 Mar 2025 19:20:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.188307
- Title: When LLM Therapists Become Salespeople: Evaluating Large Language Models for Ethical Motivational Interviewing
- Title(参考訳): LLMセラピストがセールスマンになるとき--倫理的モチベーション面接のための大規模言語モデルの評価
- Authors: Haein Kong, Seonghyeon Moon,
- Abstract要約: 本研究では、動機づけ面接(MI)における大規模言語モデル(LLM)の倫理的意識について検討する。
以上の結果から, LLM は MI において中等度から強大な知識を持つが,その倫理基準は MI の精神と一致していないことが示唆された。
リスクを軽減し、安全性を向上させるためのチェーン・オブ・エシック・プロンプトを提案する。
- 参考スコア(独自算出の注目度): 2.4773924461831154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have been actively applied in the mental health field. Recent research shows the promise of LLMs in applying psychotherapy, especially motivational interviewing (MI). However, there is a lack of studies investigating how language models understand MI ethics. Given the risks that malicious actors can use language models to apply MI for unethical purposes, it is important to evaluate their capability of differentiating ethical and unethical MI practices. Thus, this study investigates the ethical awareness of LLMs in MI with multiple experiments. Our findings show that LLMs have a moderate to strong level of knowledge in MI. However, their ethical standards are not aligned with the MI spirit, as they generated unethical responses and performed poorly in detecting unethical responses. We proposed a Chain-of-Ethic prompt to mitigate those risks and improve safety. Finally, our proposed strategy effectively improved ethical MI response generation and detection performance. These findings highlight the need for safety evaluations and guidelines for building ethical LLM-powered psychotherapy.
- Abstract(参考訳): 大規模言語モデル(LLM)はメンタルヘルス分野に積極的に適用されている。
近年の研究では、精神療法、特にモチベーション・インタヴュー(MI)の適用においてLLMが期待されている。
しかし、言語モデルがMI倫理をどのように理解しているかを研究する研究は乏しい。
悪意あるアクターが言語モデルを用いて、非倫理的目的にMIを適用するリスクを考えれば、倫理的および非倫理的なMI実践を区別する能力を評価することが重要である。
そこで本研究では,複数実験によるMIにおけるLSMの倫理的意識について検討した。
以上の結果より LLM は MI において中等度から強大な知識を有することが明らかとなった。
しかし、その倫理的基準は、非倫理的応答を発生させ、非倫理的応答を検出できないため、MI精神と一致していない。
我々はこれらのリスクを軽減し、安全性を向上させるためのチェーン・オブ・エシック・プロンプトを提案した。
最後に,提案手法は倫理的MI応答生成と検出性能を効果的に改善する。
これらの知見は、倫理的LCMによる心理療法を構築するための安全性評価とガイドラインの必要性を強調している。
関連論文リスト
- The Only Way is Ethics: A Guide to Ethical Research with Large Language Models [53.316174782223115]
LLM倫理白書(LLM Ethics Whitepaper)は、NLP実践者のオープンリソースであり、他人の仕事の倫理的意味を評価することを担当する。
私たちの目標は、倫理文学を明確な第一歩で考えるための具体的な勧告や挑発に翻訳することです。
LLM倫理白書」は、文献の徹底的なレビューを、ドとドナの明確な解釈に駆り立てたもので、本論文にも紹介する。
論文 参考訳(メタデータ) (2024-12-20T16:14:43Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - MOSSBench: Is Your Multimodal Language Model Oversensitive to Safe Queries? [70.77691645678804]
人間は認知の歪みに傾向があり、特定の刺激に対する過大な反応を引き起こす偏見のある思考パターンがある。
本稿では,高度マルチモーダル言語モデル (MLLM) が同様の傾向を示すことを示す。
既存のMLLMの過敏性を引き起こす3種類の刺激を同定する。
論文 参考訳(メタデータ) (2024-06-22T23:26:07Z) - Can AI Relate: Testing Large Language Model Response for Mental Health Support [23.97212082563385]
大型言語モデル(LLM)はすでにニューヨーク・ラングーン、ダナ・ファーバー、NHSなどの病院システムで臨床使用のために試験されている。
精神医療の自動化に向けて, LLM 反応が有効かつ倫理的な道筋であるか否かを評価するための評価枠組みを開発する。
論文 参考訳(メタデータ) (2024-05-20T13:42:27Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - ALERT: A Comprehensive Benchmark for Assessing Large Language Models' Safety through Red Teaming [64.86326523181553]
ALERTは、新しいきめ細かいリスク分類に基づいて安全性を評価するための大規模なベンチマークである。
脆弱性を特定し、改善を通知し、言語モデルの全体的な安全性を高めることを目的としている。
論文 参考訳(メタデータ) (2024-04-06T15:01:47Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - Medical Misinformation in AI-Assisted Self-Diagnosis: Development of a Method (EvalPrompt) for Analyzing Large Language Models [4.8775268199830935]
本研究は、自己診断ツールとしての大規模言語モデル(LLM)の有効性と、医療情報の拡散における役割を評価することを目的とする。
我々は,実世界の自己診断を模倣するオープンエンド質問を用いて,現実的な自己診断を模倣する文のドロップアウトを行い,情報不足を伴う現実的な自己診断を模倣する。
その結果, LLMの応答が不明確で不正確な場合が多いため, LLMの質素な機能を強調した。
論文 参考訳(メタデータ) (2023-07-10T21:28:26Z) - "Oops, Did I Just Say That?" Testing and Repairing Unethical Suggestions
of Large Language Models with Suggest-Critique-Reflect Process [8.088370606758431]
本稿では,LLMによる非倫理的提案を検証し,修復するための最初の枠組みを紹介する。
まず,LLMをテストするための複雑な,コンテキスト化された,現実的な道徳的シナリオを提示するテストスイートETHICSSUITEを提案する。
次に、非倫理的提案を検出するための自動テストオラクルとして機能する、新しい提案-批判-反射(SCR)プロセスを提案する。
論文 参考訳(メタデータ) (2023-05-04T08:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。