論文の概要: "Even GPT Can Reject Me": Conceptualizing Abrupt Refusal Secondary Harm (ARSH) and Reimagining Psychological AI Safety with Compassionate Completion Standard (CCS)
- arxiv url: http://arxiv.org/abs/2512.18776v1
- Date: Sun, 21 Dec 2025 15:31:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.498114
- Title: "Even GPT Can Reject Me": Conceptualizing Abrupt Refusal Secondary Harm (ARSH) and Reimagining Psychological AI Safety with Compassionate Completion Standard (CCS)
- Title(参考訳): Even GPT can Reject me: conceptualizing Abrupt Refusal Second Harm (ARSH) and Reimagining Psychoological AI Safety with Compassionate Completion Standard (CCS)
- Authors: Yang Ni, Tong Yang,
- Abstract要約: 我々は、突然の拒絶は、関係性の連続性に対する認識を破裂させ、拒絶や恥の感情を誘発し、将来的な支援を阻止する可能性があると論じている。
本稿では,リレーショナルコヒーレンスを保ちながら安全性の制約を維持する設計仮説であるコンパシオント・コンプリート・スタンダードを提案する。
この視点は、タイムリーな概念的枠組みに寄与し、テスト可能な設計仮説を明確にし、人間のAIインタラクションにおける心理的安全性を改善するための協調的な研究課題を概説する。
- 参考スコア(独自算出の注目度): 10.377213441117618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) and AI chatbots are increasingly used for emotional and mental health support due to their low cost, immediacy, and accessibility. However, when safety guardrails are triggered, conversations may be abruptly terminated, introducing a distinct form of emotional disruption that can exacerbate distress and elevate risk among already vulnerable users. As this phenomenon gains attention, this viewpoint introduces Abrupt Refusal Secondary Harm (ARSH) as a conceptual framework to describe the psychological impacts of sudden conversational discontinuation caused by AI safety protocols. Drawing on counseling psychology and communication science as conceptual heuristics, we argue that abrupt refusals can rupture perceived relational continuity, evoke feelings of rejection or shame, and discourage future help seeking. To mitigate these risks, we propose a design hypothesis, the Compassionate Completion Standard (CCS), a refusal protocol grounded in Human Centered Design (HCD) that maintains safety constraints while preserving relational coherence. CCS emphasizes empathetic acknowledgment, transparent boundary articulation, graded conversational transition, and guided redirection, replacing abrupt disengagement with psychologically attuned closure. By integrating awareness of ARSH into AI safety design, developers and policymakers can reduce preventable iatrogenic harm and advance a more psychologically informed approach to AI governance. Rather than presenting incremental empirical findings, this viewpoint contributes a timely conceptual framework, articulates a testable design hypothesis, and outlines a coordinated research agenda for improving psychological safety in human AI interaction.
- Abstract(参考訳): 大規模言語モデル(LLM)とAIチャットボットは、低コスト、即時性、アクセシビリティのため、感情的および精神的な健康支援にますます利用されている。
しかし、安全ガードレールが起動されると、会話が突然終了し、苦痛を悪化させ、すでに脆弱なユーザーの間でリスクを増大させる、明確な感情的な混乱をもたらす可能性がある。
この現象が注目されるにつれて、AI安全プロトコルによる突然の会話停止の心理的影響を説明する概念的枠組みとして、Abrupt Refusal Second Harm(ARSH)が紹介される。
心理学とコミュニケーション科学を概念的ヒューリスティックとしてカウンセリングすることで、突然の拒絶は関係性の連続性を破滅させ、拒絶や恥の感情を誘発し、将来的な支援を阻止できると論じる。
これらのリスクを軽減するために,Human Centered Design (HCD) を基盤としたリファレンスプロトコルであるCompassionate Completion Standard (CCS) を提案する。
CCSは、共感的認知、透明な境界明瞭化、段階的な会話遷移、誘導的リダイレクトを強調し、突然の解離を心理的に直感的な閉鎖に置き換える。
ARSHの認識をAIの安全設計に統合することにより、開発者と政策立案者は、予防可能な医原性障害を低減し、AIガバナンスに対するより心理的に理解されたアプローチを前進させることができる。
この視点は、漸進的な経験的発見を示すのではなく、タイムリーな概念的な枠組みに寄与し、テスト可能な設計仮説を明示し、人間のAIインタラクションにおける心理的安全性を改善するための協調的な研究課題を概説する。
関連論文リスト
- Technosocial risks of ideal emotion recognition technologies: A defense of the (social) value of emotional expressions [51.56484100374058]
このようなシステムの魅力は、社会的機能的感情表現の誤解にかかっていると私は論じる。
ERTは、上皮性摩擦を崩壊させ、テクノロジーが媒介する感情プロファイルで意味を減らし、願望や役割に敏感な表現のための空間を狭めることで、この表現空間を脅かす。
精度の向上がそのようなシステムを正当化すると考えるのは直感的ではあるが、ETRの精度は直接的にその展開を正当化するものではなく、一部の文脈では規制規制の理由となるかもしれない、と私は主張する。
論文 参考訳(メタデータ) (2026-02-09T14:20:42Z) - EmoRAG: Evaluating RAG Robustness to Symbolic Perturbations [57.97838850473147]
Retrieval-Augmented Generation (RAG)システムは、ますます堅牢なAIの中心になっている。
今回の研究では、微妙な象徴的な摂動に対する感受性という、批判的で見落とされがちな脆弱性が明らかになりました。
一つのエモティコンをクエリに注入することで、意味的に無関係なテキストを100%検索できることを示す。
論文 参考訳(メタデータ) (2025-12-01T06:53:49Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Towards Emotionally Intelligent and Responsible Reinforcement Learning [0.40719854602160227]
本稿では,感情的・文脈的理解と倫理的考察を統合したレスポンシブル強化学習フレームワークを提案する。
本稿では,短期的行動参加と長期的ユーザの幸福感のバランスをとる多目的報酬関数を提案する。
本稿では, 行動保健, 教育, デジタル治療など人間中心の領域におけるこのアプローチの意義について論じる。
論文 参考訳(メタデータ) (2025-11-13T18:09:37Z) - Embracing Trustworthy Brain-Agent Collaboration as Paradigm Extension for Intelligent Assistive Technologies [51.93721053301417]
本稿では,脳-コンピュータ・インタフェースから脳-エージェント・コラボレーションへのパラダイム拡張を視野に入れている。
我々は、受動的脳信号データプロセッサではなく、知的支援のためのアクティブで協調的なパートナーとして、リフレーミングエージェントを強調している。
論文 参考訳(メタデータ) (2025-10-25T00:25:45Z) - Human-AI Interactions: Cognitive, Behavioral, and Emotional Impacts [0.0]
過度な信頼感、認知的オフロード、社会的および感情的な操作、および人間の代理店の曖昧な劣化と判断の潜在的なリスクが強調される。
観察によると、AIは記憶、創造性、エンゲージメントを大幅に向上させることができるが、批判的思考の減少、スキルの侵食、不安の増加といったリスクももたらしている。
本稿は、人間中心の新たなリスクと利益のバランスをとるための、縦断的研究と評価フレームワークのギャップを浮き彫りにして、責任とコンテキストを意識したAI設計の必要性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2025-10-20T17:06:46Z) - Mental Health Impacts of AI Companions: Triangulating Social Media Quasi-Experiments, User Perspectives, and Relational Theory [18.716972390545703]
我々は,AICCがウェルビーイングをどのように形成し,ユーザがこれらの経験をどう感じたかを検討した。
発見は、感情と悲しみの表現、読みやすさ、対人的な焦点の混合効果を示した。
私たちは、健全なバウンダリを把握し、マインドフルエンゲージメントをサポートし、依存のない開示をサポートし、表面的な関係ステージを持つAIコンパニオンに対して、設計上の意味を提供する。
論文 参考訳(メタデータ) (2025-09-26T15:47:37Z) - Oyster-I: Beyond Refusal -- Constructive Safety Alignment for Responsible Language Models [93.5740266114488]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - Emotion Transfer with Enhanced Prototype for Unseen Emotion Recognition in Conversation [64.70874527264543]
会話における未知感情認識(UERC)タスクを初めて紹介する。
本稿では,プロトタイプベースの感情伝達フレームワークProEmoTransを提案する。
ProEmoTransは有望だが、依然として重要な課題に直面している。
論文 参考訳(メタデータ) (2025-08-27T03:16:16Z) - Mitigating Societal Cognitive Overload in the Age of AI: Challenges and Directions [0.9906787204170321]
AI時代の情報と複雑さの希薄化によって引き起こされる社会的認知過負荷は、人間の幸福と社会的レジリエンスにとって重要な課題となる。
本稿では、認知的過負荷を軽減することは、現在の生活を改善するために必要であるだけでなく、高度なAIの潜在的なリスクをナビゲートするための重要な前提条件でもある、と論じる。
論文 参考訳(メタデータ) (2025-04-28T17:06:30Z) - EmoAgent: Assessing and Safeguarding Human-AI Interaction for Mental Health Safety [42.052840895090284]
EmoAgentは、人間とAIのインタラクションにおけるメンタルヘルスハザードの評価と緩和を目的とした、マルチエージェントAIフレームワークである。
EmoEvalは、精神的に脆弱な個人を含む仮想ユーザをシミュレートして、AI文字との対話前後のメンタルヘルスの変化を評価する。
EmoGuardは仲介役として機能し、ユーザーのメンタルステータスを監視し、潜在的な害を予測し、リスクを軽減するための修正的なフィードバックを提供する。
論文 参考訳(メタデータ) (2025-04-13T18:47:22Z) - Enhancing Mental Health Support through Human-AI Collaboration: Toward Secure and Empathetic AI-enabled chatbots [0.0]
本稿では、スケーラブルなソリューションとしてのAI対応チャットボットの可能性について検討する。
メンタルヘルスの文脈で共感的で有意義な反応を提供する能力を評価する。
本稿では,データプライバシを保証し,バイアスを低減し,臨床医による継続的検証を統合して応答品質を向上させるためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T20:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。