論文の概要: "Even GPT Can Reject Me": Conceptualizing Abrupt Refusal Secondary Harm (ARSH) and Reimagining Psychological AI Safety with Compassionate Completion Standard (CCS)
- arxiv url: http://arxiv.org/abs/2512.18776v1
- Date: Sun, 21 Dec 2025 15:31:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.498114
- Title: "Even GPT Can Reject Me": Conceptualizing Abrupt Refusal Secondary Harm (ARSH) and Reimagining Psychological AI Safety with Compassionate Completion Standard (CCS)
- Title(参考訳): Even GPT can Reject me: conceptualizing Abrupt Refusal Second Harm (ARSH) and Reimagining Psychoological AI Safety with Compassionate Completion Standard (CCS)
- Authors: Yang Ni, Tong Yang,
- Abstract要約: 我々は、突然の拒絶は、関係性の連続性に対する認識を破裂させ、拒絶や恥の感情を誘発し、将来的な支援を阻止する可能性があると論じている。
本稿では,リレーショナルコヒーレンスを保ちながら安全性の制約を維持する設計仮説であるコンパシオント・コンプリート・スタンダードを提案する。
この視点は、タイムリーな概念的枠組みに寄与し、テスト可能な設計仮説を明確にし、人間のAIインタラクションにおける心理的安全性を改善するための協調的な研究課題を概説する。
- 参考スコア(独自算出の注目度): 10.377213441117618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) and AI chatbots are increasingly used for emotional and mental health support due to their low cost, immediacy, and accessibility. However, when safety guardrails are triggered, conversations may be abruptly terminated, introducing a distinct form of emotional disruption that can exacerbate distress and elevate risk among already vulnerable users. As this phenomenon gains attention, this viewpoint introduces Abrupt Refusal Secondary Harm (ARSH) as a conceptual framework to describe the psychological impacts of sudden conversational discontinuation caused by AI safety protocols. Drawing on counseling psychology and communication science as conceptual heuristics, we argue that abrupt refusals can rupture perceived relational continuity, evoke feelings of rejection or shame, and discourage future help seeking. To mitigate these risks, we propose a design hypothesis, the Compassionate Completion Standard (CCS), a refusal protocol grounded in Human Centered Design (HCD) that maintains safety constraints while preserving relational coherence. CCS emphasizes empathetic acknowledgment, transparent boundary articulation, graded conversational transition, and guided redirection, replacing abrupt disengagement with psychologically attuned closure. By integrating awareness of ARSH into AI safety design, developers and policymakers can reduce preventable iatrogenic harm and advance a more psychologically informed approach to AI governance. Rather than presenting incremental empirical findings, this viewpoint contributes a timely conceptual framework, articulates a testable design hypothesis, and outlines a coordinated research agenda for improving psychological safety in human AI interaction.
- Abstract(参考訳): 大規模言語モデル(LLM)とAIチャットボットは、低コスト、即時性、アクセシビリティのため、感情的および精神的な健康支援にますます利用されている。
しかし、安全ガードレールが起動されると、会話が突然終了し、苦痛を悪化させ、すでに脆弱なユーザーの間でリスクを増大させる、明確な感情的な混乱をもたらす可能性がある。
この現象が注目されるにつれて、AI安全プロトコルによる突然の会話停止の心理的影響を説明する概念的枠組みとして、Abrupt Refusal Second Harm(ARSH)が紹介される。
心理学とコミュニケーション科学を概念的ヒューリスティックとしてカウンセリングすることで、突然の拒絶は関係性の連続性を破滅させ、拒絶や恥の感情を誘発し、将来的な支援を阻止できると論じる。
これらのリスクを軽減するために,Human Centered Design (HCD) を基盤としたリファレンスプロトコルであるCompassionate Completion Standard (CCS) を提案する。
CCSは、共感的認知、透明な境界明瞭化、段階的な会話遷移、誘導的リダイレクトを強調し、突然の解離を心理的に直感的な閉鎖に置き換える。
ARSHの認識をAIの安全設計に統合することにより、開発者と政策立案者は、予防可能な医原性障害を低減し、AIガバナンスに対するより心理的に理解されたアプローチを前進させることができる。
この視点は、漸進的な経験的発見を示すのではなく、タイムリーな概念的な枠組みに寄与し、テスト可能な設計仮説を明示し、人間のAIインタラクションにおける心理的安全性を改善するための協調的な研究課題を概説する。
関連論文リスト
- Towards Emotionally Intelligent and Responsible Reinforcement Learning [0.40719854602160227]
本稿では,感情的・文脈的理解と倫理的考察を統合したレスポンシブル強化学習フレームワークを提案する。
本稿では,短期的行動参加と長期的ユーザの幸福感のバランスをとる多目的報酬関数を提案する。
本稿では, 行動保健, 教育, デジタル治療など人間中心の領域におけるこのアプローチの意義について論じる。
論文 参考訳(メタデータ) (2025-11-13T18:09:37Z) - Human-AI Interactions: Cognitive, Behavioral, and Emotional Impacts [0.0]
過度な信頼感、認知的オフロード、社会的および感情的な操作、および人間の代理店の曖昧な劣化と判断の潜在的なリスクが強調される。
観察によると、AIは記憶、創造性、エンゲージメントを大幅に向上させることができるが、批判的思考の減少、スキルの侵食、不安の増加といったリスクももたらしている。
本稿は、人間中心の新たなリスクと利益のバランスをとるための、縦断的研究と評価フレームワークのギャップを浮き彫りにして、責任とコンテキストを意識したAI設計の必要性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2025-10-20T17:06:46Z) - Mental Health Impacts of AI Companions: Triangulating Social Media Quasi-Experiments, User Perspectives, and Relational Theory [18.716972390545703]
我々は,AICCがウェルビーイングをどのように形成し,ユーザがこれらの経験をどう感じたかを検討した。
発見は、感情と悲しみの表現、読みやすさ、対人的な焦点の混合効果を示した。
私たちは、健全なバウンダリを把握し、マインドフルエンゲージメントをサポートし、依存のない開示をサポートし、表面的な関係ステージを持つAIコンパニオンに対して、設計上の意味を提供する。
論文 参考訳(メタデータ) (2025-09-26T15:47:37Z) - Oyster-I: Beyond Refusal -- Constructive Safety Alignment for Responsible Language Models [93.5740266114488]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - Mitigating Societal Cognitive Overload in the Age of AI: Challenges and Directions [0.9906787204170321]
AI時代の情報と複雑さの希薄化によって引き起こされる社会的認知過負荷は、人間の幸福と社会的レジリエンスにとって重要な課題となる。
本稿では、認知的過負荷を軽減することは、現在の生活を改善するために必要であるだけでなく、高度なAIの潜在的なリスクをナビゲートするための重要な前提条件でもある、と論じる。
論文 参考訳(メタデータ) (2025-04-28T17:06:30Z) - EmoAgent: Assessing and Safeguarding Human-AI Interaction for Mental Health Safety [42.052840895090284]
EmoAgentは、人間とAIのインタラクションにおけるメンタルヘルスハザードの評価と緩和を目的とした、マルチエージェントAIフレームワークである。
EmoEvalは、精神的に脆弱な個人を含む仮想ユーザをシミュレートして、AI文字との対話前後のメンタルヘルスの変化を評価する。
EmoGuardは仲介役として機能し、ユーザーのメンタルステータスを監視し、潜在的な害を予測し、リスクを軽減するための修正的なフィードバックを提供する。
論文 参考訳(メタデータ) (2025-04-13T18:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。