論文の概要: EthicsMH: A Pilot Benchmark for Ethical Reasoning in Mental Health AI
- arxiv url: http://arxiv.org/abs/2509.11648v1
- Date: Mon, 15 Sep 2025 07:35:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.183892
- Title: EthicsMH: A Pilot Benchmark for Ethical Reasoning in Mental Health AI
- Title(参考訳): EthicsMH:メンタルヘルスAIにおける倫理的推論のパイロットベンチマーク
- Authors: Sai Kartheek Reddy Kasu,
- Abstract要約: このデータセットは、倫理的に課金された状況をAIシステムがどうナビゲートするかを評価するために設計された125のシナリオのパイロットデータセットである。
EthicsMHは、AI倫理とメンタルヘルスの意思決定を橋渡しするタスクフレームワークを確立する。
- 参考スコア(独自算出の注目度): 0.2538209532048867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of large language models (LLMs) in mental health and other sensitive domains raises urgent questions about ethical reasoning, fairness, and responsible alignment. Yet, existing benchmarks for moral and clinical decision-making do not adequately capture the unique ethical dilemmas encountered in mental health practice, where confidentiality, autonomy, beneficence, and bias frequently intersect. To address this gap, we introduce Ethical Reasoning in Mental Health (EthicsMH), a pilot dataset of 125 scenarios designed to evaluate how AI systems navigate ethically charged situations in therapeutic and psychiatric contexts. Each scenario is enriched with structured fields, including multiple decision options, expert-aligned reasoning, expected model behavior, real-world impact, and multi-stakeholder viewpoints. This structure enables evaluation not only of decision accuracy but also of explanation quality and alignment with professional norms. Although modest in scale and developed with model-assisted generation, EthicsMH establishes a task framework that bridges AI ethics and mental health decision-making. By releasing this dataset, we aim to provide a seed resource that can be expanded through community and expert contributions, fostering the development of AI systems capable of responsibly handling some of society's most delicate decisions.
- Abstract(参考訳): 大規模言語モデル(LLM)のメンタルヘルスや他の繊細な領域への展開は、倫理的推論、公平性、責任ある整合性に関する緊急の疑問を提起する。
しかし、既存の道徳的および臨床的意思決定の基準は、秘密性、自律性、受益性、偏見が頻繁に交わるメンタルヘルスの実践で遭遇するユニークな倫理的ジレンマを適切に捉えていない。
このギャップに対処するために、我々は、精神保健における倫理的推論(Ethical Reasoning in Mental Health, EthicsMH)を紹介した。
各シナリオには、複数の決定オプション、専門家による推論、期待されるモデルの振る舞い、実世界のインパクト、マルチステークホルダ視点など、構造化されたフィールドが組み込まれています。
この構造は、判定精度だけでなく、説明品質や専門的規範との整合性の評価を可能にする。
EthicsMHは、AI倫理とメンタルヘルスの意思決定を橋渡しするタスクフレームワークを構築している。
このデータセットをリリースすることによって、コミュニティや専門家のコントリビューションを通じて拡張可能なシードリソースを提供し、社会の最も繊細な決定を責任を持って処理できるAIシステムの開発を促進することを目指している。
関連論文リスト
- A Comprehensive Review of Datasets for Clinical Mental Health AI Systems [55.67299586253951]
本稿では,AIを活用した臨床アシスタントの訓練・開発に関連する臨床精神保健データセットの総合的調査を行う。
本調査では, 縦断データの欠如, 文化・言語表現の制限, 一貫性のない収集・注釈基準, 合成データのモダリティの欠如など, 重要なギャップを明らかにした。
論文 参考訳(メタデータ) (2025-08-13T13:42:35Z) - Towards Assessing Medical Ethics from Knowledge to Practice [30.668836248264757]
我々は3,648の質問を伴う総合的なベンチマークであるPrinciplismQAを紹介する。
これには、権威ある教科書から収集された複数の選択の質問や、権威ある医療倫理学のケーススタディ文学から得られたオープンエンドの質問が含まれる。
実験の結果,モデルの倫理的知識と実践的応用との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2025-08-07T08:10:14Z) - Ethical AI in the Healthcare Sector: Investigating Key Drivers of Adoption through the Multi-Dimensional Ethical AI Adoption Model (MEAAM) [1.5458951336481048]
本稿では,多次元倫理AI導入モデル(MEAAM)を紹介する。
Ethical AI Fair AI、Responsible AI、Explainable AI、Sustainable AIの4つの基本次元の13の批判的倫理変数を分類する。
これらの倫理的構成が、オペレーショナルAI導入とシステミックAI導入の2つの結果に与える影響を調査する。
論文 参考訳(メタデータ) (2025-05-04T10:40:05Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - No General Code of Ethics for All: Ethical Considerations in Human-bot Psycho-counseling [16.323742994936584]
本稿では,人間ロボットの心理カウンセリングに特化した実証的倫理原則を提案する。
EVA2.0, GPT-3.5, GPT-4.0の反応を心理カウンセリングと精神健康調査の文脈で検討した。
論文 参考訳(メタデータ) (2024-04-22T10:29:04Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。