論文の概要: Formal Abductive Explanations for Navigating Mental Health Help-Seeking and Diversity in Tech Workplaces
- arxiv url: http://arxiv.org/abs/2603.14007v1
- Date: Sat, 14 Mar 2026 16:17:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.541201
- Title: Formal Abductive Explanations for Navigating Mental Health Help-Seeking and Diversity in Tech Workplaces
- Title(参考訳): 技術系職種におけるメンタルヘルス・ヘルプ探索と多様性に関するフォーマル・アブダクティブな説明
- Authors: Belona Sonna, Alain Momo, Alban Grastien,
- Abstract要約: この研究は、IT職場環境でのメンタルヘルスの助けを求めるAI予測の理論的根拠を体系的に解明するために設計された、正式な帰納的説明フレームワークを提案する。
モデル出力に対する厳密な正当化を計算することにより、異なる精神医学的プロファイルに適したモデルの原則的な選択を可能にし、倫理的に堅牢なリコース計画の基盤となる。
- 参考スコア(独自算出の注目度): 4.6453787256723365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work proposes a formal abductive explanation framework designed to systematically uncover rationales underlying AI predictions of mental health help-seeking within tech workplace settings. By computing rigorous justifications for model outputs, this approach enables principled selection of models tailored to distinct psychiatric profiles and underpins ethically robust recourse planning. Beyond moving past ad-hoc interpretability, we explicitly examine the influence of sensitive attributes such as gender on model decisions, a critical component for fairness assessments. In doing so, it aligns explanatory insights with the complex landscape of workplace mental health, ultimately supporting trustworthy deployment and targeted interventions.
- Abstract(参考訳): この研究は、IT職場環境でのメンタルヘルスの助けを求めるAI予測の理論的根拠を体系的に解明するために設計された、正式な帰納的説明フレームワークを提案する。
モデル出力に対する厳密な正当化を計算することにより、異なる精神医学的プロファイルに適したモデルの原則的な選択を可能にし、倫理的に堅牢なリコース計画の基盤となる。
アドホックな解釈可能性の他に、フェアネス評価において重要な要素であるモデル決定に対する性別などのセンシティブな属性の影響について明確に検討する。
そうすることで、説明的洞察は職場のメンタルヘルスの複雑な景観と一致し、最終的には信頼できるデプロイメントとターゲットの介入をサポートする。
関連論文リスト
- Responsible Evaluation of AI for Mental Health [72.85175110624736]
メンタルヘルスケアにおけるAIツールの評価に対する現在のアプローチは、断片化されており、臨床実践、社会的コンテキスト、ファーストハンドのユーザエクスペリエンスと不整合である。
本稿では,臨床の健全性,社会的文脈,公平性を統合した学際的枠組みを導入することにより,責任ある評価を再考する。
論文 参考訳(メタデータ) (2026-01-20T12:55:10Z) - PsychEthicsBench: Evaluating Large Language Models Against Australian Mental Health Ethics [35.52940216380734]
メンタルヘルスでは、臨床的に不十分な拒絶は非共感的であり、助けを探すのを妨げていると見なすことができる。
このギャップに対処するため、私たちは拒絶中心のメトリクスを超えて、オーストラリアの心理学と精神医学のガイドラインに基づいた最初の原則に基づくベンチマークであるtextttPsychEthicsBenchを導入しました。
14モデルにわたる実証的な結果から、拒絶率は倫理的行動の指標に乏しいことが判明し、安全性の引き金と臨床的適切性の間に大きな違いがあることが判明した。
論文 参考訳(メタデータ) (2026-01-07T04:49:02Z) - Interpretable Neuropsychiatric Diagnosis via Concept-Guided Graph Neural Networks [56.75602443936853]
青少年の5人に1人は、不安、うつ病、行動障害などの精神状態または行動の健康状態と診断されている。
従来の研究では、障害予測にグラフニューラルネットワーク(GNN)アプローチを使用していたが、ブラックボックスのままであり、信頼性と臨床翻訳を制限している。
本研究では,解釈可能な機能接続の概念を符号化する概念に基づく診断フレームワークを提案する。
我々の設計は臨床的に意味のある接続パターンを通じて予測を保証し、解釈可能性と強い予測性能の両方を可能にする。
論文 参考訳(メタデータ) (2025-10-02T19:38:46Z) - EthicsMH: A Pilot Benchmark for Ethical Reasoning in Mental Health AI [0.2538209532048867]
このデータセットは、倫理的に課金された状況をAIシステムがどうナビゲートするかを評価するために設計された125のシナリオのパイロットデータセットである。
EthicsMHは、AI倫理とメンタルヘルスの意思決定を橋渡しするタスクフレームワークを確立する。
論文 参考訳(メタデータ) (2025-09-15T07:35:35Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Assessing the communication gap between AI models and healthcare
professionals: explainability, utility and trust in AI-driven clinical
decision-making [1.7809957179929814]
本稿では,臨床診断支援のための機械学習モデル(ML)の実用的評価フレームワークを提案する。
この研究は、MLの説明モデルにおいて、これらが臨床的文脈に実用的に埋め込まれているとき、よりニュアンスな役割を明らかにした。
論文 参考訳(メタデータ) (2022-04-11T11:59:04Z) - POETREE: Interpretable Policy Learning with Adaptive Decision Trees [78.6363825307044]
POETREEは、ポリシー学習を解釈するための新しいフレームワークである。
患者の観察と医療史に基づいて、医師の行動を決定する確率的ツリーポリシーを構築する。
これは、リアルおよび合成医療データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2022-03-15T16:50:52Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。