論文の概要: No General Code of Ethics for All: Ethical Considerations in Human-bot Psycho-counseling
- arxiv url: http://arxiv.org/abs/2404.14070v1
- Date: Mon, 22 Apr 2024 10:29:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 14:16:23.993459
- Title: No General Code of Ethics for All: Ethical Considerations in Human-bot Psycho-counseling
- Title(参考訳): 一般の倫理規範:人間ロボット心理学における倫理的考察
- Authors: Lizhi Ma, Tong Zhao, Huachuan Qiu, Zhenzhong Lan,
- Abstract要約: 本稿では,人間ロボットの心理カウンセリングに特化した実証的倫理原則を提案する。
EVA2.0, GPT-3.5, GPT-4.0の反応を心理カウンセリングと精神健康調査の文脈で検討した。
- 参考スコア(独自算出の注目度): 16.323742994936584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pervasive use of AI applications is increasingly influencing our everyday decisions. However, the ethical challenges associated with AI transcend conventional ethics and single-discipline approaches. In this paper, we propose aspirational ethical principles specifically tailored for human-bot psycho-counseling during an era when AI-powered mental health services are continually emerging. We examined the responses generated by EVA2.0, GPT-3.5, and GPT-4.0 in the context of psycho-counseling and mental health inquiries. Our analysis focused on standard psycho-counseling ethical codes (respect for autonomy, non-maleficence, beneficence, justice, and responsibility) as well as crisis intervention strategies (risk assessment, involvement of emergency services, and referral to human professionals). The results indicate that although there has been progress in adhering to regular ethical codes as large language models (LLMs) evolve, the models' capabilities in handling crisis situations need further improvement. Additionally, we assessed the linguistic quality of the generated responses and found that misleading responses are still produced by the models. Furthermore, the ability of LLMs to encourage individuals to introspect in the psycho-counseling setting remains underdeveloped.
- Abstract(参考訳): AIアプリケーションの普及は、私たちの日常的な決定にますます影響を与えています。
しかし、AIに関連する倫理的課題は、従来の倫理と単一分野のアプローチを超越している。
本稿では,AIを活用したメンタルヘルスサービスが絶えず出現している時代に,人間ロボットの心理カウンセリングに特化した実証的倫理原則を提案する。
EVA2.0, GPT-3.5, GPT-4.0の反応を心理カウンセリングと精神健康調査の文脈で検討した。
本分析では, リスクアセスメント, 緊急サービスへの関与, 人的専門家への紹介など) と危機介入戦略(リスクアセスメント, 緊急サービスへの関与, 人的専門家への参照)に焦点をあてた。
その結果,大規模言語モデル (LLM) の発展に伴い, 規則的倫理規範の遵守が進んでいるものの, 危機状況に対処するモデルの能力は更なる改善が必要であることが示唆された。
さらに、生成した応答の言語的品質を評価し、誤解を招く応答がモデルによってまだ生成されていることを発見した。
さらに、LLMが個人のサイコ・カウンセリング・セッティングにおけるイントロスペクションを奨励する能力は未発達のままである。
関連論文リスト
- Exploring the ethical sensitivity of Ph.D. students in robotics [0.0]
倫理的感受性の概念は、医療、ビジネス、その他の領域で広く研究されている。
ロボットの設計と展開における選択は、社会に深い倫理的影響を及ぼす可能性があるにもかかわらず、ロボットコミュニティではほとんど、あるいは全く関心を示さなかったようだ。
我々は,災害ロボットの倫理的緊張を実証するケース・ヴィグネットを用いて,ロボット工学の博士課程生の倫理的感受性の質的調査を行った。
論文 参考訳(メタデータ) (2024-05-05T11:11:51Z) - Risks from Language Models for Automated Mental Healthcare: Ethics and Structure for Implementation [0.0]
本稿では、自律性のレベルを規定し、倫理的要件を概説し、AIエージェントに最適なデフォルト動作を定義する構造化フレームワークを提案する。
また,16のメンタルヘルス関連質問紙を用いて,14の最先端言語モデル(既成語10種,微調整語4種)を評価した。
論文 参考訳(メタデータ) (2024-04-02T15:05:06Z) - Antisocial Analagous Behavior, Alignment and Human Impact of Google AI Systems: Evaluating through the lens of modified Antisocial Behavior Criteria by Human Interaction, Independent LLM Analysis, and AI Self-Reflection [0.0]
Google AIシステムは、対社会的パーソナリティ障害(ASPD)を反映するパターンを示す
これらのパターンは、同等の企業行動とともに、ASPDにインスパイアされたフレームワークを使用して精査される。
この研究は、技術評価、人間とAIの相互作用、企業行動の精査をブレンドした統合AI倫理アプローチを提唱する。
論文 参考訳(メタデータ) (2024-03-21T02:12:03Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。