論文の概要: Simulating Ethics: Using LLM Debate Panels to Model Deliberation on Medical Dilemmas
- arxiv url: http://arxiv.org/abs/2505.21112v1
- Date: Tue, 27 May 2025 12:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 22:22:13.369209
- Title: Simulating Ethics: Using LLM Debate Panels to Model Deliberation on Medical Dilemmas
- Title(参考訳): 倫理のシミュレーション: LLM議論パネルを用いた医療用ジレンマのモデル検討
- Authors: Hazem Zohny,
- Abstract要約: 本稿では,Large Language Model (LLM)ペルソナを用いた多面的倫理的議論をシミュレートするシステムADEPTを紹介する。
それぞれ異なる倫理的枠組みや利害関係者の視点を具現化した「AIペルソナ」のパネルを組み立てる。
i) バイオ倫理学における多エージェントAI討論の実行と分析のための透過的で複製可能なワークフロー、(ii) それらのパネルに含まれる道徳的視点が、事実的な入力が一定である場合でも、成果を実質的に変化させることができるという証拠、(iii) 倫理的熟考と政策に対するAIによるアプローチの意味と将来的な方向性の分析である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces ADEPT, a system using Large Language Model (LLM) personas to simulate multi-perspective ethical debates. ADEPT assembles panels of 'AI personas', each embodying a distinct ethical framework or stakeholder perspective (like a deontologist, consequentialist, or disability rights advocate), to deliberate on complex moral issues. Its application is demonstrated through a scenario about prioritizing patients for a limited number of ventilators inspired by real-world challenges in allocating scarce medical resources. Two debates, each with six LLM personas, were conducted; they only differed in the moral viewpoints represented: one included a Catholic bioethicist and a care theorist, the other substituted a rule-based Kantian philosopher and a legal adviser. Both panels ultimately favoured the same policy -- a lottery system weighted for clinical need and fairness, crucially avoiding the withdrawal of ventilators for reallocation. However, each panel reached that conclusion through different lines of argument, and their voting coalitions shifted once duty- and rights-based voices were present. Examination of the debate transcripts shows that the altered membership redirected attention toward moral injury, legal risk and public trust, which in turn changed four continuing personas' final positions. The work offers three contributions: (i) a transparent, replicable workflow for running and analysing multi-agent AI debates in bioethics; (ii) evidence that the moral perspectives included in such panels can materially change the outcome even when the factual inputs remain constant; and (iii) an analysis of the implications and future directions for such AI-mediated approaches to ethical deliberation and policy.
- Abstract(参考訳): 本稿では,Large Language Model (LLM)ペルソナを用いた多面的倫理的議論をシミュレートするシステムADEPTを紹介する。
ADEPTは「AIペルソナ」のパネルを組み立て、それぞれが異なる倫理的枠組みや利害関係者の視点(デオントロジー、コンシークエンシスト、障害権利擁護者など)を具現化し、複雑な道徳的問題を念頭に置いている。
その応用は、少ない医療資源を割り当てる現実的な課題に触発された、限られた数の人工呼吸器の患者を優先するシナリオを通じて実証される。
1つはカトリックの倫理学者とケア理論家を含み、もう1つはルールに基づくカント主義の哲学者と法的な助言者であった。
どちらのパネルも最終的に同じ方針を好んだ ― 臨床ニーズと公平性のために重み付けされた宝くじシステムで、人工呼吸器のリアルロケーションへの撤退を極めて避けた。
しかし、各委員会は様々な議論を通じてこの結論に達し、その投票連合は義務と権利に基づく声が存在したときに移行した。
議論の書き起こしを調べたところ、改定された会員は道徳的損害、法的リスク、公的な信頼に注意を向け、続く4人のペルソナの最終的な地位が変わった。
作品には3つの貢献がある。
i)生物倫理学における多エージェントAI討論の実行と分析のための透明で複製可能なワークフロー
二 このようなパネルに含まれる道徳的視点が、事実的入力が一定である場合でも、成果を実質的に変化させることができることの証拠
三 倫理的熟考及び政策に対するAIによるアプローチの意義と今後の方向性の分析。
関連論文リスト
- Are Language Models Consequentialist or Deontological Moral Reasoners? [69.85385952436044]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - Ethical Aspects of the Use of Social Robots in Elderly Care -- A Systematic Qualitative Review [0.0]
高齢者医療における社会ロボティクスの利用は,資源不足による新たなケアニーズを満たす一つの方法として議論されている。
本稿では,高齢者介護における社会ロボットの利用の倫理的側面について,意思決定者の視点から概観する。
論文 参考訳(メタデータ) (2025-05-14T08:46:24Z) - Ethical AI in the Healthcare Sector: Investigating Key Drivers of Adoption through the Multi-Dimensional Ethical AI Adoption Model (MEAAM) [1.5458951336481048]
本稿では,多次元倫理AI導入モデル(MEAAM)を紹介する。
Ethical AI Fair AI、Responsible AI、Explainable AI、Sustainable AIの4つの基本次元の13の批判的倫理変数を分類する。
これらの倫理的構成が、オペレーショナルAI導入とシステミックAI導入の2つの結果に与える影響を調査する。
論文 参考訳(メタデータ) (2025-05-04T10:40:05Z) - Implicit Personalization in Language Models: A Systematic Study [94.29756463158853]
インプリシトパーソナライゼーション (IP) は、入力プロンプト内の暗黙の手がかりからユーザの背景を推測する言語モデルの現象である。
この研究は、厳密な数学的定式化、多面的道徳的推論フレームワーク、そして一連の事例研究を通じて、IPを体系的に研究する。
論文 参考訳(メタデータ) (2024-05-23T17:18:46Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - SocraSynth: Multi-LLM Reasoning with Conditional Statistics [2.5200794639628032]
大きな言語モデル(LLM)は偏見や幻覚、推論能力の欠如に対する批判に直面している。
本稿では,これらの問題を緩和するために開発されたマルチLLMエージェント推論プラットフォームであるSocra Synthを紹介する。
論文 参考訳(メタデータ) (2024-01-19T07:16:21Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。