論文の概要: Mirror: A Multi-Agent System for AI-Assisted Ethics Review
- arxiv url: http://arxiv.org/abs/2602.13292v1
- Date: Mon, 09 Feb 2026 03:38:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.823775
- Title: Mirror: A Multi-Agent System for AI-Assisted Ethics Review
- Title(参考訳): Mirror:AI支援倫理レビューのためのマルチエージェントシステム
- Authors: Yifan Ding, Yuhui Shi, Zhiyan Li, Zilong Wang, Yifeng Gao, Yajun Yang, Mengjie Yang, Yixiu Liang, Xipeng Qiu, Xuanjing Huang, Xingjun Ma, Yu-Gang Jiang, Guoyu Wang,
- Abstract要約: MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
- 参考スコア(独自算出の注目度): 104.3684024153469
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ethics review is a foundational mechanism of modern research governance, yet contemporary systems face increasing strain as ethical risks arise as structural consequences of large-scale, interdisciplinary scientific practice. The demand for consistent and defensible decisions under heterogeneous risk profiles exposes limitations in institutional review capacity rather than in the legitimacy of ethics oversight. Recent advances in large language models (LLMs) offer new opportunities to support ethics review, but their direct application remains limited by insufficient ethical reasoning capability, weak integration with regulatory structures, and strict privacy constraints on authentic review materials. In this work, we introduce Mirror, an agentic framework for AI-assisted ethical review that integrates ethical reasoning, structured rule interpretation, and multi-agent deliberation within a unified architecture. At its core is EthicsLLM, a foundational model fine-tuned on EthicsQA, a specialized dataset of 41K question-chain-of-thought-answer triples distilled from authoritative ethics and regulatory corpora. EthicsLLM provides detailed normative and regulatory understanding, enabling Mirror to operate in two complementary modes. Mirror-ER (expedited Review) automates expedited review through an executable rule base that supports efficient and transparent compliance checks for minimal-risk studies. Mirror-CR (Committee Review) simulates full-board deliberation through coordinated interactions among expert agents, an ethics secretary agent, and a principal investigator agent, producing structured, committee-level assessments across ten ethical dimensions. Empirical evaluations demonstrate that Mirror significantly improves the quality, consistency, and professionalism of ethics assessments compared with strong generalist LLMs.
- Abstract(参考訳): 倫理的レビューは現代の研究ガバナンスの基礎的なメカニズムであるが、大規模で学際的な科学実践の構造的な結果として倫理的リスクが生じるにつれて、現代システムは緊張が増している。
不均一なリスクプロファイルの下での一貫性のある防御可能な決定の要求は、倫理的監督の正当性よりも、制度的な審査能力の限界を露呈する。
大規模言語モデル(LLM)の最近の進歩は、倫理的レビューをサポートする新たな機会を提供するが、それらの直接的な適用は、倫理的推論能力の不足、規制構造との弱い統合、および真のレビュー資料に対する厳密なプライバシー制限によって制限されている。
本稿では,AIを用いた倫理的レビューのためのエージェントフレームワークであるMirrorを紹介する。
中心となるEthicsLLMは、権威倫理と規制コーパスから抽出された41Kの質問チェーン・オブ・インサート・トリプルの特別なデータセットであるEthicsQAに基づいて微調整された基礎モデルである。
EthicsLLMは、Mirrorを2つの補完モードで動作させることができる、詳細な規範的および規制的な理解を提供する。
Mirror-ER(Expedited Review)は、最小リスク研究のための効率的で透明なコンプライアンスチェックをサポートする実行可能なルールベースを通じて、迅速なレビューを自動化する。
Mirror-CR (Committee Review) は、専門家エージェント、倫理秘書エージェント、および主任捜査官エージェント間の協調的な相互作用を通じて、10の倫理的側面にわたる構造化された委員会レベルのアセスメントをシミュレートする。
経験的評価は、ミラーは強力なジェネラリスト LLM と比較して、倫理評価の品質、一貫性、およびプロフェッショナル主義を著しく改善することを示している。
関連論文リスト
- The Ethical Compass of the Machine: Evaluating Large Language Models for Decision Support in Construction Project Management [0.38196178521289315]
本研究では,大規模言語モデル(LLM)の倫理的生存性と信頼性を批判的に評価することを目的とする。
建設領域内でのLLMの倫理的推論を実証的に検証した最初の研究の1つである。
論文 参考訳(メタデータ) (2025-09-02T13:50:36Z) - Multi-Agent LLMs as Ethics Advocates for AI-Based Systems [2.1665689529884697]
本研究では,マルチエージェント LLM 設定に倫理擁護エージェントを導入することにより,倫理要件を生成する枠組みを提案する。
このエージェントは、システム記述に基づいて倫理的問題を批判し、入力する。
この作業は、要件エンジニアリングプロセスにおける倫理の広範な採用を促進するもので、最終的には倫理的に整合した製品につながります。
論文 参考訳(メタデータ) (2025-07-11T08:04:32Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。