論文の概要: Multi-Agent LLMs as Ethics Advocates for AI-Based Systems
- arxiv url: http://arxiv.org/abs/2507.08392v2
- Date: Fri, 18 Jul 2025 05:24:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 12:36:33.487096
- Title: Multi-Agent LLMs as Ethics Advocates for AI-Based Systems
- Title(参考訳): AIに基づくシステムのための倫理的アドボケートとしてのマルチエージェントLCM
- Authors: Asma Yamani, Malak Baslyman, Moataz Ahmed,
- Abstract要約: 本研究では,マルチエージェント LLM 設定に倫理擁護エージェントを導入することにより,倫理要件を生成する枠組みを提案する。
このエージェントは、システム記述に基づいて倫理的問題を批判し、入力する。
この作業は、要件エンジニアリングプロセスにおける倫理の広範な採用を促進するもので、最終的には倫理的に整合した製品につながります。
- 参考スコア(独自算出の注目度): 0.38233569758620056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating ethics into the requirement elicitation process is essential for creating ethically aligned systems. Although eliciting manual ethics requirements is effective, it requires diverse input from multiple stakeholders, which can be challenging due to time and resource constraints. Moreover, it is often given a low priority in the requirements elicitation process. This study proposes a framework for generating ethics requirements drafts by introducing an ethics advocate agent in a multi-agent LLM setting. This agent critiques and provides input on ethical issues based on the system description. The proposed framework is evaluated through two case studies from different contexts, demonstrating that it captures the majority of ethics requirements identified by researchers during 30-minute interviews and introduces several additional relevant requirements. However, it also highlights reliability issues in generating ethics requirements, emphasizing the need for human feedback in this sensitive domain. We believe this work can facilitate the broader adoption of ethics in the requirements engineering process, ultimately leading to more ethically aligned products.
- Abstract(参考訳): 倫理を要件適用プロセスに組み込むことは、倫理的に整合したシステムを作るのに不可欠である。
手動の倫理的要件を引き出すのが効果的であるが、時間とリソースの制約のために困難である複数の利害関係者からの多様な入力を必要とする。
さらに、要件適用プロセスにおいて、しばしば低い優先度が与えられる。
本研究では,マルチエージェント LLM 設定に倫理擁護エージェントを導入することにより,倫理要件草案作成のための枠組みを提案する。
このエージェントは、システム記述に基づいて倫理的問題を批判し、入力する。
提案フレームワークは,30分間のインタビューにおいて,研究者が認識した倫理要件の大部分を捉え,さらにいくつかの関連する要件を導入することを実証し,異なる文脈から2つのケーススタディを通じて評価する。
しかしながら、倫理要件の生成における信頼性の問題も強調し、このセンシティブな領域における人間のフィードバックの必要性を強調している。
この作業は、要件エンジニアリングプロセスにおける倫理の広範な採用を促進するもので、最終的には倫理的に整合した製品につながります。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - The Only Way is Ethics: A Guide to Ethical Research with Large Language Models [53.316174782223115]
LLM倫理白書(LLM Ethics Whitepaper)は、NLP実践者のオープンリソースであり、他人の仕事の倫理的意味を評価することを担当する。
私たちの目標は、倫理文学を明確な第一歩で考えるための具体的な勧告や挑発に翻訳することです。
LLM倫理白書」は、文献の徹底的なレビューを、ドとドナの明確な解釈に駆り立てたもので、本論文にも紹介する。
論文 参考訳(メタデータ) (2024-12-20T16:14:43Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - EALM: Introducing Multidimensional Ethical Alignment in Conversational
Information Retrieval [43.72331337131317]
我々は、倫理的アライメントを、効率的なデータスクリーニングのための初期倫理的判断段階と統合するワークフローを導入する。
本稿では,ETHICSベンチマークから適応したQA-ETHICSデータセットについて述べる。
さらに,二項および多ラベルの倫理的判断タスクにおいて,最高の性能を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T08:22:34Z) - Implementing AI Ethics: Making Sense of the Ethical Requirements [6.244518754129957]
私たちは、倫理的要件の基準として、信頼できるAIのための信頼できる倫理ガイドラインと、実装を分析するためのアジャイルポートフォリオ管理フレームワークを使用します。
本研究は,プライバシーとデータガバナンスの倫理的要件を法的要件として考慮し,倫理的要件を考慮しない。
また,リスク要件としての技術的堅牢性,実装の安全性,サステナビリティ要件としての実施に対する社会的・環境的幸福性といった倫理的要件の実践的考察も示した。
論文 参考訳(メタデータ) (2023-06-11T19:13:36Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。