論文の概要: Social, Legal, Ethical, Empathetic and Cultural Norm Operationalisation for AI Agents
- arxiv url: http://arxiv.org/abs/2603.11864v1
- Date: Thu, 12 Mar 2026 12:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.072663
- Title: Social, Legal, Ethical, Empathetic and Cultural Norm Operationalisation for AI Agents
- Title(参考訳): AIエージェントのための社会的、法的、倫理的、共感的、文化的ノルムの運用
- Authors: Radu Calinescu, Ana Cavalcanti, Marsha Chechik, Lina Marsso, Beverley Townsend,
- Abstract要約: AIエージェントは、医療や法執行機関のような高度な領域でますます使われています。
彼らの行動と社会的、法的、倫理的、共感的、文化的(SLEEC)規範を合わせることは、重要な工学的課題となっている。
本稿では,規範的要件の決定,検証,実装,検証を行うためのSLEEC-Norm運用プロセスを提案する。
- 参考スコア(独自算出の注目度): 5.282637986114336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI agents are increasingly used in high-stakes domains like healthcare and law enforcement, aligning their behaviour with social, legal, ethical, empathetic, and cultural (SLEEC) norms has become a critical engineering challenge. While international frameworks have established high-level normative principles for AI, a significant gap remains in translating these abstract principles into concrete, verifiable requirements. To address this gap, we propose a systematic SLEEC-norm operationalisation process for determining, validating, implementing, and verifying normative requirements. Furthermore, we survey the landscape of methods and tools supporting this process, and identify key remaining challenges and research avenues for addressing them. We thus establish a framework - and define a research and policy agenda - for developing AI agents that are not only functionally useful but also demonstrably aligned with human norms and values.
- Abstract(参考訳): AIエージェントが医療や法執行機関のような高度な領域でますます使われているため、彼らの行動と社会的、法的、倫理的、共感的、文化的(SLEEC)の規範との整合性は、重要なエンジニアリング課題となっている。
国際的なフレームワークは、AIの高度な規範原則を確立してきたが、これらの抽象原則を具体的かつ検証可能な要件に翻訳する上で、大きなギャップは依然として残っている。
このギャップに対処するため,本研究では,規範的要件の決定,検証,実装,検証を行うためのSLEEC-Norm運用プロセスを提案する。
さらに,このプロセスを支援する方法やツールの展望を調査し,それに対応するための重要な課題と研究の道筋を明らかにする。
そこで我々は、機能的に有用であるだけでなく、人間の規範や価値観と実証的に一致したAIエージェントを開発するためのフレームワークを確立し、研究と政策のアジェンダを定義します。
関連論文リスト
- Standards for trustworthy AI in the European Union: technical rationale, structural challenges, and an implementation path [0.0]
この白書は、AI法に基づく欧州のAI標準化の技術的基盤について考察する。
CEN/CENELECの標準化プロセスを説明するとともに、AIがユニークな課題を提起する理由を分析する。
論文 参考訳(メタデータ) (2026-01-21T11:58:47Z) - Towards a Framework for Supporting the Ethical and Regulatory Certification of AI Systems [8.633165810707315]
CERTAINプロジェクトは、規制コンプライアンス、倫理基準、透明性をAIシステムに統合することを目的としている。
このフレームワークのコアコンポーネントを構築するための方法論的な手順を概説する。
CERTAINは、規制コンプライアンスを推進し、欧州標準に沿った責任あるAIイノベーションを促進することを目的としている。
論文 参考訳(メタデータ) (2025-09-30T08:54:02Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Normative Requirements Operationalization with Large Language Models [3.456725053685842]
規範的な非機能要件は、社会的、法的、倫理的、共感的、文化的規範の違反を避けるために、システムが観察しなければならない制約を規定する。
近年の研究では、規範的要件を特定するためにドメイン固有言語を使用してこの問題に対処している。
本稿では,システム機能の抽象表現間の意味的関係を抽出するために,大規模言語モデルを用いた補完的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:01:34Z) - Developing and Deploying Industry Standards for Artificial Intelligence in Education (AIED): Challenges, Strategies, and Future Directions [22.65961106637345]
AIED(Artificial Intelligence in Education)は、教育実践に革命をもたらすことを約束している。
AIEDソリューションの開発とデプロイにおける標準化されたプラクティスの欠如は、断片化されたエコシステムにつながった。
この記事では、AIEDにおける業界標準の開発と実装に関する重要なニーズに対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-13T22:38:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。