論文の概要: Ethics Readiness of Artificial Intelligence: A Practical Evaluation Method
- arxiv url: http://arxiv.org/abs/2512.09729v1
- Date: Wed, 10 Dec 2025 15:10:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.568692
- Title: Ethics Readiness of Artificial Intelligence: A Practical Evaluation Method
- Title(参考訳): 人工知能の倫理的準備性 : 実践的評価法
- Authors: Laurynas Adomaitis, Vincent Israel-Jost, Alexei Grinbaum,
- Abstract要約: 我々は、AIシステムの設計において倫理的反映がどのように実装されているかを追跡する4段階の反復的手法である倫理準備レベル(ERLs)を提示する。
ERLは、倫理的価値を具体的なプロンプト、チェック、そして実際のユースケースにおけるコントロールに変換することで、高いレベルの倫理的原則と日々のエンジニアリングを橋渡しします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Ethics Readiness Levels (ERLs), a four-level, iterative method to track how ethical reflection is implemented in the design of AI systems. ERLs bridge high-level ethical principles and everyday engineering by turning ethical values into concrete prompts, checks, and controls within real use cases. The evaluation is conducted using a dynamic, tree-like questionnaire built from context-specific indicators, ensuring relevance to the technology and application domain. Beyond being a managerial tool, ERLs help facilitate a structured dialogue between ethics experts and technical teams, while our scoring system helps track progress over time. We demonstrate the methodology through two case studies: an AI facial sketch generator for law enforcement and a collaborative industrial robot. The ERL tool effectively catalyzes concrete design changes and promotes a shift from narrow technological solutionism to a more reflective, ethics-by-design mindset.
- Abstract(参考訳): 我々は、AIシステムの設計において倫理的反映がどのように実装されているかを追跡する4段階の反復的手法である倫理準備レベル(ERLs)を提示する。
ERLは、倫理的価値を具体的なプロンプト、チェック、そして実際のユースケースにおけるコントロールに変換することで、高いレベルの倫理的原則と日々のエンジニアリングを橋渡しします。
本評価は, 動的木様質問紙を用いて, 文脈特異的な指標を用いて実施し, 技術・応用分野との関連性を確認した。
ERLは管理ツールであるだけでなく、倫理の専門家と技術チームとの構造化された対話を促進するのにも役立ちます。
法執行のためのAI顔スケッチジェネレータと、協調産業ロボットの2つのケーススタディを通して方法論を実証する。
ERLツールは、具体的な設計変更を効果的に触媒し、狭義の技術解決主義からより反射的で倫理的な考え方へのシフトを促進する。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - Towards a Practical Ethics of Generative AI in Creative Production Processes [0.0]
本稿では,Double Diamondデザインモデルのような創造的生産プロセスにおける倫理的課題に対処するための枠組みを紹介する。
我々は、美徳倫理学、デオントロジー、実用主義、契約理論、ケア倫理学、実在論の6つの主要な倫理理論を描いている。
私たちは、AIに遊び的で探索的なアプローチを採用することで、デザイナはAI技術の潜在能力を責任を持って活用できる、と論じます。
論文 参考訳(メタデータ) (2024-11-18T11:07:26Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Implementing AI Ethics in Practice: An Empirical Evaluation of the
RESOLVEDD Strategy [6.7298812735467095]
我々は,ビジネス倫理学の分野であるRESOLVEDD戦略から,倫理システム開発の文脈において,既存の手法を実証的に評価する。
私たちの重要な発見の1つは、倫理的手法の使用が参加者に強制されたとしても、その利用はプロジェクトにおける倫理的配慮を促進したことである。
論文 参考訳(メタデータ) (2020-04-21T17:58:53Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。