論文の概要: Safeguarding Autonomy: a Focus on Machine Learning Decision Systems
- arxiv url: http://arxiv.org/abs/2503.22023v1
- Date: Thu, 27 Mar 2025 22:31:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 19:09:59.50751
- Title: Safeguarding Autonomy: a Focus on Machine Learning Decision Systems
- Title(参考訳): 自律性の保護 - 機械学習による意思決定システムを中心に
- Authors: Paula Subías-Beltrán, Oriol Pujol, Itziar de Lecuona,
- Abstract要約: MLパイプラインのさまざまなステージに注目して、MLエンドユーザの自律性に対する潜在的な影響を特定します。
本稿では、検出された各影響について関連する質問を行い、意思決定におけるMLエンドユーザの自律性を尊重する焦点を特定するためのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.16385815610837165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As global discourse on AI regulation gains momentum, this paper focuses on delineating the impact of ML on autonomy and fostering awareness. Respect for autonomy is a basic principle in bioethics that establishes persons as decision-makers. While the concept of autonomy in the context of ML appears in several European normative publications, it remains a theoretical concept that has yet to be widely accepted in ML practice. Our contribution is to bridge the theoretical and practical gap by encouraging the practical application of autonomy in decision-making within ML practice by identifying the conditioning factors that currently prevent it. Consequently, we focus on the different stages of the ML pipeline to identify the potential effects on ML end-users' autonomy. To improve its practical utility, we propose a related question for each detected impact, offering guidance for identifying possible focus points to respect ML end-users autonomy in decision-making.
- Abstract(参考訳): 本稿では,AI規制に関する世界的議論が勢いを増す中で,機械学習が自律性に与える影響と意識向上に焦点をあてる。
自律性への敬意は、人間を意思決定者として確立する生命倫理学の基本的な原則である。
MLの文脈における自律性の概念は、いくつかのヨーロッパの規範的な出版物に現れているが、まだMLの実践において広く受け入れられていない理論的な概念である。
我々の貢献は、ML実践における意思決定における自律の実践的適用を奨励し、現在それを防ぐ条件要因を特定することによって、理論的および実践的なギャップを埋めることである。
その結果、MLパイプラインの異なるステージに注目し、MLエンドユーザの自律性に対する潜在的な影響を特定する。
その実用性を改善するために,検出された各影響に関する関連質問を提案し,意思決定におけるMLエンドユーザの自律性を尊重する焦点を特定するためのガイダンスを提供する。
関連論文リスト
- A Framework for a Capability-driven Evaluation of Scenario Understanding for Multimodal Large Language Models in Autonomous Driving [15.24721920935653]
MLLM(Multimodal large language model)は、自動運転の可能性を秘めている。
自律運転システムへの統合は、概念実証アプリケーションにおいて有望な結果を示す。
本稿では,自律運転におけるMLLMの能力駆動評価のための総合的枠組みを提案する。
論文 参考訳(メタデータ) (2025-03-14T13:43:26Z) - Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models [91.24296813969003]
本稿では,機械学習に因果的手法を取り入れて,信頼性の高いMLの主要な原則間のトレードオフをナビゲートすることを提唱する。
我々は、信頼できるMLと基礎モデルの両方において、複数の競合する目標のバランスをとるためには、因果的アプローチが不可欠であると主張する。
論文 参考訳(メタデータ) (2025-02-28T14:57:33Z) - Autotelic Reinforcement Learning: Exploring Intrinsic Motivations for Skill Acquisition in Open-Ended Environments [1.104960878651584]
本稿では, 自己強化学習(RL)の概要を概観し, スキルレパートリーのオープンエンド形成における本質的モチベーションの役割を強調した。
知識ベースと能力ベースの本質的なモチベーションの区別を明確にし、これらの概念が自己定義目標を生成・追求できる自律エージェントの開発にどのように役立つかを説明する。
論文 参考訳(メタデータ) (2025-02-06T14:37:46Z) - Metacognition for Unknown Situations and Environments (MUSE) [3.2020845462590697]
未知の状況と環境(MUSE)フレームワークのメタ認知を提案する。
MUSEはメタ認知プロセス、特に自己認識と自己制御を自律エージェントに統合する。
エージェントは自己認識と自己制御の大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-20T18:41:03Z) - Look Before You Decide: Prompting Active Deduction of MLLMs for Assumptive Reasoning [77.72128397088409]
本研究は,MLLMの最も普及している手法が,その問題に先入観を導入することで,容易に騙せることを示す。
また,モデルが積極的に複合推論を行うように促す新しい強化学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-19T15:53:27Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - Fairness: from the ethical principle to the practice of Machine Learning
development as an ongoing agreement with stakeholders [0.0]
本稿では,機械学習(ML)においてバイアスを完全に緩和できない理由を明らかにする。
正義と公正の倫理原理をML開発実践に翻訳するエンドツーエンドの方法論を提案する。
論文 参考訳(メタデータ) (2023-03-22T20:58:32Z) - Non-Determinism and the Lawlessness of Machine Learning Code [43.662736664344095]
我々は,非決定主義の影響と,その結果法に含める影響が,MLアウトプットの分布としての推論の観点からより明確になることを示す。
我々は、非決定性による潜在的に有害な影響を抑えるためにMLができることについて、簡単な議論で結論付けた。
論文 参考訳(メタデータ) (2022-06-23T17:05:34Z) - Self-directed Machine Learning [86.3709575146414]
教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
論文 参考訳(メタデータ) (2022-01-04T18:32:06Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。