論文の概要: Safeguarding Autonomy: a Focus on Machine Learning Decision Systems
- arxiv url: http://arxiv.org/abs/2503.22023v1
- Date: Thu, 27 Mar 2025 22:31:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:33:00.708839
- Title: Safeguarding Autonomy: a Focus on Machine Learning Decision Systems
- Title(参考訳): 自律性の保護 - 機械学習による意思決定システムを中心に
- Authors: Paula Subías-Beltrán, Oriol Pujol, Itziar de Lecuona,
- Abstract要約: MLパイプラインのさまざまなステージに注目して、MLエンドユーザの自律性に対する潜在的な影響を特定します。
本稿では、検出された各影響について関連する質問を行い、意思決定におけるMLエンドユーザの自律性を尊重する焦点を特定するためのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.16385815610837165
- License:
- Abstract: As global discourse on AI regulation gains momentum, this paper focuses on delineating the impact of ML on autonomy and fostering awareness. Respect for autonomy is a basic principle in bioethics that establishes persons as decision-makers. While the concept of autonomy in the context of ML appears in several European normative publications, it remains a theoretical concept that has yet to be widely accepted in ML practice. Our contribution is to bridge the theoretical and practical gap by encouraging the practical application of autonomy in decision-making within ML practice by identifying the conditioning factors that currently prevent it. Consequently, we focus on the different stages of the ML pipeline to identify the potential effects on ML end-users' autonomy. To improve its practical utility, we propose a related question for each detected impact, offering guidance for identifying possible focus points to respect ML end-users autonomy in decision-making.
- Abstract(参考訳): 本稿では,AI規制に関する世界的議論が勢いを増す中で,機械学習が自律性に与える影響と意識向上に焦点をあてる。
自律性への敬意は、人間を意思決定者として確立する生命倫理学の基本的な原則である。
MLの文脈における自律性の概念は、いくつかのヨーロッパの規範的な出版物に現れているが、まだMLの実践において広く受け入れられていない理論的な概念である。
我々の貢献は、ML実践における意思決定における自律の実践的適用を奨励し、現在それを防ぐ条件要因を特定することによって、理論的および実践的なギャップを埋めることである。
その結果、MLパイプラインの異なるステージに注目し、MLエンドユーザの自律性に対する潜在的な影響を特定する。
その実用性を改善するために,検出された各影響に関する関連質問を提案し,意思決定におけるMLエンドユーザの自律性を尊重する焦点を特定するためのガイダンスを提供する。
関連論文リスト
- Autotelic Reinforcement Learning: Exploring Intrinsic Motivations for Skill Acquisition in Open-Ended Environments [1.104960878651584]
本稿では, 自己強化学習(RL)の概要を概観し, スキルレパートリーのオープンエンド形成における本質的モチベーションの役割を強調した。
知識ベースと能力ベースの本質的なモチベーションの区別を明確にし、これらの概念が自己定義目標を生成・追求できる自律エージェントの開発にどのように役立つかを説明する。
論文 参考訳(メタデータ) (2025-02-06T14:37:46Z) - Metacognition for Unknown Situations and Environments (MUSE) [3.2020845462590697]
未知の状況と環境(MUSE)フレームワークのメタ認知を提案する。
MUSEはメタ認知プロセス、特に自己認識と自己制御を自律エージェントに統合する。
エージェントは自己認識と自己制御の大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-20T18:41:03Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Fairness: from the ethical principle to the practice of Machine Learning
development as an ongoing agreement with stakeholders [0.0]
本稿では,機械学習(ML)においてバイアスを完全に緩和できない理由を明らかにする。
正義と公正の倫理原理をML開発実践に翻訳するエンドツーエンドの方法論を提案する。
論文 参考訳(メタデータ) (2023-03-22T20:58:32Z) - Non-Determinism and the Lawlessness of Machine Learning Code [43.662736664344095]
我々は,非決定主義の影響と,その結果法に含める影響が,MLアウトプットの分布としての推論の観点からより明確になることを示す。
我々は、非決定性による潜在的に有害な影響を抑えるためにMLができることについて、簡単な議論で結論付けた。
論文 参考訳(メタデータ) (2022-06-23T17:05:34Z) - Self-directed Machine Learning [86.3709575146414]
教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
論文 参考訳(メタデータ) (2022-01-04T18:32:06Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - AutonoML: Towards an Integrated Framework for Autonomous Machine
Learning [9.356870107137095]
Reviewは、自動化された自動MLシステムを構成するものに関して、より広範な視点を動機付けようとしている。
その上で、以下の研究領域の開発状況を調査します。
我々は、各トピックによって拡張されたレビューを通して概念的枠組みを開発し、高レベルなメカニズムを自律mlシステムに融合する方法を1つ紹介する。
論文 参考訳(メタデータ) (2020-12-23T11:01:10Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。