論文の概要: Nudging Using Autonomous Agents: Risks and Ethical Considerations
- arxiv url: http://arxiv.org/abs/2407.16362v1
- Date: Tue, 23 Jul 2024 10:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 17:36:04.727735
- Title: Nudging Using Autonomous Agents: Risks and Ethical Considerations
- Title(参考訳): 自律的エージェントを用いた看護:リスクと倫理的考察
- Authors: Vivek Nallur, Karen Renaud, Aleksei Gudkov,
- Abstract要約: 本稿は,本手法が有意な意図,予測可能なリスク,緩和を透明化する実用的手法である,という立場を取る。
AIと自律エージェントの能力の不確実性を考えると、そのような実用的手法は、ドメインや技術の柔軟性を犠牲にすることなく、少なくとも安全な経路を提供すると信じています。
- 参考スコア(独自算出の注目度): 1.1234214490763361
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This position paper briefly discusses nudging, its use by autonomous agents, potential risks and ethical considerations while creating such systems. Instead of taking a normative approach, which guides all situations, the paper proposes a risk-driven questions-and-answer approach. The paper takes the position that this is a pragmatic method, that is transparent about beneficial intentions, foreseeable risks, and mitigations. Given the uncertainty in AI and autonomous agent capabilities, we believe that such pragmatic methods offer a plausibly safe path, without sacrificing flexibility in domain and technology.
- Abstract(参考訳): 本稿は, ナッジング, 自律エージェントの利用, 潜在的なリスク, 倫理的考察を, システム構築の過程で簡潔に論じる。
あらゆる状況を導く規範的アプローチではなく,リスク駆動型質問・回答アプローチを提案する。
本稿は,本手法が有意な意図,予測可能なリスク,緩和を透明化する実用的手法である,という立場を取る。
AIと自律エージェントの能力の不確実性を考えると、そのような実用的手法は、ドメインや技術の柔軟性を犠牲にすることなく、少なくとも安全な経路を提供すると信じています。
関連論文リスト
- Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Data-Adaptive Tradeoffs among Multiple Risks in Distribution-Free Prediction [55.77015419028725]
しきい値とトレードオフパラメータが適応的に選択された場合、リスクの有効な制御を可能にする手法を開発する。
提案手法は単調なリスクとほぼ単調なリスクをサポートするが,それ以外は分布的な仮定はしない。
論文 参考訳(メタデータ) (2024-03-28T17:28:06Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI [11.240642213359267]
多くの抜本的な分類が可能であり、特に新しいリスクや安全性への実践的なアプローチを明らかにする場合、有用であるものもある。
本稿では,リスクに繋がる行動,アクターは一体化されているか,意図的かという,説明責任に基づく分類について考察する。
また、AIシステムの予期せぬ相互作用から生じるリスクや、意図的に悪用されるリスクなど、さまざまなリスクタイプがどのように機能するかを説明する物語も提供しています。
論文 参考訳(メタデータ) (2023-06-12T07:55:18Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - An Ethical Trajectory Planning Algorithm for Autonomous Vehicles [0.0]
本稿では,道路利用者間のリスクの公平分布を目的とした倫理的軌道計画アルゴリズムを提案する。
我々の実施には、全体的なリスクの最小化、最悪の場合の優先順位、人々の平等な扱い、責任、許容可能な最大リスクの5つの基本的な倫理原則が組み込まれています。
これは、EU委員会の専門家グループによる20の勧告に沿った、自動運転車の軌道計画のための最初の倫理的アルゴリズムである。
論文 参考訳(メタデータ) (2022-12-16T16:53:51Z) - A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems [5.45210704757922]
信頼できるAIと自律システム(AI/AS)研究コミュニティにおける新たな提案は、正当化された信頼を損なうために保証ケースを使用することだ。
本稿では, 提案を実質的に発展させ, 具体化する。
これは、保証ケースの方法論と、原則に基づく倫理的保証の議論パターンを構築するための一連の倫理的原則を結びつけます。
論文 参考訳(メタデータ) (2022-03-29T09:08:03Z) - Learning to Be Cautious [71.9871661858886]
強化学習の分野における重要な課題は、新しい状況下で慎重に行動するエージェントを開発することである。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z) - Ethical Assurance: A practical approach to the responsible design,
development, and deployment of data-driven technologies [0.0]
この記事では、データサイエンスとAIにおける責任ある研究とイノベーションに関する学際的プロジェクトへのコントリビューションを提供する。
まず、アルゴリズム評価の実践的なメカニズムを確立するための現在の取り組みについて批判的な分析を行う。
第二に、議論に基づく保証の方法論へのアクセシビリティな導入を提供する。
第3に,我々は「倫理的保証」と呼ぶ,議論に基づく保証の新たなバージョンを確立する。
論文 参考訳(メタデータ) (2021-10-11T11:21:49Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。