論文の概要: An Audit Framework for Adopting AI-Nudging on Children
- arxiv url: http://arxiv.org/abs/2304.14338v1
- Date: Tue, 25 Apr 2023 17:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 12:32:28.248931
- Title: An Audit Framework for Adopting AI-Nudging on Children
- Title(参考訳): 子どもにAI教育を施すための監査フレームワーク
- Authors: Marianna Ganapini and Enrico Panai
- Abstract要約: これはAIナッジのための監査フレームワークである。
文献で通常議論される静的なヌージングとは違い、我々は大量のデータを使用するヌージングのタイプに焦点を当てている。
監査の最終的な目標は、ナッジを使用するAIシステムが道徳的慣性と中立性を維持することを保証することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This is an audit framework for AI-nudging. Unlike the static form of nudging
usually discussed in the literature, we focus here on a type of nudging that
uses large amounts of data to provide personalized, dynamic feedback and
interfaces. We call this AI-nudging (Lanzing, 2019, p. 549; Yeung, 2017). The
ultimate goal of the audit outlined here is to ensure that an AI system that
uses nudges will maintain a level of moral inertia and neutrality by complying
with the recommendations, requirements, or suggestions of the audit (in other
words, the criteria of the audit). In the case of unintended negative
consequences, the audit suggests risk mitigation mechanisms that can be put in
place. In the case of unintended positive consequences, it suggests some
reinforcement mechanisms. Sponsored by the IBM-Notre Dame Tech Ethics Lab
- Abstract(参考訳): これはAIナッジのための監査フレームワークである。
文献で議論されるような静的なニュジングとは違って,ここでは大量のデータを使用してパーソナライズされたダイナミックなフィードバックとインターフェースを提供するニュジングのタイプに注目します。
私たちはこれをAIナッジと呼んでいる(Lanzing, 2019, pp. 549; Yeung, 2017)。
ここで概説した監査の最終的な目標は、監査の勧告、要件、提案(言い換えれば、監査の基準)に従えば、ナッジを使用するAIシステムが道徳的慣性や中立性のレベルを維持することを保証することである。
意図しないネガティブな結果が発生した場合、監査は、実施可能なリスク軽減メカニズムを示唆する。
意図しないポジティブな結果の場合、いくつかの強化メカニズムが示唆される。
IBM-Notre Dame Tech Ethics Labがスポンサー
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z) - AuditMAI: Towards An Infrastructure for Continuous AI Auditing [0.6749750044497732]
オーディタビリティは、責任あるAIシステム設計を達成するためのコア要件である。
既存のAI監査ツールは、一般的に統合機能がなく、独立したアプローチのままである。
金融などの他のドメインにインスパイアされた継続的AI監査は、AIシステムの定期的な評価を行うための有望な方向である。
論文 参考訳(メタデータ) (2024-06-20T12:11:53Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Unfooling Perturbation-Based Post Hoc Explainers [12.599362066650842]
最近の研究は、摂動に基づくポストホックの説明を逆さまに騙すことが実証されている。
この発見は監査人、規制当局、その他のセンチネルに悪影響を及ぼす。
本研究では,この問題を厳格に定式化し,摂動型説明器に対する敵攻撃に対する防御策を考案する。
論文 参考訳(メタデータ) (2022-05-29T21:28:12Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Confidence-Budget Matching for Sequential Budgeted Learning [69.77435313099366]
問合せ予算で意思決定問題を定式化する。
我々は,多腕バンディット,線形バンディット,強化学習問題を考察する。
我々は,CBMに基づくアルゴリズムが逆性の存在下で良好に動作することを示す。
論文 参考訳(メタデータ) (2021-02-05T19:56:31Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。