論文の概要: When Should Algorithms Resign?
- arxiv url: http://arxiv.org/abs/2402.18326v1
- Date: Wed, 28 Feb 2024 13:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 14:56:33.737850
- Title: When Should Algorithms Resign?
- Title(参考訳): アルゴリズムはいつ辞任すべきか?
- Authors: Umang Bhatt and Holli Sargeant
- Abstract要約: 組織内におけるAIシステムの利用を管理する戦略的アプローチであるアルゴリズム辞退について議論する。
アルゴリズムの辞退には、ガバナンスメカニズムを直接AIシステムに組み込むことによって、特定のシナリオにおけるAIアシストからの意図的に取り除かれることが含まれる。
我々は,アルゴリズムによる辞任,経済効率,評判向上,法順守の多面的メリットについて論じる。
- 参考スコア(独自算出の注目度): 12.058836247561915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper discusses algorithmic resignation, a strategic approach for
managing the use of AI systems within organizations. Algorithmic resignation
involves the deliberate and informed disengagement from AI assistance in
certain scenarios, by embedding governance mechanisms directly into AI systems.
Our proposal is not merely about disuse of AI but includes guiding when and how
these systems should be used or avoided. We discuss the multifaceted benefits
of algorithmic resignation, spanning economic efficiency, reputational gains,
and legal compliance. Further, we outline the operationalization of resignation
through various methods such as positive and negative nudges, stakeholder
incentive alignment, and careful consideration of the level of AI engagement.
Using techniques like barring access to AI outputs selectively or providing
explicit disclaimers on system performance, algorithmic resignation not only
mitigates risks associated with AI but also leverages its benefits, ensuring
the responsible and effective use of AI systems.
- Abstract(参考訳): 本稿では、組織内におけるAIシステムの利用を管理する戦略的アプローチであるアルゴリズム辞退について論じる。
アルゴリズムの辞退には、AIシステムに直接ガバナンスメカニズムを組み込むことによって、特定のシナリオにおけるAIアシストからの意図的かつインフォームドな解脱が含まれる。
私たちの提案は、AIを廃止するだけでなく、これらのシステムがいつ、どのように使用されるか、避けるべきかを導くことを含んでいる。
アルゴリズムによる辞任,経済効率,評判の高まり,法的遵守といった多面的利益について論じる。
さらに、ポジティブ・ネガティブ・ナッジ、利害関係者のインセンティブ・アライメント、AIの関与度を慎重に検討するなど、さまざまな手法による辞表の運用について概説する。
AI出力へのアクセスを選択的に禁止したり、システムパフォーマンスに対する明確な不満を提供するようなテクニックを使用することで、アルゴリズムの辞退はAIに関連するリスクを軽減するだけでなく、そのメリットを活用し、AIシステムの責任と効果的な使用を保証する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Societal Adaptation to Advanced AI [1.2607853680700076]
先進的なAIシステムからリスクを管理する既存の戦略は、AIシステムの開発方法と拡散方法に影響を与えることに集中することが多い。
我々は、先進的なAIへの社会適応の増大という補完的なアプローチを奨励する。
我々は、AIシステムの潜在的に有害な使用を回避し、防御し、治療する適応的介入を特定するのに役立つ概念的枠組みを導入する。
論文 参考訳(メタデータ) (2024-05-16T17:52:12Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - LeanAI: A method for AEC practitioners to effectively plan AI
implementations [1.213096549055645]
AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
論文 参考訳(メタデータ) (2023-06-29T09:18:11Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Time for AI (Ethics) Maturity Model Is Now [15.870654219935972]
この記事では、AIソフトウェアはまだソフトウェアであり、ソフトウェア開発の観点からアプローチする必要がある、と論じる。
我々は、AI倫理に重点を置くべきか、それともより広く、AIシステムの品質に重点を置くべきかを議論したい。
論文 参考訳(メタデータ) (2021-01-29T17:37:44Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。