論文の概要: When Should Algorithms Resign?
- arxiv url: http://arxiv.org/abs/2402.18326v1
- Date: Wed, 28 Feb 2024 13:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 14:56:33.737850
- Title: When Should Algorithms Resign?
- Title(参考訳): アルゴリズムはいつ辞任すべきか?
- Authors: Umang Bhatt and Holli Sargeant
- Abstract要約: 組織内におけるAIシステムの利用を管理する戦略的アプローチであるアルゴリズム辞退について議論する。
アルゴリズムの辞退には、ガバナンスメカニズムを直接AIシステムに組み込むことによって、特定のシナリオにおけるAIアシストからの意図的に取り除かれることが含まれる。
我々は,アルゴリズムによる辞任,経済効率,評判向上,法順守の多面的メリットについて論じる。
- 参考スコア(独自算出の注目度): 12.058836247561915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper discusses algorithmic resignation, a strategic approach for
managing the use of AI systems within organizations. Algorithmic resignation
involves the deliberate and informed disengagement from AI assistance in
certain scenarios, by embedding governance mechanisms directly into AI systems.
Our proposal is not merely about disuse of AI but includes guiding when and how
these systems should be used or avoided. We discuss the multifaceted benefits
of algorithmic resignation, spanning economic efficiency, reputational gains,
and legal compliance. Further, we outline the operationalization of resignation
through various methods such as positive and negative nudges, stakeholder
incentive alignment, and careful consideration of the level of AI engagement.
Using techniques like barring access to AI outputs selectively or providing
explicit disclaimers on system performance, algorithmic resignation not only
mitigates risks associated with AI but also leverages its benefits, ensuring
the responsible and effective use of AI systems.
- Abstract(参考訳): 本稿では、組織内におけるAIシステムの利用を管理する戦略的アプローチであるアルゴリズム辞退について論じる。
アルゴリズムの辞退には、AIシステムに直接ガバナンスメカニズムを組み込むことによって、特定のシナリオにおけるAIアシストからの意図的かつインフォームドな解脱が含まれる。
私たちの提案は、AIを廃止するだけでなく、これらのシステムがいつ、どのように使用されるか、避けるべきかを導くことを含んでいる。
アルゴリズムによる辞任,経済効率,評判の高まり,法的遵守といった多面的利益について論じる。
さらに、ポジティブ・ネガティブ・ナッジ、利害関係者のインセンティブ・アライメント、AIの関与度を慎重に検討するなど、さまざまな手法による辞表の運用について概説する。
AI出力へのアクセスを選択的に禁止したり、システムパフォーマンスに対する明確な不満を提供するようなテクニックを使用することで、アルゴリズムの辞退はAIに関連するリスクを軽減するだけでなく、そのメリットを活用し、AIシステムの責任と効果的な使用を保証する。
関連論文リスト
- Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - LeanAI: A method for AEC practitioners to effectively plan AI
implementations [1.213096549055645]
AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
論文 参考訳(メタデータ) (2023-06-29T09:18:11Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Conflict Between Explainable and Accountable Decision-Making
Algorithms [10.64167691614925]
意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
論文 参考訳(メタデータ) (2022-05-11T07:19:28Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - AI loyalty: A New Paradigm for Aligning Stakeholder Interests [0.0]
我々は、AI倫理における他の重要な価値と共に、技術設計プロセスにおいてAIの忠誠心が考慮されるべきであると主張する。
我々は、将来のAIシステムにAI忠誠を組み込むための様々なメカニズムについて論じる。
論文 参考訳(メタデータ) (2020-03-24T23:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。