論文の概要: The Fallacy of AI Functionality
- arxiv url: http://arxiv.org/abs/2206.09511v1
- Date: Mon, 20 Jun 2022 00:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 18:41:41.503962
- Title: The Fallacy of AI Functionality
- Title(参考訳): ai機能の誤用
- Authors: Inioluwa Deborah Raji, I. Elizabeth Kumar, Aaron Horowitz, Andrew D.
Selbst
- Abstract要約: 我々は、既知のAI機能の分類を作成するために、一連のケーススタディを分析します。
私たちは、しばしば見過ごされ、機能が焦点を合わせると、より容易に利用できるようになるポリシーや組織的な反応を指摘する。
私たちは、機能性は意味のあるAIポリシーの課題であり、影響のあるコミュニティをアルゴリズムの害から守るための必要な第一歩として機能する、と論じています。
- 参考スコア(独自算出の注目度): 3.6048794343841766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deployed AI systems often do not work. They can be constructed haphazardly,
deployed indiscriminately, and promoted deceptively. However, despite this
reality, scholars, the press, and policymakers pay too little attention to
functionality. This leads to technical and policy solutions focused on
"ethical" or value-aligned deployments, often skipping over the prior question
of whether a given system functions, or provides any benefits at all.To
describe the harms of various types of functionality failures, we analyze a set
of case studies to create a taxonomy of known AI functionality issues. We then
point to policy and organizational responses that are often overlooked and
become more readily available once functionality is drawn into focus. We argue
that functionality is a meaningful AI policy challenge, operating as a
necessary first step towards protecting affected communities from algorithmic
harm.
- Abstract(参考訳): デプロイされたAIシステムは、しばしば機能しない。
それらは無差別に構築され、無差別に展開され、軽蔑的に宣伝される。
しかし、この事実にもかかわらず、学者、報道機関、政策立案者は機能にあまり注意を払わない。
このことは、"倫理的"なデプロイメントやバリューアラインなデプロイメントに焦点を絞った技術的および政策的なソリューションにつながります。与えられたシステム機能が機能するか、あるいは何のメリットも与えないという、以前の質問をスキップすることが多いのです。さまざまなタイプの機能障害の障害を説明するために、ケーススタディのセットを分析して、既知のAI機能問題の分類を作成します。
そして、機能に注目が集まると、しばしば見過ごされ、より容易に利用できるようになるポリシーや組織的な反応を指差します。
機能は有意義なaiポリシーの課題であり、影響を受けるコミュニティをアルゴリズムによる害から守るための第一歩として機能する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - Residual Q-Learning: Offline and Online Policy Customization without
Value [53.47311900133564]
イミテーション・ラーニング(Imitation Learning, IL)は、実演から模倣行動を学ぶためのフレームワークである。
政策カスタマイズと呼ばれる新しい問題設定を定式化する。
本稿では,従来の政策を活かして定式化MDPを解くための新しいフレームワークであるResidual Q-learningを提案する。
論文 参考訳(メタデータ) (2023-06-15T22:01:19Z) - Operationalising Responsible AI Using a Pattern-Oriented Approach: A
Case Study on Chatbots in Financial Services [11.33499498841489]
責任AI(Responsible AI)は、人間、社会、環境に利益をもたらす方法でAIシステムを開発し、利用するプラクティスである。
さまざまな責任あるAI原則が最近リリースされたが、これらの原則は非常に抽象的で実用的ではない。
ギャップを埋めるために、パターン指向のアプローチを採用し、責任あるAIパターンカタログを構築します。
論文 参考訳(メタデータ) (2023-01-03T23:11:03Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Creative Problem Solving in Artificially Intelligent Agents: A Survey
and Framework [20.51422185398759]
創造的問題解決(CPS)は人工知能(AI)のサブ領域である
この分野で既存のAI手法を分類するために,我々はCPSの定義とフレームワークを提案する。
本フレームワークは, CPS問題, 問題定式化, 知識表現, 知識操作方法, 評価方法の4つの主成分から構成される。
論文 参考訳(メタデータ) (2022-04-21T18:31:44Z) - Learning to Be Cautious [71.9871661858886]
強化学習の分野における重要な課題は、新しい状況下で慎重に行動するエージェントを開発することである。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。