論文の概要: Exploring the Nuances of Designing (with/for) Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2010.15578v1
- Date: Thu, 22 Oct 2020 20:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:34:25.068609
- Title: Exploring the Nuances of Designing (with/for) Artificial Intelligence
- Title(参考訳): 人工知能による)設計のニュアンスを探る
- Authors: Niya Stoimenova, Rebecca Price
- Abstract要約: 我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solutions relying on artificial intelligence are devised to predict data
patterns and answer questions that are clearly defined, involve an enumerable
set of solutions, clear rules, and inherently binary decision mechanisms. Yet,
as they become exponentially implemented in our daily activities, they begin to
transcend these initial boundaries and to affect the larger sociotechnical
system in which they are situated. In this arrangement, a solution is under
pressure to surpass true or false criteria and move to an ethical evaluation of
right and wrong. Neither algorithmic solutions, nor purely humanistic ones will
be enough to fully mitigate undesirable outcomes in the narrow state of AI or
its future incarnations. We must take a holistic view. In this paper we explore
the construct of infrastructure as a means to simultaneously address
algorithmic and societal issues when designing AI.
- Abstract(参考訳): 人工知能に依存したソリューションは、データパターンを予測し、明確に定義された質問に答え、エミュラブルなソリューションセット、明確なルール、本質的にバイナリな決定メカニズムを含むように考案されている。
しかし、私たちの日常活動において指数関数的に実施されるようになると、これらの初期境界を超越し、その位置するより大きな社会技術システムに影響を与えるようになる。
この方法では、解決法が真または偽の基準を超越し、善と悪の倫理的評価に移行するよう圧力がかかっている。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、aiの狭い状態やその未来における望ましくない結果を完全に和らげるには十分ではない。
私たちは全体観をとらなければならない。
本稿では,AI設計におけるアルゴリズムと社会の問題に同時に対処する手段として,インフラの構築について検討する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - XXAI: Towards eXplicitly eXplainable Artificial Intelligence [0.0]
サブシンボリックニューラルネットワークに基づく人工知能の信頼性と安全性には懸念がある。
象徴的なAIは、ホワイトボックスの性質を持ち、その決定の信頼性と安全性を保証することができる。
eXplicitly eXplainable AI (XXAI) - 決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIを提案する。
論文 参考訳(メタデータ) (2024-01-05T23:50:10Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Inherent Limitations of AI Fairness [16.588468396705366]
AIフェアネスの研究は、コンピュータ科学、社会科学、法学、哲学と結びついた豊富な研究分野へと急速に発展してきた。
AIフェアネスの測定と達成のための多くの技術的ソリューションが提案されているが、そのアプローチは近年、誤解を招く、非現実的で有害であるとして批判されている。
論文 参考訳(メタデータ) (2022-12-13T11:23:24Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。