論文の概要: Ethics Sheets for AI Tasks
- arxiv url: http://arxiv.org/abs/2107.01183v2
- Date: Mon, 5 Jul 2021 15:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 11:21:48.050095
- Title: Ethics Sheets for AI Tasks
- Title(参考訳): AIタスクのための倫理シート
- Authors: Saif M. Mohammad
- Abstract要約: 私は、個々のモデルやデータセットのレベルだけでなく、AIタスクのレベルにおいても倫理的考慮事項について考えることにしました。
このような取り組みの新たな形態として、AIタスクのための倫理表(Ethics Sheets for AI Tasks)を紹介します。
- 参考スコア(独自算出の注目度): 25.289525325790414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several high-profile events, such as the use of biased recidivism systems and
mass testing of emotion recognition systems on vulnerable sub-populations, have
highlighted how technology will often lead to more adverse outcomes for those
that are already marginalized. In this paper, I will make a case for thinking
about ethical considerations not just at the level of individual models and
datasets, but also at the level of AI tasks. I will present a new form of such
an effort, Ethics Sheets for AI Tasks, dedicated to fleshing out the
assumptions and ethical considerations hidden in how a task is commonly framed
and in the choices we make regarding the data, method, and evaluation. Finally,
I will provide an example ethics sheet for automatic emotion recognition.
Together with Data Sheets for datasets and Model Cards for AI systems, Ethics
Sheets aid in the development and deployment of responsible AI systems.
- Abstract(参考訳): バイアスド・リシディズム・システムの使用や、脆弱なサブ人口に対する感情認識システムの大量テストなど、いくつかの顕著な出来事は、テクノロジーが既に疎外されている人々にとってより有害な結果をもたらすことを強調している。
本稿では,個別のモデルやデータセットのレベルだけでなく,AIタスクのレベルにおいても倫理的考察を考察する。
AIタスクのための倫理シート(Ethics Sheets for AI Tasks)という,タスクの一般的なフレーム化方法や,データやメソッド,評価に関する選択に隠された仮定と倫理的考察の具体化を目的とした,そのような取り組みの新たな形式を紹介します。
最後に、自動感情認識のための倫理表の例を挙げる。
データセット用のData SheetsとAIシステムのModel Cardsとともに、Ethics Sheetsは、責任あるAIシステムの開発とデプロイを支援する。
関連論文リスト
- Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - EALM: Introducing Multidimensional Ethical Alignment in Conversational
Information Retrieval [43.72331337131317]
我々は、倫理的アライメントを、効率的なデータスクリーニングのための初期倫理的判断段階と統合するワークフローを導入する。
本稿では,ETHICSベンチマークから適応したQA-ETHICSデータセットについて述べる。
さらに,二項および多ラベルの倫理的判断タスクにおいて,最高の性能を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T08:22:34Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Why we need biased AI -- How including cognitive and ethical machine
biases can enhance AI systems [0.0]
学習アルゴリズムにおける人間の認知バイアスの構造的実装について論じる。
倫理的マシン動作を達成するには、フィルタ機構を適用する必要がある。
本論文は、機械バイアスの倫理的重要性を再評価するアイデアを明示的に追求する最初の仮段階である。
論文 参考訳(メタデータ) (2022-03-18T12:39:35Z) - A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA [5.28595286827031]
本研究の目的は、ECCOLAの採用を促進するために、ECCOLAをデプロイメントモデルで拡張することである。
このモデルには、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスが含まれている。
論文 参考訳(メタデータ) (2021-10-12T12:22:34Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Implementing AI Ethics in Practice: An Empirical Evaluation of the
RESOLVEDD Strategy [6.7298812735467095]
我々は,ビジネス倫理学の分野であるRESOLVEDD戦略から,倫理システム開発の文脈において,既存の手法を実証的に評価する。
私たちの重要な発見の1つは、倫理的手法の使用が参加者に強制されたとしても、その利用はプロジェクトにおける倫理的配慮を促進したことである。
論文 参考訳(メタデータ) (2020-04-21T17:58:53Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Trustworthy AI in the Age of Pervasive Computing and Big Data [22.92621391190282]
我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
論文 参考訳(メタデータ) (2020-01-30T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。