論文の概要: AI Ethics Statements -- Analysis and lessons learnt from NeurIPS Broader
Impact Statements
- arxiv url: http://arxiv.org/abs/2111.01705v1
- Date: Tue, 2 Nov 2021 16:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 16:22:00.726846
- Title: AI Ethics Statements -- Analysis and lessons learnt from NeurIPS Broader
Impact Statements
- Title(参考訳): aiの倫理声明 -- 幅広い影響声明から学んだ分析と教訓
- Authors: Carolyn Ashurst, Emmie Hine, Paul Sedille, Alexis Carlier
- Abstract要約: 2020年、機械学習(ML)カンファレンスNeurIPSは、すべての論文に広範なインパクトステートメントを含むことを要求して、新たな基盤を突破した。
この要件は、チェックリストのアプローチに賛成して、2021年に取り除かれた。
我々は、NeurIPS 2020のすべての論文のインパクトステートメントを含むデータセットを作成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ethics statements have been proposed as a mechanism to increase transparency
and promote reflection on the societal impacts of published research. In 2020,
the machine learning (ML) conference NeurIPS broke new ground by requiring that
all papers include a broader impact statement. This requirement was removed in
2021, in favour of a checklist approach. The 2020 statements therefore provide
a unique opportunity to learn from the broader impact experiment: to
investigate the benefits and challenges of this and similar governance
mechanisms, as well as providing an insight into how ML researchers think about
the societal impacts of their own work. Such learning is needed as NeurIPS and
other venues continue to question and adapt their policies. To enable this, we
have created a dataset containing the impact statements from all NeurIPS 2020
papers, along with additional information such as affiliation type, location
and subject area, and a simple visualisation tool for exploration. We also
provide an initial quantitative analysis of the dataset, covering
representation, engagement, common themes, and willingness to discuss potential
harms alongside benefits. We investigate how these vary by geography,
affiliation type and subject area. Drawing on these findings, we discuss the
potential benefits and negative outcomes of ethics statement requirements, and
their possible causes and associated challenges. These lead us to several
lessons to be learnt from the 2020 requirement: (i) the importance of creating
the right incentives, (ii) the need for clear expectations and guidance, and
(iii) the importance of transparency and constructive deliberation. We
encourage other researchers to use our dataset to provide additional analysis,
to further our understanding of how researchers responded to this requirement,
and to investigate the benefits and challenges of this and related mechanisms.
- Abstract(参考訳): 倫理声明は、透明性を高め、公表された研究の社会的影響に対する反省を促進するメカニズムとして提案されている。
2020年、機械学習(ML)カンファレンスNeurIPSは、すべての論文に広範なインパクトステートメントを含むことを要求して、新たな基盤を突破した。
この要件はチェックリストアプローチに賛成して2021年に取り除かれた。
それゆえ、2020年の声明は、より広範なインパクト実験から学ぶためのユニークな機会を提供する。これと類似のガバナンスメカニズムの利点と課題を調査し、ml研究者が自分たちの仕事の社会的影響をどう考えるかに関する洞察を提供する。
このような学習はNeurIPSや他の施設が政策を疑問視し、適応し続けているため必要である。
これを実現するために、我々は、すべてのNeurIPS 2020論文のインパクトステートメントを含むデータセットを作成し、アフィリエレーションタイプ、位置と対象領域などの追加情報と、探索のためのシンプルな可視化ツールを作成しました。
また、データセットを定量的に分析し、表現、エンゲージメント、共通テーマ、潜在的な害と利益を議論する意思などについて説明する。
本研究は, 地理, 所属型, 主題領域によって異なる要因について検討する。
これらの結果を踏まえて,倫理声明要求の潜在的利益と否定的結果,それらの要因と関連する課題について考察する。
これらのことから、2020年の要件から学ぶべき教訓がいくつかあります。
(i)適切なインセンティブを作ることの重要性。
(二)明確な期待と指導の必要性、
三 透明性及び建設的熟考の重要性
我々は、他の研究者が我々のデータセットを使用してさらなる分析を行い、研究者がこの要件にどう対応したかを理解し、これと関連するメカニズムの利点と課題を調査することを奨励する。
関連論文リスト
- Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual
Learning [76.47138162283714]
蓄積とは、以前取得した情報や知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
調査では、忘れることは二重刃の剣であり、ある場合には有益で望ましいと論じている。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements [23.3030110636071]
本稿では,2020 Neural Information Processing Systems カンファレンスで記述された文のサンプルのテーマ分析の結果を紹介する。
私たちが特定するテーマは、結果の表現方法と影響の領域に関連するカテゴリに分類されます。
結果を踏まえて、将来のイテレーションでより広範なインパクトステートメントをどのように実装して、潜在的な目標とよりよく一致させることができるか、という視点を提供します。
論文 参考訳(メタデータ) (2021-05-11T02:57:39Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Like a Researcher Stating Broader Impact For the Very First Time [3.2634122554914]
本稿では,新たな要件に対して個々の研究者がどのように反応したのかという疑問に答える。
我々は,今後のNeurIPSカンファレンスの要件であるべき,より広範な影響要件の次のイテレーションについて,調査結果と考察を提示する。
論文 参考訳(メタデータ) (2020-11-25T21:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。