論文の概要: AI Ethics Statements -- Analysis and lessons learnt from NeurIPS Broader
Impact Statements
- arxiv url: http://arxiv.org/abs/2111.01705v1
- Date: Tue, 2 Nov 2021 16:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 16:22:00.726846
- Title: AI Ethics Statements -- Analysis and lessons learnt from NeurIPS Broader
Impact Statements
- Title(参考訳): aiの倫理声明 -- 幅広い影響声明から学んだ分析と教訓
- Authors: Carolyn Ashurst, Emmie Hine, Paul Sedille, Alexis Carlier
- Abstract要約: 2020年、機械学習(ML)カンファレンスNeurIPSは、すべての論文に広範なインパクトステートメントを含むことを要求して、新たな基盤を突破した。
この要件は、チェックリストのアプローチに賛成して、2021年に取り除かれた。
我々は、NeurIPS 2020のすべての論文のインパクトステートメントを含むデータセットを作成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ethics statements have been proposed as a mechanism to increase transparency
and promote reflection on the societal impacts of published research. In 2020,
the machine learning (ML) conference NeurIPS broke new ground by requiring that
all papers include a broader impact statement. This requirement was removed in
2021, in favour of a checklist approach. The 2020 statements therefore provide
a unique opportunity to learn from the broader impact experiment: to
investigate the benefits and challenges of this and similar governance
mechanisms, as well as providing an insight into how ML researchers think about
the societal impacts of their own work. Such learning is needed as NeurIPS and
other venues continue to question and adapt their policies. To enable this, we
have created a dataset containing the impact statements from all NeurIPS 2020
papers, along with additional information such as affiliation type, location
and subject area, and a simple visualisation tool for exploration. We also
provide an initial quantitative analysis of the dataset, covering
representation, engagement, common themes, and willingness to discuss potential
harms alongside benefits. We investigate how these vary by geography,
affiliation type and subject area. Drawing on these findings, we discuss the
potential benefits and negative outcomes of ethics statement requirements, and
their possible causes and associated challenges. These lead us to several
lessons to be learnt from the 2020 requirement: (i) the importance of creating
the right incentives, (ii) the need for clear expectations and guidance, and
(iii) the importance of transparency and constructive deliberation. We
encourage other researchers to use our dataset to provide additional analysis,
to further our understanding of how researchers responded to this requirement,
and to investigate the benefits and challenges of this and related mechanisms.
- Abstract(参考訳): 倫理声明は、透明性を高め、公表された研究の社会的影響に対する反省を促進するメカニズムとして提案されている。
2020年、機械学習(ML)カンファレンスNeurIPSは、すべての論文に広範なインパクトステートメントを含むことを要求して、新たな基盤を突破した。
この要件はチェックリストアプローチに賛成して2021年に取り除かれた。
それゆえ、2020年の声明は、より広範なインパクト実験から学ぶためのユニークな機会を提供する。これと類似のガバナンスメカニズムの利点と課題を調査し、ml研究者が自分たちの仕事の社会的影響をどう考えるかに関する洞察を提供する。
このような学習はNeurIPSや他の施設が政策を疑問視し、適応し続けているため必要である。
これを実現するために、我々は、すべてのNeurIPS 2020論文のインパクトステートメントを含むデータセットを作成し、アフィリエレーションタイプ、位置と対象領域などの追加情報と、探索のためのシンプルな可視化ツールを作成しました。
また、データセットを定量的に分析し、表現、エンゲージメント、共通テーマ、潜在的な害と利益を議論する意思などについて説明する。
本研究は, 地理, 所属型, 主題領域によって異なる要因について検討する。
これらの結果を踏まえて,倫理声明要求の潜在的利益と否定的結果,それらの要因と関連する課題について考察する。
これらのことから、2020年の要件から学ぶべき教訓がいくつかあります。
(i)適切なインセンティブを作ることの重要性。
(二)明確な期待と指導の必要性、
三 透明性及び建設的熟考の重要性
我々は、他の研究者が我々のデータセットを使用してさらなる分析を行い、研究者がこの要件にどう対応したかを理解し、これと関連するメカニズムの利点と課題を調査することを奨励する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements [23.3030110636071]
本稿では,2020 Neural Information Processing Systems カンファレンスで記述された文のサンプルのテーマ分析の結果を紹介する。
私たちが特定するテーマは、結果の表現方法と影響の領域に関連するカテゴリに分類されます。
結果を踏まえて、将来のイテレーションでより広範なインパクトステートメントをどのように実装して、潜在的な目標とよりよく一致させることができるか、という視点を提供します。
論文 参考訳(メタデータ) (2021-05-11T02:57:39Z) - Like a Researcher Stating Broader Impact For the Very First Time [3.2634122554914]
本稿では,新たな要件に対して個々の研究者がどのように反応したのかという疑問に答える。
我々は,今後のNeurIPSカンファレンスの要件であるべき,より広範な影響要件の次のイテレーションについて,調査結果と考察を提示する。
論文 参考訳(メタデータ) (2020-11-25T21:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。