論文の概要: Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements
- arxiv url: http://arxiv.org/abs/2105.04760v2
- Date: Sat, 22 May 2021 21:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 21:13:34.208344
- Title: Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements
- Title(参考訳): ai研究の結果の表現を、より広いインパクトステートメントで解き放つ
- Authors: Priyanka Nanayakkara, Jessica Hullman, Nicholas Diakopoulos
- Abstract要約: 本稿では,2020 Neural Information Processing Systems カンファレンスで記述された文のサンプルのテーマ分析の結果を紹介する。
私たちが特定するテーマは、結果の表現方法と影響の領域に関連するカテゴリに分類されます。
結果を踏まえて、将来のイテレーションでより広範なインパクトステートメントをどのように実装して、潜在的な目標とよりよく一致させることができるか、という視点を提供します。
- 参考スコア(独自算出の注目度): 23.3030110636071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The computer science research community and the broader public have become
increasingly aware of negative consequences of algorithmic systems. In
response, the top-tier Neural Information Processing Systems (NeurIPS)
conference for machine learning and artificial intelligence research required
that authors include a statement of broader impact to reflect on potential
positive and negative consequences of their work. We present the results of a
qualitative thematic analysis of a sample of statements written for the 2020
conference. The themes we identify broadly fall into categories related to how
consequences are expressed (e.g., valence, specificity, uncertainty), areas of
impacts expressed (e.g., bias, the environment, labor, privacy), and
researchers' recommendations for mitigating negative consequences in the
future. In light of our results, we offer perspectives on how the broader
impact statement can be implemented in future iterations to better align with
potential goals.
- Abstract(参考訳): コンピュータ科学研究コミュニティと一般大衆は、アルゴリズムシステムによる否定的な結果に気づきつつある。
これに対し、機械学習と人工知能研究のためのトップクラスのNeural Information Processing Systems(NeurIPS)カンファレンスは、著者が自身の仕事の潜在的肯定的および否定的な結果に反映する広範な影響の声明を含めることを要求した。
我々は,2020年大会に向けて書かれた文の質的主題分析の結果について述べる。
私たちが特定するテーマは、結果がどのように表現されるか(例えば、原子価、特異性、不確実性)、表現される影響の領域(例えば、バイアス、環境、労働、プライバシ)、そして将来の負の結果を緩和するための研究者の勧告に大きく関連している。
結果を踏まえて、将来のイテレーションで、潜在的な目標に合致するように、幅広いインパクトステートメントをどのように実装できるかの視点を提供します。
関連論文リスト
- Predicting the Impact of Generative AI Using an Agent-Based Model [0.0]
生成人工知能(AI)システムは、人間の創造性を模倣するコンテンツを自律的に生成することで産業を変革した。
本稿ではエージェント・ベース・モデリング(ABM)を用いてこれらの意味を探索する。
ABMは個人、ビジネス、政府エージェントを統合し、教育、スキル獲得、AIの採用、規制対応などのダイナミクスをシミュレートする。
論文 参考訳(メタデータ) (2024-08-30T13:13:56Z) - From Words to Worth: Newborn Article Impact Prediction with LLM [69.41680520058418]
本稿は,LLMの微調整機能を活用して,新たな記事の今後の影響を予測する,有望なアプローチを提案する。
LLMを微調整するための包括的なデータセットが構築されリリースされ、対応するタイトル、抽象化、TLCSI_SPを含む12,000以上のエントリが含まれている。
論文 参考訳(メタデータ) (2024-08-07T17:52:02Z) - The Impact of Human Aspects on the Interactions Between Software Developers and End-Users in Software Engineering: A Systematic Literature Review [10.307654003138401]
本稿では,開発者とユーザ間のインタラクションに影響を及ぼす人的側面に関する研究を体系的にレビューする。
46研究において,開発者とユーザ間のインタラクションに影響を与えるさまざまなヒューマン側面を同定した。
本研究は, 開発者とユーザ間のインタラクションにおいて, ポジティブな効果を活用し, ネガティブな効果に対処することの重要性を示唆する。
論文 参考訳(メタデータ) (2024-05-08T03:38:36Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。