論文の概要: Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices
- arxiv url: http://arxiv.org/abs/2311.11103v1
- Date: Sat, 18 Nov 2023 15:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 10:14:55.015981
- Title: Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices
- Title(参考訳): テキスト要約研究における責任あるAIの考察:現状の考察
- Authors: Yu Lu Liu, Meng Cao, Su Lin Blodgett, Jackie Chi Kit Cheung, Alexandra
Olteanu, Adam Trischler
- Abstract要約: 私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
- 参考スコア(独自算出の注目度): 89.85174013619883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI and NLP publication venues have increasingly encouraged researchers to
reflect on possible ethical considerations, adverse impacts, and other
responsible AI issues their work might engender. However, for specific NLP
tasks our understanding of how prevalent such issues are, or when and why these
issues are likely to arise, remains limited. Focusing on text summarization --
a common NLP task largely overlooked by the responsible AI community -- we
examine research and reporting practices in the current literature. We conduct
a multi-round qualitative analysis of 333 summarization papers from the ACL
Anthology published between 2020-2022. We focus on how, which, and when
responsible AI issues are covered, which relevant stakeholders are considered,
and mismatches between stated and realized research goals. We also discuss
current evaluation practices and consider how authors discuss the limitations
of both prior work and their own work. Overall, we find that relatively few
papers engage with possible stakeholders or contexts of use, which limits their
consideration of potential downstream adverse impacts or other responsible AI
issues. Based on our findings, we make recommendations on concrete practices
and research directions.
- Abstract(参考訳): AIとNLP出版の会場は、研究者に倫理的考慮、悪影響、そして彼らの仕事がもたらす可能性のあるその他の責任あるAI問題を反映するよう、ますます奨励している。
しかしながら、特定のNLPタスクでは、そのような問題がどの程度頻繁に発生しているか、いつ、なぜ発生しそうなのかを理解することは限られている。
テキスト要約 – 責任あるAIコミュニティが主に見落としている一般的なNLPタスク – に注目して,現在の文献における調査と報告の実践について検討する。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、責任あるaiの問題がカバーされる方法、関連する利害関係者が検討される方法、そして定義された研究目標と実現された研究目標のミスマッチに焦点を当てています。
また、現在の評価プラクティスについても議論し、著者が先行作業と自身の作業の両方の限界についてどのように議論するかを検討する。
全体として、潜在的なステークホルダーや使用状況に関わる論文は比較的少なく、下流の有害な影響や、その他の責任あるAI問題に対する考慮が制限されている。
本研究は,具体的実践と研究の方向性について提言する。
関連論文リスト
- The Narrow Depth and Breadth of Corporate Responsible AI Research [3.364518262921329]
私たちは、AI企業の大多数が、この重要なAIのサブフィールドにおいて、限られた、あるいは全く関与していないことを示している。
主要なAI企業は、従来のAI研究に比べて、責任あるAI研究のアウトプットが著しく低い。
当社の結果は、業界が責任あるAI研究を公然と行う必要性を浮き彫りにしたものだ。
論文 参考訳(メタデータ) (2024-05-20T17:26:43Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research [75.84463664853125]
我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
論文 参考訳(メタデータ) (2023-06-29T12:44:53Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Beyond Fair Pay: Ethical Implications of NLP Crowdsourcing [7.148585157154561]
研究者が使用する共通の倫理的枠組みであるFinal Ruleは,データ収集にオンラインクラウドソーシングプラットフォームを使用することを期待していなかった。
NLPタスクを実行するクラウドワーカーが危険にさらされる一般的なシナリオを列挙します。
我々は,ベルモント報告書が定める3つの倫理的原則を考慮し,これらのリスクを評価することを推奨する。
論文 参考訳(メタデータ) (2021-04-20T16:30:59Z) - Progressing Towards Responsible AI [2.191505742658975]
学会と人工知能に関する天文台(OSAI)は、AI4EUプロジェクトから発展した。
OSAIは、AI(倫理的、法的、社会的、経済的、文化的)の幅広い問題に対するリフレクションを刺激することを目指している
論文 参考訳(メタデータ) (2020-08-11T09:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。