論文の概要: Computer Science Communities: Who is Speaking, and Who is Listening to
the Women? Using an Ethics of Care to Promote Diverse Voices
- arxiv url: http://arxiv.org/abs/2101.07463v1
- Date: Tue, 19 Jan 2021 04:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 18:10:18.945310
- Title: Computer Science Communities: Who is Speaking, and Who is Listening to
the Women? Using an Ethics of Care to Promote Diverse Voices
- Title(参考訳): コンピュータサイエンスコミュニティ:誰が話し、誰が女性を聴いているのか?
異種音声の促進のためのケア倫理の利用
- Authors: Marc Cheong and Kobi Leins and Simon Coghlan
- Abstract要約: 本論文は,(1)未成年者グループ(女性を対象とする)と,(2) コミュニティに女性が存在する場合でも,一般の公開はされない,という2つの仮説の予備的な考察である。
我々は、ACMは、これらの比率を増大させ、個別のコンピューティングコミュニティに対して、インセンティブやレポーティングシステムを提供して、独自のコードを維持することによって、個別のコンピューティングコミュニティに説明責任を負うよう、コミュニティに対して倫理的な義務を負っていると論じる。
- 参考スコア(独自算出の注目度): 3.325932244741268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Those working on policy, digital ethics and governance often refer to issues
in `computer science', that includes, but is not limited to, common subfields
of Artificial Intelligence (AI), Computer Science (CS) Computer Security
(InfoSec), Computer Vision (CV), Human Computer Interaction (HCI), Information
Systems, (IS), Machine Learning (ML), Natural Language Processing (NLP) and
Systems Architecture. Within this framework, this paper is a preliminary
exploration of two hypotheses, namely 1) Each community has differing inclusion
of minoritised groups (using women as our test case); and 2) Even where women
exist in a community, they are not published representatively. Using data from
20,000 research records, totalling 503,318 names, preliminary data supported
our hypothesis. We argue that ACM has an ethical duty of care to its community
to increase these ratios, and to hold individual computing communities to
account in order to do so, by providing incentives and a regular reporting
system, in order to uphold its own Code.
- Abstract(参考訳): 政策、デジタル倫理、ガバナンスに携わる人々は、しばしば、人工知能(ai)、コンピュータ科学(cs)、コンピュータセキュリティ(infosec)、コンピュータビジョン(cv)、ヒューマンコンピュータインタラクション(hci)、情報システム(is)、機械学習(ml)、自然言語処理(nlp)、システムアーキテクチャの共通サブフィールドを含む、しかし制限されていない「コンピュータ科学」の問題に言及する。
この枠組みの中で,本論文は二つの仮説の予備的考察である。
1) マイノリティグループ(女性をテストケースとして使用する)の包括性は地域によって異なる。
2 コミュニティ内に女性が存在する場合でも、一般には公表されない。
2万の研究記録、合計503,318名のデータを用いて、予備的なデータが仮説を支持した。
我々は、ACMは、これらの比率を増大させ、個別のコンピューティングコミュニティに対して、インセンティブやレポーティングシステムを提供して、独自のコードを維持することによって、個別のコンピューティングコミュニティの責任を負うための倫理的義務があると主張している。
関連論文リスト
- An investigation into the scientific landscape of the conversational and generative artificial intelligence, and human-chatbot interaction in education and research [0.0]
本研究では,CGAIと人間-チャットボットのインタラクション/コラボレーションの科学的景観について検討する。
CGAIの教育・学習・研究活動における顕著な利用例は、コンピュータ科学、医療・医療・工学・ビジネス分野で発生した。
教育・学習・実践におけるCGAIの潜在的な課題に対処するための戦略と政策の定式化が最優先事項である。
論文 参考訳(メタデータ) (2024-06-15T12:37:29Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - Child Impact Statements: Interdisciplinary Collaboration in Political
Science and Computer Science [0.0]
本稿は,TNのシェルビー郡で,社会科学とコンピュータ科学の学際的な連携によって,児童影響評価ツールを作成することを強調する。
チャイルドインパクト・ステートメント (Child Impact Statements, CIS) は、投票に若く、政治的に自身を擁護することができない小さなコミュニティメンバーの懸念やニーズを先導する助けとなる。
論文 参考訳(メタデータ) (2024-01-09T23:43:07Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Voices of Her: Analyzing Gender Differences in the AI Publication World [26.702520904075044]
我々は、AI分野における78K研究者のAI Scholarデータセットを用いて、いくつかの性別差を同定する。
女性第一著者の論文は、より長い文章、よりポジティブな感情の言葉、よりキャッチーなタイトルなど、異なる言語スタイルを示している。
私たちの分析は、私たちのAIコミュニティにおける現在の人口統計トレンドの窓口を提供し、将来、より多くの男女平等と多様性を奨励します。
論文 参考訳(メタデータ) (2023-05-24T00:40:49Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Coordinated Science Laboratory 70th Anniversary Symposium: The Future of
Computing [80.72844751804166]
2021年、コーディネート・サイエンス研究所(CSL)は70周年を記念して、Future of Computing Symposiumを開催した。
シンポジウムで提案された主要な技術的ポイント、洞察、方向性を要約する。
参加者は、新しいコンピューティングパラダイム、技術、アルゴリズム、行動、そして将来予想される研究課題に関するトピックについて議論した。
論文 参考訳(メタデータ) (2022-10-04T17:32:27Z) - Neural Approaches to Conversational Information Retrieval [94.77863916314979]
会話情報検索(CIR)システムは、会話インタフェースを備えた情報検索(IR)システムである。
近年のディープラーニングの進歩により、自然言語処理(NLP)と会話型AIが大幅に改善されている。
この本は、ここ数年で開発された神経アプローチに焦点を当てた、CIRの最近の進歩を調査します。
論文 参考訳(メタデータ) (2022-01-13T19:04:59Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Trustworthy AI in the Age of Pervasive Computing and Big Data [22.92621391190282]
我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
論文 参考訳(メタデータ) (2020-01-30T08:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。