論文の概要: Algorithms in the Stacks: Investigating automated, for-profit diversity audits in public libraries
- arxiv url: http://arxiv.org/abs/2505.14890v1
- Date: Tue, 20 May 2025 20:31:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.74101
- Title: Algorithms in the Stacks: Investigating automated, for-profit diversity audits in public libraries
- Title(参考訳): スタックにおけるアルゴリズム: 公立図書館における自動的で営利的な多様性監査の調査
- Authors: Melanie Walsh, Connor Franklin Rey, Chang Ge, Tina Nowak, Sabina Tomkins,
- Abstract要約: アルゴリズムシステムは、図書館のような文化遺産機関によってますます採用されている。
自動コレクション多様性監査は、図書館コレクションが人口動態とテーマの多様性をいかに反映しているかを評価することを目的としている。
図書館作業員の多くは,これらのツールを,現実的かつ増大する制約の下でコレクションを評価・多様化するための,便利な,時間の節約ソリューションであるとみなしている。
同時に、監査は、しばしば複雑なアイデンティティを標準化されたカテゴリにフラットにし、地域のコミュニティのニーズを反映せず、ライブラリーのベンダーへのインフラ依存をさらに深めている。
- 参考スコア(独自算出の注目度): 1.0420071426043702
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic systems are increasingly being adopted by cultural heritage institutions like libraries. In this study, we investigate U.S. public libraries' adoption of one specific automated tool -- automated collection diversity audits -- which we see as an illuminating case study for broader trends. Typically developed and sold by commercial book distributors, automated diversity audits aim to evaluate how well library collections reflect demographic and thematic diversity. We investigate how these audits function, whether library workers find them useful, and what is at stake when sensitive, normative decisions about representation are outsourced to automated commercial systems. Our analysis draws on an anonymous survey of U.S. public librarians (n=99), interviews with 14 librarians, a sample of purchasing records, and vendor documentation. We find that many library workers view these tools as convenient, time-saving solutions for assessing and diversifying collections under real and increasing constraints. Yet at the same time, the audits often flatten complex identities into standardized categories, fail to reflect local community needs, and further entrench libraries' infrastructural dependence on vendors. We conclude with recommendations for improving collection diversity audits and reflect on the broader implications for public libraries operating at the intersection of AI adoption, escalating anti-DEI backlash, and politically motivated defunding.
- Abstract(参考訳): アルゴリズムシステムは、図書館のような文化遺産機関によってますます採用されている。
本研究は,米国公立図書館における1つの自動ツール(自動収集多様性監査)の採用について検討する。
通常、商業書籍販売業者によって開発・販売され、自動的な多様性監査は、図書館のコレクションが人口動態とテーマの多様性をどの程度反映しているかを評価することを目的としている。
本稿では,これらの監査がどのように機能するか,図書館作業員が有用であるかどうか,表現の規範的決定が自動化された商用システムにアウトソースされる場合の課題について検討する。
我々の分析は、米国公立図書館員の匿名調査(n=99)、14人の図書館員へのインタビュー、購入記録のサンプル、ベンダードキュメントに基づいています。
図書館作業員の多くは,これらのツールを,現実的かつ増大する制約の下でコレクションを評価・多様化するための,便利な,時間の節約ソリューションであるとみなしている。
しかし同時に、監査は、しばしば複雑なアイデンティティを標準化されたカテゴリにフラットにし、地元のコミュニティのニーズを反映せず、さらにライブラリのインフラ的依存をベンダーに浸透させます。
我々は、コレクションの多様性監査を改善するための勧告と、AI導入の交差点で運営されている公立図書館への広範な影響、反DEIの反発のエスカレート、政治的動機付けによる資金投下を反映して締めくくる。
関連論文リスト
- AD-AGENT: A Multi-agent Framework for End-to-end Anomaly Detection [10.382866241093954]
不正検出、ネットワーク監視、科学研究などの分野で不可欠な異常検出。
本稿では,自然言語命令を完全実行可能なADパイプラインに変換するフレームワークであるAD-AGENTを提案する。
論文 参考訳(メタデータ) (2025-05-19T01:14:57Z) - AndroLibZoo: A Reliable Dataset of Libraries Based on Software
Dependency Analysis [6.342380566583581]
そこで我々は,AndroLibZooというデータセットの形式で,高精度かつ最新のサードパーティライブラリセットを生成するための自動アプローチを提案する。
私たちのデータセットはコミュニティで利用でき、現在34の813のライブラリが含まれており、進化を意図しています。
論文 参考訳(メタデータ) (2023-07-24T08:36:38Z) - Leveraging Large Language Models for Topic Classification in the Domain
of Public Affairs [65.9077733300329]
大規模言語モデル (LLM) は公務員文書の分析を大幅に強化する可能性を秘めている。
LLMは、公共の分野など、ドメイン固有のドキュメントを処理するのに非常に役立ちます。
論文 参考訳(メタデータ) (2023-06-05T13:35:01Z) - Bias, diversity, and challenges to fairness in classification and
automated text analysis. From libraries to AI and back [3.9198548406564604]
分類と自動テキスト分析におけるAI利用における偏見と不公平性に関するリスクについて検討する。
我々は「多様性」の概念に関連して「不平等」の概念を詳しく見ていく。
論文 参考訳(メタデータ) (2023-03-07T20:54:49Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Do Not Take It for Granted: Comparing Open-Source Libraries for Software
Development Effort Estimation [9.224578642189023]
本稿では、ソフトウェア開発努力推定(SEE)に異なる機械学習(ML)ライブラリを使用する場合の差異に対する意識を高めることを目的とする。
各種言語(Scikit-Learn, Caret, Weka)で書かれた最も人気のあるMLオープンソースライブラリの3つで提供される決定論的機械学習について検討する。
本研究の結果,3つの図書館で提供される予測は,平均95%のケースで,合計105ケースで異なることがわかった。
論文 参考訳(メタデータ) (2022-07-04T20:06:40Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - SacreROUGE: An Open-Source Library for Using and Developing
Summarization Evaluation Metrics [74.28810048824519]
SacreROUGEは、要約評価メトリクスの使用と開発のためのオープンソースライブラリである。
このライブラリは、既存の評価メトリクスの公式実装に関するPythonラッパーを提供する。
ライブラリに実装されたメトリックが、人間による注釈付き判断とどの程度の相関があるかを評価する機能を提供する。
論文 参考訳(メタデータ) (2020-07-10T13:26:37Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。