論文の概要: Information Access of the Oppressed: A Problem-Posing Framework for Envisioning Emancipatory Information Access Platforms
- arxiv url: http://arxiv.org/abs/2601.09600v1
- Date: Wed, 14 Jan 2026 16:15:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.464813
- Title: Information Access of the Oppressed: A Problem-Posing Framework for Envisioning Emancipatory Information Access Platforms
- Title(参考訳): 抑圧された情報アクセス:教育情報アクセスプラットフォーム構築のための問題解決フレームワーク
- Authors: Bhaskar Mitra, Nicola Neophytou, Sireesh Gururaja,
- Abstract要約: オンライン情報アクセスプラットフォームは、権威的な捕獲のターゲットです。
この問題は、パウロ・フレイアの解放教育理論のレンズを通して探求する。
- 参考スコア(独自算出の注目度): 5.801539233803859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online information access (IA) platforms are targets of authoritarian capture. These concerns are particularly serious and urgent today in light of the rising levels of democratic erosion worldwide, the emerging capabilities of generative AI technologies such as AI persuasion, and the increasing concentration of economic and political power in the hands of Big Tech. This raises the question of what alternative IA infrastructure we must reimagine and build to mitigate the risks of authoritarian capture of our information ecosystems. We explore this question through the lens of Paulo Freire's theories of emancipatory pedagogy. Freire's theories provide a radically different lens for exploring IA's sociotechnical concerns relative to the current dominating frames of fairness, accountability, confidentiality, transparency, and safety. We make explicit, with the intention to challenge, the dichotomy of how we relate to technology as either technologists (who envision and build technology) and its users. We posit that this mirrors the teacher-student relationship in Freire's analysis. By extending Freire's analysis to IA, we challenge the notion that it is the burden of the (altruistic) technologists to come up with interventions to mitigate the risks that emerging technologies pose to marginalized communities. Instead, we advocate that the first task for the technologists is to pose these as problems to the marginalized communities, to encourage them to make and unmake the technology as part of their material struggle against oppression. Their second task is to redesign our online technology stacks to structurally expose spaces for community members to co-opt and co-construct the technology in aid of their emancipatory struggles. We operationalize Freire's theories to develop a problem-posing framework for envisioning emancipatory IA platforms of the future.
- Abstract(参考訳): オンライン情報アクセス(IA)プラットフォームは権威主義的捕獲の標的である。
これらの懸念は、世界の民主的侵食のレベルの増加、AIの説得のような生成的AI技術の台頭、そしてビッグデータの力による経済的・政治的権力の集中の高まりを踏まえて、今日では特に深刻で緊急である。
このことは、情報エコシステムの権威的な捕獲のリスクを軽減するために、どのような代替IAインフラストラクチャを再定義し、構築する必要があるのかという疑問を提起する。
この問題は、パウロ・フレイアの解放教育理論のレンズを通して探求する。
フレイアの理論は、現在の公正性、説明責任、機密性、透明性、安全という支配的な枠組みに対して、IAの社会技術的関心を探求するための、根本的に異なるレンズを提供する。
私たちは、挑戦する意図を持って、テクノロジーを(テクノロジーを構想し、構築する)技術学者とそのユーザとして、テクノロジーとどのように関係しているかの分断を明確化します。
このことはフレイアの分析における教師と学生の関係を反映していると仮定する。
本稿では、Freireの分析をIAにまで拡張することで、新興技術が地域社会に及ぼすリスクを軽減するための介入を、(構造的な)技術者の負担であるという考えに挑戦する。
むしろ、技術者にとっての第一の課題は、これらを辺境化したコミュニティに問題として提起し、抑圧に対する物質的闘争の一環として、テクノロジーを創造し、解き放つことを奨励することだ、と私たちは主張する。
第二の課題は、私たちのオンライン技術スタックを再設計し、コミュニティメンバーが彼らの解放闘争を支援するために、共同で技術を構築し、共同構築するための空間を構造的に公開することです。
我々はFreireの理論を運用し、将来的なAIプラットフォームを構想する問題解決フレームワークを開発する。
関連論文リスト
- Should AI Become an Intergenerational Civil Right? [2.7937298764423573]
AIへのアクセスは、単に商用サービスとして扱われるのではなく、明示的な保護を必要とする基本的な公民権として扱われるべきである、と私たちは主張する。
我々は,AIへのアクセスを先進的市民権として認識し,現代の包摂と将来の世代の権利を守るための法的・倫理的枠組みを確立することを提案する。
論文 参考訳(メタデータ) (2025-12-09T20:22:16Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Mapping Technological Futures: Anticipatory Discourse Through Text Mining [1.998140290950519]
本研究は、Xプラットフォーム(2021年-2023年)で公表された400人の主要な世論指導者(KOL)の150万の投稿を分析し、技術の将来に関する予測的談話について検討する。
BERTopicのモデリング、感情、感情、態度分析などの高度なテキストマイニング技術を用いて、この研究は、予想される技術主導の未来を反映する100の異なるトピックを特定している。
論文 参考訳(メタデータ) (2025-03-25T15:20:15Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Interdisciplinary Approaches to Understanding Artificial Intelligence's
Impact on Society [7.016365171255391]
aiは、予期せぬ社会技術的問題を引き起こしている。
コンピュータ科学と社会と社会の価値を研究する分野の密接な結合が必要です。
論文 参考訳(メタデータ) (2020-12-11T00:43:47Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。