論文の概要: Ask before you Build: Rethinking AI-for-Good in Human Trafficking Interventions
- arxiv url: http://arxiv.org/abs/2506.22512v1
- Date: Thu, 26 Jun 2025 04:05:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.43656
- Title: Ask before you Build: Rethinking AI-for-Good in Human Trafficking Interventions
- Title(参考訳): 構築前に質問:人間の交通介入におけるAI-for-Goodの再考
- Authors: Pratheeksha Nair, Gabriel Lefebvre, Sophia Garrel, Maryam Molamohammadi, Reihaneh Rabbany,
- Abstract要約: 我々は5段階の倫理的評価ツールとしてRQ(Radical Questioning)フレームワークを紹介した。
RQは、仮定に直面し、パワーをマップし、設計前に害を考慮するための、上流で熟考的な空間を提供する。
本稿では、器楽主義的規範に挑戦し、リレーショナルで反射的な責任を集中する、より広範なAI倫理哲学にRQを位置づける。
- 参考スコア(独自算出の注目度): 5.17879032706248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI for good initiatives often rely on the assumption that technical interventions can resolve complex social problems. In the context of human trafficking (HT), such techno-solutionism risks oversimplifying exploitation, reinforcing power imbalances and causing harm to the very communities AI claims to support. In this paper, we introduce the Radical Questioning (RQ) framework as a five step, pre-project ethical assessment tool to critically evaluate whether AI should be built at all, especially in domains involving marginalized populations and entrenched systemic injustice. RQ does not replace principles based ethics but precedes it, offering an upstream, deliberative space to confront assumptions, map power, and consider harms before design. Using a case study in AI for HT, we demonstrate how RQ reveals overlooked sociocultural complexities and guides us away from surveillance based interventions toward survivor empowerment tools. While developed in the context of HT, RQ's five step structure can generalize to other domains, though the specific questions must be contextual. This paper situates RQ within a broader AI ethics philosophy that challenges instrumentalist norms and centers relational, reflexive responsibility.
- Abstract(参考訳): 優れたイニシアティブのためのAIは、技術的な介入が複雑な社会問題を解決できるという仮定に依存することが多い。
人身売買(HT)の文脈では、このようなテクノソリューションのリスクは、搾取を単純化し、電力の不均衡を補強し、AIが支援するコミュニティに害を与える。
本稿では,RQ(Radical Questioning)フレームワークを5段階の事前計画的倫理的評価ツールとして導入し,AIを構築すべきかどうかを批判的に評価する。
RQは原則に基づく倫理を置き換えないが、それより先に、仮定に直面するための上流の熟考空間を提供し、パワーをマップし、設計前に害を考慮する。
HTのためのAIのケーススタディを用いて、RQが見過ごされた社会文化の複雑さを明らかにし、監視ベースの介入から生存者のエンパワーメントツールへと私たちを導く様子を実証する。
HTの文脈で開発されているが、RQの5つのステップ構造は他の領域に一般化することができる。
本稿では、器楽主義的規範に挑戦し、リレーショナルで反射的な責任を集中する、より広範なAI倫理哲学にRQを位置づける。
関連論文リスト
- Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor [83.99510317617694]
我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
論文 参考訳(メタデータ) (2025-06-17T15:44:41Z) - The Value of Disagreement in AI Design, Evaluation, and Alignment [0.0]
相違はAIシステムの設計、評価、アライメントパイプライン全体に広がっている。
AI開発における標準的なプラクティスは、しばしば曖昧または不一致を排除し、エンジニアリングされた均質化をもたらす。
我々は,AIライフサイクルにおける不一致に関する実践的推論を導くための規範的枠組みを開発する。
論文 参考訳(メタデータ) (2025-05-12T17:22:30Z) - A Basis for Human Responsibility in Artificial Intelligence Computation [0.0]
人工知能の最近の進歩は、AIの自律性の境界に関する疑問を再燃させた。
本稿では,GPT-4におけるアライメント研究センター実験の分析を通して,これらの境界について検討する。
思考実験とその対策を検討することで、人間のアクティベーションと目的の定義の必要性が、AIが人間によって開始された行動に固有の依存にどのように依存しているかを啓蒙する。
論文 参考訳(メタデータ) (2025-01-21T20:59:48Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - QB4AIRA: A Question Bank for AI Risk Assessment [19.783485414942284]
QB4AIRAは、幅広いAIリスク領域をカバーする293の優先順位付けされた質問で構成されている。
AIリスクの評価と管理において、利害関係者にとって貴重なリソースとして機能する。
論文 参考訳(メタデータ) (2023-05-16T09:18:44Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。