論文の概要: Thinking Upstream: Ethics and Policy Opportunities in AI Supply Chains
- arxiv url: http://arxiv.org/abs/2303.07529v1
- Date: Mon, 13 Mar 2023 23:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 17:02:50.396685
- Title: Thinking Upstream: Ethics and Policy Opportunities in AI Supply Chains
- Title(参考訳): 上流を考える - AIサプライチェーンにおける倫理と政策機会
- Authors: David Gray Widder, Richmond Wong
- Abstract要約: AI倫理のための政策介入は、政治経済と内的関係がAI生産をどう構成するかを考えると、AIをサプライチェーン問題とみなさなければならない。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: After children were pictured sewing its running shoes in the early 1990s,
Nike at first disavowed the "working conditions in its suppliers' factories",
before public pressure led them to take responsibility for ethics in their
upstream supply chain. In 2023, OpenAI responded to criticism that Kenyan
workers were paid less than $2 per hour to filter traumatic content from its
ChatGPT model by stating in part that it had outsourced the work to a
subcontractor, who managed workers' payment and mental health concerns. In this
position paper, we argue that policy interventions for AI Ethics must consider
AI as a supply chain problem, given how the political economy and intra-firm
relations structure AI production, in particular examining opportunities
upstream.
- Abstract(参考訳): 1990年代初頭に子供たちがランニングシューズを縫う様子が撮影された後、ナイキはまず「サプライヤーの工場での労働条件」を否定し、その後、上流のサプライチェーンにおける倫理の責任を負うようになった。
2023年、openaiはケニアの労働者は、そのchatgptモデルからトラウマ的なコンテンツをフィルタリングするために1時間あたり2ドル以下を支払ったと批判し、一部は労働者の支払いとメンタルヘルスの懸念を管理する下請け業者に仕事をアウトソースしたと述べた。
本稿では,AI倫理に関する政策介入をサプライチェーン問題とみなす必要があると論じる。
関連論文リスト
- Minimum Viable Ethics: From Institutionalizing Industry AI Governance to Product Impact [0.0]
AI倫理の専門家は、標準化され再利用可能なプロセスやツールを作成しようとしているため、非常にアジャイルで機会に恵まれていることに気付きました。
製品チームとの交渉では、製品に対する権限と所有権の欠如に根ざした課題に直面しますが、規制対応の物語と倫理を製品品質保証として活用することで、倫理的作業を進めることができます。
この戦略は、コンプライアンスや製品品質とは別の規範的な問題に対処する能力に制限がある、狭い範囲の業界AI倫理である、最小限の実行可能な倫理を私たちに残します。
論文 参考訳(メタデータ) (2024-09-11T00:52:22Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Missing Value Chain in Generative AI Governance China as an example [0.0]
中国は2023年8月に第1次人工知能サービス臨時行政措置を施行した。
測定は、生成AIの価値連鎖における異なる役割に関する明確な区別を提示する。
AIバリューチェーン内の異なるプレイヤー間の区別と明確な法的地位の欠如は、重大な結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-01-05T13:28:25Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - The Ethics of AI Value Chains [0.6138671548064356]
AI倫理に関心を持つ研究者、実践者、政策立案者は、AIシステムの研究と介入にもっと統合的なアプローチを必要とする。
我々は、戦略的管理、サービス科学、経済地理学、産業、政府、応用研究文献から、バリューチェーンとAIバリューチェーンの理論をレビューする。
我々は、研究者、実践者、政策立案者がAIバリューチェーン全体にわたってより倫理的なプラクティスを進めることができる3つの今後の方向性を推奨します。
論文 参考訳(メタデータ) (2023-07-31T15:55:30Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Walking the Walk of AI Ethics: Organizational Challenges and the
Individualization of Risk among Ethics Entrepreneurs [0.0]
労働者は、政策、プラクティス、成果が分離された環境を経験する。
我々は、AI倫理労働者を、組織内で新しい倫理関連プラクティスを制度化するために働く倫理起業家として分析する。
論文 参考訳(メタデータ) (2023-05-16T16:11:24Z) - Ever heard of ethical AI? Investigating the salience of ethical AI
issues among the German population [0.0]
AIに対する一般的な関心と高等教育レベルは、AIとの関わりを予測している。
倫理的な問題は、公平さ、説明責任、透明性が最も言及されていない市民の小さなサブセットによってのみ語られる。
倫理的AIが頭上に立つと、アクティビズムの可能性がある。
論文 参考訳(メタデータ) (2022-07-28T13:46:13Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - The AI Economist: Improving Equality and Productivity with AI-Driven Tax
Policies [119.07163415116686]
我々は、経済的平等と生産性を効果的にトレードオフできる税制政策を発見する社会プランナーを訓練する。
競争圧力と市場ダイナミクスを特徴とする経済シミュレーション環境を提案する。
AI主導の税政策は、基本方針よりも平等と生産性のトレードオフを16%改善することを示します。
論文 参考訳(メタデータ) (2020-04-28T06:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。