論文の概要: Est-ce que vous compute? Code-switching, cultural identity, and AI
- arxiv url: http://arxiv.org/abs/2112.08256v1
- Date: Wed, 15 Dec 2021 16:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 13:36:30.012676
- Title: Est-ce que vous compute? Code-switching, cultural identity, and AI
- Title(参考訳): est-ce que vous compute?
コードスイッチング、文化的アイデンティティ、AI
- Authors: Arianna Falbo and Travis LaCroix
- Abstract要約: 我々は、人工知能システムにおける文化的コードスイッチング能力の調査の必要性を擁護する。
2014年、Dotsonによる証言のスモザリングの分析に基づいて、AIの新興技術がどのようにてててんかんの抑圧を引き起こすかについて論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cultural code-switching concerns how we adjust our overall behaviours,
manners of speaking, and appearance in response to a perceived change in our
social environment. We defend the need to investigate cultural code-switching
capacities in artificial intelligence systems. We explore a series of ethical
and epistemic issues that arise when bringing cultural code-switching to bear
on artificial intelligence. Building upon Dotson's (2014) analysis of
testimonial smothering, we discuss how emerging technologies in AI can give
rise to epistemic oppression, and specifically, a form of self-silencing that
we call 'cultural smothering'. By leaving the socio-dynamic features of
cultural code-switching unaddressed, AI systems risk negatively impacting
already-marginalised social groups by widening opportunity gaps and further
entrenching social inequalities.
- Abstract(参考訳): 文化的なコードスイッチングは、社会環境の変化に対する私たちの全体的な行動、話し方、出現の調整方法に関するものである。
我々は、人工知能システムの文化的コード交換能力を調査する必要性を擁護する。
我々は、人工知能に文化的なコードスイッチングをもたらす際に生じる倫理的および疫学的な問題を探求する。
ドットソン(2014年)の証言スモーキングの分析に基づいて、aiの新興技術がどのようにして認識論的抑圧を生じさせるのか、具体的には、私たちが「文化的スモーキング」と呼ぶ自己鎮静の形式について論じる。
文化的な規範変更の社会力学的特徴をそのまま残すことで、AIシステムは、機会ギャップを広げ、さらに社会的不平等を拡大することによって、既に結婚した社会グループに悪影響を及ぼすリスクを負う。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Advancing Social Intelligence in AI Agents: Technical Challenges and Open Questions [67.60397632819202]
ソーシャルインテリジェントAIエージェント(Social-AI)の構築は、多分野、マルチモーダルな研究目標である。
我々は、社会AIを前進させるために、基礎となる技術的課題と、コンピューティングコミュニティ全体にわたる研究者のためのオープンな質問を特定します。
論文 参考訳(メタデータ) (2024-04-17T02:57:42Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - AI and Identity [0.8879149917735942]
本稿では,AI開発と展開におけるバイアス,不平等,倫理的考察を理解する手段として,AIとアイデンティティの交わりについて検討する。
我々は、アイデンティティのレンズを通して、創造者、創造者、そしてコンシークエンスという3つの次元にわたるAIの多様性の必要性を強調するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-29T15:07:30Z) - Culturally-Attuned Moral Machines: Implicit Learning of Human Value
Systems by AI through Inverse Reinforcement Learning [11.948092546676687]
AIの価値体系は文化的に直感的であるべきだと我々は主張する。
AIシステムは、人間の観察とインタラクションからこのようなコードを取得するのか、まだ未解決のままだ。
本研究では,ある文化集団の平均行動から学習したAIエージェントが,その集団の行動に反映した利他的特性を得ることができることを示す。
論文 参考訳(メタデータ) (2023-12-29T05:39:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cultural Incongruencies in Artificial Intelligence [5.817158625734485]
我々は、AIベースの言語とビジョン技術の文脈において、文化的な依存関係と矛盾のセットについて説明する。
これらの技術が世界規模で多様な社会や文化と相互作用し、異なる価値と解釈の実践によって問題が発生する。
論文 参考訳(メタデータ) (2022-11-19T18:45:02Z) - An Analytics of Culture: Modeling Subjectivity, Scalability,
Contextuality, and Temporality [13.638494941763637]
文化とAIの間には双方向の関係があり、AIモデルは文化を分析するためにますます使われており、それによって文化に対する理解が形成される。
一方、これらのモデルでは、文化の表現を暗黙的に、常に正しく、暗黙的に学習する。
これにより、文化の分析にAIの使用を制限し、バイアスのような文化的な複雑な問題に関してAIの問題を引き起こす緊張が生じます。
論文 参考訳(メタデータ) (2022-11-14T15:42:27Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。