論文の概要: Est-ce que vous compute? Code-switching, cultural identity, and AI
- arxiv url: http://arxiv.org/abs/2112.08256v1
- Date: Wed, 15 Dec 2021 16:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 13:36:30.012676
- Title: Est-ce que vous compute? Code-switching, cultural identity, and AI
- Title(参考訳): est-ce que vous compute?
コードスイッチング、文化的アイデンティティ、AI
- Authors: Arianna Falbo and Travis LaCroix
- Abstract要約: 我々は、人工知能システムにおける文化的コードスイッチング能力の調査の必要性を擁護する。
2014年、Dotsonによる証言のスモザリングの分析に基づいて、AIの新興技術がどのようにてててんかんの抑圧を引き起こすかについて論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cultural code-switching concerns how we adjust our overall behaviours,
manners of speaking, and appearance in response to a perceived change in our
social environment. We defend the need to investigate cultural code-switching
capacities in artificial intelligence systems. We explore a series of ethical
and epistemic issues that arise when bringing cultural code-switching to bear
on artificial intelligence. Building upon Dotson's (2014) analysis of
testimonial smothering, we discuss how emerging technologies in AI can give
rise to epistemic oppression, and specifically, a form of self-silencing that
we call 'cultural smothering'. By leaving the socio-dynamic features of
cultural code-switching unaddressed, AI systems risk negatively impacting
already-marginalised social groups by widening opportunity gaps and further
entrenching social inequalities.
- Abstract(参考訳): 文化的なコードスイッチングは、社会環境の変化に対する私たちの全体的な行動、話し方、出現の調整方法に関するものである。
我々は、人工知能システムの文化的コード交換能力を調査する必要性を擁護する。
我々は、人工知能に文化的なコードスイッチングをもたらす際に生じる倫理的および疫学的な問題を探求する。
ドットソン(2014年)の証言スモーキングの分析に基づいて、aiの新興技術がどのようにして認識論的抑圧を生じさせるのか、具体的には、私たちが「文化的スモーキング」と呼ぶ自己鎮静の形式について論じる。
文化的な規範変更の社会力学的特徴をそのまま残すことで、AIシステムは、機会ギャップを広げ、さらに社会的不平等を拡大することによって、既に結婚した社会グループに悪影響を及ぼすリスクを負う。
関連論文リスト
- Evolving AI Collectives to Enhance Human Diversity and Enable
Self-Regulation [43.19348032815066]
大規模言語モデルは、他者が生成したテキストに基づいて、その振る舞いを操縦する。
この能力は、意図的または意図的に相互に「プログラム」し、創発的なAIの主観、関係、集団を形成するものである。
我々は、このような創発的で分散化されたAI集団が、人間の多様性の境界を広げ、有害で反社会的行動のリスクをオンラインで減らす方法を説明するために、シンプルなモデルとその出力を使用します。
論文 参考訳(メタデータ) (2024-02-19T22:59:43Z) - Culturally-Attuned Moral Machines: Implicit Learning of Human Value
Systems by AI through Inverse Reinforcement Learning [11.948092546676687]
AIの価値体系は文化的に直感的であるべきだと我々は主張する。
AIシステムは、人間の観察とインタラクションからこのようなコードを取得するのか、まだ未解決のままだ。
本研究では,ある文化集団の平均行動から学習したAIエージェントが,その集団の行動に反映した利他的特性を得ることができることを示す。
論文 参考訳(メタデータ) (2023-12-29T05:39:10Z) - Auditing and Mitigating Cultural Bias in LLMs [1.024113475677323]
GPT-4,3.5,3は、英語とプロテスタントのヨーロッパ諸国に類似した文化的価値を示す。
生成的AIの文化的偏見を回避するため,文化マッチングと進行中の文化監査を併用することを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cultural Incongruencies in Artificial Intelligence [5.817158625734485]
我々は、AIベースの言語とビジョン技術の文脈において、文化的な依存関係と矛盾のセットについて説明する。
これらの技術が世界規模で多様な社会や文化と相互作用し、異なる価値と解釈の実践によって問題が発生する。
論文 参考訳(メタデータ) (2022-11-19T18:45:02Z) - An Analytics of Culture: Modeling Subjectivity, Scalability,
Contextuality, and Temporality [13.638494941763637]
文化とAIの間には双方向の関係があり、AIモデルは文化を分析するためにますます使われており、それによって文化に対する理解が形成される。
一方、これらのモデルでは、文化の表現を暗黙的に、常に正しく、暗黙的に学習する。
これにより、文化の分析にAIの使用を制限し、バイアスのような文化的な複雑な問題に関してAIの問題を引き起こす緊張が生じます。
論文 参考訳(メタデータ) (2022-11-14T15:42:27Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。