論文の概要: How Culture Shapes What People Want From AI
- arxiv url: http://arxiv.org/abs/2403.05104v1
- Date: Fri, 8 Mar 2024 07:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:47:27.720696
- Title: How Culture Shapes What People Want From AI
- Title(参考訳): 人々がAIから望むものを形作る文化
- Authors: Xiao Ge, Chunchen Xu, Daigo Misaki, Hazel Rose Markus, Jeanne L Tsai
- Abstract要約: 文化的に多様なグループの視点をAI開発に組み込む必要がある。
我々は,AIの主流となるビジョンを拡張し,再定義し,再構築することを目的とした,研究のための新しい概念的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is an urgent need to incorporate the perspectives of culturally diverse
groups into AI developments. We present a novel conceptual framework for
research that aims to expand, reimagine, and reground mainstream visions of AI
using independent and interdependent cultural models of the self and the
environment. Two survey studies support this framework and provide preliminary
evidence that people apply their cultural models when imagining their ideal AI.
Compared with European American respondents, Chinese respondents viewed it as
less important to control AI and more important to connect with AI, and were
more likely to prefer AI with capacities to influence. Reflecting both cultural
models, findings from African American respondents resembled both European
American and Chinese respondents. We discuss study limitations and future
directions and highlight the need to develop culturally responsive and relevant
AI to serve a broader segment of the world population.
- Abstract(参考訳): 文化的に多様なグループの視点をAI開発に組み込む必要がある。
本稿では,自己と環境の独立的・相互依存的な文化モデルを用いて,AIの主流的ビジョンを拡張し,再定義し,再構築することを目的とした,研究のための新しい概念的枠組みを提案する。
2つの調査研究がこの枠組みを支持し、人々が理想的なAIを想像する際に文化モデルを適用するという予備的な証拠を提供する。
ヨーロッパ系アメリカ人の回答者と比較すると、中国の回答者はAIを制御することが重要ではなく、AIと結びつくことがより重要であると考えており、影響力を持つ能力を持つAIを好む傾向があった。
文化モデルの両方を反映して、アフリカ系アメリカ人の回答者はヨーロッパ系アメリカ人と中国人の両方に類似していた。
研究の限界と今後の方向性を議論し、文化に反応し、関連するaiを開発し、世界人口の幅広いセグメントに役立てる必要性を強調した。
関連論文リスト
- Exploring Public Opinion on Responsible AI Through The Lens of Cultural
Consensus Theory [0.1813006808606333]
文化合意理論を,AIの様々な側面に関する全国代表的調査データセットに適用した。
私たちの結果は、責任あるAIに関する共有とコントラストの見解を特定することで、貴重な洞察を与えます。
論文 参考訳(メタデータ) (2024-01-06T20:57:35Z) - Culturally Responsive Artificial Intelligence -- Problems, Challenges
and Solutions [0.9065034043031668]
本稿では,AIアルゴリズムの実装から生じる社会的・文化的・倫理的課題について考察する。
文化的にレスポンシブな開発の必要性を強調します。
また、AI教育の重要性を主張し、AIシステムにおける文化的責任を促進するための規制措置の重要性を強調している。
論文 参考訳(メタデータ) (2023-12-13T19:09:45Z) - Auditing and Mitigating Cultural Bias in LLMs [1.024113475677323]
GPT-4,3.5,3は、英語とプロテスタントのヨーロッパ諸国に類似した文化的価値を示す。
生成的AIの文化的偏見を回避するため,文化マッチングと進行中の文化監査を併用することを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Cultural Incongruencies in Artificial Intelligence [5.817158625734485]
我々は、AIベースの言語とビジョン技術の文脈において、文化的な依存関係と矛盾のセットについて説明する。
これらの技術が世界規模で多様な社会や文化と相互作用し、異なる価値と解釈の実践によって問題が発生する。
論文 参考訳(メタデータ) (2022-11-19T18:45:02Z) - An Analytics of Culture: Modeling Subjectivity, Scalability,
Contextuality, and Temporality [13.638494941763637]
文化とAIの間には双方向の関係があり、AIモデルは文化を分析するためにますます使われており、それによって文化に対する理解が形成される。
一方、これらのモデルでは、文化の表現を暗黙的に、常に正しく、暗黙的に学習する。
これにより、文化の分析にAIの使用を制限し、バイアスのような文化的な複雑な問題に関してAIの問題を引き起こす緊張が生じます。
論文 参考訳(メタデータ) (2022-11-14T15:42:27Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。