論文の概要: Aspirational Affordances of AI
- arxiv url: http://arxiv.org/abs/2504.15469v1
- Date: Mon, 21 Apr 2025 22:37:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:15:05.668986
- Title: Aspirational Affordances of AI
- Title(参考訳): AIの失語症
- Authors: Sina Fazelpour, Meica Magnani,
- Abstract要約: 人工知能システムが、個人やグループを静的または制限された物語に閉じ込める方法について、懸念が高まっている。
文化的に共有された解釈資源が個人の認知をいかに形作るかを説明するため、実証的余裕の概念を導入する。
この概念は,AIによる表現や物語のリスクを生産的に評価する上で,どのように有効かを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence systems increasingly permeate processes of cultural and epistemic production, there are growing concerns about how their outputs may confine individuals and groups to static or restricted narratives about who or what they could be. In this paper, we advance the discourse surrounding these concerns by making three contributions. First, we introduce the concept of aspirational affordance to describe how culturally shared interpretive resources can shape individual cognition, and in particular exercises practical imagination. We show how this concept can ground productive evaluations of the risks of AI-enabled representations and narratives. Second, we provide three reasons for scrutinizing of AI's influence on aspirational affordances: AI's influence is potentially more potent, but less public than traditional sources; AI's influence is not simply incremental, but ecological, transforming the entire landscape of cultural and epistemic practices that traditionally shaped aspirational affordances; and AI's influence is highly concentrated, with a few corporate-controlled systems mediating a growing portion of aspirational possibilities. Third, to advance such a scrutiny, we introduce the concept of aspirational harm, which, in the context of AI systems, arises when AI-enabled aspirational affordances distort or diminish available interpretive resources in ways that undermine individuals' ability to imagine relevant practical possibilities and alternative futures. Through three case studies, we illustrate how aspirational harms extend the existing discourse on AI-inflicted harms beyond representational and allocative harms, warranting separate attention. Through these conceptual resources and analyses, this paper advances understanding of the psychological and societal stakes of AI's role in shaping individual and collective aspirations.
- Abstract(参考訳): 人工知能システムが文化的・疫学的な生産プロセスに浸透するにつれて、そのアウトプットがどのように個人やグループを分断し、誰が誰なのか、何なのかを静的または制限された物語にするかという懸念が高まっている。
本稿では,3つのコントリビューションを行うことで,これらの懸念を取り巻く談話を進める。
まず、文化的に共有された解釈資源が個人の認知をいかに形作るかを説明するために、実証的余裕の概念を導入し、特に現実的な想像力を行使する。
この概念は,AIによる表現や物語のリスクを生産的に評価する上で,どのように有効かを示す。
第二に、AIのインフルエンサーは、従来のソースよりも潜在的に強力だが、公開されていないこと、AIの影響は単にインクリメンタルであるだけでなく、伝統的にアスピレーションのアプライアンスを形成した文化的、疫学的なプラクティスの全体を変えること、AIの影響が高度に集中していること、いくつかの企業が管理するシステムが、アスピレーションの可能性の増大を仲介していること、である。
第三に、このような精査を進めるために、AIシステムという文脈では、AIによって実現される観念的余裕が、適切な実用的な可能性や代替先を想像する個人の能力を損なうような方法で、利用可能な解釈的資源を歪ませたり減らしたりするときに生じる、願望的害の概念を導入する。
3つのケーススタディを通じて、願望的害が、表現的害や割当的害以外のAIによる害に関する既存の言説をいかに拡張し、別々の注意を保証しているかを説明します。
これらの概念的資源と分析を通じて、個人的・集団的願望の形成におけるAIの役割の心理的・社会的要素の理解を深める。
関連論文リスト
- A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - We Are All Creators: Generative AI, Collective Knowledge, and the Path Towards Human-AI Synergy [1.2499537119440245]
生成的AIは、人間の独特性という伝統的な概念に深刻な課題を呈している。
ニューラルネットワークベースのファンデーションモデルにより、これらのシステムは顕著なコンテンツ生成能力を示す。
本稿では、生成AIは、知性と創造性の代替形態であると主張している。
論文 参考訳(メタデータ) (2025-04-10T17:50:17Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Toward an Artist-Centred AI [0.0]
本稿では、芸術におけるAIの使用に関する原則、実践、ツールの適合性と望ましい概念を文脈的に分析する。
AIがアート制作、流通、消費、収益化にもたらす課題を調べることで構成された。
論文 参考訳(メタデータ) (2024-04-13T09:43:23Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。