論文の概要: Personal autonomy and surveillance capitalism: possible future
developments
- arxiv url: http://arxiv.org/abs/2302.08946v1
- Date: Fri, 17 Feb 2023 15:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 14:27:50.465008
- Title: Personal autonomy and surveillance capitalism: possible future
developments
- Title(参考訳): 個人自治と監視資本主義 : 今後の発展の可能性
- Authors: Davide Foini
- Abstract要約: 私は、監視資本主義の文脈において、人間の自律性に課される脅威に焦点を当てます。
私は、この脅威が存在する理由と、そのような慣行に対してアクションを起こさなければ、どのような結果に直面することができるのかを分析します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of social media and the increase in the computational capabilities
of computers have allowed tech companies such as Facebook and Google to gather
incredibly large amounts of data and to be able to extract meaningful
information to use for commercial purposes. Moreover, the algorithms behind
these platforms have shown the ability to influence feelings, behaviors, and
opinions, representing a serious threat to the independence of their users. All
of these practices have been referred to as "surveillance capitalism", a term
created by Shoshana Zuboff. In this paper I focus on the threat imposed on the
autonomy of human beings in the context of surveillance capitalism, providing
both an analysis of the reasons why this threat exists and what consequences we
could face if we take no action against such practices.
- Abstract(参考訳): ソーシャルメディアの台頭とコンピュータの計算能力の増大により、FacebookやGoogleのようなテクノロジー企業が信じられないほど大量のデータを収集し、商業目的に使用する有意義な情報を抽出できるようになった。
さらに、これらのプラットフォームの背後にあるアルゴリズムは、感情、行動、意見に影響を与える能力を示しており、ユーザーの独立に対する深刻な脅威を表している。
これらの慣行はすべて、ショサナ・ズボフ(shoshana zuboff)によって作られた「監視資本主義」と呼ばれる。
本稿では、監視資本主義の文脈において、人間の自律性に課される脅威に焦点をあて、この脅威が存在する理由と、そのような行為をしない場合、どのような結果に直面することができるのかを分析した。
関連論文リスト
- Exploiting the Margin: How Capitalism Fuels AI at the Expense of
Minoritized Groups [0.0]
本稿では、資本主義、人種抑圧、人工知能(AI)の複雑なネクサスについて考察する。
この研究は、資本主義的な実践を通じて、地域社会の歴史的搾取を追跡することによって、AI技術がどのように社会的偏見を反映し、増幅しているかを示す。
この記事では、AI開発に責任を負うための継続的な取り組みが紹介されている。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Carthago Delenda Est: Co-opetitive Indirect Information Diffusion Model
for Influence Operations on Online Social Media [6.236019068888737]
DluvsionはTwitterのようなソーシャルメディア上で、競合する情報伝達活動のためのエージェントベースモデルである。
我々は、スタンス導入に影響を与えるエンゲージメント指標、情報の非社会的結びつき、拡散可能なスタンスとしての中立性、およびメディアのフレーミング効果に類似し、スタンス伝播に関して共生的なテーマについて説明する。
論文 参考訳(メタデータ) (2024-02-02T21:15:24Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Navigating Surveillance Capitalism: A Critical Analysis through
philosophical perspectives in Computer Ethics [0.0]
監視資本主義は大量のユーザーデータを収集し分析する実践である。
GoogleやFacebookのようなテクノロジー企業は、ユーザーの個人情報を使ってパーソナライズされたコンテンツや広告を提供する。
監視資本主義のもう一つの例は、国家安全保障のためのデータ収集と分析に軍事技術を使用することである。
論文 参考訳(メタデータ) (2023-05-05T18:37:56Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Machine Learning Featurizations for AI Hacking of Political Systems [0.0]
最近のエッセイ"The Coming AI Hackers"の中で、Schneier氏は、社会、経済、政治システムの脆弱性を発見し、操作し、悪用するための人工知能の将来の応用を提案した。
この研究は、AIハッキングの可能な"機能化"フレームワークを仮定して、機械学習から理論を適用することによって、概念を前進させる。
政治システムの属性や結果を予測するために,さまざまなディープラーニングモデルの応用を可能にするグラフとシーケンスデータ表現を開発した。
論文 参考訳(メタデータ) (2021-10-08T16:51:31Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Politics of Adversarial Machine Learning [0.7837881800517111]
敵の機械学習攻撃と防衛には政治的側面がある。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定のオプションを有効または前置する。
本稿では、敵攻撃に対する防御が、反抗を抑え、機械学習システムの調査を制限するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-02-01T01:15:39Z) - Quantifying the Vulnerabilities of the Online Public Square to
Adversarial Manipulation Tactics [47.189859616654736]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。