論文の概要: Accountability Infrastructure: How to implement limits on platform
optimization to protect population health
- arxiv url: http://arxiv.org/abs/2306.07443v1
- Date: Mon, 12 Jun 2023 22:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 15:38:32.016093
- Title: Accountability Infrastructure: How to implement limits on platform
optimization to protect population health
- Title(参考訳): 説明責任基盤:人口健康を守るためのプラットフォーム最適化の限界を実現する方法
- Authors: Nathaniel Lubin, Thomas Krendl Gilbert
- Abstract要約: 我々は、説明責任基盤という用語の下で、社会規模の危害をグループ化する。
本稿では,新しい機構設計フレームワークとその実測手法を提案する。
問題領域に関するメカニズムの設計に関する原則の研究課題の策定を支援することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Attention capitalism has generated design processes and product development
decisions that prioritize platform growth over all other considerations. To the
extent limits have been placed on these incentives, interventions have
primarily taken the form of content moderation. While moderation is important
for what we call "acute harms," societal-scale harms -- such as negative
effects on mental health and social trust -- require new forms of institutional
transparency and scientific investigation, which we group under the term
accountability infrastructure.
This is not a new problem. In fact, there are many conceptual lessons and
implementation approaches for accountability infrastructure within the history
of public health. After reviewing these insights, we reinterpret the societal
harms generated by technology platforms through reference to public health. To
that end, we present a novel mechanism design framework and practical
measurement methods for that framework. The proposed approach is iterative and
built into the product design process, and is applicable for both
internally-motivated (i.e. self regulation by companies) and
externally-motivated (i.e. government regulation) interventions for a range of
societal problems, including mental health.
We aim to help shape a research agenda of principles for the design of
mechanisms around problem areas on which there is broad consensus and a firm
base of support. We offer constructive examples and discussion of potential
implementation methods related to these topics, as well as several new data
illustrations for potential effects of exposure to online content.
- Abstract(参考訳): 注意資本主義は、他のすべての考慮事項よりもプラットフォームの成長を優先する設計プロセスと製品開発の決定を生み出しました。
これらのインセンティブに限度があるため、介入は主にコンテンツモデレーションの形式を取っている。
モデレーションは私たちが「acute harms」と呼ぶものにとって重要であるが、メンタルヘルスや社会的信頼に対する悪影響のような社会規模の被害には、責任インフラという用語の下でグループ化される、新しい形の制度的透明性と科学的調査が必要である。
これは新しい問題ではない。
実際、公衆衛生の歴史の中で説明責任インフラに関する多くの概念的教訓と実装アプローチが存在する。
これらの知見をレビューした後、公衆衛生を参考に、技術プラットフォームが生み出す社会的損害を再解釈する。
そこで我々は,新しいメカニズム設計フレームワークと,そのフレームワークの実用的な測定方法を提案する。
提案手法は反復的かつ製品設計プロセスに組み込まれ、内的動機づけ(企業による自己統制)と、精神的健康を含む様々な社会問題に対する外的動機付け(政府規制)の介入の両方に適用できる。
我々は、幅広いコンセンサスと確固たる支持基盤がある問題領域に関するメカニズム設計のための原則の研究アジェンダの形成を支援することを目的とする。
本稿では,これらのトピックに関連する実装手法の具体例と検討,およびオンラインコンテンツへの露出の潜在的な影響を示す新しいデータ図面について紹介する。
関連論文リスト
- Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Responsible and Inclusive Technology Framework: A Formative Framework to
Promote Societal Considerations in Information Technology Contexts [1.9991645269305982]
本稿では、技術創造と利用の社会的文脈に関する批判的考察を指向する、形式的フレームワークであるResponsible and Inclusive Technology Frameworkに貢献する。
責任・包括的技術(Responsible and Inclusive Technology)フレームワークの実装は、特にビジネス・ツー・ビジネス業界において、より意図的で社会的に根ざした実践の触媒として機能することを期待している。
論文 参考訳(メタデータ) (2023-02-22T18:59:04Z) - Bias Impact Analysis of AI in Consumer Mobile Health Technologies:
Legal, Technical, and Policy [1.6114012813668934]
本研究は,消費者向けモバイルヘルス技術(mHealth)におけるアルゴリズムバイアスの交叉について検討する。
現在のメカニズム – 法的,技術的,あるいは規範 – が,望ましくないバイアスに伴う潜在的なリスクを軽減する上で,どのような効果があるのか,検討する。
我々は、技術者や政策立案者の役割と責任に関する追加のガイダンスを提供し、そのようなシステムが患者に公平な力を与えるようにしなくてはならない。
論文 参考訳(メタデータ) (2022-08-29T00:15:45Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Ethical Assurance: A practical approach to the responsible design,
development, and deployment of data-driven technologies [0.0]
この記事では、データサイエンスとAIにおける責任ある研究とイノベーションに関する学際的プロジェクトへのコントリビューションを提供する。
まず、アルゴリズム評価の実践的なメカニズムを確立するための現在の取り組みについて批判的な分析を行う。
第二に、議論に基づく保証の方法論へのアクセシビリティな導入を提供する。
第3に,我々は「倫理的保証」と呼ぶ,議論に基づく保証の新たなバージョンを確立する。
論文 参考訳(メタデータ) (2021-10-11T11:21:49Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - COVID-19 Misinformation and Disinformation on Social Networks -- The
Limits of Veritistic Countermeasures [0.0]
新型コロナウイルスのパンデミックは、大量の誤報の対象となっている。
ソーシャルメディアプラットフォームは最近、採用している対策の一部を公表した。
これは、生成される偽情報や偽情報の性質を調べる機会を与える。
論文 参考訳(メタデータ) (2020-08-03T11:25:47Z) - Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI [0.0]
本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
論文 参考訳(メタデータ) (2020-07-29T13:26:05Z) - The Visual Social Distancing Problem [99.69094590087408]
画像から個人間距離を自動的に推定する視覚ソーシャルディスタンシング問題を提案する。
社会信号処理における過去の文献とVSDがどのように関連しているかを議論し、そのような問題を管理するために既存のコンピュータビジョン手法を用いているかを示す。
論文 参考訳(メタデータ) (2020-05-11T00:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。