論文の概要: Addressing contingency in algorithmic misinformation detection: Toward a
responsible innovation agenda
- arxiv url: http://arxiv.org/abs/2210.09014v1
- Date: Wed, 5 Oct 2022 17:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:35:26.618113
- Title: Addressing contingency in algorithmic misinformation detection: Toward a
responsible innovation agenda
- Title(参考訳): アルゴリズム的誤情報検出における偶発性:責任あるイノベーションアジェンダに向けて
- Authors: Andr\'es Dom\'inguez Hern\'andez, Richard Owen, Dan Saattrup Nielsen,
Ryan McConville
- Abstract要約: データサイエンティストは、モデルトレーニングとテストに使用される「真実の情報源の正当性、信頼性、客観性」にスタンスを取る必要がある。
高性能と報告されているにもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形成する可能性を秘めている。
本稿では、科学とデータサイエンスの社会研究の交差点で、責任あるイノベーション(RI)が協調する様子を報告する。
- 参考スコア(独自算出の注目度): 0.9659642285903421
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning (ML) enabled classification models are becoming increasingly
popular for tackling the sheer volume and speed of online misinformation. In
building these models, data scientists need to take a stance on the legitimacy,
authoritativeness and objectivity of the sources of `truth' used for model
training and testing. This has political, ethical and epistemic implications
which are rarely addressed in technical papers. Despite (and due to) their
reported high performance, ML-driven moderation systems have the potential to
shape online public debate and create downstream negative impacts such as undue
censorship and reinforcing false beliefs. This article reports on a responsible
innovation (RI) inflected collaboration at the intersection of social studies
of science and data science. We identify a series of algorithmic
contingencies--key moments during model development which could lead to
different future outcomes, uncertainty and harmful effects. We conclude by
offering an agenda of reflexivity and responsible development of ML tools for
combating misinformation.
- Abstract(参考訳): 機械学習(ml)を有効にした分類モデルは、オンライン誤情報の膨大な量と速度に取り組むことで、ますます人気が高まっている。
これらのモデルを構築する際、データサイエンティストはモデルトレーニングとテストに使用される「真実」の情報源の正当性、信頼性、客観性にスタンスを取る必要がある。
これは政治的、倫理的、疫学的な意味を持ち、技術論文ではほとんど取り上げられない。
報告された高いパフォーマンスにもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形作り、不正な検閲や偽の信念の強化のような下流のネガティブな影響を生み出す可能性がある。
本稿では、科学とデータサイエンスの社会研究の交差点で、責任あるイノベーション(RI)が協調する様子を報告する。
モデル開発における重要な瞬間は,将来的な結果,不確実性,有害な影響に繋がる可能性がある。
我々は,情報不正対策のためのMLツールの柔軟性と責任ある開発に関する議題を提供することで結論付ける。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Navigating Uncertainties in Machine Learning for Structural Dynamics: A Comprehensive Review of Probabilistic and Non-Probabilistic Approaches in Forward and Inverse Problems [0.0]
本稿では,機械学習(ML)における不確実性のナビゲートに関する包括的レビューを行う。
確率的手法や非確率的手法に対する不確実性に気付くアプローチを列挙する。
このレビューは、ML技術を利用して構造的動的問題の不確実性に対処する際、研究者や実践者が情報的決定を行うのを支援することを目的としている。
論文 参考訳(メタデータ) (2024-08-16T09:43:01Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy [17.535417441295074]
機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
本稿では,現在の最先端技術とアプローチを網羅したMUの包括的調査を行う。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、リソース制約など、対処すべき課題を強調している。
論文 参考訳(メタデータ) (2023-05-10T12:02:18Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。