論文の概要: Addressing contingency in algorithmic misinformation detection: Toward a
responsible innovation agenda
- arxiv url: http://arxiv.org/abs/2210.09014v1
- Date: Wed, 5 Oct 2022 17:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:35:26.618113
- Title: Addressing contingency in algorithmic misinformation detection: Toward a
responsible innovation agenda
- Title(参考訳): アルゴリズム的誤情報検出における偶発性:責任あるイノベーションアジェンダに向けて
- Authors: Andr\'es Dom\'inguez Hern\'andez, Richard Owen, Dan Saattrup Nielsen,
Ryan McConville
- Abstract要約: データサイエンティストは、モデルトレーニングとテストに使用される「真実の情報源の正当性、信頼性、客観性」にスタンスを取る必要がある。
高性能と報告されているにもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形成する可能性を秘めている。
本稿では、科学とデータサイエンスの社会研究の交差点で、責任あるイノベーション(RI)が協調する様子を報告する。
- 参考スコア(独自算出の注目度): 0.9659642285903421
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning (ML) enabled classification models are becoming increasingly
popular for tackling the sheer volume and speed of online misinformation. In
building these models, data scientists need to take a stance on the legitimacy,
authoritativeness and objectivity of the sources of `truth' used for model
training and testing. This has political, ethical and epistemic implications
which are rarely addressed in technical papers. Despite (and due to) their
reported high performance, ML-driven moderation systems have the potential to
shape online public debate and create downstream negative impacts such as undue
censorship and reinforcing false beliefs. This article reports on a responsible
innovation (RI) inflected collaboration at the intersection of social studies
of science and data science. We identify a series of algorithmic
contingencies--key moments during model development which could lead to
different future outcomes, uncertainty and harmful effects. We conclude by
offering an agenda of reflexivity and responsible development of ML tools for
combating misinformation.
- Abstract(参考訳): 機械学習(ml)を有効にした分類モデルは、オンライン誤情報の膨大な量と速度に取り組むことで、ますます人気が高まっている。
これらのモデルを構築する際、データサイエンティストはモデルトレーニングとテストに使用される「真実」の情報源の正当性、信頼性、客観性にスタンスを取る必要がある。
これは政治的、倫理的、疫学的な意味を持ち、技術論文ではほとんど取り上げられない。
報告された高いパフォーマンスにもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形作り、不正な検閲や偽の信念の強化のような下流のネガティブな影響を生み出す可能性がある。
本稿では、科学とデータサイエンスの社会研究の交差点で、責任あるイノベーション(RI)が協調する様子を報告する。
モデル開発における重要な瞬間は,将来的な結果,不確実性,有害な影響に繋がる可能性がある。
我々は,情報不正対策のためのMLツールの柔軟性と責任ある開発に関する議題を提供することで結論付ける。
関連論文リスト
- Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy [17.535417441295074]
機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
本稿では,現在の最先端技術とアプローチを網羅したMUの包括的調査を行う。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、リソース制約など、対処すべき課題を強調している。
論文 参考訳(メタデータ) (2023-05-10T12:02:18Z) - Accountable and Explainable Methods for Complex Reasoning over Text [5.571369922847262]
機械学習モデルのアカウンタビリティと透明性は、政策、法学、哲学、計算機科学の研究によって決定的なデシダータとして位置づけられている。
この論文は、テキストによる複雑な推論タスクのために開発されたMLモデルの説明責任と透明性に関する知識を拡大する。
論文 参考訳(メタデータ) (2022-11-09T15:14:52Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。