論文の概要: Nutrition Facts, Drug Facts, and Model Facts: Putting AI Ethics into
Practice in Gun Violence Research
- arxiv url: http://arxiv.org/abs/2402.09286v1
- Date: Wed, 14 Feb 2024 16:19:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:30:44.938719
- Title: Nutrition Facts, Drug Facts, and Model Facts: Putting AI Ethics into
Practice in Gun Violence Research
- Title(参考訳): 栄養的事実、薬物的事実、モデル的事実--銃暴力研究におけるai倫理の実践
- Authors: Jessica Zhu, Dr. Michel Cukier, Dr. Joseph Richardson Jr
- Abstract要約: 本稿では,モデルファクトテンプレートを提案し,精度と階層性を標準化され,最小限の複雑な値に分解する。
これまでに公表された2つのモデル、暴力リスク識別モデルと自殺リスク予測モデルにモデルファクトテンプレートを適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: Firearm injury research necessitates using data from
often-exploited vulnerable populations of Black and Brown Americans. In order
to minimize distrust, this study provides a framework for establishing AI trust
and transparency with the general population. Methods: We propose a Model Facts
template that is easily extendable and decomposes accuracy and demographics
into standardized and minimally complex values. This framework allows general
users to assess the validity and biases of a model without diving into
technical model documentation. Examples: We apply the Model Facts template on
two previously published models, a violence risk identification model and a
suicide risk prediction model. We demonstrate the ease of accessing the
appropriate information when the data is structured appropriately. Discussion:
The Model Facts template is limited in its current form to human based data and
biases. Like nutrition facts, it also will require some educational resources
for users to grasp its full utility. Human computer interaction experiments
should be conducted to ensure that the interaction between user interface and
model interface is as desired. Conclusion: The Model Facts label is the first
framework dedicated to establishing trust with end users and general population
consumers. Implementation of Model Facts into firearm injury research will
provide public health practitioners and those impacted by firearm injury
greater faith in the tools the research provides.
- Abstract(参考訳): 目的: 銃器の損傷研究は、しばしば爆発する脆弱な黒人とブラウン系アメリカ人の集団のデータを利用する必要がある。
不信感を最小限に抑えるために,本研究は,一般市民へのai信頼と透明性を確立するための枠組みを提供する。
方法:我々はモデルファクトテンプレートを提案し,精度と人口統計を標準化され,かつ最小に複雑な値に分解する。
このフレームワークは、技術モデルドキュメンテーションに飛び込むことなく、一般ユーザーがモデルの妥当性とバイアスを評価することを可能にする。
例: これまでに公表された2つのモデル、暴力リスク識別モデルと自殺リスク予測モデルにモデルファクトテンプレートを適用した。
我々は、データが適切に構造化されている場合に、適切な情報にアクセスしやすいことを示す。
議論: Model Factsテンプレートは現在の形式では人間ベースのデータとバイアスに限られています。
栄養の事実と同様に、利用者がその実用性を理解するための教育的リソースも必要だ。
ユーザインタフェースとモデルインターフェースの相互作用が望まれていることを確実にするために、ヒューマンコンピュータインタラクションの実験を行う必要がある。
結論: Model Facts ラベルは、エンドユーザーと一般消費者との信頼を確立するための最初のフレームワークである。
銃器損傷研究へのモデルファクトの実装は、公衆衛生従事者と銃器損傷の影響を受ける者に対して、その研究が提供するツールに対する信頼を高める。
関連論文リスト
- Learning-based Models for Vulnerability Detection: An Extensive Study [3.1317409221921144]
我々は、最先端の学習ベースアプローチの2つのタイプを広範かつ包括的に調査する。
本稿では,シーケンスベースモデルの優先度と,グラフベースモデルの限定能力について実験的に検証する。
論文 参考訳(メタデータ) (2024-08-14T13:01:30Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Membership Inference Attacks on Deep Regression Models for Neuroimaging [15.591129844038269]
我々は,3次元ニューロイメージングタスクのための訓練された深層学習モデルに対するリアルなメンバーシップ推論攻撃と,分散化されたセットアップを示す。
モデルの複雑性やセキュリティの仮定によって,MRIスキャンが60%から80%以上の成功率でモデルトレーニングに使用されたかどうかを正確に確認した。
論文 参考訳(メタデータ) (2021-05-06T17:51:06Z) - Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance [1.6058099298620423]
データは、今日の多くのモデルの原材料であり、デジタルサービスの品質とパフォーマンスを向上させることができる。
モデル利用者は、モデルが差別されないようにし、その結果を説明することも可能であることを保証する必要がある。
予測アルゴリズムのパネルを広げると、科学者はモデルの使用について警戒するようになる。
論文 参考訳(メタデータ) (2020-07-25T12:18:07Z) - Debiasing Skin Lesion Datasets and Models? Not So Fast [17.668005682385175]
データリスク学習のバイアスから学んだモデルは、同じデータから。
モデルが現実世界の状況では見つからない急激な相関関係を学習すると、医療上の決定などの重要なタスクへの展開は破滅的なものになる。
将来有望な研究を示唆する興味深い結果にもかかわらず、現在の脱バイアス法は、スキン・レジオンモデルのバイアス問題を解決する準備ができていないことが判明した。
論文 参考訳(メタデータ) (2020-04-23T21:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。