論文の概要: Supporting Anticipatory Governance using LLMs: Evaluating and Aligning
Large Language Models with the News Media to Anticipate the Negative Impacts
of AI
- arxiv url: http://arxiv.org/abs/2401.18028v1
- Date: Wed, 31 Jan 2024 17:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 13:40:01.359478
- Title: Supporting Anticipatory Governance using LLMs: Evaluating and Aligning
Large Language Models with the News Media to Anticipate the Negative Impacts
of AI
- Title(参考訳): LLMによる予測ガバナンス支援:AIの負の影響を予測するためのニュースメディアによる大規模言語モデルの評価と調整
- Authors: Mowafak Allaham, Nicholas Diakopoulos
- Abstract要約: 我々は、世界中の何百ものオンラインニュースドメインが発行するニュース記事に基づいて、AIによる影響の分類を開発する。
このベースラインからのサンプルを用いて,命令ベースおよび微調整完了モデル (Mistral-7B, GPT-3) の評価を行った。
メディアからの影響を微調整したMistral-7Bによる影響は,GPT-4のような大規模モデルによる影響と同等に定性的に比較される傾向にある。
- 参考スコア(独自算出の注目度): 4.324021238526106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anticipating the negative impacts of emerging AI technologies is a challenge,
especially in the early stages of development. An understudied approach to such
anticipation is the use of LLMs to enhance and guide this process. Despite
advancements in LLMs and evaluation metrics to account for biases in generated
text, it is unclear how well these models perform in anticipatory tasks.
Specifically, the use of LLMs to anticipate AI impacts raises questions about
the quality and range of categories of negative impacts these models are
capable of generating. In this paper we leverage news media, a diverse data
source that is rich with normative assessments of emerging technologies, to
formulate a taxonomy of impacts to act as a baseline for comparing against. By
computationally analyzing thousands of news articles published by hundreds of
online news domains around the world, we develop a taxonomy consisting of ten
categories of AI impacts. We then evaluate both instruction-based (GPT-4 and
Mistral-7B-Instruct) and fine-tuned completion models (Mistral-7B and GPT-3)
using a sample from this baseline. We find that the generated impacts using
Mistral-7B, fine-tuned on impacts from the news media, tend to be qualitatively
on par with impacts generated using a larger scale model such as GPT-4.
Moreover, we find that these LLMs generate impacts that largely reflect the
taxonomy of negative impacts identified in the news media, however the impacts
produced by instruction-based models had gaps in the production of certain
categories of impacts in comparison to fine-tuned models. This research
highlights a potential bias in state-of-the-art LLMs when used for anticipating
impacts and demonstrates the advantages of aligning smaller LLMs with a diverse
range of impacts, such as those reflected in the news media, to better reflect
such impacts during anticipatory exercises.
- Abstract(参考訳): 新興AI技術の負の影響を期待することは、特に開発の初期段階において課題である。
このような予測に対する未研究のアプローチは、このプロセスの強化とガイドにLLMを使うことである。
生成したテキストのバイアスを考慮に入れたLCMや評価指標の進歩にもかかわらず、これらのモデルが予測タスクでどの程度うまく機能するかは明らかでない。
具体的には、LLMを使用してAIへの影響を予測することで、これらのモデルが生成できる負の影響のカテゴリの品質と範囲に関する疑問が提起される。
本稿では,新興技術の規範的評価に富む多種多様なデータソースであるnews mediaを活用して,影響の分類法を比較基準として定式化する。
世界中の何百ものオンラインニュースドメインが発行する何千ものニュース記事の計算分析によって、AIの影響の10のカテゴリからなる分類法を開発する。
次に,このベースラインからのサンプルを用いて,命令ベース (GPT-4, Mistral-7B-Instruct) と微調整完了モデル (Mistral-7B, GPT-3) の両方を評価する。
メディアからの影響を微調整したMistral-7Bによる影響は,GPT-4のような大規模モデルによる影響と同等に定性的に比較される傾向にある。
さらに、これらのLCMは、ニュースメディアで特定されるネガティブな影響の分類を反映する影響を生じさせるが、教示ベースモデルが生み出す影響は、微調整モデルと比較して特定のカテゴリーのインパクトの生成にギャップがある。
本研究は, 衝撃を予測するために使用するLLMの潜在的なバイアスを強調し, 予測運動中の影響をよりよく反映するために, メディアに反映されるような様々な影響に, より小さなLLMを整合させることの利点を示す。
関連論文リスト
- Automatic Evaluation for Text-to-image Generation: Task-decomposed Framework, Distilled Training, and Meta-evaluation Benchmark [62.58869921806019]
GPT-4oに基づくタスク分解評価フレームワークを提案し、新しいトレーニングデータセットを自動構築する。
我々は、GPT-4oの評価能力を7BオープンソースMLLM、MiniCPM-V-2.6に効果的に蒸留するための革新的なトレーニング戦略を設計する。
実験結果から,我々の蒸留したオープンソースMLLMは,現在のGPT-4oベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-23T08:06:06Z) - HarmLevelBench: Evaluating Harm-Level Compliance and the Impact of Quantization on Model Alignment [1.8843687952462742]
本稿では,現在の脱獄技術とLLM脆弱性評価のギャップに対処することを目的としている。
私たちの貢献は、複数の害レベルにわたるモデル出力の有害性を評価するために設計された、新しいデータセットの作成を含む。
Vicuna 13B v1.5モデルをターゲットとした、最先端の脱獄攻撃の包括的なベンチマークを提供する。
論文 参考訳(メタデータ) (2024-11-11T10:02:49Z) - Towards Leveraging News Media to Support Impact Assessment of AI Technologies [3.2566808526538873]
インパクトアセスメント(IA)の専門家主導のフレームワークは、AI技術が公衆の社会的行動、政策、そして、AIの認識とその使用に関する影響を形作る文化的、地理的文脈に与える影響を、必然的に見落としてしまう可能性がある。
本研究は、世界30カ国にまたがる266のニュースドメインから報告されたAIのネガティブな影響に対する微調整LDMの可能性を探るものである。
論文 参考訳(メタデータ) (2024-11-04T19:12:27Z) - DAG-aware Transformer for Causal Effect Estimation [0.8192907805418583]
因果推論は、医療、経済学、社会科学などの分野における重要な課題である。
本稿では,これらの課題を克服する因果推論のためのトランスフォーマーを用いた新しい手法を提案する。
我々のモデルの中核となる革新は、注意機構に直接因果非巡回グラフ(DAG)を統合することである。
論文 参考訳(メタデータ) (2024-10-13T23:17:58Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Comprehensive Reassessment of Large-Scale Evaluation Outcomes in LLMs: A Multifaceted Statistical Approach [64.42462708687921]
評価の結果、スケーリング、トレーニングタイプ、アーキテクチャなどの要因がLLMのパフォーマンスに大きな影響を与えていることが明らかになった。
本研究は, これらのLCMの徹底的な再検討に着手し, 現状評価手法における不整合性に着目した。
これには、ANOVA、Tukey HSDテスト、GAMM、クラスタリング技術などが含まれる。
論文 参考訳(メタデータ) (2024-03-22T14:47:35Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Predictability and Surprise in Large Generative Models [8.055204456718576]
大規模プレトレーニングは、有能で汎用的な生成モデルを作成するための技術として登場した。
本稿では,そのようなモデルの直観的特性を強調し,この特性の政策的含意について論じる。
論文 参考訳(メタデータ) (2022-02-15T23:21:23Z) - Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements [23.3030110636071]
本稿では,2020 Neural Information Processing Systems カンファレンスで記述された文のサンプルのテーマ分析の結果を紹介する。
私たちが特定するテーマは、結果の表現方法と影響の領域に関連するカテゴリに分類されます。
結果を踏まえて、将来のイテレーションでより広範なインパクトステートメントをどのように実装して、潜在的な目標とよりよく一致させることができるか、という視点を提供します。
論文 参考訳(メタデータ) (2021-05-11T02:57:39Z) - Heterogeneous Demand Effects of Recommendation Strategies in a Mobile
Application: Evidence from Econometric Models and Machine-Learning
Instruments [73.7716728492574]
本研究では,モバイルチャネルにおける様々なレコメンデーション戦略の有効性と,個々の製品に対する消費者の実用性と需要レベルに与える影響について検討する。
提案手法では, 有効性に有意な差が認められた。
我々は,ユーザ生成レビューのディープラーニングモデルに基づいて,製品分化(アイソレーション)をキャプチャする新しいエコノメトリ機器を開発した。
論文 参考訳(メタデータ) (2021-02-20T22:58:54Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。