論文の概要: Utilizing LLMs to Investigate the Disputed Role of Evidence in Electronic Cigarette Health Policy Formation in Australia and the UK
- arxiv url: http://arxiv.org/abs/2505.06782v1
- Date: Sat, 10 May 2025 23:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.035732
- Title: Utilizing LLMs to Investigate the Disputed Role of Evidence in Electronic Cigarette Health Policy Formation in Australia and the UK
- Title(参考訳): オーストラリアと英国における電子タバコ健康政策形成におけるLCMの利用とエビデンスの役割
- Authors: Damian Curran, Brian Chapman, Mike Conway,
- Abstract要約: オーストラリアとイギリスは、電子タバコの規制に対する対照的なアプローチを開発してきた。
そこで我々は,電子タバコ関連政策文書の自動解析を行うLarge Language Modelベースの文分類器を開発し,評価した。
- 参考スコア(独自算出の注目度): 0.7646713951724013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Australia and the UK have developed contrasting approaches to the regulation of electronic cigarettes, with - broadly speaking - Australia adopting a relatively restrictive approach and the UK adopting a more permissive approach. Notably, these divergent policies were developed from the same broad evidence base. In this paper, to investigate differences in how the two jurisdictions manage and present evidence, we developed and evaluated a Large Language Model-based sentence classifier to perform automated analyses of electronic cigarette-related policy documents drawn from official Australian and UK legislative processes (109 documents in total). Specifically, we utilized GPT-4 to automatically classify sentences based on whether they contained claims that e-cigarettes were broadly helpful or harmful for public health. Our LLM-based classifier achieved an F-score of 0.9. Further, when applying the classifier to our entire sentence-level corpus, we found that Australian legislative documents show a much higher proportion of harmful statements, and a lower proportion of helpful statements compared to the expected values, with the opposite holding for the UK. In conclusion, this work utilized an LLM-based approach to provide evidence to support the contention that - drawing on the same evidence base - Australian ENDS-related policy documents emphasize the harms associated with ENDS products and UK policy documents emphasize the benefits. Further, our approach provides a starting point for using LLM-based methods to investigate the complex relationship between evidence and health policy formation.
- Abstract(参考訳): オーストラリアとイギリスは、電子タバコの規制に対する対照的なアプローチを開発しており、オーストラリアは比較的制限的なアプローチを採用し、イギリスはより寛容なアプローチを採用している。
特に、これらの分岐政策は、同じ広範な証拠ベースから発展した。
本稿では,2つの司法管轄区域がいかにして証拠を管理し,提示するかの相違を検討するために,オーストラリアおよび英国の公式立法プロセス(109件の文書)から抽出された電子タバコ関連政策文書の自動解析を行う大規模言語モデルに基づく文分類器を開発し,評価した。
具体的には,電子タバコが公衆衛生に有用か有害かという主張に基づいて,GPT-4を用いて文の自動分類を行った。
LLMを用いた分類ではFスコアが0.9。
さらに,全文レベルのコーパスに分類器を適用すると,オーストラリアの立法文書は有害な文の割合がはるかに高く,期待値よりも有用な文の割合が低いことが判明した。
結論として、この研究はLSMに基づくアプローチを利用して、同じ証拠ベースに基づいてオーストラリアのENDS関連の政策文書は、ENDS製品に関連する害を強調し、イギリスの政策文書は、その利益を強調するという主張を支持する証拠を提供した。
さらに, この手法は, 証拠と健康政策形成の複雑な関係を解明するための LLM 手法の出発点となる。
関連論文リスト
- Multi-Sourced, Multi-Agent Evidence Retrieval for Fact-Checking [47.47518672198846]
インターネット上に拡散する誤報は、社会と個人の両方に重大な脅威をもたらす。
これまでの方法は、トレーニングデータから学んだ意味的パターンと社会的コンテキスト的パターンに依存していた。
我々は、証拠のコアリソースとして認証されたオープンナレッジグラフを利用するWKGFCを提案する。
論文 参考訳(メタデータ) (2026-02-27T19:29:01Z) - LegalOne: A Family of Foundation Models for Reliable Legal Reasoning [54.57434222018289]
我々は、中国の法律ドメインに特化された基礎モデルのファミリーであるLegalOneを紹介します。
LegalOneは、法的推論をマスターするために設計された包括的な3フェーズパイプラインを通じて開発されている。
LegalOneの重み付けとLegalKit評価フレームワークを公開して、Legal AIの分野を前進させます。
論文 参考訳(メタデータ) (2026-01-31T10:18:32Z) - PLawBench: A Rubric-Based Benchmark for Evaluating LLMs in Real-World Legal Practice [67.71760070255425]
本稿では,大規模言語モデル (LLM) を評価するための実践的ベンチマークであるPLawBenchを紹介する。
PLawBenchは、13の実践的な法的シナリオにわたる850の質問で構成され、各質問には専門家が設計した評価ルーブが伴っている。
人間の専門的判断に合わせたLLMに基づく評価器を用いて,10種類の最先端のLLMを評価した。
論文 参考訳(メタデータ) (2026-01-23T11:36:10Z) - Large Language Models' Complicit Responses to Illicit Instructions across Socio-Legal Contexts [54.15982476754607]
大規模言語モデル(LLM)が前例のない規模に展開され、毎日のタスクで数百万のユーザを支援している。
本研究は、複雑なファシリテーションを、不正なユーザ指示を可能にするガイダンスやサポートの提供として定義する。
実世界の訴訟と確立された法的枠組みを用いて、269件の違法なシナリオと50件の違法な意図にまたがる評価ベンチマークを構築した。
論文 参考訳(メタデータ) (2025-11-25T16:01:31Z) - Universal Legal Article Prediction via Tight Collaboration between Supervised Classification Model and LLM [42.11889345473452]
法律記事予測(LAP)は、法的テキスト分類において重要な課題である。
法律記事予測のための普遍的な枠組みであるUni-LAPを提案する。
論文 参考訳(メタデータ) (2025-09-26T09:42:20Z) - Augmented Question-guided Retrieval (AQgR) of Indian Case Law with LLM, RAG, and Structured Summaries [0.0]
本稿では,関連事例の検索を容易にするためにLarge Language Models (LLMs) を提案する。
提案手法は,Retrieval Augmented Generation (RAG) と,インドの事例法に最適化された構造化要約を組み合わせたものである。
本システムは,関連事例法をより効果的に識別するために,事実シナリオに基づく対象の法的質問を生成する。
論文 参考訳(メタデータ) (2025-07-23T05:24:44Z) - Computational Identification of Regulatory Statements in EU Legislation [0.0]
計算手法は、EUの立法機関からそのような言明の特定をスケールするのに有用である。
機関文法ツールに基づく規制文を構成するための具体的定義を提供する。
論文 参考訳(メタデータ) (2025-05-01T12:11:32Z) - Machine Learning-Driven Convergence Analysis in Multijurisdictional Compliance Using BERT and K-Means Clustering [0.0]
本研究は、重複する領域や発散する領域を特定するために、様々な規則を比較した。
国際企業はこのレポートから貴重な教訓を学ぶことができる。
研究の目的は「法律知識と専門知識のギャップを埋めること」である。
論文 参考訳(メタデータ) (2025-01-23T22:11:18Z) - Knowledge-Augmented Reasoning for EUAIA Compliance and Adversarial Robustness of LLMs [1.368472250332885]
EUAIA(EU AI Act)は、敵の堅牢性を確立するために必要なプロセスと交差するAIシステムの要件を導入している。
本稿では,2つの特性をブリッジする機能アーキテクチャを提案する。
我々は,知識強化に基づく推論レイヤで開発者と監査者を支援することを目的としている。
論文 参考訳(メタデータ) (2024-10-04T18:23:14Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - A Hierarchical Neural Framework for Classification and its Explanation in Large Unstructured Legal Documents [0.5812284760539713]
我々はこの問題を「注釈付き法律文書」と定義する。
我々はMEScと呼ぶディープラーニングに基づく分類フレームワークを提案する。
また、ORSEと呼ばれる説明抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-19T12:18:28Z) - Leveraging Large Language Models for Topic Classification in the Domain
of Public Affairs [65.9077733300329]
大規模言語モデル (LLM) は公務員文書の分析を大幅に強化する可能性を秘めている。
LLMは、公共の分野など、ドメイン固有のドキュメントを処理するのに非常に役立ちます。
論文 参考訳(メタデータ) (2023-06-05T13:35:01Z) - Pile of Law: Learning Responsible Data Filtering from the Law and a
256GB Open-Source Legal Dataset [46.156169284961045]
我々は, フィルター材料におけるトレードオフに直接対処する法則に基づくフィルタリングへのアプローチを提案する。
まず、256GBのオープンソース英語および行政データのデータセットであるPile of Lawを収集、利用可能にします。
第二に、政府が有毒または私的コンテンツを含めることを規制するために開発した法規範を精査する。
第3に、Pile of Lawが研究者に、このようなフィルタリングルールを直接データから学習する機会を提供する方法を示します。
論文 参考訳(メタデータ) (2022-07-01T06:25:15Z) - Eider: Evidence-enhanced Document-level Relation Extraction [56.71004595444816]
文書レベルの関係抽出(DocRE)は、文書内のエンティティペア間の意味関係を抽出することを目的としている。
本稿では,共同関係と証拠抽出,エビデンス中心関係抽出(RE),抽出結果の融合からなる3段階のエビデンス強化DocREフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T09:43:16Z) - Towards Automatic Comparison of Data Privacy Documents: A Preliminary
Experiment on GDPR-like Laws [1.3537117504260623]
一般データ保護規則(NLP)は多くの国で保護のための標準法となっている。
12カ国で類似性のような規制が採用されているが、違いを評価するのに時間がかかり、法律の専門家による手作業が必要になる。
本稿では,この問題に対処するための自然言語処理(NLP)アプローチについて検討する。
論文 参考訳(メタデータ) (2021-05-21T03:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。