論文の概要: Position: Contextual Integrity Washing for Language Models
- arxiv url: http://arxiv.org/abs/2501.19173v1
- Date: Fri, 31 Jan 2025 14:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:02:43.271780
- Title: Position: Contextual Integrity Washing for Language Models
- Title(参考訳): 位置: 言語モデルのためのコンテキスト統合性洗浄
- Authors: Yan Shvartzshnaider, Vasisht Duddu,
- Abstract要約: コンテキスト整合性(CI)は、大規模言語モデル(LLM)のプライバシーへの影響を評価するためのフレームワークである。
既存の文献では、理論の基本的信条を受け入れることなく、LSMに対してCIを採用している。
このポジションペーパーでは、既存の文献は理論の基本的信条を受け入れることなく、LSMに対してCIを採用すると論じている。
- 参考スコア(独自算出の注目度): 1.3167450470598043
- License:
- Abstract: Machine learning community is discovering Contextual Integrity (CI) as a useful framework to assess the privacy implications of large language models (LLMs). This is an encouraging development. The CI theory emphasizes sharing information in accordance with privacy norms and can bridge the social, legal, political, and technical aspects essential for evaluating privacy in LLMs. However, this is also a good point to reflect on use of CI for LLMs. This position paper argues that existing literature adopts CI for LLMs without embracing the theory's fundamental tenets, essentially amounting to a form of "CI-washing." CI-washing could lead to incorrect conclusions and flawed privacy-preserving designs. We clarify the four fundamental tenets of CI theory, systematize prior work on whether they deviate from these tenets, and highlight overlooked issues in experimental hygiene for LLMs (e.g., prompt sensitivity, positional bias).
- Abstract(参考訳): 機械学習コミュニティは、大規模言語モデル(LLM)のプライバシーへの影響を評価するための有用なフレームワークとして、コンテキスト統合(CI)を発見している。
これは奨励的な開発です。
CI理論は、プライバシーの規範に従って情報を共有することを強調し、LLMのプライバシーを評価するのに不可欠な社会的、法的、政治的、技術的側面を橋渡しすることができる。
しかし、これはLLMにおけるCIの使用を反映する良い点でもある。
このポジションペーパーは、既存の文献は理論の基本的信条を受け入れずに、LSMのCIを採用しており、基本的には「CI洗浄」の形式であると主張している。
CI洗浄は、誤った結論とプライバシー保護設計の欠陥につながる可能性がある。
筆者らは,CI理論の4つの基本的要点を明らかにし,これらの要点から逸脱するか否かの事前研究を体系化し,LSMの実験衛生(即時感度,位置偏差など)において見落とされた問題を明らかにする。
関連論文リスト
- Engagement-Driven Content Generation with Large Language Models [8.049552839071918]
大規模言語モデル(LLM)は1対1の相互作用において重要な説得能力を示す。
本研究では,相互接続型ユーザにおけるLCMの社会的影響と複雑な意見力学について検討する。
論文 参考訳(メタデータ) (2024-11-20T10:40:08Z) - Preempting Text Sanitization Utility in Resource-Constrained Privacy-Preserving LLM Interactions [4.372695214012181]
本稿では,大規模言語モデルに送信される前に,衛生効果がプロンプトに与える影響を推定するアーキテクチャを提案する。
このアーキテクチャを評価した結果,差分プライバシーに基づくテキストのサニタイズに重大な問題があることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-18T12:31:22Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - ICLEval: Evaluating In-Context Learning Ability of Large Language Models [68.7494310749199]
In-Context Learning (ICL) は大規模言語モデル(LLM)の重要な能力であり、相互接続された入力の理解と推論を可能にする。
既存の評価フレームワークは主に言語能力と知識に重点を置いており、しばしばICL能力の評価を見落としている。
LLMのICL能力を評価するためにICLEvalベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-21T08:06:10Z) - Locally Differentially Private In-Context Learning [8.659575019965152]
大規模な事前学習言語モデル(LLM)は、驚くべきインコンテキスト学習(ICL)能力を示している。
本稿では,文脈内学習(LDP-ICL)の局所的差分的フレームワークを提案する。
変圧器の勾配勾配降下による文脈内学習のメカニズムを考慮し,LDP-ICLにおけるプライバシとユーティリティのトレードオフ分析を行う。
論文 参考訳(メタデータ) (2024-05-07T06:05:43Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap [46.98582021477066]
強力な大規模言語モデル(LLM)の台頭は、イノベーションの絶大な機会をもたらすだけでなく、個人や社会全体のリスクを悪化させます。
我々は LLM と LLM を注入したアプリケーションの開発とデプロイを責任を持って行うための重要な瞬間に到達した。
LLMの透明性を提供するための新しいアプローチを追求することが最重要である。
論文 参考訳(メタデータ) (2023-06-02T22:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。