論文の概要: Bridging Deliberative Democracy and Deployment of Societal-Scale
Technology
- arxiv url: http://arxiv.org/abs/2303.10831v2
- Date: Mon, 27 Mar 2023 04:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 23:37:27.540910
- Title: Bridging Deliberative Democracy and Deployment of Societal-Scale
Technology
- Title(参考訳): 橋渡し型審議民主主義と社会規模の技術の展開
- Authors: Ned Cooper
- Abstract要約: 大規模言語モデル(LLM)の安全性を確保するための既存のプロセスは不十分であり、システムに民主的な正当性を与えていない、と私は主張する。
このAI安全研究と実践のシフトは、熟考の実施方法を決定する企業および公共政策の設計を必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper encourages the Human-Computer Interaction (HCI) community
to focus on designing deliberative processes to inform and coordinate
technology and policy design for large language models (LLMs) -- a
`societal-scale technology'. First, I propose a definition for societal-scale
technology and locate LLMs within this definition. Next, I argue that existing
processes to ensure the safety of LLMs are insufficient and do not give the
systems democratic legitimacy. Instead, we require processes of deliberation
amongst users and other stakeholders on questions about the safety of outputs
and deployment contexts. This shift in AI safety research and practice will
require the design of corporate and public policies that determine how to enact
deliberation and the design of interfaces and technical features to translate
the outcomes of deliberation into technical development processes. To conclude,
I propose roles for the HCI community to ensure deliberative processes inform
technology and policy design for LLMs and other societal-scale technology.
- Abstract(参考訳): 本稿では,人間-コンピュータインタラクション(HCI)コミュニティにおいて,大規模言語モデル(LLM)のための技術と政策設計を情報提供・コーディネートするための検討プロセスの設計に重点を置くことを推奨する。
まず,社会規模の技術の定義を提案し,LLMをその定義内に配置する。
次に、LLMの安全性を確保するための既存のプロセスは不十分であり、制度の民主的正当性を与えていないと論じる。
代わりに、アウトプットとデプロイメントコンテキストの安全性に関する質問に対して、ユーザや他の利害関係者間の審議のプロセスが必要です。
このaiの安全研究と実践のシフトは、審議の成果を技術開発プロセスに翻訳するために、審議の実施方法とインターフェースと技術特徴の設計を決定する企業と公共の政策の設計を必要とする。
結論として,HCI コミュニティが LLM 等の社会規模技術に対して,検討プロセスが技術や政策設計に情報を伝達することを保証する役割について提案する。
関連論文リスト
- Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Position Paper: Technical Research and Talent is Needed for Effective AI Governance [0.0]
我々は、EU、米国、中国の公共機関が発行する政策文書を調査する。
我々は、提案された政策行動の実施に必要な技術的要件と、現在の技術状況とを、特定の領域で切り離すことを強調します。
我々の分析は、AIガバナンスにおけるAI/ML研究コミュニティのより緊密な統合を呼び起こします。
論文 参考訳(メタデータ) (2024-06-11T06:32:28Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach [45.74830585715129]
我々は,大規模言語モデル(LLM)における社会貢献のリスクに対処するために,社会透明性(ST)フレームワークの拡張を提案する。
LLMは、デザイナーの意図とユーザの社会的属性に対する認識のミスマッチを引き起こし、感情的な操作や危険な行動を促進するリスクを負う。
設計者やユーザによるLSMに割り当てられた特定の社会的属性を明らかにするため,第5の"W-question"によるSTフレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2024-03-26T17:02:42Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Responsible and Inclusive Technology Framework: A Formative Framework to
Promote Societal Considerations in Information Technology Contexts [1.9991645269305982]
本稿では、技術創造と利用の社会的文脈に関する批判的考察を指向する、形式的フレームワークであるResponsible and Inclusive Technology Frameworkに貢献する。
責任・包括的技術(Responsible and Inclusive Technology)フレームワークの実装は、特にビジネス・ツー・ビジネス業界において、より意図的で社会的に根ざした実践の触媒として機能することを期待している。
論文 参考訳(メタデータ) (2023-02-22T18:59:04Z) - SMART: a Technology Readiness Methodology in the Frame of the NIS
Directive [0.0]
所定の目標技術の技術準備レベル(TRL)を知ることは、コストオーバーランや製品ロールアウト遅延、早期の打ち上げ失敗といったリスクを軽減するのに有用であることが判明した。
もともとNASAによって宇宙計画のために開発されたTRLは、技術や製造会社の間で事実上の標準となった。
本研究の目的は,既存の技術準備度評価(TRA)と同一視されるギャップに対処し,標準化手法の開発によって克服することである。
論文 参考訳(メタデータ) (2022-01-03T09:31:59Z) - Axes for Sociotechnical Inquiry in AI Research [3.0215443986383734]
技術開発の新たな発展領域を探求する4つの方向を提案する。
本論文は、社会技術調査のためのレキシコンを提供し、消費者向けドローン技術の例を通してそれを解説する。
論文 参考訳(メタデータ) (2021-04-26T16:49:04Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z) - Designing for Human Rights in AI [0.0]
AIシステムは、エビデンス駆動で効率的な決定を下すのに役立ちます。
これらの技術開発が人々の基本的人権と一致していることは明らかになっている。
これらの複雑な社会倫理問題に対する技術的な解決策は、しばしば社会的文脈の実証的研究なしで開発される。
論文 参考訳(メタデータ) (2020-05-11T09:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。