論文の概要: Structural transparency of societal AI alignment through Institutional Logics
- arxiv url: http://arxiv.org/abs/2602.08246v1
- Date: Mon, 09 Feb 2026 03:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.058326
- Title: Structural transparency of societal AI alignment through Institutional Logics
- Title(参考訳): 制度論理による社会的AIアライメントの構造的透明性
- Authors: Atrisha Sarkar, Isam Faik,
- Abstract要約: 我々は,AIアライメントに関する組織的および制度的な決定を分析するための,環境透明性の枠組みを開発する。
フレームワークを5つの分析コンポーネントで運用し、それぞれに「分析レシピ」を添付します。
- 参考スコア(独自算出の注目度): 2.320417845168326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of AI alignment is increasingly concerned with the questions of how values are integrated into the design of generative AI systems and how their integration shapes the social consequences of AI. However, existing transparency frameworks focus on the informational aspects of AI models, data, and procedures, while the institutional and organizational forces that shape alignment decisions and their downstream effects remain underexamined in both research and practice. To address this gap, we develop a framework of \emph{structural transparency} for analyzing organizational and institutional decisions concerning AI alignment, drawing on the theoretical lens of Institutional Logics. We develop a categorization of organizational decisions that are present in the governance of AI alignment, and provide an explicit analytical approach to examining them. We operationalize the framework through five analytical components, each with an accompanying "analyst recipe" that collectively identify the primary institutional logics and their internal relationships, external disruptions to existing social orders, and finally, how the structural risks of each institutional logic are mapped to a catalogue of sociotechnical harms. The proposed concept of structural transparency enables analysts to complement existing approached based on informational transparency with macro-level analyses that capture the institutional dynamics and consequences of decisions regarding AI alignment.
- Abstract(参考訳): AIアライメントの分野は、どのように価値が生成型AIシステムの設計に組み込まれるか、そしてそれらの統合がAIの社会的結果をどのように形作るのかという疑問に、ますます関心を寄せている。
しかし、既存の透明性フレームワークは、AIモデル、データ、手続きの情報的側面に重点を置いている一方、アライメント決定と下流効果を形成する組織的および組織的な力は、研究と実践の両方において過小評価されているままである。
そこで我々は,AIアライメントに関する組織的および制度的な決定を,制度論理学の理論的なレンズに基づいて分析する,‘emph{structureural transparency’ の枠組みを開発した。
我々は、AIアライメントのガバナンスに存在する組織的決定の分類を開発し、それらを調べるための明確な分析的アプローチを提供する。
我々は,5つの分析的構成要素を通じてフレームワークを運用し,それぞれに,主要な制度論理とその内部関係,既存の社会秩序に対する外的混乱,そして最後に,各制度論理の構造的リスクが社会技術的損害のカタログにどのようにマッピングされるかを明らかにする。
構造的透明性の概念により、アナリストは情報的透明性に基づいてアプローチされた既存のアプローチをマクロレベルの分析で補完することができ、AIアライメントに関する制度的ダイナミクスや決定の結果を捉えることができる。
関連論文リスト
- Understanding AI Trustworthiness: A Scoping Review of AIES & FAccT Articles [41.419459280691605]
信頼できるAIは、AIESとFAccTという2つの主要なAI倫理カンファレンスの基礎となっている。
このスコーピングレビューは、AIESとFAccTコミュニティがAIの信頼性を概念化し、測定し、検証する方法を検討することを目的としている。
論文 参考訳(メタデータ) (2025-10-24T09:40:38Z) - Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - From Firms to Computation: AI Governance and the Evolution of Institutions [0.0]
本稿は,多段階選択理論,Aoki の計算プロセスとしての企業観,Ostrom の設計原理の3つの枠組みを合成する。
我々は,AI関連のリスクに対処するアライメントメカニズムとして,選択を組織レベルで同時に運用するフレームワークを開発し,ゲーム理論アーキテクチャによる分散推論を実装し,オストロムスタイルのルールは進化する。
私たちは、組織層をまたいだ人間とAIの整合性を運用し、スケーラブルで適応的で包括的なAIシステムのガバナンスを可能にする一連の設計原則を提案して、結論付けました。
論文 参考訳(メタデータ) (2025-07-18T02:52:58Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - Making Sense of AI Limitations: How Individual Perceptions Shape Organizational Readiness for AI Adoption [0.0]
本研究では,人工知能(AI)の限界に対する個人の認識が,AI導入の組織的準備にどのように影響するかを検討する。
この研究は、個々のセンスメイキング、社会学習、フォーマルな統合プロセスの間の動的相互作用を通じて、組織的準備が生まれることを明らかにしている。
論文 参考訳(メタデータ) (2025-02-21T18:31:08Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [53.28828093836034]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI [0.0]
この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Framework for Understanding AI-Induced Field Change: How AI
Technologies are Legitimized and Institutionalized [0.0]
本稿では,AIによるフィールド変化を分析し,理解するための概念的枠組みを提案する。
新たなAIエージェントを新しい分野や既存の分野に導入することで、アルゴリズムが組織や機関を(再)形成するダイナミクスが生まれる。
AIが引き起こす分野を取り巻く制度的なインフラは概してほとんど精巧ではないため、今後AIシステムのより広範な制度化に支障をきたす可能性がある。
論文 参考訳(メタデータ) (2021-08-18T14:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。