-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
大模型安全、監管與合規 版權信息
- ISBN:9787111763239
- 條形碼:9787111763239 ; 978-7-111-76323-9
- 裝幀:平裝-膠訂
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
大模型安全、監管與合規 本書特色
(1)標準著作:本書嘗試從10個方面為生成式AI的安全、監管、合規、倫理問題提供解決方案,可作為該領域的標準參考著作。(2)專業嚴謹:本書由多位來自法律、技術和教育領域的專家的跨學科經驗凝結而成,確保了內容的專業性和嚴謹性。(3)全球視野:本書梳理了全球主要國家和地區在生成式AI領域的監管、立法和司法實踐,案例豐富,數據翔實。(4)實操指南:本書內容全面涵蓋生成式AI面臨的合規與安全問題,從問題分析到應對策略,提供實戰指導。
大模型安全、監管與合規 內容簡介
內容簡介 這是一部從技術安全、監管框架、合規要求、倫理道德等角度全面講解生成式人工智能安全問題的實戰性著作。本書在堅實的理論基礎之上,通過豐富的案例和翔實的數據,系統梳理了企業當下在生成式人工智能實踐中面臨的各種安全挑戰,并給出了應對策略。本書的目標是為讀者提供全面且實用的行動框架和實操指南,以促進生成式人工智能行業的健康發展。 本書融合了跨學科專家的技術和經驗,作者團隊包括安全領域的資深技術精英、微軟創新教育專家(MIEE)、生成式人工智能技術專家,以及在大數據企業、法律界深耕多年的知識產權與數據合規方面的專家。他們憑借各自的專業知識和實踐經驗,將理論與實務緊密結合,為讀者提供了寶貴的見解和參考。 閱讀并掌握本書,你將收獲以下10個方面知識: (1)大模型安全的范疇、現狀和挑戰:包括安全、監管與合規的關鍵問題,以及國家安全和社會治理角度安全隱患和風險點。 (2)大模型技術層面的安全風險:包括信息安全原則、傳統安全風險、識別和分析人類意圖的挑戰,以及大模型的固有脆弱性。 (3)大模型監管與合規的法律框架:包括全球范圍內的AIGC的監管現狀,如訴訟壓力、執法調查和立法進展,以及國內監管體系和國外典型法域的監管實踐。 (4)大模型知識產權合規:在大模型的開發和應用中,如何確保知識產權的合規性,包括著作權、開源協議、專利權、商標權和商業秘密的保護。 (5)大模型數據合規:在大模型的構建過程中如何確保數據合規,包括模型訓練、應用和優化等全流程的數據合規。 (6)大模型內容安全:在大模型的應用過程中如何確保內容安全,包括內容監管、內容安全風險和內容安全合規。 (7)大模型算法合規:在大模型的構建和應用開發過程中如何確保算法合規,包括算法備案、人工智能安全評估、算法公開透明、算法生成內容標識、算法反歧視、與算法有關的侵權和算法合規要點總結。 (8)大模型倫理安全:在大模型的構建和應用過程中如何確保倫理安全,包括倫理風險、成因分析、治理實踐、應對策略和自查工具表。 (9)大模型的安全保障方案:如何構建一個既安全又可信的大模型環境,包括傳統技術層面的安全保障、數據層面的保障策略和可信屬性角度的安全防護策略。 (10)生成式人工智能的發展趨勢:從技術視角和法律視角,洞察大模型在安全、監管與合規方面的發展趨勢。
大模型安全、監管與合規 目錄
第1章 大語言模型安全及其挑戰1
1.1 大語言模型的發展歷史與技術現狀2
1.1.1 序章:起源與早期形態2
1.1.2 轉折:神經網絡的興起2
1.1.3 現代巨人:GPT與BERT的時代3
1.1.4 技術現狀與應用領域4
1.2 大語言模型安全的范疇5
1.2.1 大語言模型的技術安全:關鍵挑戰是什么5
1.2.2 大語言模型的監管與合規:面臨哪些關鍵問題6
1.3 生成式人工智能安全的重要性6
1.3.1 提升大語言模型的社會信任和聲譽7
1.3.2 降低大語言模型的法律風險9
1.3.3 保護大語言模型的用戶數據隱私9
1.3.4 保障大語言模型服務的連續性10
1.3.5 提高大語言模型的系統穩定性11
1.4 大語言模型安全的現狀與挑戰11
1.4.1 大語言模型的安全隱患與主要風險點12
1.4.2 大語言模型與國家安全風險14
1.4.3 大語言模型安全治理之道:發展與安全并重15
第2章 大語言模型技術層面的安全風險17
2.1 大語言模型的信息安全原則18
2.1.1 機密性18
2.1.2 完整性18
2.1.3 可用性18
2.2 傳統安全風險19
2.2.1 傳統網絡攻擊依然具有威力20
2.2.2 常見的傳統網絡攻擊方式21
2.3 識別和分析人類意圖上的挑戰21
2.3.1 惡意意圖的識別難題22
2.3.2 AI生成虛假信息傳播23
2.3.3 利用AI進行黑客攻擊24
2.4 大語言模型的固有脆弱性24
2.4.1 對抗攻擊25
2.4.2 后門攻擊29
2.4.3 Prompt攻擊30
2.4.4 數據投毒攻擊31
2.4.5 模型竊取攻擊32
2.4.6 數據竊取攻擊33
2.4.7 其他常見安全風險34
第3章 大語言模型監管與合規的法律框架37
3.1 全球視野下的AIGC監管現狀38
3.1.1 AIGC企業面臨的訴訟壓力38
3.1.2 針對AIGC企業的執法調查屢見不鮮41
3.1.3 各國抓緊AIGC相關立法44
3.2 國內的監管體系45
3.2.1 國內監管體系概述45
3.2.2 國內現行監管政策梳理與總結48
3.2.3 國內重點監管政策解讀50
3.3 國外的典型法域54
3.3.1 歐盟54
3.3.2 美國68
3.3.3 英國73
3.3.4 新加坡75
3.3.5 加拿大77
3.3.6 韓國78
第4章 大語言模型知識產權合規81
4.1 著作權82
4.1.1 著作權概述82
4.1.2 AIGC生成物的著作權定性分析82
4.1.3 AIGC技術相關的著作權侵權風險85
4.1.4 典型案例分析88
4.1.5 小結99
4.2 開源協議103
4.2.1 開源協議概述103
4.2.2 開源協議引發的侵權風險106
4.2.3 涉及開源協議的相關案例107
4.2.4 涉及開源協議的侵權風險防范措施109
4.3 專利權109
4.3.1 專利權概述109
4.3.2 AIGC場景下的專利權相關問題110
4.4 商標權112
4.4.1 商標權概述112
4.4.2 AIGC場景下的商標侵權113
4.4.3 人工智能生成物與商標侵權113
4.5 商業秘密115
4.5.1 商業秘密概述115
4.5.2 AIGC場景下常見的商業秘密相關風險116
4.5.3 典型案例分析118
4.5.4 小結120
第5章 大語言模型數據合規123
5.1 模型訓練階段124
5.1.1 數據采集124
5.1.2 數據質量提升134
5.2 模型應用階段137
5.2.1 告知同意138
5.2.2 個人信息權利行使138
5.2.3 收集兒童個人信息139
5.2.4 數據跨境139
5.3 模型優化階段142
5.3.1 數據使用142
5.3.2 數據安全143
第6章 大語言模型內容安全145
6.1 內容安全監管146
6.1.1 國內視角下的監管146
6.1.2 國外視角下的監管147
6.2 內容安全風險149
6.2.1 權利人提起的民事侵權責任149
6.2.2 監管機構提起的行政處罰150
6.2.3 刑事處罰150
6.3 內容安全合規151
6.3.1 模型訓練階段151
6.3.2 模型應用階段155
6.3.3 模型優化階段160
第7章 大語言模型算法合規163
7.1 算法合規框架概述164
7.2 算法備案164
7.2.1 法律依據及實施概況164
7.2.2 備案流程166
7.2.3 算法備案入口及角色167
7.2.4 備案所需準備的文件及材料168
7.2.5 備案期限168
7.3 人工智能安全評估169
7.4 算法公開透明170
7.5 算法生成內容標識173
7.6 算法反歧視176
7.6.1 算法設計178
7.6.2 訓練數據選擇179
7.6.3 模型生成和優化180
7.7 與算法有關的侵權181
7.8 算法合規要點總結185 第8章 大語言模型倫理安全187 8.1 大語言模型倫理:AI技術進步的道德維度188 8.1.1 三個案例引發對AI倫理的思考188 8.1.2 人工智能倫理概述:一個復雜且涵蓋多方面的議題191 8.2 人工智能倫理的重要性191 8.2.1 提升公眾信任:大語言模型倫理規范的社會影響192 8.2.2 確保合規性:企業和組織遵守倫理規范的必要性192 8.2.3 面向可持續的未來:倫理規范的長期社會影響193 8.3 大語言模型倫理安全風險及成因分析194 8.3.1 主要的倫理風險194 8.3.2 倫理風險的成因195 8.4 我國人工智能倫理治理實踐195 8.4.1 我國人工智能倫理相關法規政策概述196 8.4.2 確立科技倫理治理體制機制198 8.5 大語言模型倫理風險應對策略205 8.5.1 研究開發者的責任205 8.5.2 設計制造者的責任206 8.5.3 部署應用者的責任207 8.5.4 用戶的責任208 第9章 大語言模型的安全保障方案211 9.1 傳統技術層面的安全保障212 9.1.1 大語言模型在系統層面的安全挑戰212 9.1.2 大語言模型中可應用的經典安全技術214 9.1.3 應用傳統安全實踐的經驗215 9.2 數據層面的保障策略217 9.2.1 數據收集階段面臨的安全挑戰218 9.2.2 訓練階段的安全建議219 9.2.3 模型推理階段的安全建議220 9.3 可信屬性角度的安全防護策略221 9.3.1 大語言模型可信任的支柱222 9.3.2 人類監管和監督223 9.3.3 技術健壯性和安全性223 9.3.4 隱私和數據治理224 9.3.5 透明度226 9.3.6 多樣性和公平性228 9.3.7 社會和環境變革229 9.3.8 問責機制231 第10章 生成式人工智能未來展望233 10.1 技術視角看大語言模型安全的發展趨勢234 10.1.1 增強安全性與可靠性234 10.1.2 提高透明性與可解釋性235 10.1.3 優化性能與效率236 10.1.4 應對深度偽造技術237 10.1.5 區塊鏈技術的集成238 10.2 法律視角看大語言模型安全的發展趨勢239 10.2.1 全球數據保護法律法規在大模型領域的細化與完善240 10.2.2 全球范圍內算法監管框架的逐漸完善241 10.2.3 AI時代的知識產權244 10.2.4 倫理規范的法律化251
大模型安全、監管與合規 作者簡介
作者簡介
王賢智
上海交通大學法律碩士,數責科技(上海)創始人兼CEO,數據安全與個人信息保護新知分享平臺“合規社”主理人,數據合規知識社區博主,前眾安在線旗下眾安學院院長,知名咨詢公司首席內容官。擁有國家法律職業資格、數據安全評估師(DSA)、數據安全工程師(高級)、Leading SAFe、MCE等認證。
蘭芯數智法律服務團隊
該團隊是上海蘭迪律師事務所的特色法律服務團隊,成員具備計算機和法律等專業背景、企業和律所的雙重視角。團隊成員持續給頭部企業提供優質服務,典型法律服務包括數據要素流通合規、AIGC合規服務和企業出海數據合規等。團隊成員均入選律新社《精品法律服務品牌指南(2024):數據合規領域》律師名錄。作者簡介
王賢智
上海交通大學法律碩士,數責科技(上海)創始人兼CEO,數據安全與個人信息保護新知分享平臺“合規社”主理人,數據合規知識社區博主,前眾安在線旗下眾安學院院長,知名咨詢公司首席內容官。擁有國家法律職業資格、數據安全評估師(DSA)、數據安全工程師(高級)、Leading SAFe、MCE等認證。
蘭芯數智法律服務團隊
該團隊是上海蘭迪律師事務所的特色法律服務團隊,成員具備計算機和法律等專業背景、企業和律所的雙重視角。團隊成員持續給頭部企業提供優質服務,典型法律服務包括數據要素流通合規、AIGC合規服務和企業出海數據合規等。團隊成員均入選律新社《精品法律服務品牌指南(2024):數據合規領域》律師名錄。
丁學明律師是蘭迪律所執行主任、高級合伙人,華東政法大學校外導師,上海律協數字科技與人工智能專業委員會委員,律新社“2024品牌之星:實力律師”。
葉娟律師是蘭迪律所專業化建設委員會委員,華東理工大學法學院校外導師,中國網絡安全審查技術與認證中心培訓導師。
陳夢園律師是數據合規領域資深律師,領先IoT企業外聘DPO,上海律協數據合規專業委員會委員,律新社“2024品牌之星:新銳律師”。
熊雅潔律師具備國外法學教育背景與多年涉外法律服務經驗,善于通過國際化視野為企業提供出海域外數據合規法律服務。
劉子旭
微軟創新教育專家(MIEE)、微軟Azure AI工程師、國家人力資源和社會保障局入庫專家、上海交通大學特聘AIGC講師、契闊資本AI戰略投資顧問、MaxFuture AI創始人、沐嘉傳媒CEO,在商業攝影、導演和制片領域屢獲殊榮,具有豐富的視覺影像制作經驗。憑借多元化的專業背景和實踐經驗,致力于為企業和機構提供前沿的AIGC培訓和商業服務。
陳學進
資深架構師和AI技術專家。早年就職于國信朗訊和上海惠普有限公司電信業務服務部,擔任架構師等職務;后來又加入平安科技、眾安科技和恒生電子等金融科技公司,從事基于AI和大數據的數字化營銷系統的架構設計和技術管理工作。深度參與過AI和AIGC相關的項目研發及應用,對AI和AIGC相關的工程化及業務應用有較深的研究。
- >
人文閱讀與收藏·良友文學叢書:一天的工作
- >
龍榆生:詞曲概論/大家小書
- >
名家帶你讀魯迅:朝花夕拾
- >
羅庸西南聯大授課錄
- >
山海經
- >
推拿
- >
【精裝繪本】畫給孩子的中國神話
- >
小考拉的故事-套裝共3冊