-
>
上海花園動植物指南
-
>
世界鳥類百科圖鑒:亞洲鳥類/歐洲鳥類/非洲鳥類/澳洲鳥類(全五冊)
-
>
科壇趣話:科學、科學家與科學家精神
-
>
愛因斯坦在路上:科學偶像的旅行日記
-
>
不可思議的科學史
-
>
動物生活史
-
>
影響世界的中國植物(全新修訂版)
AI會取代我們嗎?(The Big Idea系列第一輯) 版權信息
- ISBN:9787521721218
- 條形碼:9787521721218 ; 978-7-5217-2121-8
- 裝幀:一般純質紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
AI會取代我們嗎?(The Big Idea系列第一輯) 本書特色
★緊密貼合人工智能領域的熱點新聞事件,如AlphaGo戰勝人類圍棋棋手、自動駕駛汽車進入市場后的是非、人工智能語音助手與智能家居的爆火、各大互聯網平臺推薦算法帶來的行業變革、人工智能引發的隱私泄露問題等,具有廣泛討論價值與深遠影響力。 ★由點及面搭建系統性知識結構:針對話題事件延申出的學科概念,提供基礎注釋,降低閱讀難度。清晰梳理學科從古至今的要點事件,幫助讀者快速建立學科系統認知。 ★特色洋蔥式分層閱讀:內容由深到淺,策展式排版。內容重點分明,適合碎片化閱讀場景。可滿足不同喜好讀者的閱讀需求,在不同難度的文本間自由跳接。 ★裝幀設計新潮時尚:入圍英國圖書設計與制作獎,全彩印刷。
AI會取代我們嗎?(The Big Idea系列第一輯) 內容簡介
系列介紹:The Big Idea引導讀者帶著問題意識對21世紀人類面對的重大議題展開獨立思考。The Big Idea系列主要面向一二線城市的潮流青年。希望啟發他們用提問的方式主動接近21世紀關鍵的議題,在獨立思考問題的過程中搜集必要的新知與訊息,在解答問題的同時建立新的認知體系。本冊介紹:人工智能早已融入我們的日常生活,但關于它的爭論從它被構想那天起就從未停止。《人工智能會取代我們嗎?》一書梳理了過去60年人工智能的爆炸式發展,總結了人工智能給我們帶來的諸多好處和潛在威脅,是一本兼具知識性與思想性的科普小書,適合對人工智能認識不多、在好奇與戒懼間搖擺的人們閱讀。
AI會取代我們嗎?(The Big Idea系列第一輯) 目錄
導言
1. 人工智能的發展
2. 人工智能如今的能力
3. 人工智能如今的局限和問題
4. 人工智能的未來
結語
延伸閱讀
索引
AI會取代我們嗎?(The Big Idea系列第一輯) 節選
一個總是做出荒唐決定的算法并不必然是危險的,因為人們很容易察覺并處理掉它的錯誤。還有一個更為隱蔽的后果,需要我們萬分警惕:人工智能算法可能會根據種族、性別或意識形態隱約但系統性地對某些人群給予區別對待。 谷歌的**代自動相片標簽系統曾將非裔人誤認為大猩猩,激起了人們的憤怒,就是一個廣為人知的負面案例。普洛帕布利卡(ProPublica)在2016年對一款用于預測罪犯重新犯罪概率的風險評估軟件——孔帕斯(COMPAS)進行了調查,結果顯示,雖然該軟件并沒有專門針對種族做出明確設計,但是它依然對黑人抱有偏見。 2017年的一項研究表明,算法在單詞聯想中也會表現出偏見:男性更可能與工作、數學和科學聯想到一起,而女性則會同家庭和藝術聯想在一起。這些偏見會對就業招聘產生直接影響。例如,如果一款人工智能程序認為“男性”與“程序員”兩個詞有固有的聯系,那么,當它在為一個計算機編程職位檢索簡歷的時候,就很可能會將有著一個聽起來像男性的名字的簡歷排到面試表的頂部。偏見也同樣為翻譯軟件帶來了麻煩。例如,在谷歌翻譯將其他語言中的一個中性代詞翻譯為英語的時候,如果這個代詞在語境中指的是一位醫生,他就會將這個詞翻譯為男性的“他”(he),而如果這個代詞在語境指的是護士,它就會將其翻譯為女性的“她”(she)。另外,語音識別軟件在處理女性聲音和方言時效果要差得多,這就使得那些使用非標準發音方式的社會重要成員受到了排斥。 另外一些算法可能已經以一種不易察覺的方式扭曲了人們接受醫療或保險的類型,改變了他們在刑事司法系統中的待遇,或者對哪些家庭更有可能虐待兒童做出了不恰當的預測。偏見和不公正侵蝕了人類與人工智能系統之間的信任;它并不能像人們一開始預測的那樣成為一個對社會貢獻巨大的均衡器——在從一個中立的角度做出影響生活的決定這件事上,人工智能可能并不比人類做得更好。如果真是如此,那么社會為什么要接受機器,讓它們作為銀行從業者、招聘人員、警察或法官“更公正”的替代品呢? 一般情況下,偏見產生的原因并不是那些武裝在學習型算法上的冰冷、嚴格的統計方法。人工智能學習者通常只是掌握了訓練數據中自帶的偏見而已,而這些數據的源頭是社會本身。換言之,算法反映的是它們的創作者的偏見,在問題嚴重時,它們甚至會加深或驗證我們已經擁有的偏見。“過濾氣泡”就是一個例子:臉書開發的新聞算法總是對那些病毒式投稿偏愛有加,以至于將事實真相都拋諸腦后,這嚴重影響了公眾對社交互動和重大新聞事件的看法。該公司的人工智能使社會關系緊張、加深了政治上的兩極分化,引發了極大的憤慨,這使得馬克??扎克伯格不得不做出承諾,將從根本上改變算法,以促進“更深入、更有意義的交流”。 通過使用人工智能算法來定位易受宣傳影響的選民團體,劍橋分析公司介入到了2016年美國總統大選和英國脫歐運動中,這可能已經改變了民主和歷史的發展軌跡。此外,隨著關于用戶偏好和興趣特征的數據被大量記錄下來并得到分析,新聞和媒體創作者就可以將內容精準投放給被細致區分出來的各社會群體——這種區分甚至能細到個人層面。這就給推薦系統以及控制它們的政黨打開了一扇方便之門,讓他們能夠操縱特定網絡人群的想法和感受。 減少人工智能中的偏見和不公將是一場曠日持久的戰斗,隨著深度學習應用在我們社會中的進一步滲透,這場戰斗必將變得更加激烈。 目前,我們尚沒有找到消除偏見的捷徑。有人主張,讓人工智能算法參數完全透明是解決問題的關鍵;但是另外一些人卻認為,這種透明反而會為給政黨利用系統牟取利益提供方便。IBM正在試驗一些在決策過程中會引入人類的價值觀的人工智能系統,研究人員希望能幫助這些系統找到并理解自身同人類在決策過程中的不一致性。他們的想法是要建立一個擁有道德感的人工智能系統,但是,由于人類價值觀各異,“道德”難以界定,這種進路有其內在的困難。對于這個挑戰,一個流行的想法是把界定道德這件事“外包”給普羅大眾,用普通人做出的決定來教人工智能系統如何行動。有人則主張對數據進行培訓,他們認為擁有各種專長、社會經濟背景雄厚的團隊可以更好地幫 助我們在來源中消除偏見。 2017年底,一個名為“IEEE關于人工智能和自治系統倫理考慮的全球倡議”的組織創建了一個“古典倫理”委員會,目的是要對像佛教和儒家這樣的非西方價值體系進行整理,讓對于“應該用怎樣的價值觀來構建一個有倫理感的人工智能”這一問題的回答更加多元化。或許連人工智能開發人員都會感到驚訝的是,人工智能系統正在為人性提供一面鏡子,它反映出我們*好的和*糟糕的一些傾向。
AI會取代我們嗎?(The Big Idea系列第一輯) 作者簡介
雪莉??范,加州大學舊金山分校神經科學家。研究方向為大腦老化和復壯可能性。她同時是一名科普作家,主要關注生物科技、人工智能和神經科學相關的話題,曾在《科學美國人Mind》《探索》《飲食障礙的科學》和《英屬哥倫比亞大學醫學期刊》等刊物發表大量科普文章。她還是在線刊物《奇點》的特約編輯,該刊物旨在記錄科技的進步。
- >
有舍有得是人生
- >
回憶愛瑪儂
- >
苦雨齋序跋文-周作人自編集
- >
我與地壇
- >
伊索寓言-世界文學名著典藏-全譯本
- >
二體千字文
- >
新文學天穹兩巨星--魯迅與胡適/紅燭學術叢書(紅燭學術叢書)
- >
企鵝口袋書系列·偉大的思想20:論自然選擇(英漢雙語)