
越來越發現複雜的學科,其實很難單純有選修一兩門課來建立清晰明白的思路,反而是必須依靠自己的廣泛閱讀,而像統計學這門“很接地氣”的學科,常常會因所解決領域的問題有些許不同,更是容易在自我學習中迷失方向,所以後來找一兩本非常經典的書來閱讀,才會是系統性建立知識的好習慣,這本書Computer Age Statistical Inference: Algorithms, Evidence, And Data Science熱騰疼剛完成,由劍橋出版社出版,將會是我這半年希望可以努力啃完的好書,從第一面開始就能感受到那種字裡行間的智慧,很令人享受,尤其是讀這種天才教授們所精雕的作品,細膩的科學真的不是文鄒鄒的,讀起來不好理解其實是作者的問題,希望可以有這種功力將複雜的事物細細撥開的能力,並且講述給別人理解!
這是一本由史丹佛統計學家Bradley Efron和Trevor Hastie所寫的,兩位統計學家都是如神級般的存在,很多目前常用的統計方法是由他們所提出的,看這兩位大師的履歷,佩服他們努力地把統計方法一步步應用到各式生活裡的資料,並且不斷改善。在這本書中,他們回朔一百年來統計上各種觀念的改變,然後點出電腦計算將如何的改變統計方法,且開啟新的紀元(機器學習、人工智能等等)
“…the role of electronic computation is central to our story. This doesn’t mean that every advance was computer-related. A land bridge had opened up to a new continent but not all were eager to cross.”
這段話很棒,資訊科技的不斷進步,某種新大陸似乎可以藉由搭者這座“計算機”之橋通往,但不是所有人都願意往前走!
書中的內容很系統性的(不是傳統教科書那種系統性,是很“簡潔”且有歷史意義的方式,並且想要傳達出各種方法是屬於何種脈絡下的產物)整理前半世紀所發展的方法:Empirical Bayes, James-Stein estimation. bootsrap, poportional hazrd model, large-scale hypothesis testing, machine learning algorithms (the result of “cross bridge”),另外書中也展開一場很細膩的探索,在frequentist , Bayesian, fisherian三個不同系統中的inference概念,比較其間各自的優點和缺點。
本書主要分成三個大方向:
- 傳統經典的統計檢定
- 早期電腦時代所衍生的方法
- 新時代大資料量下的檢定方式
本書大部分內容皆涵蓋非常高知識密度的東西,蠻期待閱讀的!
話說感覺史丹佛大學統計系非常可怕,擠滿者大師,最近R世界裡面開疆闢土出很多經典package的Hadley Wickham 也要去史丹佛大學教書了,很令人興奮的一個地方。
