- 每個月需要處理超過 1 兆的 request
- 全球有 23 個點來作流量的處理
- router,switch,server 三元件組成這個網路架構
- 第一代用的 server 是 Dell PowerEdge servers (2010 剛開始 cloudflare 時)
- 第三代 server 用 HP (跟 HP 合作),從這時開始佈局到全球 23 個點
- 第三代 server 是用 兩顆 Xeon E5645 的 CPU (2.4GHz)、可以裝25 顆 SSD (嗎)、48G 的記憶體、6 個網路孔(2個在主機板、四個在PCI卡)、一個 power
- SSD 的三大優點 : SSD 不會像 SATA 等類的硬碟會災難性的壞軌, 是慢慢壞掉、底秏功率、讀寫快。以上對流量的處理有很好的效能
- 在第三代 server 的機器上測試那麼多不同的 SSD, 240G的intel 520 是CP值高的 (雖然沒有那麼長的時間測試是不是真如intel報告上說的可以用 137 年,但至少是低故障率的)
- SSD 用的數量會取決於 IDC 機房的機櫃機使用,但至少一開始是會放 6 顆,且可以升級到 24 顆的
- 對 CloudFlare 的應用程式,使不使用 RAID 是沒差的,因為他們是直接 copy 客戶的資料
- 第四代 server 有把記憶體當硬碟用,用 128G 的記憶體,至少可以cache 100G 的資料在記憶體上,比第三代多 5 倍 cache
- 第四代採取底秏功率的 Intel Xeon 2630L CPU 兩顆 (一顆是 6核心、12 thread、60W)
- 當大流量時常會有 CPU 處理不了的情況(interrupts),有測試過調頻,不過幫助不大,用高核的好像也沒多大效用
- CPU 常用在處理圖片、SSL、正規化處理上面,所以 intel 的 SandyBridge 晶片,就是 CloudFlare 的選擇了,採用多機、低秏功率
- 第四代 server 使用 10Gbps 的網路卡 (用這家的 Solarflare),因為第三代常碰到高達 6Gbps 的流量
- 這 10Gbps 網路卡 (SFC9020) 可以處理每秒 1600 萬的封包 (60kbytes/per packet)
- CloudFlare 有在測試 Solarflare 的 OpenOnload 技術,可以減少延遲跟 CPU 的使用率,提高傳輸速度,裝在 Linux 上的,反正就是要讓你沒有感覺它可能受到攻擊而中斷
- CloudFlare 選擇了台灣廣達電腦幫他們客製化 Server
- 底下評論說明 CloudFlare 使用 Debian OS (他們有改過)
參考 http://blog.cloudflare.com/a-tour-inside-cloudflares-latest-generation-servers
留言