千万级PV规模高性能高并发网站架构
目录
高并发访问的核心原则其实就一句话“把所有的用户访问请求都尽量往前推”。
如果把来访用户比作来犯的"敌人",我们一定要把他们挡在800里地以外,即不能让他们的请求一下打到我们的指挥部(指挥部就是数据库及分布式存储)。
如:能缓存在用户电脑本地的,就不要让他去访问CDN/cache。 能缓存CDN/cache服务器上的,就不要让CDN/cache去访问源(静态web服务器)了。能访问静态web服务器的,就不要去访问动态服务器。以此类推:能不访问数据库和存储就一定不要去访问数据库和存储。
I.高性能高并发高可扩展网站架构访问的几个层次:
第一层:首先在用户浏览器端
使用Apache的mod_deflate
压缩传输,再比如:expires
功能,deflate
和expires
功能利用的好,就会大大提升用户体验效果及减少网站带宽,减少后端服务器的压力。
提示:有关压缩传输及expires
功能nginx
/lighttpd
等软件同样也有。
第二层:静态页面内容缓存
CDN
如图片/js
/css
等或静态数据html
,这个层面是网页缓存层,比如CDN(效果比公司自己署squid
/nginx
/varnish
要好,他们更专业,价格低廉,比如快网/CC
等,而且覆盖的城市节点更多)。
小型CDN
自己架设squid
/nginx
/varnish
来做小型CDN是次选(超大规模的公司可能会考虑风险问题实行自建加购买服务结合),为前端的CDN提供数据源服务,以减轻后端我们的服务器数据及存储压力,而不是直接提供cache服务给最终用户。淘宝的CDN曾经因为一部分图片的尺寸大而导致CDN压力大的情况,甚至对图片尺寸大的来改小,以达到降低流量及带宽的作用。
提示:我们也可以自己架设一层cache层,对我们购买的CDN提供数据源服务,可用的软件有varnish/nginx/squid 等cache,以减轻第三层静态数据层的压力。在这层的前端我们也可以架设DNS服务器,来达到跨机房业务拓展及智能解析的目的。
第三层:静态服务器层
一般为
- 图片服务器
- 视频服务器
- 静态HTML服务器
这一层是前面缓存层和后面动态服务器层的连接纽带。
第四层:动态服务器层:php
,java
等,
只有通过了前面3层后的访问请求才会到这个层,才可能会访问数据库及存储设备。经过前三层的访问过滤能到这层访问请求一般来说已非常少了,一般都是新发布的内容和新发布内容第一次浏览如;博文(包括微博等),BBS帖子。
特别提示:此层可以在程序上多做文章,比如向下访问cache层,memcache
,redis
,mysql
,oracle
,在程序级别实现分布式访问,分布式读写分离,而程序级别分布式访问的每个db cache
节点,又可以是一组业务或者一组业务拆分开来的多台服务器的负载均衡。这样的架构会为后面的数据库和存储层大大的减少压力,那么这里呢,相当于指挥部的外层了。
第五层:数据库cache层,
比如:memcache
,redis
等等。
根据不同的业务需求,选择适合具体业务的数据库。对于memcache
、redis
,可以在第四层通过程序来实现对本层实现分布式访问,每个分布式访问的节点都可能是一组负载均衡(数十台机器)。
第六层:数据库层,
一般的不是超大站点都会用mysql主从结构,程序层做分布式数据库读写分离,一主(或双主)多从的方式,访问大了,可以做级连的主从及环状的多主多从,然后,实现多组负载均衡,供前端的分布式程序调用,如果访问量再大,就需要拆业务了,比如:分司把www
服务,blog
服务,bbs
服务都放一个服务器上,然后做主从。这种情况,当业务访问量大了,可以简单的把www
,blog
,bbs
服务分别各用一组服务器拆分开。当然访问量再大了,可以继续针对某一个服务拆分如:www
库拆分,每个库做一组负载均衡,还可以对库里的表拆分。需要高可用可以通过MHA等工具做成高可用方式。对于写大的,可以做主主或多主的MYSQL REP方式。
像百度等巨型公司除了会采用常规的mysql
及oracle
数据库库外,会在性能要求更高的领域,大量的使用nosql
数据库(非关系型的数据库),然后前端在加DNS
,负载均衡,分布式的读写分离,最后依然是拆业务,拆库。逐步细化,然后每个点又可以是一组或多组机器。
特别提示:数据库层的硬件好坏也会决定访问量的多少,尤其是要考虑磁盘IO
的问题,大公司往往在性价比上做文章,比如核心业务采用硬件netapp
/emc
及san
光纤架构,对于资源数据存储,如图片视频,会采用sas
或固态ssd
盘,如果数据超大,可以采取热点分取分存的方法:如:最常访问的10-20%使用ssd
存储,中间的20-30%采用sas
盘,最后的40-50%可以采用廉价的sata
。
第七层:
千万级PV的站如果设计的合理一些,1,2个NFS SERVER
就足够了。当然可以做成drbd
+heartbeat
+nfs
+a/a
的方式。
以上1-7层,如果都搭好了,这样漏网到第四层动态服务器层的访问,就不多了。一般的中等站点,绝对不会对数据库造成太大的压力。程序层的分布式访问是从千万及PV向亿级PV的发展,当然特殊的业务 还需要特殊架构,来合理利用数据库和存储。
II.扩展知识点1:CDN
1.CDN含义理解
CDN的全称是Content
Delivery
Network
,即内容分发网络。
其基本思路是尽可能避开互联网上有可能影响数据传输速度和稳定性的瓶颈和环节,使内容传输的更快、更稳定。通过在网络各处放置节点服务器
所构成的在现有的互联网基础之上的一层智能虚拟网络
,CDN系统能够实时地根据网络流量
和各节点的连接、负载状况以及到用户的距离和响应时间等综合信息将用户的请求重新导向离用户最近的服务节点上。其目的是使用户可就近取得所需内容,解决Internet网络拥挤
的状况,提高用户访问网站的响应速度。
2.例子
举个通俗的例子:
谈到CDN的作用,可以用早些年买火车票来比喻:在没有火车票代售点和12306.cn
之前。那时候火车票还只能在火车站的售票大厅购买,而小县城并不通火车,火车票都要去市里的火车站购买,而从县城到市里,来回就得n个小时车程。
到后来,小县城里出现了火车票代售点,可以直接在代售点购买火车,方便了不少,人们再也不用在一个点排队买票了。
CDN就可以理解为分布在每个县城的火车票代售点,用户在浏览网站的时候,CDN会选择一个离用户最近的CDN节点来响应用户的请求,这样海南移动用户的请求就不会千里迢迢跑到北京电信机房的服务器(假设源站部署在北京电信机房)上了。
CDN的基本原理为反向代理,反向代理(Reverse Proxy
)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet
上请求连接的客户端,此时代理服务器对外就表现为一个节点服务器。通过部署更多的反向代理服务器,来达到实现多节点CDN的效果。
3.未使用CDN
首先,让我们先看传统的未加缓存服务的访问过程,以便了解CDN缓存访问方式与未加缓存访问方式的差别:
用户提交域名→浏览器对域名进行解析→得到目的主机的IP地址→根据IP地址访问发出请求→得到请求数据并回复
st=>start: 用户提交域名
op=>operation: 浏览器对域名进行解析
op1=>operation: 得到目的主机的IP地址
op2=>operation: 根据IP地址访问发出请求
op3=>operation: 得到请求数据并回复
e=>end
st->op->op1->op2->op3->end
由上可见,用户访问未使用CDN缓存网站的过程为:
1)、用户向浏览器提供要访问的域名;
2)、浏览器调用域名解析函数库对域名进行解析,以得到此域名对应的IP地址;
3)、浏览器使用所得到的IP地址,向域名的服务主机发出数据访问请求;
4)、浏览器根据域名主机返回的数据显示网页的内容。
通过以上四个步骤,浏览器完成从用户处接收用户要访问的域名到从域名服务主机处获取数据的整个过程。CDN网络是在用户和服务器之间增加Cache层
4.使用CDN
如何将用户的请求引导到Cache上获得源服务器的数据,主要是通过接管DNS实现,下面让我们看看访问使用CDN缓存后的网站的过程:
通过上图,我们可以了解到,使用了CDN缓存后的网站的访问过程变为:
1)、用户向浏览器提供要访问的域名;
2)、浏览器调用域名解析库对域名进行解析,由于CDN对域名解析过程进行了调整,所以解析函数库一般得到的是该域名对应的CNAME
记录,为了得到实际IP地址
,浏览器需要再次对获得的CNAME
域名进行解析以得到实际的
IP地址
;在此过程中,使用的全局负载均衡DNS解析,如根据地理位置信息解析对应的IP地址,使得用户能就近访问。
3)、此次解析得到CDN缓存服务器的IP地址,浏览器在得到实际的IP地址以后,向缓存服务器发出访问请求;
4)、缓存服务器根据浏览器提供的要访问的域名,通过Cache内部专用DNS解析得到此域名的实际IP地址,再由缓存服务器向此实际IP地址提交访问请求;
5)、缓存服务器从实际IP地址得得到内容以后,一方面在本地进行保存,以备以后使用,另一方面把获取的数据返回给客户端,完成数据服务过程;
6)、客户端得到由缓存服务器返回的数据以后显示出来并完成整个浏览的数据请求过程。
通过以上的分析我们可以得到,为了实现既要对普通用户透明(即加入缓存以后用户客户端无需进行任何设置,直接使用被加速网站原有的域名即可访问,只要修改整个访问过程中的域名解析部分,以实现透明的加速服务。
CDN网络实现的具体操作过程
使用了CDN服务后,用户的访问流程如下图所示:
用户向浏览器提供要访问网站的域名,域名解析的请求被发往网站的
DNS域名解析服务器
;由于网站的DNS域名解析服务器对此域名的解析设置了
CNAME
,请求被指向CDN网络中的智能DNS负载均衡系统
;智能DNS负载均衡系统
对域名进行智能解析,智能DNS负载均衡系统
通过一组预先定义好的策略(如内容类型、地理区域、网络负载状况等),将响应速度最快的节点IP返回给用户
;浏览器在得到速度最快节点的IP地址以后,向
CDN节点
发出访问请求;由于是第一次访问,
CDN节点
将回到源站取用户请求的数据并发给用户
;当有其他用户再次访问同样内容时,CDN将直接将数据返回给客户,完成
请求/服务
过程。
通过以上的分析我们可以看出,CDN服务对网站访问提供加速的同时,可以实现对普通访问用户透明,即加入缓存以后用户客户端无需进行任何设置,直接输入被加速网站原有的域名即可访问。
CDN的典型拓扑图如下
CDN和反向代理的基本原理都是缓存数据,区别就在于CDN部署在网络提供商的机房,使用户在请求网站服务时,可以从距离自己最近的网络提供商机房获取数据。
CDN对网络的优化作用
CDN系统通过在网络各处放置节点服务器,从而将网站的内容放置到离用户最近的地方,避免了影响互联网传输性能的“第一公里”和“网间互联瓶颈”等各个环节,为改善互联网环境、解决网站的服务质量和提高用户的上网速度提供了有效的解决方案。
CDN对网络的优化作用主要体现在如下几个方面:
- 解决服务器端的“第一公里”问题
- 缓解甚至消除了不同运营商之间互联的瓶颈造成的影响
- 减轻了各省的出口带宽压力
- 缓解了骨干网的压力
提起CDN,一般人都会望而止步,因为CDN太贵,都是大企业才能用得起的贵族式服务,而如今面对中小企业的CDN技术开发已经实现,并进入市场开始运营。
现在市面上CDN提供商计费方式多样,有按每月最低消费的,有按带宽收费的,有按请求数收费的,有包月包季包年限制的,还有些大多人看不懂的技术指标收费的,总之比较复杂,CDN服务在所有计费方式中,中小企业一致认为按流量收费最为合理,另外大多按流量计费方式中会有时间限制,规定时间内用不完就会全部作废,对于流量把握不好的中小企业,存在相当一部分浪费。所以企业自已也可以使用squid
/varnish
/nginx
等构建缓存服务器。
III.扩展知识点2 pv
uv
ip
1.pv
PV(page view):即页面浏览量,或点击量,PV是网站分析的一个术语,用以衡量网站用户访问的网页的数量。一般来说,PV与来访者的数量成正比,但是PV并不直接决定页面的真实来访者数量,如同一个来访者通过不断的刷新页面,也可以制造出非常高的PV。
2.uv
UV(uniquevisitor)即独立访客数:指访问某个站点或点击某个网页的不同IP地址
的人数。在同一天内,UV
只记录第一次进入网站的具有独立IP的访问者,在同一天内再次访问该网站则不计数。UV提供了一定时间内不同观众数量的统计指标,而没有反应出网站的全面活动。
通过cookie
是判断UV
值的方式
用Cookie
分析UV
值:当客户端第一次访问某个网站服务器的时候,网站服务器会给这个客户端的电脑发出一个Cookie
,通常放在这个客户端电脑的C盘
当中。在这个Cookie
中会分配一个独一无二的编号,这其中会记录一些访问服务器的信息,如访问时间,访问了哪些页面等等。当你下次再访问这个服务器的时候,服务器就可以直接从你的电脑中找到上一次放进去的Cookie
文件,并且对其进行一些更新,但那个独一无二的编号是不会变的。所以当客户端再次使用cookie
访问网站时,会附带此Cookie
,那么此时服务器就会认为是同一个客户端,那么只会记录一次的UV
使用Cookie
方法比分析客户端HTTP
请求头部信息更为精准,但是会有缺点,那就是用户可能会关闭了Cookie
功能。或者自动删除了cookie
等操作,所以获取的指标也不能说是完全准确。
3.ip
IP即独立IP数:
IP
可以理解为独立IP的访问用户,指1天内使用不同IP
地址的用户访问网站的数量,同一IP
无论访问了几个页面,独立IP
数均为1。但是假如说两台机器访问而使用的是同一个IP
,那么只能算是一个IP的访问。
IP
和UV
之间的数据不会有太大的差异,通常UV
量和比IP
量高出一点,每个UV
相对于每个IP
更准确地对应一个实际的浏览者。
①UV
大于IP
这种情况就是在网吧、学校、公司等,公用相同IP的场所中不同的用户,或者多种不同浏览器访问您网站,那么UV数会大于IP数。
②UV
小于IP
在家庭中大多数电脑使用ADSL
拨号上网,所以同一个用户在家里不同时间访问您网站时,IP
可能会不同,因为它会根据时间变动IP
,即动态的IP地址
,但是实际访客数唯一,便会出现UV
数小于IP数
。
PV
和UV
是衡量一个网站流量好坏的一个重要指标,对于网站的PV
和UV
的统计,可使用第三方统计工具进行统计,只需要将第三方统计工具的JS
代码放置于网站需要统计PV
和UV
的页面即可,然后登录统计工具后台查询网站的PV
和UV
量(如可使用的第三方统计工具为百度统计);
查询方法
1. 使用alexa统计
2. 一般大型网站都有自己的一套流量统计系统,可以到自己的后台查看。
3. 如果没有的话,可以借助GoogleAnalytics
、cnzz
、51.la
等统计平台查看数据。
IP、PV、UV的计算
对IP计算
1.分析网站的访问日志,去除相同的IP地址
2.使用第三方统计工具
3.在网页后添加多一个程序代码统计字段,然后使用日志分析工具对程序代码字段进行统计。
对PV的计算
1.分析网站的访问日志,计算HTML及动态语言等网页的数量
2.使用第三方统计工具
3.在网页后添加多一个程序代码统计字段,然后使用日志分析工具对程序代码字段进行统计。
对UV的计算
1.分析客户端的HTTP请求报文,将客户端特有的信息记录下来进行分析。若能满足共同的特征将会被认为是同一个客户端,那么此时将记录为一个UV。
2.通过cookie
当客户端访问一个网站时,服务器会向该客户端发送一个Cookie,Cookie具有独一性,所以当客户端再次使用cookie访问网站时,会附带此Cookie,那么此时服务器就会认为是同一个客户端,那么只会记录一次的UV
缺点:使用Cookie方法比分析客户端HTTP请求头部信息更为精准,但是会有缺点,那就是用户可能会关闭了Cookie功能。或者自动删除了cookie等操作,所以获取的指标也不能说是完全准确。
每秒并发数预估:
假如每天的
pv
为6000万;集中访问量:
24*0.2=4.8小时
,会有6000万*0.8=4800万
(二八原则);每分并发量:
4.8*60=288分钟
,每分钟访问4800/288=16.7万
(约等于);每秒并发量:
16.7万/60=2780
(约等于);假设:高峰期为平常值的二到三倍,则每秒的并发数可以达到
5560~8340
次。
IV.千万PV
级别WEB
站点架构设计
1、代理层可以使用Haproxy
或nginx
,Haproxy
/nginx
是非常优秀的反向代理软件,十分高效、稳定。可以考虑用F5-LTM
或成熟的开源解决方案LVS
实现代理层负载均衡方案。
2、缓存层可以使用Squid
或Varnish
,缓存服务器作为网页服务器的前置cache服务器,可以代理用户向 web服务器请求数据并进行缓存。
3、静态web服务器(apache
/nginx
)提供静态内容访问,实现静动分离;通过相关工具(lvs
/haproxy
/nginx
)做负载均衡(Load Balancer
)
4、动态内容服务器(php
/java
)通过相关工具如xcache
缓存解析过的动态内容。
5、数据库缓存(memcache
/redis
)作为数据库缓存都非常理想。
6、数据库层主流开源解决方案Mysql是首选,主从复制(一主对多从或多主多从)是目前比较靠谱的模式。
7、存储层作为数据的存储可以考虑nfs
、分布式文件系统(如mfs
)、hadoop
(hadoop
适合海量数据的存储与处理,如做网站日志分析、用户数据挖掘等)
当用户请求的是静态资源(图片/视频/html
等),不需要计算处理时,在CDN或缓存层就结束了,当缓存不能命中时,就会去web server中取相应的数据。只有当用户请求动态资源时,才会到动态内容服务器。动态内容服务器可以从数据库缓存或者MySQL中获得数据。
此外,如果前端的程序和数据的存取不同步,是需要异步访问的。这就需要使用一些消息队列,如rabbitmq
,这在后面openstack
相关学习做进一步的讲解。同时Apache的开源项目中的activemq
也能提供相关的功能。
注:消息队列可以解决子系统/模块之间的耦合,实现异步,高可用,高性能的系统。是分布式系统的标准配置。
例如消息队列在购物,配送环节的应用。
用户下单后,写入消息队列,后直接返回客户端;
库存子系统:读取消息队列信息,完成减库存;
配送子系统:读取消息队列信息,进行配送;