muduo学习(一)

大并发服务器架构设计

如何降低数据库(提高数据库的并发能力)的方法:

1、队列+连接池(DAL)

2、主要的业务逻辑挪到应用服务器处理,数据库只做辅助的业务处理

3、缓存(使用缓存的问题:缓存更新(同步))【见链接】

https://www.cnblogs.com/secondtonone1/p/7076769.htmlhttps://www.cnblogs.com/secondtonone1/p/7076769.html

分布式缓存:非关系型数据库如redis,memcatched等 

如果缓存跟应用服务器部署在同一台机器上,就只是局部缓存(只缓存在一台机器上),而非全局的缓存。假设有两台应用服务器,如果将缓存部署在不同的应用服务器上,那么不同的应用服务器很难访问彼此的缓存,非常不方便。将缓存部署在单独服务器上,各个应用服务器都能访问该缓存服务器。

任务服务器(比如可以通过一个http协议的接口来)监控各个应用服务器的负载情况(比如是IO高,CPU高,并发高,内存换页高)

另外服务器开发的几个性能杀手

1 数据拷贝,数据从内核态copy到用户态,或者在用户态之间copy会造成性能损失,尽量采用缓存的方式解决。

2 环境切换 (理性创建线程),多线程上下文切换造成开销。如果服务器是单核的,那么采用状态机方式单线程效果最佳。如果是多核的,合理采用多线程,可以提升性能。

3 内存分配,可以采用内存池,提前分配。

4 锁竞争,加锁解锁会造成一定的效率衰减。

大型网站架构的演变过程 

大型网站是大并发服务器的一个典型事例

一、初始阶段的架构

web服务器(包括http和应用服务器)和数据服务器一体

二、web服务器与数据库分离

其中,web服务器还采用动静资源分离

 三、采用缓存处理

通过客户端(浏览器)的缓存减少对网站的访问

通过前端页面缓存(静态页面缓存)减少对Web应用服务器的请求

页面片段缓存ESI

 本地数据缓存减少对数据库的查询

 四、Web服务器集群+读写分离

流量越来越大,一台应用服务器肯定是扛不住的,这个时候需要多台服务器一起分配流量,处理问题。

前端http服务器负载均衡(DNS负载均衡、反向代理)

后端应用服务器负载均衡(增加任务服务器)

数据库负载均衡(读写分离,replication机制)

 五、使用CDN(内容分发网络)加速访问+分布式缓存+数据库分库分表

本地数据缓存变成分布式缓存(memcached,redis等,当前的noSql方案都可以做分布式缓存方案)

数据量较大会造成锁竞争(服务器性能四大杀手之一),因此需要数据库分库分表

 六、多数据中心+分布式存储与计算

关系数据库中的事务处理,大表join是服务器的性能杀手,因此一些对一致性要求不高的数据没必要保存在关系数据库中,可以采用基于分布式文件系统计算架构建立数据中心,就可以对一致性要求不高的数据采用noSql(基于key_val的数据库(哈希算法))存储。


版权声明:本文为m0_51660741原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。