流量剧增,如何规避服务器宕机风险?
分类:云服务资讯
编辑:建站芝士
浏览量:120
2021-04-08 14:13:03 在疫情日益蔓延的今天,对于互联网公司出现的 服务器宕机事件,或许,所有人都生不起指责,激增的用户,或许原来的服务器已经无法承受过重的负荷,就像钉钉,崩溃前后总共增加了十几万台服务器。你的网站或app出名了,服务每天要承担着成千上万的人来访问,这个时候对你来讲,这是个好消息,但是对你的服务器来说这是个坏消息,因为它变得慢了,用户多了,打开速度就慢了,服务器就很卡。那么如何扩展,才能保持服务器不宕机呢? 1、引入 负载均衡器 负载均衡器的使用使得我们可以在多个服务器之间分配负载。 例如: 想象下有一万个用户在一分钟内来访问你的服务器。 遗憾的是,你的服务器在一分钟内只能保证5千个用户的流畅访问。这怎么办呢?同时运行两个服务器就行了,就是增加了服务器来分配负载。 负载均衡器的功能就是把访问请求分发到两台服务器上。用户 1 往左,用户 2 往右,用户 3 再往左。。。以此类推。 如果一次有 100万个用户同时访问服务器,这该怎么解决呢?确切地说,你可以扩展到200台付款服务器,之后让负载均衡器分发请求到这200服务器上。 2、扩展数据库 虽然我们上面提到,关于大量的用户,我们可以用成百上千台服务器处理请求,但是他们都是用同一个数据库存储和检索数据。 那么,我们不能以同样的方式来扩展数据库吗?稍有不同。 我们需要做的第一件事是把数据库分成多个部分。一部分专门负责接收并存储数据,其他部分负责检索数据。 3、缓存和内容分发网络(CDN) 我们使用缓存而不是对每个请求都重新处理,缓存用于记住最后一次的结果并交由其他服务或者客户端,这样就不用每次都请求后端服务了。 缓存的加强版叫内容分发网络(CDN),遍布全球的大量缓存。 将这些缓存服务器分布到用户访问相对集中的地区或网络中,在用户访问网站时,利用全局负载技术将用户的访问指向距离最近的工作正常的缓存服务器上,由缓存服务器直接响应用户请求。 这使得用户可以从物理上靠近他们的地方来获取网页内容,而不是每次都把数据从源头搬到用户那里。 更多服务器相关功能,欢迎点击链接查看: http://www.xin net .com/cs/rds.html
声明:免责声明:本文内容由互联网用户自发贡献自行上传,本网站不拥有所有权,也不承认相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,请发
送邮件至:operations@xinnet.com进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。本站原创内容未经允许不得转载,或转载时
需注明出处:新网idc知识百科