再快一点?动态内容如何加速:全球新要闻

未来已来,只是不均衡地分布在当下


(资料图片仅供参考)

大家好,我是菜农,欢迎来到我的频道。

近年来 Web 3 的概念在程序员的小圈子也几乎是人尽皆知了。功能再强,噱头再足,但是如果访问速度没有跟上,一起都是浮云。哪怕拿现在已经成熟的 Web 2.0来说,内容也相当丰富,动态网页、个性化内容、电子交易数据等。但是内容逐渐丰富,人们的访问速度却逐渐变慢,使用体验也会随之下降。因此对于动态内容的加速也尤为重要,而这篇,我们将了解有几种加速方式可以实际改善我们使用体验。

经典的 MVC 架构分为了三层,分别是:

表现层

表现层是 Web 系统与外部系统的交互界面,这层负责接收用户端的 HTTP 内容访问请求,从文件系统中读取静态文件提供给用户,需要时向中间的应用逻辑层发起请求。

业务逻辑层

业务逻辑层是 Web 系统的核心层,负责处理所有业务逻辑和动态内容的生成。内容的动态生成通常涉及个性化内容处理、数据处理等工作,因此需要与前端的表现层、后端的数据访问层通信。

数据访问层

数据访问层位于系统的后端,负责管理Web系统的主要信息和数据存储,通常由数据库服务器和存储设备组成。

那么在我们已有认知的加速处理方案中,位当其先的要数 CDN 处理了。

CDN 认知

对于CDN 这个名词,大家大可以望文生义:Content Distribute Network,也就是 内容分发网络。CDN 的工作很纯粹:将内容从源站传递到用户端。

什么是互联网

说到 CDN 的认知,我们就需要先认知什么是 互联网,互联网这个词对于程序员乃至大部分用户来说已经是印着脑子里的东西了。但是我们常说的互联网,是指广义上的互联网,,由两层组成:一层是以 TCP/IP 为代表的网络层(四层协议);另一层是以万维网 WWW 为代表的应用层(七层协议)。目前普遍存在的一个认识误区也就是家好难过个互联网和万维网混为一谈。

TCP/IP 为代表的网络层

可理解为 狭义的互联网。实际上是广义互联网的下层,是网络的基础,这一层的主要作用是通过计算机之间的互联,将各种信息的数据报文以极低的成本进行传输,俗称 管道。

互联网的设计理念是:网络是中立和无控制的,任何人都没有决定权;网络是与应用无关的,它的任务就是如何更好地将数据包进行端到端的传输。

万维网WWW 为代表的应用层

可理解为 广义的互联网。这一层包括很多种类型的流量和应用,所有SP(Service Provider 服务提供商)提供的都是这些用户看得见、摸得着的应用。

两者的区别:以铁路为例子的话,*互联网是铁路轨道和信号系统,万维网则是在铁路上运行的列车之一。

影响互联网传输的4个因素**"第一公里"**。指的是万维网流量向用户传送的第一个出口,是网址服务器接入互联网的链路所能提供的带宽。**"最后一公里"**。指的是万维网流量向用户传送的最后一段接入链路,即用户接入带宽。对等互联关口。这里的对等互联是指不同基础运营商之间的互联互通,一般两个运营商之间只有两三个互联互通点,那么可以想象这两三个点上会产生多么大的流量。长途骨干传输。首先是长距离传输时延问题,是从网络服务器到用户之间要经过网络所在IDC、骨干网、用户所在城域网、用户所在接入网等,距离非常遥远,不可避免会带来较长的传输时延。CDN 工作过程

有了CDN之后会极大地简化网站的系统维护工作量,网站维护人员只需将网站内容注入CDN的系统,通过CDN部署在各个物理位置的服务器进行全网分发,就可以实现跨运营商、跨地域的用户覆盖。由于CDN将内容推送到网络边缘,大量的用户访问被分散到网络边缘,就不再对网站出口、互联互通点的资源挤占,也不再需要跨越长距离IP路由了。

当用户点击网站页面上的内容URL,经过本地DNS系统解析,DNS系统会最终将域名的解析器交给CNAME指向的CDN专用DNS服务器CDN的DNS服务器将CDN的全局负载均衡设备IP地址返回用户用户向CDN的全局负载均衡设备发起内容URL访问请求CDN全局负载均衡设备根据用户IP地址,以及用户请求的内容URL,选择一台用户所属区域的区域负载均衡设备,告用户这台设备发起请求区域负载均衡设备会为用户选择一台合适的缓存服务器提供服务,选择的依据包括:根据用户IP地址,判断哪一台服务器距用户最近;根据用户所请求的URL中携带的内容名称,判断哪一台服务器上有用户所需的内容;查询各个服务器当前的负载均衡情况,判断哪一台服务器具备服务能力。基于以上这些条件的综合分析之后,区域负载均衡设备会向全局负载均衡设备返回一台缓存服务器的IP地址全局负载均衡设备把服务器的IP地址返回给用户用户向缓存服务器发起请求,缓存服务器响应用户请求,将用户所需内容传送到用户终端。如果这台缓存服务器上并没有用户想要的内容,而区域均衡设备依然把它分配给用户,那么这台服务器就要向它的上一级缓存服务器请求内容,直至追溯到网站的源服务器将内容拉到本地

DNS 服务器根据用户 IP 地址,将域名解析成相应节点的缓存服务器 IP 地址,实现用户就近访问。使用 CDN 服务的网站,只需将其域名解析权交给 CDN 的 GSLB 设备,将需要分发的内容注入 CDN,就可以实现内容加速了

说到这里文章当然不可能就高一段落了,否则也太水了,我们近而深究下为什么 CDN 可以实现加速?究其原因还是逃脱不了 缓存定理 。

CDN 复制机制

Web 网站借助 CDN 技术能够获得更好的扩展性和高性能,关于这一优点已经是无可争议的事实了。那么其核心就在于 CDN 采用的缓存(Caching)和复制(Replication)机制。其中缓存是将最近经常被访问的原服务器拥有的内容复制到边缘服务器上,可被视为具有特定策略的复制。

CDN 的复制机制是指将源 Web 系统逻辑架构的各个层次的相应部分复制到边缘服务器上,以实现缓解源系统的处理压力 ,主要表现在 Web 传统的三层模型中:

Web 系统表现层的复制。通过复制,边缘服务器能够负责静态内容的管理和提供,该方法在传统CDN中被广为使用,边缘服务器又被称为代理服务器,通过反向代理加速静态文件的交付。Web 系统业务逻辑层的复制。通过复制,CDN被用于改进动态生成内容的交付性能,该方法又被称为边缘计算,即将应用程序和业务组件直接在 CDN 的边缘服务器中计算,从而直接在靠近用户的地方生成动态 Web 内容。Web系统数据访问层的复制。通过复制,CDN 边缘服务器能够具备动态内容和掌握内容生产数据的能力,而源服务器只负责管理基础架构和存放数据的主版本。Web系统用户文件的复制。通过复制,CDN 边缘服务器能够掌控用于生成用户定制化内容的数据。(在 web2.0 时代用户对个性化需求的不断增强,用户的数据越来越受到业界的关注,利用大数据能力产品的智能价值日益增高,因此衍生出单独的一层)软件加速技术

上面说到了 CDN 的复制机制能够有效提升动态内容的访问速度。

1、边缘计算能力

边缘计算用于将应用程序、数据和计算能力(服务)从网络中的少量集中点推送到网络的逻辑边缘位置。边缘计算复制并分发在多个分布式网络中的Web服务器中保存的信息片段。这一层复制能力直接将业务处理逻辑和数据层的访问能力也复制到了各个边缘节点上,进而利用边缘计算平台提供分发服务的同时减少从企业读取数据的次数和读取数据的大小,降低系统的响应延迟。

2、数据复制能力

在边缘计算能力分布后,源站提供的数据存储仍然还是单一一个,因此边缘服务器上的应用逻辑只能共享集中化的系统数据库。在这种情况下,对于那些瓶颈在后端数据访问层而不是业务逻辑层的 Web 应用,还是难以解决系统的扩展性和性能问题。因此就需要考虑用 CDN 对应用数据进行复制和管理,利用边缘服务器代替源站 Web 系统的后台数据访问层中的数据库系统。

我们通常的处理方式是将业务逻辑层处理过/查询过的数据进行边缘服务器的复制,这种查询结果的缓存技术影响效能的关键在于缓存的命中率。为了使得应用逻辑查询的结果能够高频率地被后续查询请求所命中,我们就需要提高以及优化查询匹配引擎。

在数据缓存层面最常面临的问题也是 缓存一致性 的问题,不过目前存在多种算法以解决分布式缓存的问题,这里就不再进行赘述。

硬件加速技术

我们在软件层面利用 CDN 以及复制计算能力为加速做出了不小的努力。但有一点不容忽视,那就是网络。

应用加速网络(Application Delivery Networking,ADN),利用网络优化和加速设备,确保客户业务应用能够快速、安全、可靠地交付给用户。应用加速网络实际上是传统的网络负载均衡的升级和扩展,综合使用了负载平衡、TCP 优化管理、链接管理、SSL VPN、压缩优化、智能网络地址转换、高级路由、智能端口镜像等各种技术。

广域网加速技术

如何能够让广域网像局域网一样工作

我们都知道广域网的传输范围大于局域网,而城域网又大于广域网。当然我们这里不做过多的扩展延伸,我们只讨论广域网的问题。

衡量广域网传输性能和质量的主要指标是带宽和时延。跟局域网相比,广域网的带宽更低,时延更大,而这也是很多小伙伴家里宽带测试的常见误区,带宽大不一定网速就快,时延是个很重要的影响因素。

传输时延是由多方面的原因造成的:

物理距离带来一定的时延。数据在光纤中传输,途径多个路由设备和交换设备,源和目的设备之间的物理距离越长,其传输所需的时间也越长。TCP 协议的工作机制也带来一些延迟。

那么要进行广域网加速,就需要从以上几个问题入手:

网络带宽不足问题

加大IT投入,对带宽进行扩容和升级减少跨越广域网的数据传输量

这里主要涉及的技术就是数据压缩和缓存技术。其次,针对广域网时延问题,目前最常用的办法是在广域网的两端成对部署设备,通过对TCP协议进行优化,实现整个传输过程的优化。最后,应用协议也存在低效的问题,一般是从应用层优化本身来做,即针对应用协议进行传输的改进,比如采用通过预测客户行为做一些数据包的提前发送等技术,同时缓存的应用也是一个手段。

TCP协议优化

减少传输数据包的数量,目前很多协议框架都会自行进行拆包重组自适应拥塞窗口,基于网络时延等特征自动调整窗口大小,可以在给定用户网络条件下实现最高带宽传输有限制地快速重传,设置被重发的数据包比其他数据包传输优先级高,从而使等待重传数据包的应用得到快速响应,减少应用程序等待时间连接池,网路加速设备维护一个预先建立好的 TCP 连接池

好了,以上便是本篇的所有内容,如果觉得对你有帮助的小伙伴不妨点个关注做个伴,便是对小菜最大的支持。不要空谈,不要贪懒,和小菜一起做个吹着牛X做架构的程序猿吧~ 咱们下文再见!

今天的你多努力一点,明天的你就能少说一句求人的话!

我是小菜,一个和你一起变强的男人。

微信公众号已开启,菜农曰,没关注的同学们记得关注哦!

关键词: 负载均衡 数据访问 服务器上

为您推荐

再快一点?动态内容如何加速:全球新要闻

未来已来,只是不均衡地分布在当下大家好,我是菜农,欢迎来到我的频道。近年来Web3的概念在程序员的小圈子也几乎是人尽皆知了。功能再强,噱

来源:程序员客栈2023-01-09

内蒙古公布第二批工业园区绿色供电项目清单|每日聚焦

内蒙古公布第二批工业园区绿色供电项目清单1月5日,内蒙古自治区能源局印发第二批工业园区绿色供电项目清单,全区有13个项目纳入自治区第二批

来源:内蒙古能源局2023-01-09

眼睛干涩是什么原因引起的?

你好,题主,我能明白你目前的感受,严重干眼是非常难受的,你可能整天什么事都干不了,从早上醒来睁眼就开始受罪,有时晚上睡觉也可能被疼醒

来源:南方养生网2023-01-09

1月8日起,深铁、港铁扫码乘车互联互认

央视网消息:“深圳地铁”微信公众号消息,1月8日起,乘客使用“深圳地铁”App、“AlipayHK”App“支付宝”App中的任意一个,即可在深圳、香港

来源:央视网2023-01-09

SaaS行业都在裁员,海外:行业进步;国内:走投无路 世界观察

SaaS行业开始大规模裁员了。比如,Salesforce计划裁减10%,涉及约8000名员工;国内SaaS公司的裁员比例,大多也不会比这个低。海外SaaS企业裁

来源:程序员客栈2023-01-09

世界今热点:一场激烈的加拿大世界级铁矿争夺战,中国企业为何铩羽而归?

2009年,中国钢铁企业痛失世界上品位最高、开采成本最低的加拿大超级铁矿实在是令人惋惜。是什么原因导致中国企业收购失败?

来源:众钢网2023-01-09

天天简讯:如何申请双倍工资的仲裁

建议1、多收集证据,证明劳动关系。申请仲裁二倍工资如何举证2、有效工资额不要去举证,而是直接主张未支付工资(因为他如果拿出私人给你打款

来源:2023-01-09

欧洲明明早和病毒共存了,为何依然惧怕“放开”的中国?|环球动态

文 观察者专栏作者曹野蛮一个身在中国的斯洛伐克妹子在过去三年,人类一直与新冠肺炎病毒进行着斗争。包括欧洲在内的世界大多

来源:2023-01-09