新冠病毒可能是人类历史上攻击范围最广的病毒:它不仅攻击我们的呼吸系统,同时还攻击男性的生殖系统;它让美国股市 4 次熔断,还让全球网速变慢。
如果你发现家里 Wi-Fi 变慢了,可能受新冠病毒影响了
中国在一月下旬开始了严格的隔离措施。
隔离不仅有效的遏制了病毒的扩散,同时也让老百姓困在室内而导致上网需求激增,网络开始堵车了。根据纽约时报报道,湖北省当时的网速下降了一半以上。
2 月中旬,意大利、德国和西班牙等国也开始出现类似的情况。
如今,美国新冠确诊人数已经飙升至全球最高,突破了 14 万,美国终于开始意识到居家隔离的紧迫性。
当人们有更多的时间待在家里,就开始不停地上网。Akamai 发现,3 月 18 日的全球流量比正常的每日平均流量高 67%。
流量激增必然导致网络拥堵。根据宽带速度测试服务公司 Ookla 的数据,美国的网速也降了。宽带速度较上周降低 4.9%。根据消费者宽带研究网站 Broadband Now 的数据,加州圣何塞的下载速度中位数下降了 38%,纽约下降了 24%。
网络需求激增仍未到峰值,政府要求视频网站“勒紧视频体积,节省网络流量”
隔离使得人们更加依赖网络来进行交流、工作、学习和娱乐。
平时只需要喊一嗓子的事儿,如今可能需要开一个视频会议;尤其是当学校无法开学的时候,大量的小、中、大学的师生,就不得不依赖极耗流量的视频会议来保证课业进度。
而那些在家无所事事的人,就开始看视频、看直播、玩游戏。
负责数字政策的欧盟专员、前法国电信首席执行官 Thierry Breton 有点着急,他说“目前的用网量已经在大幅增加,但仍未到峰值”,所以在出现重大问题之前,必须尽快积极行动起来。
为此,欧盟监管者开始希望视频、直播公司压缩视频体积,以求节省带宽;美国监管机构则对无线运营商开放更多频段,以增加其网络容量。
Facebook, Disney, Microsoft, Sony, Netflix, and YouTube纷纷响应,暂时降低下载速度和视频质量,来节省带宽。
迪士尼准备在法国上线的“迪士尼+”流媒体服务宣布推迟两周;微软 Xbox 要求游戏公司尽量减少没必要的更新。
美国运营商积极利用 AI 解决流量拥堵
Verizon声称在用 AI 来解决网络“交通堵塞现象”。其预测算法每秒监视数百万个网络接口中超过 4GB 的数据流,每两个小时对超过 60000 个家庭路由器进行一次自动化测试。通过对性能模式的分析,提前预判可能出问题的线路,及时做好规划,节省大量的人力和浪费。
AT&T使用一系列虚拟化技术来缓解用网高峰,其中之一就是所谓的“增强控制,编排,管理和策略”(ECOMP)。同样也使用 AI 来预判事故,管理第三方云,并协助技术人员从无人机拍摄的视频中找出基站的损坏部分。
沃达丰使用基于 Google Cloud 的系统“Neuron”,实时生成分析,自动为拥堵路线分配更多带宽,减少空闲线路带宽。
澳洲电信也在使用 AI 预判事故、分配资源。
中国运营商启动应急预案,保障网络通畅
中国的运营商应对方式相比起来,属于实在型。三大电信央企承诺,为 116.95 万人次免停机,足不出户即能办理各项业务。
中国电信10000 客服中心利用 AI 智能客服,依托增值业务运营中心建设运营的智能客服云平台,快速推出智能语音导航“即需即配”方案。并从 1 月下旬开始在全国启动“居家座席”,目前已开通超 1.35 万,保障每日 100 余万次的人工话务量。
中国移动和中国联通纷纷启动全网应急响应机制,通过建立重保场景、加强重要区域网络监测等措施,强化应急保障力度,保障通信网络畅通。
保障网络畅通的全新思路:边缘计算
除此之外,被誉为 5G 时代的下一个风口的边缘计算,也将成为运营商应对网络流量激增的有利武器。相对于云计算,边缘计算更接近于用户终端,因此有更低时延,传输安全性也得到了保障;同时因为边缘侧的设备很多,流量负载也会更加均衡。
边缘计算是一种新的范式,它让计算和数据存储到更接近终端的地方。与传统的云计算形成鲜明对比,传统的云计算将计算集中在少数几个超大规模的数据中心,而边缘设备可能在 100 英里之外,这时边缘计算的优势就发挥出来了,可以大大降低时间延迟。虽然降低时延是一个重要的用例,但它不是边缘计算的全部。边缘计算的另一个用例是最小化云端的网络流量,或者称为云卸载,这对缓解网络拥堵意义重大,可以有效防止大型网络服务崩溃。
云卸载非常典型的用途是处理视频或音频数据,这两种数据最占用带宽。亚洲一家拥有 1 万多个分店的零售商正在使用边缘计算技术提供视频监控和店内语言翻译服务,节省了许多上传至 AWS 的流量费,当然一些重要的数据可以在边缘侧处理后上传至云端进行持久化,大大节省了计算和流量成本。
和云共生,弥补云端不足
正如前面说的,边缘计算并不是将服务从云端彻底移除了,而是扩展了云的范围。它不会影响工作负载迁移到云计算的趋势,随着时间的推移,云和边缘之间的界限将变得模糊。
边缘和云是相互协同的,在 AWS 和微软 Azure 等公有云供应商的边缘计算计划中可以看出来。如果一个企业想要做边缘计算,亚马逊现在会给你发送一个 AWS 前哨站——一个完全集成的计算和存储架构,模仿亚马逊自己数据中心的硬件设计。客户可以将它安装在自己的数据中心,由亚马逊帮助进行监控、维护和升级,这样就弥补了云计算的一些弊端。
分阶段建设,逐步深入边缘计算
虽然有些应用程序中的计算可以在本地设备运行,但是也有一些需要云端的计算能力,而且还要低延迟,这种场景就需要一个更接近用户端的计算基础设施。这个基础设施听起来很像云,但是比现在的超大规模数据中心分散得多,这个既像云又处在边缘侧的基础设施可能会分三个阶段到来。
第一阶段是利用公有云服务商提供的多个区域的云服务。例如,AWS 在 22 个城市拥有数据中心,从一个区域到多个区域可以大大减少延迟。
第二阶段是将边缘延伸到更深的层次,利用成百上千个位置的基础设施,而不是仅仅几十个城市的超大规模数据中心。将静态内容缓存到更接近终端用户的地方,比如 Cloudflare 的 CDN 覆盖了全美 194 个城市。
第三阶段是将边缘基础设施移动到网络的接入端,类似一个微型数据中心,而这个微型数据中心的规模大大减小可能只有一个服务车,可以部署在路边或信号塔的周围。
软硬兼施,才是边缘计算的未来
上面我们已经概述了边缘计算的各种体系结构以及“边缘”计算的各种部署方案。然而,这个行业的最终方向将会统一,不管边缘位于何处,都可以用同样的工具和流程来管理云和边缘工作负载。这就需要对云中部署、伸缩和管理应用程序的软件进行改进。
此前,云中的应用程序一直都是基于单一数据中心的架构,而现在像谷歌的 Anthos、微软的 Azure Arc 和 VMware 的 Tanzu,都是以分布式弹性部署容器的方式来构建云基础设施软件。几乎所有这些产品都有一个共同点: 它们基于 Kubernetes,这已经成为管理集容器类应用程序的主要方法。
Kubernetes 是一个面向应用的容器集群部署、管理及编排系统,旨在为最终用户屏蔽物理/虚拟计算、网络、存储基础设施的复杂度,关注以应用为核心、以容器为基础的自动化运维平台。
你的应用集群可能位于由边缘、内部环境和公有云组成的异构基础设施之上,但是有了 Kubernetes,就可以轻松地管理各种应用,完成分布式弹性部署。
虽然现在边缘计算仍处于非常早期的阶段,但也有了很多商用实践,随着物联网大潮的来临,相信边缘计算也会在计算领域留下浓墨重彩的一笔。
(转载)