当前位置:首页 » 行业资讯 » 周边资讯 » 正文

云服务器网速的基准测试:测量和比较不同选项 (云服务器网速慢怎么办)

云服务器的网速对于任何在线业务来说在比较云服务器网速时,需要考虑以下因素:

  • 下载速度:这是从服务器下载数据的速度。
  • 上传速度:这是向服务器上传数据的速度。
  • 延迟:这是从服务器接收数据的往返时间。

您需要的网速将根据您的业务需求而有所不同。如果你是一个小型企业,那么你可能不需要像大型企业那样快的网速。但是,如果你是一个大型企业,那么你可能需要尽可能快的网速。

云服务器网速慢怎么办

如果您的云服务器网速较慢,则有几种方法可以解决此问题:

  • 联系您的云服务提供商:云服务提供商可能能够帮助您解决网速问题。
  • 升级您的套餐:您当前的套餐可能无法提供您所需的网速。升级到更高的套餐可以提高您的网速。
  • 迁移到不同的数据中心:数据中心的地理位置可能会影响您的网速。迁移到离您客户更近的数据中心可以提高您的网速。

结论

云服务器的网速对于任何在线业务来说都是至关重要的。通过了解和比较不同选项的网速,您可以选择最适合您需求的云服务器。如果您遇到网速问题,您可以采取多种步骤来解决问题。


如何对API进行负载测试与调优(一)

本文由Donny译自 的 《How to load test & tune performance on your API》这几年API的作用不断演化,以前API还只是用来做内部系统之间的集成点,但现在API已成为一个公司的核心系统,一个构建于Web和移动端应用之上的核心系统。

当API仅只用来处理后台的任务(例如生成报告),那么性能差点也不是问题。

但是如今API慢慢地发展成为连接服务与终端用户的核心纽带。

这种关键性的角色变化表明了一个重要的观点:那就是API的性能真的很重要。

如果API数据源响应快,前端的应用程序的设计好点或差点影响不大,要是响应慢如蜗牛,前端的设计再出色也是然并卵。

现在我们的客户端应用展示的数据源可能都是来自多个API响应内容的聚合,性能对这种微服务构架来说真的非常重要。

可以毫不夸张的说出色的性能就是你API提供的最好功能。

我们知道向目标改进的唯一正确的方法就是找到问题的关键点,或者叫关键路径,并不断迭代测量和调整你的架构系统,直到系统达到预定的目标。

对于API来说,测量和提高性能的过程就是负载与压力测试的过程。

本文将重点介绍如何对你的API进行负载压力测试。

我们会以一个简单的、未测过的例子开始,然后再添加一个访问控制层,要确保一切都经过严格测试,做好处理真实流量的准备工作。

OK,开始吧!首先我们要明确要测试什么,可以是对你所有的API接口,或者是对单个API接口,或是对需要排除故障或改进的API接口的常规测试。

本文的其部分,我们将使用一个示例API。

这是一个棋牌类游戏的 API。

它有三个API接口:/question – 返回一个随机黑牌 /answer – 返回一个随机白牌/pick – 返回一对随机的问题与答案 你测试用的负荷情况越和真实环境的越类似,你的负载测试就越有用。

如果你不知道实际流量有多少或者你不知道负载在所有接口上是否都一致,那么就算你知道你的API可以保持400 请求/秒的吞吐量也没啥鸟用。

所以,你应该先从收集你API的使用数据开始。

你可以直接从你的API服务日志或者从其他你在用的应用性能工具(例如New Relic)中获取数据。

在对你的API进行第一次测试之前,你应该对以下问题做到心中有数:(1)每秒请求数的平均吞吐量(Average throughput in requests per second) (2)峰值吞吐量(您在某段时间内获得的最大流量是多少?)(Peak throughput) (3)API各接口的吞吐量分布情况(有没有一些接口的流量远超其他接口?) (4)用户的吞吐量分布情况(少数用户产生大多数的流量,或者是更均匀分布?) 另外还需要考虑的一个关键点是,在测试期间将要模拟的流量会是怎样的,主要考虑点是: (1)重复负载生成(Repetitive load generation) (2)模拟流量模式 (3)真实流量 通常我们最好以最简单的方法开始测试,然后逐步演化到更为接近真实环境的测试。

我们可以先用重复负载生成来做为API接口的第一个测试,这样不仅可以验证我们的测试环境是否稳定,更重要的是可以让我们找到API能承受的最大吞吐量,这样我们就可以知道API可以达到的性能上限是多少。

找到你的API性能上限值后,你就可以开始考虑如何将你的生成的测试流量塑造得更接近真实环境。

使用真实流量来测试是最理想的,但实际操作不太可行。

要模拟真实流量比较难,也太花时间。

所以我们有一个折中点的方法:先研究你的流量分析数据,并做一个简单的概率模拟。

比如你有100个API接口(提示:原文endpoint在这里我译为接口,翻译成端点也可以,不过译成接口感觉更容易理解),你检查了上个月的使用情况,发现80%的流量来自20个接口,其中3个接口占用了50%的流量。

那么你就可以创建一个遵循这种概率的请求列表,并提供给你的负载测试工具。

这样做就相对快多了,并且它相对比较接近你真实负载,可以显示出你实际环境中可能遇到的问题。

最后,如果你拿到你要测试的API的真实访问日志,你就可以用它们来做最接近客观现实的测试。

我们待会儿要讨论的大部分负载测试工具,都是接收一个请求列表作为输入文件。

你可以用你的访问日志,稍微做一个格式调整就可以匹配每个测试工具所需的格式。

搞定这个你就可以在测试环境中轻松重现你的生产流量。

好了,你清楚了你要测试什么鬼了,准备工作的最后一步就是配置好你的测试环境。

你需要一个专用的测试环境。

如果你不怕被你老板骂的话,或者比较任性,你也可以直接在你的生产环境中进行性能测试,不过出问题别说哥事先没跟你说清楚哈。

如果您已经设好一个预生产或沙箱环境,并且你的API也在上面运行了,那么你就万事俱备了。

因为本文要用示例API,我们会在AWS的服务实例上设置我们的环境。

在我们的例子中,我们使用一个简单的API,不需要从磁盘读取或在内存中保存大型数据集。

我们选择 实例就够了。

注意:我们对比过其他相似处理资源数但内存更大的AWS实例,但实际测试中内存大部分没使用,所以我们选了 接下来,我们将一个配好的负载测试实例(服务器)运行起来,这只是一个运行模拟测试程序的服务器,它会通过从多个并发连接重复发送请求到我们的API服务器。

你需要模拟的负载越高,机器的性能就要求越高。

再次,这也是一个CPU密集型工作负载。

这里我们选择具有4个虚拟核,16个 ECU的优化处理器的 服务器 我们选择在相同的可用区内部署所有实例(API服务器与测试服务器在同一个区/机房),这样可以将外部因素对我们测试结果的影响降到最小。

我们有一个沙箱环境来运行我们的API,同时也有另一台服务器准备开始负载测试。

如果这是你第一次做性能测试,你一定会想知道什么是最好的方法。

在本节中,我们将会分享我们如何选择工具,同时也会介绍一下目前市面上一些公认比较好的工具。

JMeter 在人们意识当中,首当翘楚的估计是 Apache JMeter ,这是一个开源的Java程序,他关键的特性就是提供一个强大而完善的创建测试计划的GUI。

测试计划由测试组件组成,测试组件定义了测试的每一个部分,例如: (1)用来注入负载测试的线程(2)参数化测试中使用的HTTP请求 (3)可添加侦听器,象widget测试组件那样,可以以不同的方式显示测主式结果 优点: (1)它是功能性负载测试的最好工具。

你可以设定条件来为复杂的用户流建模,还可以创建断言来验证行为。

(2)轻松模拟复杂的http请求,比如请求前的登录验证或文件上传 (3)可扩展性强,有很多社区插件可以修改或扩展内置的行为 (4)开源并且免费 缺点: (1)GUI学习曲线陡峭,一大堆的选项,在你运行第一个测试之前你得了解大量的概念。

(2)测试高负载时,操作步骤很麻烦。

你需要先使用GUI工具来生成XML测试计划,然后在非GUI模式下导入测试计划运行测试,因为GUI会消耗掉本用于生成负载的大量资源。

你还需要注意所有的侦听器(收集数据与展示测量的组件)哪些要被禁用或启用,因为它们也很耗资源。

测试结束后后,你需要将原始结果数据导入GUI以才能查看结果。

(3)如果你的目标是测试一段时间内的持续吞吐量(例如在60秒内每秒请求1000次),那么很难找到正确的并发线程数量和计时器来求出一个比较稳定的数值。

JMeter只是我们在开始测试时用的工具,我们很快开始寻找其他替代方案。

原因是,如果你的目标是在Web应用上压力测试复杂的用户流,那么JMeter可能是最好的工具,但如果你只是需要在一些HTTP API接口上进行性能测试,那用它就是杀鸡用牛刀了。

Wrk Wrk 是一款和传统的 Apache Benchmark (最初用来做Apache服务器的测试工具)非常相似的工具。

wrk和ab完全不同于JMeter: (1)一切都是可以通过命令行工具配置和执行的。

(2)配置少但强大,只有基本生成HTTP负载的必要几项配置 (3)性能强悍然而,和传统ab工具相比还是有几个优势的地方,主要是: (1)多线程,所以能利用多核处理器的优势,更容易生成更高的负载 (2)利用Lua脚本很容易进行扩展默认的行为 不好的地方,主要是生成的默认报告在内容与格式上都受到限制(仅文本,无绘图)。

当你的目标是找到你的API可以处理的最大负载量,那么wrk是你最佳选择工具。

wrk用起来很快就可以上手。

Vegeta Vegeta 是一款开源命令行工具,但它采用的方式不同于我们以前所见的工具。

它专注于如何达到与维持每秒请求数速率。

也就是说它侧重在测试支撑每秒X次请求时API会有怎样的服务行为,当你有实际的数据或对你将要达到的峰值流量有个估算时就非常有用,你可以用于验证你的API是否能满足你的需求。

SaaS 工具 正如你之前所看到的,运行一个简单的负载测试需要准备好配置环境。

最近有些产品提供负载测试服务。

我们试过两个, 和 Blazemeter (话外:阿里也有性能测试工具 PTS ,老外估计没试过)。

注意:我们只试了这两个工具的免费版,所以得到的测试结果仅适用于免费版的限定。

Blazemeter 这个产品和我们前面提到的JMeter一样有同样的毛病:如果你只需要用在高负载测试,你需要在GUI界面上创建测试计划,然后在另一个运行非GUI模式的JMeter中导入这些计划。

Blazemeter允许你上传JMeter的测试计划到他们的云端并运行,但可惜的是免费版只能设置50个并发用户。

它是一款 SendGrid 出品的简单而强大的云负载测试服务工具。

它有你所需要的功能和漂亮的可视报告。

的免费版还是不错的,每秒最多可以有次请求的吞吐量,你基本上就可以用它来运行一个真实的负载测试。

我们推荐使用多个工具,以便可以多重检查我们的测试结果,不同的工具有不同的功能与方法,可以更多方面地反映测试结果。

我们先尝试找到我们的API可以承受的最大吞吐量。

在这个吞吐量下,我们的API服务达到最大CPU利用率,同时不会返回任何错误或超时。

这个吞吐量就可作为我们后面测试要用的每秒请求数。

同样,重要的是要注意到:CPU是限制因素之一,但你也还必须清楚地知道哪些资源会成为你API的性能瓶颈。

我们有必要在API服务器上安装一些工具,以便我们在测试过程中监控资源的利用率情况。

我们使用 和 PM2 模块。

我们的应用运行了一个非常简单的HTTP 服务。

是单线程设计的,但为了利用 AWS实例中提供的双核,我们使用PM2的集群功能来运行应用程序的两个工作进程。

由于我们的API是完全无状态的,所以很容易使用PM2的 核心集群模块(PM2在内部直接使用)。

PM2提供的集群功能提供了不错的快捷命令来start/stop/reload应用程序,也可以监控进程。

我们先使用对API进行测试。

以下是持续30秒,每秒10,000次请求的测试结果,次请求是免费版中允许的最大吞吐量。

在测试期间,我们观察到API服务器的CPU处理器在测试期间只有几次达到100%的容量。

这表示我们的API可能还可以处理更高的吞吐量。

我们接下来通过运行wrk进行第二次测试证实了这一点。

我们的目标就是要将我们的API服务器性能推到极限。

wrk -t 4 -c 1000 -d 60 –latency –timeout 3s这里是我们对这个测试做了多次重复测试的结果:Running 1m test @4 threads and 1000 connections Thread Stats Avg Stdev Max +/- Stdev Latency 62.23ms 30.85ms 1.35s 99.39% Req/Sec 4.07k 357.61 5.27k 94.29% Latency Distribution 50% 60.04ms 75% 63.85ms 90% 64.17ms 99% 75.86ms requests in 1.00m, 189.89MB read Requests/sec: .04 Transfer/sec: 3.16MB 结果表明,我们的预感被证实:它达到16,206请求/秒,同时保持合理的延迟,第99百分位只有75.86毫秒。

我们将这作为我们的基准最大吞吐量,因为这一次我们看到了API服务器的最大容量处理能力:我们刚看到用一个简单的方式来找出你的API可承受的最大流量负载,同时在这过程中我们介绍并讨论了我们看到的一些工具。

请继续关注本文的第二部分,我们将介绍如何控制流量,不要让随随便便一个客户端就可以轻松搞跨您的API。

我们将展示如何通过在架构前端添加代理来确保我们的API的性能不受影响。

本文译自: How to load test & tune performance on your API

什么是云服务器

云服务器(Elastic Compute Service, ECS)是一种高效、安全、弹性伸缩的计算服务,提供便捷的管理方式。

无需购买硬件即可迅速创建或释放任意多台云服务器,帮助用户快速构建稳定、安全的应用,降低整体IT成本和运维难度,使其能够专注于核心业务创新。

云服务器是云计算服务的重要组成部分,整合计算、存储、网络等互联网基础设施服务,面向各类互联网用户提供综合业务能力。

其发展经历了从计算单元概念到全面云服务的演进,但云服务器并非便宜选择,相反,它相对昂贵,因其提供方便的扩展性,适合网站发展成熟后,拥有高收入场景。

云服务器的关键优势在于其灵活性和高可用性。

用户可以根据业务需求调整服务配置与规模,实现快速供应和部署,支持平滑扩展,并通过内置的智能备份系统保障数据安全。

与VPS相比,云服务器提供硬件级别的隔离,具备强大的性能和稳定的服务环境,总体性能远超VPS。

与传统物理服务器相比,云服务器价格更低,无需支付押金,且提供多种计费方式。

云服务器支持多种操作系统安装,用户可以在操作系统中实时查看服务器配置和资源使用情况。

注册用户可实现快速开通服务,系统安装时间在10~25分钟内,即可通过远程连接进行应用操作。

云服务器具有多种附加服务,如远程维护、多线IP、备份服务、智能管理平台等,支持电子商务、论坛、SNS、企业网站等多种互联网应用。

网络开放云平台采用KVM虚拟化技术,将集群系统虚拟为多个性能可配的虚拟机,通过分布式存储和资源调度,实现高可用性和智能管理。

通过智能管理平台,用户可以轻松完成系统安装、备份、远程重启和状态监控。

在云计算数据中心中,云服务器适应更高环境温度,采用节能设计,适应数据中心空调系统的区域化制冷需求。

同时,云服务器注重节约空间,通过提高计算密度和高密度计算,满足云数据中心的规模、成本和效率需求。

云计算服务器具有高密度、低能耗、易管理、系统优化等特点,满足企业级客户对服务器的新需求。

云计算服务器提供了多种附加服务,包括负载均衡、关系型数据库服务、对象存储服务、云磁盘服务、简单缓存服务、内容分发网络以及应用引擎等。

这些服务支持数据备份、恢复、安全管理和高性能计算,为企业级应用提供全面的支持。

云服务器的性能三大要素包括CPU、内存、网络连接性。

云服务器通常有小型、中型、大型规格,分别提供1vCPU、2vCPU、4vCPU及2GB、4GB、8GB的RAM配置。

实际网络吞吐量也会影响应用性能。

在选择云服务器时,需考虑虚拟服务器数量、物理服务器硬件资源、网络带宽等关键指标,以确保应用性能。

云服务器选择时,应关注其结构灵活性、计算密度、存储容量等特性。

不同云服务器提供商的性能表现存在差异,因此在做出决策前,应对基准测试数据进行评估。

通过对比云服务器产品技术规格,确保其满足现有及未来业务需求。

什么是云服务器

云服务器,简称HCS(Huasai Cloud Server),是一种高效、安全、灵活扩展的计算服务。

相较于物理服务器,其管理更为简便高效,无需提前购置硬件,即可迅速创建或释放任意数量的云服务器。

这使其成为构建稳定、安全应用的优选方案,同时降低开发运维难度和整体IT成本,助力企业专注核心业务创新。

云服务器的实质是计算单元,其性能依赖于云服务资源的分配和扩展。

要获得更好的性能,可通过升级云服务器或将其消耗计算资源的软件部署在对应的云服务上,如使用云数据库服务、文件存储服务等。

值得注意的是,云服务器并非总是更便宜,其相对优势在于扩展性,特别适合业务增长至一定规模后寻求高收入的场景。

云服务器作为云计算服务的核心组件,提供互联网基础设施服务,整合计算、存储、网络三大要素,面向各类互联网用户,支持公用化服务。

其核心产品包括云服务器平台、管理服务器、存储服务器、计算服务器与交换机等硬件,以及集群文件系统与分布式存储技术,以实现统一管理与高效数据处理。

云服务器平台的集群节点分布于骨干数据中心,具备独立提供计算、存储、在线备份、托管、带宽等服务的能力。

每个节点由管理服务器、存储服务器、计算服务器与交换机组成,支持远程维护、系统重装、多IP配备、灵活计费等特性,适用于注重性价比、快速部署、业务扩展、系统高可用性、轻松管理等需求。

与VPS相比,云服务器在远程管理、硬件隔离、冗余存储与备份、高可用性、整体性能等方面优势显著。

与租用物理服务器相比,云服务器在价格、快速供应与部署、业务平滑扩展等方面更具竞争力。

云服务器支持多种操作系统选择,具备IP数量限制、无需押金、即刻开通、实时配置查看、备份服务、多CPU支持等特性。

网络开放云平台提供计算、存储、备份、托管、带宽等互联网基础设施服务,由硬件构成的集群节点包括管理服务器、存储服务器群、计算服务器群与交换机,实现资源高效调度与智能管理。

适应更高环境温度与节约空间是云服务器的发展方向。

云计算数据中心采用高效制冷技术,适应更宽泛的温度范围。

通过优化设计,云服务器能够提高环境温度适应能力,实现节能减排。

同时,云服务器通过集成化、高密度设计,减少占地面积,提高计算密度,满足云计算时代的需求。

在互联网经济时代,企业对服务器的需求发生结构性变化,云服务器作为技术商业的重要因素,被赋予了新的定义。

国内云计算机服务器厂商在高密度、低能耗、易管理、系统优化等方面具有明显优势。

高密度服务器减少延迟、提高反应速度,云服务器通过虚拟化、横向扩展、并行计算、负载均衡等技术,实现资源优化与高效利用。

云服务器架构包含云处理器模块、网络处理模块、存储处理模块与系统件理模块,采用多个云处理器完成系统设计,引入低功耗管理理念,省去冗余硬件。

云服务器关注高性能吞吐量计算能力,具备虚拟化、横向扩展、并行计算、负载均衡等特性,支持关系型数据库服务、对象存储服务、云磁盘服务、简单缓存服务、内容分发网络、应用引擎等服务。

在选择云服务器时,考虑高密度、低能耗、易管理、系统优化等关键要素,以及云服务器提供商的技术规格、性能基准测试数据和实际应用案例。

明确业务需求,对比不同云服务器产品,选择符合当前及未来业务发展需求的产品,确保高性能、稳定可靠、灵活扩展的计算资源。

未经允许不得转载:虎跃云 » 云服务器网速的基准测试:测量和比较不同选项 (云服务器网速慢怎么办)
分享到
0
上一篇
下一篇

相关推荐

联系我们

huhuidc

复制已复制
262730666复制已复制
13943842618复制已复制
262730666@qq.com复制已复制
0438-7280666复制已复制
微信公众号
huyueidc_com复制已复制
关注官方微信,了解最新资讯
客服微信
huhuidc复制已复制
商务号,添加请说明来意
contact-img
客服QQ
262730666复制已复制
商务号,添加请说明来意
在线咨询
13943842618复制已复制
工作时间:8:30-12:00;13:30-18:00
客服邮箱
服务热线
0438-7280666复制已复制
24小时服务热线