当前位置:首页 » 行业资讯 » 周边资讯 » 正文

nginx https正向代理的原理、配置与优化指南

Nginx HTTPS正向代理的原理、配置与优化指南

一、引言

随着互联网技术的不断发展,网络安全问题日益受到重视。

HTTPS作为一种加密传输协议,广泛应用于保护Web通信安全。

Nginx作为一款高性能的Web服务器和反向代理服务器,支持HTTPS正向代理功能。

本文将详细介绍Nginx HTTPS正向代理的原理、配置与优化方法,帮助读者更好地应用Nginx实现HTTPS安全通信。

二、Nginx HTTPS正向代理原理

1. HTTPS概述

HTTPS是一种通过SSL/TLS协议实现加密传输的HTTP协议。

在HTTPS通信过程中,客户端与服务器之间通过SSL/TLS握手建立安全连接,对传输数据进行加密和解密,确保数据在传输过程中的安全性。

2. Nginx正向代理原理

Nginx作为正向代理服务器,接收客户端的请求,并将其转发给目标服务器。

在HTTPS正向代理中,Nginx需要处理SSL/TLS握手和加密传输,将客户端请求转发给目标服务器,并将目标服务器的响应返回给客户端。

3. Nginx HTTPS正向代理工作流程

(1)客户端向Nginx发送HTTPS请求。

(2)Nginx接收请求,并与目标服务器进行SSL/TLS握手,建立安全连接。

(3)Nginx将请求转发给目标服务器,并等待目标服务器的响应。

(4)目标服务器处理请求,并将响应返回给Nginx。

(5)Nginx将响应加密后返回给客户端。

三、Nginx HTTPS正向代理配置

1. 配置SSL证书

为了实现HTTPS通信,需要配置SSL证书。

Nginx支持使用自签名证书或权威机构颁发的证书。

在配置时,需要将证书文件(crt)和私钥文件(key)放置在Nginx配置目录下,并在配置文件中指定证书和私钥的路径。

2. 配置HTTPS代理规则

在Nginx配置文件中,通过“location”指令配置HTTPS代理规则。

需要指定代理的域名、端口号以及目标服务器的地址和端口号。

同时,还需要配置SSL证书相关的参数,如证书路径、证书密钥路径等。

示例配置:

“`plaintext

server {

listen 443 ssl; 配置监听端口号为443

server_name example.com; 配置代理的域名

ssl_certificate /path/to/certificate.crt; 证书文件路径

ssl_certificate_key /path/to/private_key.key; 私钥文件路径

location / {

proxy_pass目标服务器的地址和端口号

proxy_set_header Host $host; 设置代理头部信息

proxy_set_header X-Real-IP $remote_addr; 保留客户端的真实IP地址信息

}

}

“`

3. 重启Nginx服务

配置完成后,需要重启Nginx服务使配置生效。

可以使用系统命令进行重启,如:`sudo service nginx restart`。

四、Nginx HTTPS正向代理优化

1. 优化SSL/TLS握手性能

SSL/TLS握手是HTTPS通信中的关键步骤,其性能直接影响整体通信效率。

可以通过选择高性能的SSL/TLS协议版本、使用负载均衡等技术优化握手性能。

还可以使用SSL缓存技术,如OpenSSL的Session Resume功能,减少握手次数,提高通信效率。

2. 压缩传输内容

为了降低网络传输的数据量,提高通信效率,可以使用Nginx的gzip模块对传输内容进行压缩。

在配置文件中启用gzip压缩功能,并设置适当的压缩级别和压缩类型,以平衡性能和压缩效果。

示例配置:

“`plaintext

gzip on; 开启gzip压缩功能

gzip_typestext/plain text/css application/json; 指定压缩类型

gzip_comp_level 6; 设置压缩级别(1-9)越高压缩率越高,计算量大一些。设置为6可平衡性能和压缩效果。设置太高可能会消耗过多CPU资源。默认为1级别压缩级别最低速度最快;级别越高压缩越慢但压缩比越大占用带宽越少;反之亦然。具体数值可根据实际情况进行调整。但值必须在网络通讯量相对很大的条件下才能实现所谓的最佳加速结果前提通过更好的理解和识别结果中进行参数调整的便于选择合适的选项这里不要为了追求最大的压缩比而过高的设定压缩等级从而影响CPU的运行负担从而产生不流畅感以至于直接减少网站的流量与用户观看的热情因此在把握基本保证速度的前提下选择合理的压缩级别是很重要的否则效果会适得其反反而造成不必要的损失。对于用户来说也是没有必要的因此不必过多纠结在过高的设定压缩级别上一定要根据自己的实际需求做出权衡综合考虑选择合适的平衡点选择符合实际需求设定完成上述设置后重启nginx服务即可生效并通过测试来验证效果以便进行进一步的调整和优化达到最佳状态以获取更好的用户体验和性能表现;同时对于服务器来说也能减轻负载压力提升运行效率等好处也是显而易见的因此优化nginx的gzip模块设置是非常必要的对于提升网站性能和用户体验都有很大的帮助作用因此值得大家去尝试并优化


怎么优化tomcat和nginx

近花了一点时间进行了NGINX加TOMCAT7集群压力测试,下面通过对一些常见问题的回答来说明如何调优服务器的性能,是自己的一些经验,且无实际数据,如有纰漏请见谅。

背景: TOMCAT7已加APR或者NIO。

已装简单监控JCONSOLE,监控服务器内存,线程等基本情况。

问题1一个Tomcat他的maxThreads到底配置多少合适?一个好的maxThreads的配置就是达到资源的合理化应用。

资源池:在讲其它东西之前,我们先引入一个概念,就是资源池。

tomcat7中,他对http请求的处理,也有一个池的概念,配置可以参考这里。

每一个请求进来后都是使用线程池中的一个来处理,线程池的大小是由maxThreads来限定的。

异步IO:当前Tomcat通过使用JAVA NIO或者Apache Portable Runtime这样的异步IO来支持性能的优化。

异步IO就是当应用需要进行耗时的IO操作时,向内核发出请求,不用真正等IO操作完成,就去处理其它的请求了,当IO真正完成时会有回调或通知机制通知并完成余下工作。

而一般的同步IO是当应用需要IO操作时,向操作系统发出IO Read/Write请求。

同时阻塞当前应用,并等待IO返回,返回后才进行后续的操作。

从这里可以看出异步IO实际是将请求的处理和IO处理并行了,这样自然能较大的提高系统的吞吐量。

maxThreads的大小:第一点:从上面的异步IO的机制来看,实际上我们可能可以用一个很小的线程池处理较大的连接数。

如当前有100个请求要被处理,处理过程中50个进程都处于IO等待的状态,所以我们实际可能只需要50就能够处理那些不处于IO等待状态的请求就能满足需要了。

注意在Tomcat中是使用maxConnection这个配置参数来配置Tomcat的同时处理连接数的。

第二点:盲目的加大线程数会带来一些下面的影响。

由于Tomcat处理的线程均会在操作系统中产生对应的实际线程,这就意味着对应的资源消耗(内存,SOCKET等)。

另一个影响就是同时处理的请求加大可能导致Java内存回收的问题,不同的并发对内存的占用是不同,而实际上90%的内存都是临时变量,可以很快回收。

较大的并发同时占用较多的临时变量就会导致容易撑满年青代,从而导致部分内存进入老年代,从而引起更多的Stop The World,甚至OOM,影响JVM性能。

其它的影响还包括更高的CPU占用和更多的硬盘读写。

这些实际都跟硬件有关。

第三点: 我们可以通过配置一个较合理的资源池,由于资源充裕,单个请求处理迅速,这样能达到最优的系统效率。

但是有的时候我们并不总是追求这样的一种情况。

比如下载时,单个请求的响应时间将受限于网络,下100M的包可能需要20分钟,我们就不应该通过一个较小的资源池来提升整体的效率,而应该配置一个较大的资源池,让较多用户连接上并进行下载,否则多数的用户都将会因超时被拒绝,从而造成连接上的超快,连不上的就直接被拒绝。

第四点:单个JVM的内存分配较大将导致Full Gc(Stop The World)的中断时间变得更长,影响实时性。

高的可达10秒以上的停顿,这段时间所有的东西将被挂起。

配置大小优化思路:配置时应该根据你应用的实际情况,是最占CPU,内存还是IO,最后达到一个平衡就好,下面来说明思路。

1. 自行保证服务器的资源较够用,如IO、CPU、内存。

2. 在硬件较充裕的情况下尝试以maxThreads配置300、600、1200、1800,分析Tomcat的连接时间,请求耗时,吞吐量等参数。

在测试的时候需要密切注意硬盘、带宽、CPU、内存是否处于一个瓶颈情况下。

3. 其实所有的东西最后都有一个极限就是硬件。

应用分CPU,IO,内存密集型,这些都会成为你最终的限制性因素。

一般应用根据自己的特性划分到不同的机群中,如CPU密集型的会分到一群有更好CPU的集群中。

这样可以能充分利用资源。

我们以常见的内存为最终限制性因素,并假设CPU足够好,且IO很少来说明思路。

通过一些压测工具,我们能容易的找到一个在300~8000的并发数的情况下一个性能的拐点,通过对比不同线程数下请求连接时间、单请求的平均响应时间,总体的吞吐量。

这个拐点往往意味着此时的内存回收出现异常,JVM花了更多的时间在回收内存,我们一般可以通过打出gc日志,并使用jmeter等工具来分析得知。

此时你可以尝试优化内存结构或加大内存 来解决,若不能解决,可能就意味你前一次的配置就是一个好的选择。

当然这些限制因素是可能互相转换的,可能你增加了内存之后内存没有问题了,但是却导致CPU达到100%,从而导致性能下降。

此时则要以CPU为最终限制性因素了。

优化测试中陷阱:以一个下载服务器来例子说明。

我们以下载10m的包来做测试,其实你会发现整个服务器的吞吐量很差,响应时间慢。

但细心的人会发现此时连接服务器的时间却是很快的,也就是说服务器很快accpet了你的请求,虽然你的吞吐量不大,处理耗时也大。

原因是什么呢,其实是你的带宽已经被占满了,你会发现并发下载10个文件就能占满你的所有带宽。

所以此时呢你的测试时的对比对象变成了对比连接时间会更加合理。

当然你也可以通过减少包的大小,比如降到 1k,以使带宽不成为瓶颈.这样可能测试出来你的服务器并发极限量,但该并发量可能并不能反应出实际下载的情况,实际的情况就是带宽容易被占满,下载服务器会有一个很大量的连接存在的情况。

问题2. NGINX到底能带来怎么样的性能提升,或者说有什么好处?1. 测试后发现,NGINX并不能加快响应的速度,为什么呢,因为这是由于NGINX会代理你同后端的请求。

也就意味着你原来只需要建立同服务器的一次连接即可完成请求,现在变成了先同NGINX建立连接,NGINX再同后端建立连接。

所以引入NGINX后带来了更多的时间消耗,两倍的SOCKET连接消耗。

2. 引入后的好处体现如下。

1) 整体的性能会有提升,通过实测后发现能很大程度上降低最大返回耗时的情况。

请求返回更稳定。

2) 降低后端的资源消耗。

原来由于客户端网络较慢等因素会让后端在返回数据时处于繁忙的情况,占用资源。

通过NGINX向后端代理,同时由于NGINX的缓存机制,后端可以快速返回,并将资源更集中用到处理请求上,这样可以发挥后端的能力。

NGINX在保持大量连接这块就得很优秀,内存,CPU都占用很少。

3) 支持非常方便的扩展,高可用性等。

可通过https获取远端www服务版信息,怎么解决

这种应该是代理吧,是指打开HTTPS站点,但获取其它服务器上的站点。

这种需要专业的配置的,教程很长,网络关键字:nginx配置正向代理支持HTTPS,SSL证书可以淘宝Gworg获取。

nginx https 怎么支持

一、安装certbot$ sudo yum install epel-release$ sudo yum install certbot二、为域名申请一个证书(以Lets Encrypt免费证书为例)-w后面是站点根目录-d后面是站点域名,如果多个域名,可以使用多个-d参数,每个-d参数跟一个域名,-d之间用空格分开certbot certonly –webroot -w 站点根目录 -d 站点域名提示输入邮箱,用于紧急通知以及密钥恢复阅读文档,选Agree即可如果成功证书和私钥会保存在/etc/letsencrypt/live/站点域名/ 中三、nginx配置证书ssl_certificate /etc/letsencrypt/live/站点域名/;ssl_certificate_key /etc/letsencrypt/live/站点域名/;重启nginx服务器四、证书自动续期证书有效期为90天,所以需要写一个定时任务#minute hourdaymonthweekcommand0 0,12*** certbot renew > /var/log/ & echo certbot last renew at `date` >> /var/log/在每天0点和12点会更新一次证书,并将结果保存到/var/log/日志中。

未经允许不得转载:虎跃云 » nginx https正向代理的原理、配置与优化指南
分享到
0
上一篇
下一篇

相关推荐

联系我们

huhuidc

复制已复制
262730666复制已复制
13943842618复制已复制
262730666@qq.com复制已复制
0438-7280666复制已复制
微信公众号
huyueidc_com复制已复制
关注官方微信,了解最新资讯
客服微信
huhuidc复制已复制
商务号,添加请说明来意
contact-img
客服QQ
262730666复制已复制
商务号,添加请说明来意
在线咨询
13943842618复制已复制
工作时间:8:30-12:00;13:30-18:00
客服邮箱
服务热线
0438-7280666复制已复制
24小时服务热线