互博娱乐城博彩资讯


互博娱乐城博彩资讯雨:我看到我妈真的好辛苦啊!我真的不想我妈再担心我了。
互博娱乐城博彩资讯易飞重重的点了点头,自整个人的积郁全都找到了发泄点,自他的人生找到了目标,一切都变得不同了:我想过了,为什么不可以利用赌术来做点什么?互博娱乐城博彩资讯去中行转存,小镇上的分行车位较少。遂楼主和大家一起停路边!结果大家也猜到了,楼主被贴单了。楼主找中行理论,最后完败。伤心欲绝的楼主在中行办理了销户手续,留下在风中凌乱的行长。这是高.潮,不这不是高.潮。后来客服问我为什么销户。楼主看了眼罚单,停车费太贵了~~太贵了互博娱乐城博彩资讯质细丝白
互博娱乐城博彩资讯也许,没有离殇不懂珍惜;也许,惟有超越自己,才会弥补情感的残缺。
互博娱乐城博彩资讯14、戊子年秋八月,初五日,吾女夜诞,重斤陆两柒,性温良,状安详,顾盼轻灵,双目弱电。然彼时京西雷雨大作,及诞始住,红颜惊世,或忧天下由此而乱。故补告诸君,企相知达人佑之。
互博娱乐城博彩资讯两个男生都在给一女老板打工。   A天天都在琢磨怎么把工作做好。  B天天都在想如何勾引女老板。  最后的结局是,A在为B打工了。互博娱乐城博彩资讯让我不敢爱
互博娱乐城博彩资讯昨晚太热,实在睡不着,  我建议起床搞活动,  于是宿舍集体起床斗地主,  输了的穿衣服。  唉,说多了全是泪啊……   整整4件羽绒服啊!互博娱乐城博彩资讯有1000多平米,原来是家服装专卖店。互博娱乐城博彩资讯没有第三条路可选了。互博娱乐城博彩资讯甚至敢挟上万亿美金向美国叫板,就凭这胆略,易飞的把握就多了几分。互博娱乐城博彩资讯老外同事来审核,  那叫一个胖,目测二百五十斤,  屁股超 大公司椅子不大,  审核完他站起来和我握手,  椅子居然卡在屁股上跟起来了……互博娱乐城博彩资讯 乡村外、
互博娱乐城博彩资讯调好光后,放映员再装上胶片,然后开始放映前的讲话。如遇喜事,讲话内容一般为:宣读放映出资人员的名单、亲友祝福辞、放映场数、放映片名等;如遇政策宣传,乡政府领导则要讲话。

皇冠足球比分

大发论坛时时彩平台尊龙娱乐是黑网吗海天国际娱乐城注册送钱凯发娱乐乐宝娱乐城真人赌钱bodog888亚美国际娱乐城 金龙国际 www.am8.com 亚洲城娱乐 老k国际娱乐城 666k8.com 金威国际娱乐城 名人国际娱乐城 ag娱乐平台 V博娱乐城 狮威亚洲娱乐城返佣网站地图星子县国语学校网站地图http://tinyurl.com/nf7lqoh网站地图三星投注网网站地图img.cmpbk32.com网站地图注册送38体验金注册送钱e8889.com网站地图现金三公网站地图网络百家乐网站地图http://tinyurl.com/pxau7n6网站地图http://tinyurl.com/okm6r8q网站地图时时彩开奖号码网站地图德格县国语学校网站地图赌球术语网站地图ag环亚网站地图世界杯单场投注网站地图送彩金的平台网站地图

Fork me on GitHub

Nginx + Tomcat 动静分离实现负载均衡

  0.前期准备

  使用Debian环境。安装Nginx(默认安装),一个web项目,安装tomcat(默认安装)等。

  1.一份Nginx.conf配置文件

  1 # 定义Nginx运行的用户 和 用户组 如果对应服务器暴露在外面的话建议使用权限较小的用户 防止被入侵
  2 # user www www;
  3 
  4 #Nginx进程数, 建议设置为等于CPU总核心数
  5 worker_processes 8;
  6 
  7 #开启全局错误日志类型
  8 error_log /var/log/nginx/error.log info;
  9 
 10 #进程文件
 11 pid /var/run/nginx.pid;
 12 
 13 #一个Nginx进程打开的最多文件描述数目 建议与ulimit -n一致
 14 #如果面对高并发时 注意修改该值 ulimit -n 还有部分系统参数 而并非这个单独确定
 15 worker_rlimit_nofile 65535;
 16 
 17 events{
 18     #使用epoll模型提高性能
 19     use epoll;
 20     #单个进程最大连接数
 21     worker_connections 65535;
 22 }
 23 
 24 http{
 25     #扩展名与文件类型映射表
 26     include mime.types;
 27     #默认类型
 28     default_type application/octet-stream;
 29     sendfile on;
 30     tcp_nopush on;
 31     tcp_nodelay on;
 32     keepalive_timeout 65;
 33     types_hash_max_size 2048;
 34     #日志
 35     access_log /var/log/nginx/access.log;
 36     error_log /var/log/nginx/error.log;
 37     #gzip 压缩传输
 38     gzip on;
 39     gzip_min_length 1k;  #最小1K
 40     gzip_buffers 16 64K;
 41     gzip_http_version 1.1;
 42     gzip_comp_level 6;
 43     gzip_types text/plain application/x-javascript text/css application/xml application/javascript;
 44     gzip_vary on;
 45     #负载均衡组
 46     #静态服务器组
 47     upstream static.zh-jieli.com {
 48         server 127.0.0.1:808 weight=1;
 49     }
 50     #动态服务器组
 51     upstream zh-jieli.com {
 52         server 127.0.0.1:8080;
 53         #server 192.168.8.203:8080;
 54     }
 55     #配置代理参数
 56     proxy_redirect off;
 57     proxy_set_header Host host;
 58     proxy_set_header X-Real-IP remote_addr;
 59     proxy_set_header X-Forwarded-For proxy_add_x_forwarded_for;
 60     client_max_body_size 10m;
 61     client_body_buffer_size 128k;
 62     proxy_connect_timeout 65;
 63     proxy_send_timeout 65;
 64     proxy_read_timeout 65;
 65     proxy_buffer_size 4k;
 66     proxy_buffers 4 32k;
 67     proxy_busy_buffers_size 64k;
 68     #缓存配置
 69     proxy_cache_key 'host:server_portrequest_uri';
 70     proxy_temp_file_write_size 64k;
 71     proxy_temp_path /dev/shm/JieLiERP/proxy_temp_path;
 72     proxy_cache_path /dev/shm/JieLiERP/proxy_cache_path levels=1:2 keys_zone=cache_one:200m inactive=5d max_size=1g;
 73     proxy_ignore_headers X-Accel-Expires Expires Cache-Control Set-Cookie;
 74 
 75     server{
 76         listen 80;
 77         server_name erp.zh-jieli.com;
 78         location / {
 79             index index; #默认主页为 /index
 80             #proxy_pass http://jieli;
 81         }
 82         location ~ .*\.(js|css|ico|png|jpg|eot|svg|ttf|woff) {
 83             proxy_cache cache_one;
 84             proxy_cache_valid 200 304 302 5d;
 85             proxy_cache_valid any 5d;
 86             proxy_cache_key 'host:server_portrequest_uri';
 87             add_header X-Cache 'upstream_cache_status from host';
 88             proxy_pass http://static.zh-jieli.com;
 89             #所有静态文件直接读取硬盘
 90             #           root /var/lib/tomcat7/webapps/JieLiERP/WEB-INF ;
 91             expires 30d; #缓存30天
 92         }
 93         #其他页面反向代理到tomcat容器
 94         location ~ .* {
 95             index index;
 96             proxy_pass http://zh-jieli.com;
 97         }
 98     }
 99     server{
100         listen 808;
101         server_name static;
102         location / {
103 
104         }
105         location ~ .*\.(js|css|ico|png|jpg|eot|svg|ttf|woff) {
106             #所有静态文件直接读取硬盘
107             root /var/lib/tomcat7/webapps/JieLiERP/WEB-INF ;
108             expires 30d; #缓存30天
109         }
110     }
111 }

  基本配置这个文件,就可以实现负载了。但是里面的各种关系要了解就比较麻烦了。这篇博客,也不是教学篇,是记录一下,方便以后自己看了。

  2.基础讲解

  现在假使有一台电脑192.168.8.203这台电脑,上面部署了Tomcat,里面8080端口有J2EE的服务,通过浏览器可以正常浏览网页。现在有一个问题tomcat是一个比较全面的web容器,对静态网页的处理,应该是比较费资源的,特别是每次都要从磁盘读取静态页面,然后返回。这中间会消耗Tomcat的资源,可能会使那些动态页面解析性能影响。秉承Linux哲学,一个软件只做一件事的原则。Tomcat就应该只处理JSP动态页面。这里就用到以前了解的Nginx来进行反向代理。第一步代理,实现动静网页分离。这个很简单的。

 1      worker_processes 8;
 2         
 3         pid /var/run/nginx.pid;
 4         
 5         worker_rlimit_nofile 65535;
 6         
 7         events{
 8             use epoll;
 9             worker_connections 65535;
10         }
11         
12         http{
13             include mime.types;
14             default_type application/octet-stream;
15             sendfile on;
16             tcp_nopush on;
17             tcp_nodelay on;
18             keepalive_timeout 65;
19             types_hash_max_size 2048;
20 
21             proxy_redirect off;
22             proxy_set_header Host host;
23             proxy_set_header X-Real-IP remote_addr;
24             proxy_set_header X-Forwarded-For proxy_add_x_forwarded_for;
25             client_max_body_size 10m;
26             client_body_buffer_size 128k;
27             proxy_connect_timeout 65;
28             proxy_send_timeout 65;
29             proxy_read_timeout 65;
30             proxy_buffer_size 4k;
31             proxy_buffers 4 32k;
32             proxy_busy_buffers_size 64k;
33         
34             server{
35                 listen 80;
36                 server_name xxx.com;
37                 location / {
38                     index index; 
39                 }
40                 location ~ .*\.(js|css|ico|png|jpg|eot|svg|ttf|woff) {
41                     proxy_pass http://192.168.8.203:8080;
42                     expires 30d; 
43                 }
44                 location ~ .* {
45                     index index;
46                     proxy_pass http://192.168.8.203:8080;
47                 }
48             }
49         }

  修改nginx的配置文件 /etc/nginx/nginx.conf 默认有个配置文件的。其实大部分都差不多,关键还是server段的设置。这里我设置server段如上所示,其他段复制就可以了。server段里面的解释如下:第35行为监听本机80端口。37-39行表示默认主页,这里的默认主页我是index.jsp 对应到我项目中是一个index。 这里根据需要可以改为 

 index index.jsp index.html index.htm index.php

   具体可参考其他文章。 关键的第40行,这个是正则匹配,网上也有很多介绍。这里匹配我项目中用到的所有静态网页后缀。第41行是代理地址。这里我代理到我的web应用中。expires 30d缓存为30天,这里的缓存是对应到前端页面,用户的Cache-Control字段,

   第44行中那个正则是匹配无后缀的页面。我项目中jsp页面是无后缀的。这里可以根据需要进行修改。同样代理到192.168.8.203:8080这里。到这里你可能会问,我艹,这有毛意思啊?当然不是这样了。简单的实现静动分离,我们可以把第41行进行修改,改为

root   /var/lib/tomcat7/webapps/JieLiERP/WEB-INF

  表示不代理,直接从本地磁盘拿。通过查tomcat日志可以看到静态页面是没有访问到的。但这样又有一个问题。这样的灵活性不好,对下面要讲到的内存缓存和集群部署来说都是不友好的,所以又有了下面的这种写法。再写一个server段。

 1     server{
 2         listen 808;
 3         server_name static;
 4         location / {
 5 
 6         }
 7         location ~ .*\.(js|css|ico|png|jpg|eot|svg|ttf|woff) {
 8             #所有静态文件直接读取硬盘
 9             root /var/lib/tomcat7/webapps/JieLiERP/WEB-INF ;
10             expires 30d; #缓存30天
11         }
12     }

  这次监听808端口,然后上上面的代码41行就可以修改为 proxy_pass http://192.168.8.203:808了,到这里就实现了动静分离了。如果多台服务器,就修改对应的ip就可以了。如果发现连接不上的,要检查一下防火墙,权限等外部问题,这个配置是这样的。

  如果单纯这样的话,我们会发现页面直接传输过于占用带宽。对应web的优化,这里想到的是通过对页面进行gzip压缩,然后传到用户那里,再解压,这样可以有效的减少带宽。这里就会用到Nginx 的gzip模块了。默认的Nginx是集成有gzip模块的。只需在http段增加下面配置即可。

1     gzip on;
2     gzip_min_length 1k;  #最小1K
3     gzip_buffers 16 64K;
4     gzip_http_version 1.1;
5     gzip_comp_level 6;
6     gzip_types text/plain application/x-javascript text/css application/xml application/javascript;
7     gzip_vary on;

  给个首页看看效果

  不要在意请求数不一样,那两个请求是谷歌插件来的。不用觉得我在骗你。

  作为假使有很多人访问的网站来说,缓存肯定是很重要的东西了。一开始是想通过插件,让Nginx和Redis进行合成,然后Nginx使用Redis来缓存的,但是发现配置起来很麻烦,还要自己下载插件,重新编译Nginx,比较麻烦,所以这里觉得用Nginx自带的缓存也是不错的选择。虽然效率比不上redis,但是有还是比没有好。Nginx默认的缓存是磁盘文件系统的缓存,而不是像Redis那样的内存级别的缓存。一开始我以为Nginx就只有这样。后来查了写资料,才知道是我太天真了,对Linux不是很了解导致的。Linux的一切皆文件。原来我们可以把文件缓存到内存对应的Linux文件系统中。我说的可能比较难以理解,请自行搜索/dev/shm 这个文件目录。我们把文件缓存到这个文件目录里,其实就相当与内存的缓存了。只不过还是靠文件系统管理。所以比不上自定义格式的Redis那样的内存缓存。

  在http段进行基本配置

1 #缓存配置
2     proxy_cache_key 'host:server_portrequest_uri';
3     proxy_temp_file_write_size 64k;
4     proxy_temp_path /dev/shm/JieLiERP/proxy_temp_path;
5     proxy_cache_path /dev/shm/JieLiERP/proxy_cache_path levels=1:2 keys_zone=cache_one:200m inactive=5d max_size=1g;
6     proxy_ignore_headers X-Accel-Expires Expires Cache-Control Set-Cookie;
 1         location ~ .*\.(js|css|ico|png|jpg|eot|svg|ttf|woff) {
 2             proxy_cache cache_one;
 3             proxy_cache_valid 200 304 302 5d;
 4             proxy_cache_valid any 5d;
 5             proxy_cache_key 'host:server_portrequest_uri';
 6             add_header X-Cache 'upstream_cache_status from host';
 7             proxy_pass http://192.168.8.203:808;
 8 
 9             expires 30d; #缓存30天
10         }

  经过这两个的配置就基本能实现了,这里说几个注意项,也是困扰我很久的问题。上面第一段代码第6行,proxy_ignore_headers 如果web项目中的html的head头里面指定

1 <meta http-equiv="pragma" content="no-cache">
2 <meta http-equiv="cache-control" content="no-cache">
3 <meta http-equiv="expires" content="0">

  这些不缓存的话,就要加上proxy_ignore_headers的配置项了。还有一点就是/dev/shm下面的文件系统权限默认只给root用户,所以要chmod 777 -R /dev/shm 这样不是很安全的做法,如果实际上线可以给定某个用户组,关于用户组的设置是配置的第一行

user www www;

  上面第二段代码的第6行是增加一个header字段方便查看是否击中缓存。

  我们rm -rf /dev/shm/JieLiERP/proxy_* 下面的所有文件(注意这里如果是进行多次测试的话要nginx -s reload 重新读取配置或重启服务,因为你rm -rf只是删除了缓存文件,但是缓存的结构信息还在nginx进程里面,结构还在,如果不重启的话,是会出现访问不到的)

  所以要记得重启哦。下面是运行效果

  第一次访问

  第二次访问,在浏览器中Ctrl+Shift+R 强制刷新

  到这里就可以看到效果了。我们查看一下/dev/shm这个里面

  到这里已经快结束了。最后也是比较关键的一个技术点,就是集群,集群,集群。这个就要用到upstream了,看到最开头的配置文件了吗,就是那个

#负载均衡组
#静态服务器组
upstream static { server
127.0.0.1:808 weight=1; server 192.168.8.203:808 weight=1; }
#动态服务器组
upstream dynamic { server
127.0.0.1:8080; #server 192.168.8.203:8080; }

  上面那个就是集群组了。upstream是关键字,static 和 dynamic是两个服务器集群组的名称。以第一个为例,server 127.0.0.1:808 是服务器地址,后面的weight=1 是权重。有多个就写多个。亲测试过,集群中的一个坏了,不影响系统运行。至于更多的轮询规则,可以参考网上更多的资料。这里不多说。至于怎么使用呢? proxy_pass http://192.168.8.203:808 改为 proxy_pass http://static; 这样即可实现均衡。

  到这里就结束了。把上面各个部分根据自己需求配置起来就可以实现单机房负载均衡了。 上面这种做法有一个缺点就是在前面的那一台nginx如果当机,后面所以机器就失去了被访问的能力了,所以需要在前面实现多个nginx多机房的负载。关于这个就是另外一个话题了。目前还没有研究。以后有机会再说了。

  上面动态服务器组如果是那种需要保存用户状态的话,会有问题,就是session问题,比如我在server1进行登录后,下一次动态服务器组进行轮询后可能分配到server2,就会造成要重新登录。治标的办法是,配置轮询规则,根据用户请求的IP进行Hash,然后分配对应的服务器。具体配置如下:

1 upstream dynamic{
2     ip_hash;
3     server 127.0.0.1:8080;
4     server 192.168.0.203:8080;
5 }

  这样就可以实现一个用户对应一个服务器节点。这样就不会有重复登录的问题。另一种治本的办法是,利用缓存系统进行session的统一存储管理。具体的做法我还没有试验过,参考资料有相关的文章,可以了解一下。

--- 2015-12-25 16:19:16 更新---

  Nginx增加SSL功能,同样的Nginx默认是有SSL模块功能,我们不用额外安装,只需要简单的配置就可以了。首先我们先来生成一些必要的证书。制作的过程还是比较简单的。

 1 #制作CA证书
 2 openssl genrsa -des3 -out ca.key 2048
 3 openssl req -new -x509 -days 7305 -key ca.key -out ca.crt
 4 
 5 #生成Nginx服务器所需证书,并使用CA签名
 6 openssl genrsa -des3 -out client.key 1024
 7 openssl req -new -key client.key -out client.csr
 8 openssl x509 -req -in client.csr -out client.pem -signkey client.key -CA ca.crt -CAkey ca.key -CAcreateserial -days 3650
 9 
10 #取消证书密码
11 openssl rsa -in client.key -out client.key.unsecure

  下面就是配置Nginx了,我们可以把需要用到的client.pem, client.pem, client.key,unsecure这三个文件放到Nginx的一个目录下,剩下的Nginx配置如下:

 1     server{
 2         server_name localhost;
 3         listen 443 ssl;
 4         root html;
 5         location / {
 6             index index.html index.html;
 7         }
 8         ssl on;
 9         ssl_certificate keys/client.pem;
10         ssl_certificate_key keys/client.key.unsecure;
11     }

  重启Nginx,我们就可以访问Https网站了。 但是他喵的出现这个

  这个是没有什么问题,具体原因是这个CA证书要得到认可。所以我们上面自己生成的https证书,只是自己生成的,如果要变成下面这种,就需要花钱购买了,剩下的这个自己上网解决。(虽然自己生成的证书可以用,但是还是抵挡不了DNS欺骗,所以这种不安全证书,跟没有其实是一样的。不过据说这样可以阻止运营商劫持。)

  增加一个,就是在我们输入http连接时自动跳转到安全的https连接。这个还是比较实用的。方法还是有多种的,具体可以看参考资料里面的博客。我是使用下面这一种,我觉得是比较简单的,代码改动比较少的。就是对80端口进行代理转发。

1     server{
2         server_name localhost;
3         listen 80;
4         rewrite ^(.*) https://host1 permanent;
5     }

  好了,暂时到这里,后续如果学到更多知识,再进行补充。

 

 

  参考资料:

  http://www.ha97.com/5194.html Nginx配置文件nginx.conf中文详解

  http://saiyaren.iteye.com/blog/1956692 nginx cache静态化+tmpfs 高性能cdn方案

  http://www.oschina.net/question/35243_180072 Nginx配置了proxy_cache为什么不能产生缓存文件

  http://www.ttlsa.com/nginx/nginx-enforce-cache/ nginx强制缓存

  http://www.cnblogs.com/dudu/p/4597351.html 解决nginx反向代理缓存不起作用的问题

  http://blog.csdn.net/akon_vm/article/details/8494620 缓存nginx服务器的静态文件

  http://www.cnblogs.com/lengfo/p/4260363.html 基于nginx tomcat redis分布式web应用的session共享配置

  http://my.oschina.net/zijian1315/blog/207311 生成证书

  http://my.oschina.net/u/1186777/blog/147962 证书配置

  http://www.cnblogs.com/yun007/p/3739182.html Nginx强制跳转到https

  本文地址: http://www.cnblogs.com/wunaozai/p/5001742.html 

posted @ 2015-11-30 10:01 无脑仔的小明 阅读(...) 评论(...) 编辑 收藏