nginx負載均衡一些配置的實戰(zhàn)演示!
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ .php$ {
# proxy_pass http://127.0.0.1;
#}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ .php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}
# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /.ht {
# deny all;
#}
}
# another virtual host using mix of IP-, name-, and port-based configuration
#
#server {
# listen 8000;
# listen somename:8080;
# server_name somename alias another.alias;
# location / {
# root html;
# index index.html index.htm;
# }
#}
# HTTPS server
#
#server {
# listen 443 ssl;
# server_name localhost;
# ssl_certificate cert.pem;
# ssl_certificate_key cert.key;
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 5m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
# location / {
# root html;
# index index.html index.htm;
# }
#}
}
這里內容比較多,我們現(xiàn)在自己來寫一個配置文件來實現(xiàn)nginx的訪問:
txp@ubuntu:/usr/local/nginx$ sudo mkdir demo_conf
txp@ubuntu:/usr/local/nginx$ cd demo_conf/
txp@ubuntu:/usr/local/nginx$ vim demo_conf/demo.conf
worker_processes 4;#進程數(shù)量
events{
worker_connections 1024;#并發(fā)訪問數(shù)量
}
http{
server {
listen 8888;#監(jiān)聽端口
server_name localhost;#服務器名稱
client_max_body_size 100m;#訪問的數(shù)量大小
location / {
root /usr/local/nginx/html/ #訪問這個本地服務器里面的這個html頁面
}
}
}
現(xiàn)在我們來看一下我們自己配置的是否成功,先把之前的nginx關閉掉:
./sbin/nginx -s stop
然后再執(zhí)行這個配置文件:
./sbin/nginx -c demo_conf/demo.conf
這里擴展一下基礎知識點:
Nginx 由配置文件中指定的指令控制的模塊組成。指令分為簡單指令和塊指令。一個簡單的指令由空格分隔的名稱和參數(shù)組成,并以分號(;)結尾。塊指令具有與簡單指令相同的結構,但不是以分號結尾,而是以大括號({和})包圍的一組附加指令結束。如果塊指令可以在大括號內部有其他指令,則稱為上下文(例如:events,http,server 和 location)。配置文件中放置在任何上下文之外的偽指令都被認為是主上下文。events 和 http 指令駐留在主上下文中,server 在 http 中的,而 location 在 http 塊中。
3、負載均衡、反向代理和靜態(tài)資源的訪問演示:
--反向代理原理(ReverseProxy):它是指以代理服務器來接受internet上的連接請求,然后將請求轉發(fā)給內部網(wǎng)絡上的服務器,并將從服務器上得到的結果返回給internet上請求連接的客戶端,簡單來說就是真實的服務器不能直接被外部網(wǎng)絡訪問,想要訪問必須通過代理,如下圖所示:
上圖中有兩個網(wǎng)關,一個是nginx應用層網(wǎng)關,一個路由器硬件網(wǎng)關,nginx和各服務器都是在同一個局域網(wǎng)里面;路由器它做了一個端口映射(nat)直接訪問到nginx,給人的感覺nginx就在公網(wǎng)上面;
注意這里的服務器對外不提供服務的,通過nginx代理來向外提供服務;外面訪問的是公網(wǎng)ip,然后通過端口映射找到nginx
現(xiàn)在我們用nginx做代理配置(比如說我這里用143的這臺機器代理141這臺機器):
worker_processes 4;
events{
worker_connections 1024;
}
http{
server {
listen 8888;
server_name localhost;
client_max_body_size 100m;
location / {
root /usr/local/nginx/html/;
proxy_pass http://192.168.29.141;
}
}
}
注意:141的那臺機器也安裝nginx了,然后當我訪問143這臺機器的時候,其實訪問的是141這臺機器的內容,這就是代理的使用了:
-- 負載均衡:從負載均衡四個字來看,肯定是用來減輕服務器的訪問壓力的;比如說當一臺服務器的單位時間內的訪問量越大時,服務器壓力就越大,大到超過自身承受能力時,服務器就會崩潰(比如每年雙十一活動,淘寶就使用了nginx的負載均衡的功能,不然當天那么多的用戶活躍在淘寶上,服務器肯定吃不消。。。因此為了避免服務器崩潰,讓用戶有更好的體驗,我們通過負載均衡的方式來分擔服務器壓力。我們可以建立很多很多服務器,組成一個服務器集群,當用戶訪問網(wǎng)站時,先訪問一個中間服務器(也就是我們的nginx),在讓這個中間服務器在服務器集群中選擇一個壓力較小的服務器,然后將該訪問請求引入該服務器。如此以來,用戶的每次訪問,都會保證服務器集群中的每個服務器壓力趨于平衡,分擔了服務器壓力,避免了服務器崩潰的情況。
下面我演示負載均衡案例:
worker_processes 4;
events{
worker_connections 1024;
}
http{
upstream backend{
server 192.168.29.142 weight=2;//weight表示權重
server 192.168.29.141 weight=1;
}
server {
listen 8888;
server_name localhost;
client_max_body_size 100m;
location / {
# root /usr/local/nginx/html/;
# proxy_pass http://192.168.29.141;
proxy_pass http://backend;
}
}
}
注意:權重表示被訪問的更多,這里由于我三臺機器都安裝了nginx,所以內容顯示看不出什么不同之處來,其實142的機器被訪問了2次,141的機器被訪問了1次,我這里有三太機器:141、142、143:
-- 訪問靜態(tài)資源(圖片和視頻)
這里我在143的機器上放了幾張圖片,然后在/usr/local/nginx目錄下創(chuàng)建了一個images文件夾,然后把143機器上的圖片copy到images下面來:
root@ubuntu:/usr/local/nginx# ls
client_body_temp fastcgi_temp images proxy_temp scgi_temp vip_conf
conf html logs sbin uwsgi_temp
root@ubuntu:/usr/local/nginx# mv /home/txp/share/nginx.png images/
root@ubuntu:/usr/local/nginx# ls
client_body_temp fastcgi_temp images proxy_temp scgi_temp vip_conf
conf html logs sbin uwsgi_temp
root@ubuntu:/usr/local/nginx# cd images/
root@ubuntu:/usr/local/nginx/images# ls
1.png 2.png 3.png
然后進行conf文件配置:
worker_processes 4;
events{
worker_connections 1024;
}
http{
upstream backend{
server 192.168.29.142 weight=2;
server 192.168.29.141 weight=1;
}
server {
listen 8888;
server_name localhost;
client_max_body_size 100m;
location / {
# root /usr/local/nginx/html/;
# proxy_pass http://192.168.29.141;
proxy_pass http://backend;
}
location /images/ {
root /usr/local/nginx/;
}
}
}
實現(xiàn)結果如下:
下面我在演示一下視頻訪問,同樣,我創(chuàng)建一個media目錄,然后把143機器上的test.mp4copy到media目錄來:
root@ubuntu:/usr/local/nginx# mv /home/txp/share/nginx/test.mp4 media/
root@ubuntu:/usr/local/nginx# cd media/
root@ubuntu:/usr/local/nginx/media# ls
test.mp4
conf文件配置:
worker_processes 4;
events{
worker_connections 1024;
}
http{
upstream backend{
server 192.168.29.142 weight=2;
server 192.168.29.141 weight=1;
}
server {
listen 8888;
server_name localhost;
client_max_body_size 100m;
location / {
# root /usr/local/nginx/html/;
# proxy_pass http://192.168.29.141;
proxy_pass http://backend;
}
location /images/ {
root /usr/local/nginx/;
}
location ~.(mp3|mp4) #這里利用了正則表達式
root /usr/local/nginx/media/;
}
}
}
結果如下:
三、總結
今天就暫時總結這么多吧,還有cgi和fastcgi的使用和區(qū)別,就暫時不講了,如果哪天有用到,再來實戰(zhàn)演示。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?