Formas poderosas de potenciar su servidor NGINX y mejorar su rendimiento

NGINX es quizás el servidor web más versátil que existe y puede vencer a otros servidores cuando se configura correctamente. También puede hacer otras cosas importantes, como equilibrio de carga, almacenamiento en caché HTTP y se puede utilizar como proxy inverso.

A lo largo de los años, hemos visto tantas configuraciones que mejoran la seguridad y aumentan el rendimiento de su aplicación web en general, lo que le permite mantenerse al día con las últimas tendencias.

Voy a compartir la configuración minimalista de NGINX que encontré más optimizada y que he estado usando para mi nueva herramienta VisaList. Tuve que hacer muchas búsquedas e investigaciones para mejorar el rendimiento de la última milla de mi sitio web y pensé que el proceso podría ayudar al menos a algunos otros, así que lo comparto aquí.

¿Por qué?

Con estos cambios, pude obtener el resultado a continuación para mi nueva aplicación web:

Puntuación de velocidad de página: estadísticas de velocidad de página

Puntuación Lighthouse: Lighthouse de Chrome Dev Tools

Puntuación del servidor: prueba del servidor SSL de Qualys

Usted también puede obtener fácilmente estos beneficios de rendimiento. No es necesario ser un experto en DevOps para realizar estas optimizaciones. Así que cualquiera que sea nuevo en aplicaciones web y esté usando NGINX encontrará esto muy útil.

Si eres un experto, puedes dejar tus opiniones en los comentarios para que los nuevos desarrolladores como yo puedan aprender y construir una comunidad web fuerte y positiva a nuestro alrededor. ✨ ¡ Vaya desarrolladores web!

Este artículo asume que tiene un servidor Ubuntu 16.04 (Xenial) y una aplicación WebApp Vue.js (o cualquier otro marco JS) renderizada por el servidor lista para ser servida a través de NGINX junto con el servidor API. Si no ha instalado NGINX y necesita ayuda para hacerlo, puede consultar este artículo .

Entonces, ¿cuáles son estas optimizaciones de las que estoy hablando? ¡Veamos el código!

Optimizaciones

La buena noticia es que solo tienes que preocuparte por dos archivos. Una es su configuración general de NGINX, que se aplica a todas las aplicaciones web (puede tener varias aplicaciones web como un sitio web, API, servidor estático, etc.). El otro es específico de su dominio, que, digamos, es example.com. Reemplácelo example.comcon su propio dominio. Aquí solo estoy usando el dominio desnudo sin www. Cubriré eso pronto.

Abra su configuración de NGINX o archivos de configuración específicos de dominio usando estos comandos:

sudo nano /etc/nginx/nginx.conf sudo nano /etc/nginx/sites-available/example.com

Compresión de contenido

¿ Brotli es mejor que GZip ? Sí y No. Cuando el navegador solicita una página web, el servidor no la envía directamente byte a byte. En cambio, lo envía en un estado comprimido basado en las codificaciones aceptadas del navegador. Casi todo el mundo hoy en día usa Gzip, y quizás te preguntes por qué. Porque existe desde hace más de una década.

Entonces aquí viene Brotli, que es el último algoritmo de codificación desarrollado por Google. Brotli es ~ 20% más eficiente que Gzip. Solo tenga en cuenta que debe enviar contenido en Gzip donde Brotli no es compatible. Brotli funciona mejor con archivos estáticos que con contenido dinámico.

También asegúrese de habilitar el tipo Brotli para datos API JSON solo cuando la biblioteca HTTP del lado del cliente lo admita. Por ejemplo, la biblioteca Axios aún no admite la codificación Brotli.

http { ... # Gzip Settings gzip on; gzip_disable "msie6"; gzip_vary on; gzip_proxied any; gzip_comp_level 6; gzip_buffers 32 16k; gzip_http_version 1.1; gzip_min_length 250; gzip_types image/jpeg image/bmp image/svg+xml text/plain text/css application/json application/javascript application/x-javascript text/xml application/xml application/xml+rss text/javascript image/x-icon; # Brotli Settings brotli on; brotli_comp_level 4; brotli_buffers 32 8k; brotli_min_length 100; brotli_static on; brotli_types image/jpeg image/bmp image/svg+xml text/plain text/css application/json application/javascript application/x-javascript text/xml application/xml application/xml+rss text/javascript image/x-icon; ... }

Una vez que agregue estos cambios, puede verificar que la codificación de contenido se muestre bren los encabezados de respuesta en las herramientas para desarrolladores de Chrome:

Mejorar la seguridad

De forma predeterminada, su NGINX no tiene todos los encabezados de seguridad importantes necesarios, lo que en realidad es bastante sencillo. Estos previenen los ataques de secuestro de clics, los ataques de secuencias de comandos entre sitios y otros ataques de inyección de código.

Strict-Transport-SecurityEl encabezado es para HTTP Strict Transport Security (HSTS) que también protege contra ataques de degradación de protocolos.

http { ... # security headers add_header X-Frame-Options "SAMEORIGIN" always; add_header X-XSS-Protection "1; mode=block" always; add_header X-Content-Type-Options "nosniff" always; add_header Referrer-Policy "no-referrer-when-downgrade" always; add_header Content-Security-Policy "default-src * data: 'unsafe-eval' 'unsafe-inline'" always; add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload" always; ... }

Optimizar SSL y sesiones

SSL: Úselo en TLS y deshabilite SSL (SSL es bastante antiguo y desactualizado y tiene muchas vulnerabilidades). Optimice los conjuntos de cifrado, ya que son el núcleo de TLS. Aquí es donde ocurre el cifrado.

Caché de sesión: crear un caché de parámetros de conexión TLS reduce el número de apretones de manos y, por lo tanto, puede mejorar el rendimiento de su aplicación. El almacenamiento en caché se configura mediante la ssl_session_cachedirectiva.

Tickets de sesión: los tickets de sesión son una alternativa al caché de sesión. En caso de caché de sesión, la información sobre la sesión se almacena en el servidor.

OSCP: Para tener una conexión segura a un servidor, el cliente necesita verificar el certificado que presentó el servidor. Para verificar que el certificado no está revocado, el cliente (navegador) se pondrá en contacto con el emisor del certificado. Esto agrega un poco más de sobrecarga a la inicialización de la conexión (y, por lo tanto, al tiempo de carga de nuestra página).

Utilice estas directivas en su configuración de NGINX y estará listo para la optimización SSL.

http { ... # SSL Settings ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_prefer_server_ciphers on; ssl_ciphers ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GC$ # Optimize session cache ssl_session_cache shared:SSL:50m; ssl_session_timeout 1d; # Enable session tickets ssl_session_tickets on; # OCSP Stapling ssl_stapling on; ssl_stapling_verify on; resolver 8.8.8.8 8.8.4.4 208.67.222.222 208.67.220.220 valid=60s; resolver_timeout 2s; ... }

Mejorar el rendimiento: compatibilidad con HTTP / 2

HTTP / 2 tiene muchos beneficios sobre HTTP, como permitir que el navegador descargue archivos en paralelo y permitir que el servidor envíe recursos, entre otros. Todo lo que tiene que hacer es reemplazar httpcon http2en su bloque de servidor predeterminado. Eso es todo, y obtendrá muchísimos beneficios.

server{ ... listen 443 http2 default_server; listen [::]:443 http2 default_server; server_name example.com; ... }

Escriba este comando curl -I -L //example.comy verifique la respuesta.

HTTP/2 200 server: nginx date: Wed, 18 Jul 2018 02:13:32 GMT content-type: text/html; charset=utf-8 content-length: 216641 vary: Accept-Encoding ....

Reducir desguace / ataques

Limiting the requests to the server is critical, as this can easily deplete the resources and can result in huge billings. This is also important to fend off those who want to scrape and attack our servers. There are basically three types of directives:

  • Request Limiting limit_req : Limit the number of requests per IP
  • Connections Limiting limit_conn : Limit the number of Connections per IP
  • Bandwidth/Rate Limiting limit_rate : Limit the bandwidth rate of data being sent

With the below directive, you can rest easy:

http { ... # Limits limit_req_log_level warn; limit_req_zone $binary_remote_addr zone=reqlimit:10m rate=10r/m; limit_conn_zone $binary_remote_addr zone=connlimit:100m; limit_conn servers 1000; # Simultaneous Connections ... }
... server { ... location /api/ { # Rate Limiting limit_req zone=reqlimit burst=20; # Max burst of request limit_req_status 460; # Status to send # Connections Limiting limit_conn connlimit 20; # Number of downloads per IP # Bandwidth Limiting limit_rate 4096k; # Speed limit (here is on kb/s) } ... }

Client-side Caching

Caching static files on the browser is easy, and it saves lot of requests to the server. All you have to do is add these two code blocks and specify the expiration as you please. You can include any other static file extension you deem worthy of caching.

server { ... location / { ... ... } ... ... location ~* \.(jpg|jpeg|png|gif|ico)$ { expires 30d; } location ~* \.(css|js)$ { expires 7d; } ... }

Microcaching

If you haven’t heard about this until now, then you are in luck today! Microcaching is a caching technique in which content is cached for a very short period of time, perhaps as little as 1 second. This effectively means that updates to the site are delayed by no more than a second, which in many cases is perfectly acceptable. This is particularly useful for API responses which are the same for all users.

Use these directives to set microcaching with the path at /tmp/cacheapi with 100MB cache with a max size of 1GB of cache folder that updates cache in the background. Learn more about it here and here.

proxy_cache_path /tmp/cacheapi levels=1:2 keys_zone=microcacheapi:100m max_size=1g inactive=1d use_temp_path=off; ... server { ... location /api/ { # Micro caching proxy_cache microcacheapi; proxy_cache_valid 200 1s; proxy_cache_use_stale updating; proxy_cache_background_update on; proxy_cache_lock on; ... ... } ... }
http { ... add_header X-Cache-Status $upstream_cache_status; ... }

SSL Certificate

Let’s Encrypt is a Certificate Authority (CA) that provides an easy way to obtain and install free TLS/SSL certificates. This enables encrypted HTTPS on web servers. It simplifies the process by providing a software client, Certbot, that attempts to automate most (if not all) of the required steps.

Install LetsEnctypt:

sudo add-apt-repository ppa:certbot/certbot sudo apt-get update sudo apt-get install python-certbot-nginx

Create a LetsEncrypt SSL certificate with this command:

sudo certbot --nginx -d example.com -d www.example.com

and then add these certificates to your domain config file like this:

server { listen 443 ssl http2 default_server; listen [::]:443 ssl http2 default_server; ... ssl_certificate /etc/letsencrypt/live/example.com/fullchain.pem; ssl_certificate_key /etc/letsencrypt/live/example.com/privkey.pem; ... }

Redirect WWW

Google prefers that you choose a domain with www instead of without. It’s better to choose the naked domain as its smaller and removes the redundant www . You can now redirect all www users to your naked domain by adding these below directives.

server { ... ... } server { listen 80; listen [::]:80; server_name example.com; return 301 //$server_name$request_uri; } server { listen 80; listen [::]:80; listen 443 ssl http2; listen [::]:443 ssl http2; server_name www.example.com; return 301 //example.com$request_uri; }

Pagespeed Module

Pagespeed Module is a gem unknown to many. It was originally a Google Project which is now part of Apache Incubator. Pagespeed can automatically take care of almost all the known ways to improve performance on your website.

Installor Upgrade NGINX with Pagespeed. This is not an easy task, and that’s why I have saved it for last. Follow these instructions, and you should be able to do it without any hastle. Once you’re done, all you need to do is enable it and voilà!

server{ ... # Pagespeed Module pagespeed on; pagespeed FileCachePath /var/cache/ngx_pagespeed_cache; location ~ "\.pagespeed\.([a-z]\.)?[a-z]{2}\.[^.]{10}\.[^.]+" { add_header "" ""; } location ~ "^/pagespeed_static/" { } location ~ "^/ngx_pagespeed_beacon$" { } pagespeed RewriteLevel PassThrough; pagespeed EnableCachePurge on; pagespeed PurgeMethod PURGE; pagespeed EnableFilters prioritize_critical_css; ... }

There are so many filters that you can enable, but just keep in mind that most of the modern frameworks like (Nuxt.js, Angular, Next.js and so on) have some of these optimisations as part of their build process, so this can be counterintuitive. Choose filters which you need and enable only them. This is not by any means an exhaustive set of filters, but would definitely take your site to 100/100 on pagespeed.

pagespeed EnableFilters rewrite_css; pagespeed EnableFilters collapse_whitespace,remove_comments; pagespeed EnableFilters flatten_css_imports; pagespeed EnableFilters combine_css; pagespeed EnableFilters combine_javascript; pagespeed EnableFilters defer_javascript; pagespeed EnableFilters extend_cache; pagespeed EnableFilters pedantic; pagespeed EnableFilters inline_google_font_css; pagespeed FetchHttps enable; pagespeed EnableFilters inline_css,move_css_above_scripts; pagespeed EnableFilters inline_javascript; pagespeed EnableFilters inline_import_to_link; pagespeed EnableFilters lazyload_images; pagespeed EnableFilters insert_dns_prefetch; pagespeed EnableFilters inline_preview_images; pagespeed EnableFilters resize_mobile_images; pagespeed EnableFilters rewrite_images; pagespeed EnableFilters responsive_images,resize_images; pagespeed EnableFilters responsive_images_zoom; pagespeed EnableFilters rewrite_javascript; pagespeed EnableFilters rewrite_style_attributes,convert_meta_tags;

You can read more about different types of filters available here.

So the final NGINX config and domain config looks something like this:

//gist.github.com/1hakr/01cb00dfce8c92a15c0d9faee9052042

Now all you have to do is reload your NGINX config file by typing the below commands and you have supercharged your NGINX server:

sudo nginx -t sudo systemctl restart nginx

Pro Tip: If you find this article beyond your reach, then there is a simple website which can get the final config file for you: check out NGINX Config.

I hope you like this NGINX config and are able to supercharge your web apps. Do you already use something similar or have a different opinion altogether? Let me know in the comments.

This is my new microstartup, VisaList, where I have applied these optimisations. It can help you find visa requirements for all countries in the world in a simple and useful way.

Find countries to visit across the world

Search from list of countries your can travel with Visa free, Visa on arrival and other requirements from more than…

visalist.io

That all folks! This is HaKr signing off. Thanks for reading, and if you found this useful do click ? to recommend this article to others so they can find it, too.

I build microstartups while travelling when I can. If you find this kind of stuff interesting, you can follow me on Twitter and check out my open-source work on GitHub.