Estimación de tiempo de lectura: 14 minutos.
Escucha
este artículo.
Para dar ambiente
al artículo.
Cuando hablamos de comprimir imágenes, la mayoría de la gente piensa que el resultado será una foto cutre, borrosa y llena de manchas. Nada más lejos de la realidad. Con las herramientas y los conocimientos adecuados, es posible reducir el peso de un archivo JPG o PNG de forma brutal sin que nadie note la diferencia. Y eso, para quien trabaja en diseño editorial o gestiona contenidos digitales, supone un antes y un después en la velocidad de carga, el almacenamiento y la experiencia de usuario.
El formato JPEG nació a principios de los años noventa gracias al Joint Photographic Experts Group, un comité de expertos que desarrolló un estándar de compresión pensado específicamente para fotografías. Su algoritmo se basa en un principio fascinante que conecta la tecnología con la biología: el ojo humano es mucho más sensible a los cambios de luminosidad que a los de color. Aprovechando esa limitación biológica, el JPEG elimina información cromática que nuestro cerebro apenas percibe, logrando reducir el tamaño de los archivos de forma significativa. Por su parte, el PNG surgió algo después, impulsado por el World Wide Web Consortium, como una alternativa libre al formato GIF que por aquel entonces estaba sujeto a licencia. A diferencia del JPEG, el PNG utiliza compresión sin pérdida, lo que lo convierte en el formato ideal para gráficos planos, logotipos e imágenes que necesitan transparencia mediante su canal alfa. Elegir entre uno y otro no es cuestión de preferencia personal, sino de entender qué tipo de imagen vas a manejar y cuál será su destino final.
JPG para fotos, PNG para gráficos: la regla de oro
Si hay una norma que todo diseñador debería tatuarse en la retina es esta: usa JPG para fotografías y PNG para gráficos vectoriales rasterizados, iconos y logotipos. El motivo es puramente técnico y tiene que ver con cómo funciona cada algoritmo de compresión. El algoritmo JPEG está diseñado para manejar millones de colores y transiciones suaves entre tonos, algo propio de las fotografías y las imágenes con textura. Cuando intentas guardar un gráfico plano con grandes áreas de color sólido en JPEG, el resultado es un archivo innecesariamente pesado y con artefactos visibles en los bordes, esas manchas características que arruinan la nitidez de cualquier logotipo.
El PNG, en cambio, brilla precisamente en esas situaciones. Su compresión sin pérdida mantiene los bordes nítidos y las áreas de color uniforme impecables, generando archivos sorprendentemente ligeros cuando la imagen es sencilla. Sin embargo, si guardas una fotografía en PNG, prepárate para un archivo enorme que cuadruplicará el peso de su equivalente en JPEG sin aportar ninguna ventaja visible. Un gráfico plano podría pesar apenas unos cuantos kilobytes en PNG, pero esa misma imagen con contenido fotográfico se dispararía hasta varios megabytes. Parece obvio, pero esta confusión entre formatos sigue siendo uno de los errores más habituales en estudios de diseño y departamentos de comunicación, donde a menudo se exporta todo en PNG «por si acaso» sin pensar en las consecuencias.

La transformada del coseno: el corazón del JPEG
Para comprender por qué el JPEG es tan eficaz comprimiendo fotografías, merece la pena asomarse al mecanismo que hace posible la magia. El algoritmo divide la imagen en bloques de 8×8 píxeles y aplica a cada uno la transformada de coseno discreta, conocida como DCT por sus siglas en inglés. Esta operación matemática, desarrollada originalmente por Nasir Ahmed y colaboradores en 1974, convierte los valores de los píxeles en coeficientes de frecuencia. Los coeficientes de baja frecuencia representan las variaciones graduales de tono y color, que son las que nuestro ojo percibe con más facilidad. Los de alta frecuencia corresponden a detalles minúsculos y transiciones abruptas que el sistema visual humano tiende a ignorar.
Al cuantizar estos coeficientes —es decir, al redondear y simplificar los valores de alta frecuencia—, el algoritmo descarta información que resulta prácticamente invisible para el espectador. La gracia del asunto está en que el grado de cuantización es completamente ajustable. En programas como Photoshop, cuando eliges un nivel de compresión entre 1 y 12, estás decidiendo cuánta información de alta frecuencia se sacrifica en el proceso. Un nivel 8, por ejemplo, suele ser el punto dulce donde el archivo pesa una fracción del original sin que nadie aprecie la diferencia a simple vista. Es un equilibrio elegante entre matemáticas y percepción humana que lleva funcionando más de tres décadas.
El primer paso: redimensionar antes de comprimir
Antes de tocar ningún ajuste de compresión, hay un paso previo que muchos profesionales pasan por alto y que tiene un impacto descomunal en el peso del archivo final. Reducir las dimensiones de la imagen en píxeles es, con diferencia, la forma más efectiva de aligerar un archivo. Una fotografía de 6000×4000 píxeles directamente sacada de una cámara moderna puede pesar fácilmente 1,7 megabytes incluso en formato JPEG. Si el destino final de esa imagen es una columna de blog de 664 píxeles de ancho, no tiene ningún sentido mantener esas dimensiones titánicas.
Teniendo en cuenta las pantallas de alta densidad de píxeles, que muestran el doble de resolución, bastaría con redimensionar la imagen a unos 1328 píxeles de ancho. Solo con ese ajuste, el peso podría bajar de 1,7 MB a unos 800 KB, una reducción de más de la mitad sin haber tocado un solo parámetro de compresión. En el ámbito del diseño editorial digital, este paso es todavía más crítico. Las publicaciones interactivas y los PDF optimizados para pantalla no necesitan imágenes a 300 ppp; con 72 o 96 ppp es más que suficiente para una visualización nítida en cualquier dispositivo. En cambio, si el destino es la impresión offset o digital de alta calidad, entonces sí hay que mantener los 300 dpi y las dimensiones adecuadas al tamaño físico final. Saber distinguir entre ambos escenarios y aplicar la resolución correcta es lo que separa al profesional del aficionado.

Ajustar la compresión JPEG sin perder los nervios
Una vez que la imagen tiene las dimensiones correctas, llega el momento de jugar con el nivel de compresión. Como ya hemos comentado, el JPEG permite elegir entre distintos grados que van del máximo detalle al máximo ahorro de espacio. La tentación de dejarlo todo en calidad máxima es comprensible, sobre todo cuando uno ha invertido tiempo en conseguir la foto perfecta, pero resulta innecesaria en la gran mayoría de los casos. La diferencia visual entre un nivel 12 y un nivel 8 es prácticamente imperceptible para el ojo humano en la mayoría de las fotografías.
Sin embargo, la diferencia en peso es enorme: siguiendo el ejemplo anterior, aquella imagen de 800 KB a nivel 12 podría quedarse en apenas 200 KB a nivel 8. Hablamos de una reducción del 75% sin que nadie note nada raro. El truco está en no dejarse llevar y evitar bajar demasiado. Por debajo del nivel 5 o 6, empiezan a aparecer los temidos artefactos de compresión: esos bloques y bandas de color que delatan una optimización demasiado agresiva y que resultan especialmente molestos en zonas de transición suave como cielos o degradados. También es importante recordar que cada vez que abres, editas y vuelves a guardar un JPEG, la compresión se aplica de nuevo y la calidad se degrada un poco más. Por eso, siempre conviene trabajar con el archivo original o con una copia en formato sin pérdida como TIFF o PSD, y exportar a JPEG únicamente al final del proceso editorial.

Herramientas de compresión: las aliadas del diseñador
Después de redimensionar y ajustar el nivel de compresión, todavía queda margen para exprimir unos kilobytes más. Ahí es donde entran las herramientas de compresión especializadas, que aplican algoritmos propietarios para optimizar el archivo sin alterar lo que el ojo percibe. TinyPNG es probablemente la más conocida del sector. A pesar del nombre, comprime tanto PNG como JPG y WebP, y su algoritmo inteligente analiza cada imagen de forma individual para aplicar los ajustes óptimos automáticamente. Es capaz de reducir el peso hasta un 80% adicional manteniendo una apariencia prácticamente idéntica al original, y permite procesar varias imágenes à la vez con un límite razonable en su versión gratuita.
Kraken.io, por su parte, está orientada a un uso más profesional y permite elegir entre compresión con pérdida o sin pérdida, dando el control total al diseñador sobre el equilibrio entre calidad y tamaño. Su tecnología es especialmente apreciada por fotógrafos y administradores de sitios web que buscan la máxima fidelidad visual. Squoosh, desarrollada por Google Chrome Labs, es otra opción fantástica que merece atención especial. Funciona directamente en el navegador como una aplicación web progresiva, todas las operaciones se realizan en local sin subir nada à la nube —lo cual garantiza la privacidad total—, y su interfaz con vista previa en tiempo real permite comparar el antes y el después con un deslizador interactivo. Además, soporta formatos modernos como AVIF, MozJPEG, WebP y OxiPNG. Para quien prefiera trabajar desde el escritorio, ImageOptim en Mac y herramientas similares en Windows son opciones excelentes que apuran hasta el último byte sin sacrificar calidad visible.
Los metadatos EXIF: el peso que nadie ve
Hay un aspecto que suele pasar completamente desapercibido cuando se habla de optimización de imágenes, y es el peso de los metadatos. Cada fotografía tomada con una cámara digital o un smartphone lleva incrustada una cantidad considerable de información invisible: modelo de cámara, ajustes de exposición, velocidad de obturación, apertura del diafragma, coordenadas GPS, fecha y hora, e incluso una miniatura de la imagen original en baja resolución. Estos datos, almacenados en formato EXIF —siglas de Exchangeable Image File Format—, pueden añadir entre 10 y 50 KB por imagen. Eso no parece mucho hasta que multiplicas esa cifra por decenas o cientos de imágenes en un sitio web o una publicación digital interactiva.
Eliminar los metadatos EXIF no solo reduce el peso del archivo, sino que también protégé la privacidad del fotógrafo o del cliente, ya que las coordenadas GPS pueden revelar con precisión de metros la ubicación exacta donde se tomó la foto. La mayoría de las herramientas de compresión que hemos mencionado anteriormente eliminan los metadatos de forma automática durante el proceso, pero también es posible hacerlo manualmente con utilidades como ExifTool en línea de comandos o desde las propiedades del archivo en el explorador de Windows. Ahora bien, hay un matiz importante para fotógrafos profesionales: muchos bancos de imágenes y agencias de stock rechazan archivos cuyos datos EXIF han sido eliminados, porque necesitan esa información para catalogar y verificar la autoría. Así que conviene conservar siempre una copia del original intacta antes de limpiar los metadatos de las versiones optimizadas.

WebP y AVIF: el futuro ya está aquí
Aunque JPG y PNG siguen siendo los formatos dominantes y probablemente lo serán durante bastante tiempo, merece la pena conocer a los dos aspirantes que están ganando terreno a pasos agigantados. WebP, desarrollado por Google en 2010 a partir del códec de vídeo VP8, ofrece una compresión notablemente superior à la del JPEG: una imagen WebP contiene la misma información visual que su equivalente JPG pero ocupa entre un 30% y un 40% menos de espacio. Además, admite transparencia como el PNG y animaciones como el GIF, lo que lo convierte en un formato tremendamente versátil para proyectos web.
AVIF, presentado en 2019 por la Alliance for Open Media —un consorcio que incluye a gigantes como Netflix, Google y Amazon—, va todavía un paso más allá. Basado en el códec de vídeo AV1, consigue reducciones de hasta un 50% respecto al JPEG con una calidad visual igual o superior, y soporta alto rango dinámico para imágenes con sombras y degradados complejos. Ambos formatos son ya compatibles con la inmensa mayoría de navegadores modernos, incluyendo Chrome, Firefox, Edge y Safari, aunque la adopción de AVIF es algo menor que la de WebP en ciertos contextos. La estrategia más inteligente para proyectos web actuales pasa por servir AVIF como primera opción, con WebP como respaldo y JPEG como último recurso para navegadores antiguos. Para proyectos editoriales impresos, sin embargo, estos formatos no aplican: el TIFF y el PDF de alta resolución siguen mandando sin discusión posible.
De 1,7 MB a 140 KB: la prueba del algodón
Veamos el efecto acumulado de todas estas técnicas con un ejemplo concreto y real que demuestra hasta dónde se puede llegar. Partimos de una fotografía descargada a 6000×4000 píxeles con un peso de 1,7 MB. Tras redimensionarla a 1328×885 píxeles para ajustarla al ancho de una columna web teniendo en cuenta las pantallas retina, el archivo baja a 800 KB. A continuación, reducimos el nivel de compresión JPEG de 12 a 8, y el peso cae hasta los 200 KB sin pérdida visual apreciable. Finalmente, pasamos la imagen por una herramienta como TinyPNG, que la comprime un 30% adicional, dejándola en apenas 140 KB.
El resultado es una reducción del 92% respecto al archivo original, y la diferencia visual es absolutamente inapreciable incluso ampliando la imagen al cien por cien. Este flujo de trabajo —redimensionar, ajustar compresión, aplicar herramienta de optimización— debería convertirse en un hábito automático para cualquier profesional del diseño que trabaje con contenido digital. No se trata solo de que las imágenes carguen más rápido, que también. Se trata de respetar a los usuarios que navegan con conexiones limitadas o desde dispositivos móviles con tarifas de datos restrictivas, de reducir costes de almacenamiento y ancho de banda, y de ofrecer una experiencia digital verdaderamente impecable. Al final, la optimización de imágenes es una de esas tareas invisibles que marcan la diferencia entre un trabajo correcto y un trabajo excelente. Y en un sector donde los detalles lo son todo, ignorarla es un lujo que ningún estudio de diseño debería permitirse.

Referencias
- Ahmed, N., Natarajan, T. y Rao, K. R. (1974). Discrete cosine transform. IEEE Transactions on Computers, 23(1), 90–93. Artículo fundacional que introduce la transformada de coseno discreta (DCT), base matemática de la compresión JPEG y referencia obligada para entender cómo se descarta información casi imperceptible al ojo humano.
- Gonzalez, R. C. y Woods, R. E. (2018). Digital image processing (4.ª ed.). Pearson. Manual académico clásico sobre procesamiento digital de imágenes, con capítulos completos dedicados a modelos de compresión con y sin pérdida, estándares como JPEG y JPEG 2000 y análisis de calidad de imagen.
- López López, A. M. (2019). Diseño gráfico digital. Anaya Multimedia. Libro de referencia en castellano para diseñadores, que conecta fundamentos de diseño gráfico con prácticas actuales de entorno digital, incluyendo secciones sobre formatos de imagen, resolución, optimización para web y maquetación multipantalla.
- Rodríguez, H. (2009). Imagen digital: conceptos básicos (2.ª ed.). Autor-Editor. Guía clara y muy visual sobre los fundamentos de la imagen digital —píxeles, resolución, formatos, compresión— pensada para fotógrafos y diseñadores que necesitan entender qué ocurre «por debajo» de sus archivos.
- Weinman, L. (2003). Designing web graphics 4. New Riders. Obra clásica del diseño web que aborda la preparación de gráficos e imágenes para pantalla, con especial énfasis en la elección de formatos (GIF, JPEG, PNG), técnicas de reducción de peso y estrategias para mejorar el rendimiento de sitios y aplicaciones.







Debe estar conectado para enviar un comentario.