jueves, 21 de octubre de 2010

Mezclado: ¿eso qué es? - 1

Introducción

Vale, a mí lo que me gusta es tocar la guitarra. Disfruto con las guitarras, los amplificadores y los efectos.
Los problemas comienzan el día que todo guitarrista decide "grabar un tema". Los que tienen dinero suficiente, van a parar a un estudio de grabación. Allí contratan algún músico de sesión para hacer las bases y, todo aquello que no pueda hacer y, con suerte hasta consigue que le mezclen el tema.

Los que no tenemos dinero (porque nos lo hemos gastado en amplificadores, guitarras y pedales, que es lo que de verdad nos gusta), nos las vemos y deseamos para poder "grabar" el puñetero tema. Si, encima, somos aficionados (no profesionales), el ir a un estudio provoca bastante stress. Quieres acabar rápido, porque las horas cuestan dinero y, acabas con lo que tengas hasta el momento en el que se acaba el dinero.

La grabación es la fase más importante de la producción musical. De todos es conocido el lema "basura entra, basura sale". La materia prima de la producción musical es la grabación. Contra mayor calidad tenga, más fácil será obtener buenos resultados en las siguientes fases: mezcla y masterización.

Dada la importancia, es posible que dediquemos nuestro esfuerzo económico en la grabación en un estudio, para tener un buen material de partida o, puede que hayamos invertido en buenos micrófonos, un buen previo, una buena tarjeta de sonido, hayamos adecuado alguna sala o utilicemos cualquier otro medio alternativo: simuladores de altavoz, cajas ISO, cajas DI, previos y/o amplis de rack, simuladores de amplificador o cualquier otro medio que nos haya permitido grabar una pista de guitarra decente.

Vale, tenemos la grabación y queremos realizar nosotros la mezcla, ya sea por motivos económicos, por curiosidad o por la razón que sea. ¿Por dónde empezamos? (¡cielos, a mí lo que me va es tocar la guitarra!).

Todas las fases de producción musical son, simultáneamente, arte y ciencia. Ciencia porque las correcciones y transformaciones que se hacen al sonido tienen origen en conocimientos técnicos que rodean al sonido y a los aparatos o instrumentos utilizados para su representación y transformación. Arte porque las formas de procesar el sonido son infinitas y, cada cual intenta cuantos caminos se le ocurren para representar ese sonido que tiene en la mente y, que tan difícil de obtener parece.

En este blog (y si, se hace muy largo, en otros posteriores), pretendo recoger los conocimientos básicos y trucos que he ido coleccionando, mientras me he ido introduciendo en el mundo de la mezcla.


Audio Digital

Si estás en mi situación, serás un guitarrista que está intentando mezclar en su ordenador personal y, dado el coste del equipo electrónico, intentarás hacerlo mezclando en el PC (mixing In The Box, ITB, como se dice en inglés).
La mezcla en el PC es una mezcla digital, mientras que el sonido es analógico.
El sonido analógico se caracteriza por su continuidad. La señal varía constantemente, de forma fluída. El sonido de la guitarra (y, en general de cualquier instrumento), se recoge mediante micrófonos, también analógicos. La débil señal del micrófono es, posteriormente, amplificada por un previo de calidad (que permite la mayor representación de frecuencias audibles con la mayor fidelidad) y, esa señal amplfiicada es introducida en una mesa de mezclas análogica (en los estudios) o en una tarjeta de sonido.

Incluso en los estudios de grabación, la técnica de mezcla analógica, con grabadores multipista, ha dejado paso a la técnica de mezcla digital, porque es infinítamente más cómodo trabajar con una Estación Digital de Audio (Digital Audio Workstation, DAW, que es como se conoce a los programas de audio que permiten grabar y mezclar audio en PC. Ejemplos son: Pro Tools, Logic, Cubase, Nuendo, Sonar, etc.).

El problema se da cuando pasamos del audio analógico al digital y, del digital al analógico.
Cuando el sonido analógico registrado se graba en el PC, éste se convierte a formato digital.
Cuando el sonido digital del PC se escucha por los monitores, se está convirtiendo a formato analógico.
Si enviamos alguna pista a un dispositivo analógico externo (compresor, ecualizador, por ejemplo) y, grabamos el sonido resultante de la transformación que ha efectuado el dispositivo, estamos convirtiendo de digital a analógico y de analógico a digital, de nuevo.

En este punto, ya verás con claridad que tu equipo debe disponer de conversores A/D y D/A (Analógico/Digital y Digital/Analógico) de calidad. ¿Qué calidad?. La mejor que puedas pagar. Existen equipos dedicados exclusivamente a las tareas de convertir las señales entre ambos mundos y, que cuestan un riñon y parte del otro pero, en el mundo casero, basta utilizar una tarjeta de sonido con conversores de reconocida calidad.

¿Cómo se representa el audio analógico en formato digital?

Los equipos conversores A/D se encargan de tomar una muestra del valor eléctrico de la señal de entrada, cada determinado tiempo. Los valores típicos de las frecuencias de muestreo te deberían sonar ya: 11 KHz, 22 Khz, 44.1 Khz, 48.Khz. ¿Por qué esos valores?. ¿Son caprichosos?.

Estudios de audio han demostrado que el oído humano escucha como continuo un sonido que se emite a trozos, a una velocidad de 44 Khz (¡44.000 muestras por segundo!), de forma análoga a como el ojo ve los fotogramas de una película como contínuos si son emitidos a una velocidad mínima de 24 fotogramas por segundo. La industria musical fijo el mínimo en 44.1 Khz, para los CDs de audio.
Con 44 Khz, se pueden representar todas las frecuencias audibles por el oído humano (desde 20 Hz hasta 20 KHz), sin embargo, los equipos de menor calidad utilizan 22 Khz, con lo que sacrifican la representación de la mitad de las frecuencias (cuales sacrifican depende de cada equipo) e, incluso de 11 Khz, que dejan tan solo un cuarto de las frecuencias audibles como representables.

El audio profesional utiliza 48 Khz y, los formatos de alta definición 96 Khz.

Vale, ya sabemos que la frecuencia de muestreo tiene dos funciones: contra más muestras tomo, más cercana será la representación digital de la señal analógica original y, por otro lado, mayor rango de frecuencias podré representar.

Nos queda otro aspecto que aclarar: la profundidad de bits. ¿y eso qué es?.

Como sabrás, en el mundo digital, cualquier valor puede expresarse tan solo mediante una cadena de unos y ceros. El número de unos y ceros que compongan la cadena limita el valor máximo que se puede representar.
Así, con 16 bits podemos representar 2^16 valores (65.536), la mitad positivos y la mitad negativos (no olvidemos que el sonido forma una onda sinuidal que toma valores positivos y negativos.
Con 24 bits podemos representar 2^24 valores (16.777.216), lo que ya empieza a ser una cifra importante.
Con 32 bits podemos representar 2^32 valores (4.294.967.296), una cifra impresionante de más de 4 mil millones.

¿Y qué importancia tiene todo ésto?.
La señal de sonido que produce el micrófono y, que posteriormente amplifica el previo, es una señal eléctrica contínua, que varía de voltaje. Las diferencias entre los niveles de voltaje mínimo y máximo determinan el rango dinámico del sonido. Cada valor de dicho voltaje es lo que se recoge en una muestra y se guarda en un formato digital, cuyo número de bits permitirá distinguir más o menos matices de voltaje.
Con 32 bits, podemos dividir el rango de voltajes en 4 mil millones de escalones distintos. Con 24 bits, 16 millones de tramos distintos y, con 16 bits, tan solo 65 mil estados distinto.

Durante el proceso de conversión de digital a analógico, los conversores transforman cada valor digital en una señal eléctrica discreta. Entre dos señales, el conversor suele interpola otra, es decir, calcula un punto intermedio entre el punto A y el B, y rellena ese espacio, esperando dar continuidad al sonido. Contra más juntos estén los puntos A y B (porque hemos representado con más bits, más valores), menos cosas raras interpolará el conversor.


¿Cuánto pesa el audio digital?

Vale, ahora sabemos que para representar el audio digitalmente utilizamos dos valores: la frecuencia de muestreo y la profundidad de bits para su representación. ¿Cuánto ocupa, entonces?.

MUCHO.

1 minuto de audio, a 16 bits y 22 Khz ocupa 21.168.000 bits (¡¡¡ 2,52 MB !!!).
1 minuto de audio, a 24 bits y 44.1 Khz ocupa 63.504.000 bits ('¡¡¡ 7,57 MB !!!).
1 minuto de audio, a 16 bits y 44.1 Khz ocupa 42.336.000 bits (¡¡¡ 5,04 MB !!!).

Y, esto, multiplicado por dos, si representamos dos canales (estéreo).

El formato elegido para el CD es 16 bits a 44.1 Khz. La capacidad de un CD de audio es de 650 Mb, es decir, que da para unos 64 minutos de música en estéreo (650 / (2 x 5,04)), haciendo operaciones a groso modo.

Ahora, imagina que grabas varias tomas de guitarra (para elegir la mejor o mezclar las mejores partes), junto con varias tomas de bajo, otras tantas de batería, otras de voz, etc. ¡Cómo se come el espacio en disco, eh!.

En este punto, ya te quedará claro que para tener sonido de calidad metidito en tu PC, vas a necesitar un MONTÓN de disco duro o, cualquier otro tipo de almacenamiento externo que te permita ir archivando tu trabajo, en las distintas etapas.


Bueno, entonces, ¿con qué formato digital trabajamos?

Verás, en un trabajo de una universidad de Helsinki, leí (hace tiempo ya) que la conversión se beneficia más de la profundidad de bits (los distintos estados de la señal) que de la frecuencia de muestreo (número de muestras). Por tanto, es mejor trabajar a 24 bits y 44.1 Khz que hacerlo a 16 bits y 96 Khz.

En los grandes estudios, con grandes medios, se puede trabajar a 32 bits y 96 Khz pero, para estudios más económicos o estudios caseros, 24 bits y 44.1 Khz son un excelente compromiso en todos los sentidos.
De nuevo, sería mejor trabajar a 32 bits y 48 Khz que a 16 bits y 96 Khz.

Según la gente que sabe de esto (yo me dedico a traspasar la información básica), como Bob Katz y similares, todas las transformaciones de audio digital que se operan con 36 bits, coma flotante, ni tienen pérdidas, ni introducen "artefactos digitales". Además, es la única forma de representar adecuadamente la información espacial (reverberación, eco, etc).

Cuando se pasa de 24 bits a 16 bits, se pierden un montón de bits de información, por decirlo de alguna forma, truncamos la cola (los matices finos) del valor de audio representado.
Existe una técnica, llamada dithering, que consiste en introducir un ruido de fondo en la señal convertida, de forma que dicho ruido parece matemáticamente corregir muchos de los errores de interpolación que se dan ante dicha pérdida de precisión.
Si tienes equipo digital de estudio, es importante que trabaje internamente con un mínimo de 32 bits. El dithering es estrictamente necesario al pasar de una resolución mayor a otra resolución de bits menor, como un medio artificial de intentar aproximar la señal original (parte de cuya información se ha perdido).

Si trabajas internamente a 24 bits, dentro del DAW y, con cualquier equipo digital de tu estudio (como mínimo los mismos bits y frecuencia), tan solo tendrás que hacer dithering al final de la mezcla, cuando pases el resultado final al formato CD, de 16 bits y 44.1 Khz.

Si tienes equipo (e incluso programas o plugins) que trabajan con una resolución menor a la de tu proyecto, en cada proceso (compresión, ecualización, ...) se estará perdiendo parte de la información original y, se estará introduciendo el ruído creado por el dithering. Muchos procesos de este tipo van acumulando ruido y desvirtuando la señal hasta alejarla desagradablemente de la señal analógica (vamos, lo que se conoce por digititis).


Continuará...

Bueno. He querido empezar por conceptos muy básicos de audio digital porque, hay alguna gente que está manejando estudios que ni tan siquiera tiene en cuenta estos "pequeños" detalles y, que trabaja a 16 bits y 44.1 Khz, porque ocupa menos en disco y que, ni tan siquiera entienden qué es el dithering.

Creo que, entender estas nociones básicas de audio digital, permitirán elegir mejor tus herramientas de trabajo (DAW, plugins, etc).
Existen otros muchos conceptos, como el jittering, en los que no voy a entrar, porque se dan en entornos con mucho equipo hardware, más sofisticados y, donde se mezclan equipos electrónicos analógicos y digitales.

En el próximo blog, intentaré hablar de las distintas fases de la mezcla, así como de las 3 dimensiones del mezclado.