sábado, 31 de julio de 2010

EL POST-MASTERING



El proceso de masterizaciòn no termina cuando se replica o duplica un CD, cada persona tiene un gusto por la sonoridad que quiere en su equipo casero o automóvil.
a este fenómeno, se podría llamar el POSTMASTERING.
El POSTMASTERING es un factor que se debe tomar en serio, ya que practicamente cada equipo y cada parlante tiene su respuesta de frecuencias en particular,
por eso se recomienda probar la grabación finalizada en muchos equipos reproductores, buenos, regulares y malos para tener una idea del funcionamiento de la música en ellos y tomar los correctivos necesarios.
Otro ámbito del postmastering es el broadcasting, tanto de radio como de tv.
el flujo de señal en la transmisión contempla procesadores de audio que optimisan la señal aplicando gran cantidad de procesos principalmente de compresiòn dinámica,
muchas veces el audio debe pasar por enlaces de micro-ondas, repetidoras, enlaces via internet y cada etapa implica perdida de información la cual se trata de compensar
con procesadores de audio basados principalmente en tecnología psicoacùstica para repotenciar la señal.

Procesos como la limitaciòn, compresiòn multibanda, correcciòn automática de ganancia, exitadores, etc, son procesos que se repiten casi en cada etapa, sin distincìon estètica alguna.
es decir, es compresiòn sobre compresiòn sobre compresiòn...
entonces si el material musical sale muy comprimido del mastering, imaginense cuando sale al aire por una estación de radio o tv...
Después hay que tomar en cuenta el equipo de radio o tv receptor que también tendrá un proceso de optimización de audio respectivo, entonces, la música que sale del estudio de masterizacion va a pasar por una serie de postmasterizaciones que van a distanciar considerablemente el resultado sonoro del deseado por el compositor o productor en un principio.
La tendencia actual en el mastering es aplicar drásticos procesos de limitación para aumentar la percepción de volumen sonoro, a través de los años hay una verdadera competencia para ver que suena mas fuerte, pero este procedimiento destruye el sonido, la dinámica interna de la pieza musical, daña el timbre de los instrumentos, todos estos detalles muy importantes a nivel de interpretación musical.
Es bueno reflexionar esto y consiente mente poder sacrificar unos db de intensidad sonora en beneficio de un resultado auditivo mas limpio y musical.

viernes, 23 de julio de 2010

LA ORQUESTACION MIDI




Cada día se le hace más difícil a los compositores y productores musicales en general el acceso a orquestas sinfónicas, tanto por razones de costos como por razones de programación de las orquestas, que generalmente trabajan con agendas muy apretadas.
Por tales razones la computadora ha remplazado este trabajo cuando se requiere sonoridades orquestales para un film o una producción discográfica.
Tanto en la orquestación tradicional como en la orquestación midi el resultado que se busca es lograr un sonido sinfónico grandioso, pero el procedimiento de ambas es diametralmente opuesto.
En la orquestación tradicional el compositor escribe lo que quiere y la orquesta con su director se encargan de interpretarlo, en la orquestación midi el compositor parte de las librerías de sonido que tenga para realizar su obra. Esto a simple vista puede parecer algo de poca importancia pero, crear en función de las librerías de sonido que se posea es la gran diferencia entre un sonido creíble o no creíble.
Un orquestador midi debe tener un gran archivo de sonidos, conocerse bien sus librerías, ya que serán la base primordial para su trabajo, El compositor debe saber que sonidos son buenos o malos para esto o lo otro y trabajar en función de la credibilidad de ellos.

No hay que pensar que un software musical tipo sibelius o finale son para hacer orquestación midi, estas aplicaciones se usan principalmente para la notación musical, para imprimir las partituras y dársela a los ejecutantes, el objetivo de este software el la visualización de las notas y en segundo plano una audición aproximada referencial de la obra.
En la orquestación midi el objetivo es totalmente el resultado auditivo, entonces un primer violin por ejemplo, tendra diferentes pentagramas o traks según las articulaciones usadas, uno picado, ligado, stacc, etc.…
Hay software tipo samplers que trabajan con RIFFs, estos son pequeñas frases musicales pre-empacadas que se pueden combinar y formar macro-frases. Son muy efectivas si se las sabe usar.
Por ultimo esta el tema de las reverbs… el uso de la reverberación es de suma importancia ya que esta le dará el acabado final, la orquesta es un instrumento en si misma y la sala donde toca es su caja de resonancia. La escogencia y dosificación de reverberaciones es vital para dar la impresión de realidad.
Me atrevería a decir que el proceso de mezcla en esta situación es tan delicado como tratar con una orquesta real.
La suma de sutilezas hace que el resultado sea impactante.

domingo, 4 de abril de 2010

14 CONCEPTOS PARA REFLEXIONAR EN LA MUSICA CONTEMPORANEA

1-LA MUSICA ACTUAL ES UN PROBLEMA DE IMPRESICION en comparación a la música clásica que aparentemente tiende a la presición.
La música tiende a la impresición pero debe ser precisa, precisa en contenido e imprecisa en notación.
Trascendencia del dualismo en la música de nuestro tiempo, trascendencia de los conceptos contrarios interpretados hasta hoy como antinomias (conceptos opuestos, antagónicos e irreconciliables) así como consonancias, disonancias, tiempos fuertes y débiles, melodías y acordes, primer tema y segundo tema, y otros mas, La superación de todos estos conceptos o dualismos es el primero de los 14 conceptos que caracterizan una nueva visión de la realidad o una nueva estética.

2-ACRONOMETRIA: Nuevo concepto de TEMPO trascendiendo el tiempo del reloj.

3-ACAUSALIDAD: Principio de causa y efecto donde el principio no es previsible y no es presentible.

4-CAMPO SONORO: Sustituyendo melodía y armonía.

5-AUSENCIA DE PUNTOS REFERENCIALES: Fijos y o predeterminados son móviles.

6-MULTIDIMENCIONALIDAD

7-MULTIDIRECCIONALIDAD

8-DIAFANEIDAD: Música que da paso al fondo vacío de la composición, es decir, al silencio permitiendo su estructuración como elemento expresivo y parte complementaria de lo sonoro.

9-PRESENTIFICACION POR PRINCIPIO DE LOS SIGNOS: Ausencia del antes y después, no hay inicio ni fin.

10-EQUIVALENCIA POR PRINCIPIO DE TODOS LOS COMPONENTES DE LA PARTITURA: ausencia a priori de jerarquía.

11-ESTRUCTURACION SERIAL O GESTALTICA

12-UNIDAD COMO SINERESIS INTEGRADORA: Sustituyendo la síntesis, resultado de un proceso dialéctico la sinéresis es un proceso de fusión de dos temas opuestos.

13-NO HAY DESARROLLO TRADICIONAL: Una obra contemporánea es disposición artística y distribución ordenada de labor primordial y original de los componentes de la partitura sustituyendo el desarrollo tradicional.

14-ENFASIS EN LA RELATIVIDAD DE LOS VALORES y en la tendencia a lo impreciso y paradójico.

Apuntes de las clases del Prof. Juan Andrés Sanz.

martes, 27 de enero de 2009

Reverberación???


La reverberación es la herramienta mas importante con la cual contamos para recrear artificialmente espacialidad en el sonido, también la reverberación puede tener otros usos como el de engrosar el sonido de un instrumento…
Pero que es una reverberación????
Digitalmente hablando la reverb es un proceso que conjuga filtrajes y retardos para darnos la impresión de espacio.
Existen dos formas de hacer reverberaciones, pasando la señal de audio por dos tipos de procesos digitales.
Estos procesos son los llamados filtros de respuesta finita (FIR) y los filtros de respuesta infinita (IIR).
Los filtros FIR se usan para hacer reverbs de CONVOLUCION… simplemente es que se toma una muestra del sonido de un lugar que se quiere reproducir acústicamente (se graba un tiro de pistola, literalmente…), esta muestra se llama RESPUESTA IMPULCIONAL del lugar “X” y mediante un software se convolucionan las dos señales (se pasa las propiedades de una hacia la otra) dando como resultado la señal original mas el entorno acústico de la respuesta impulsional… es decir… el guitarrista de mi grupo tocando en la catedral de Notredame en Paris… es como magia no????
Estos son filtros finitos por que son fijos, es decir que dependen de una respuesta impulsional para trabajar.

Los filtros IIR son filtros de respuesta infinita ya que al no depender de una respuesta impulsional sus parámetros son moviles, es decir… los niveles de filtraje, retardos y retroalimentaciones pueden ser editados a nuestra conveniencia…
Últimamente hay también combinaciones entre estos dos tipos de reverbs… de “convolución editables” por llamarlas de alguna manera, que toma los mejor de cada tipo…

Cada proceso de reverberación tiene su color, su sensación… no es que una sea buena y otra mala… depende de que vayas a hacer con esto…
Por ejemplo: para la grabación de una orquesta sinfónica preferiblemente se usaría una reverb de convolución, ya que seguramente tendrá una librería de respuestas impulsionales de teatros famosos, ideales para este tipo de agrupaciones. Pero por otro lado… Imaginate si metes a un grupo de rock a tocar dentro de una catedral??? Jajaja!!!

sábado, 29 de noviembre de 2008

La Perspectiva Sonora


La perspectiva sonora es un parametro que la mayoría de técnicos de audio no toman mucho en cuenta cuando hacen una captura de sonido. Sobre todo cuando se trata de música clásica.
La perspectiva sonora es la sensación de profundidad de campo sonoro en la grabación.
Hay planos sonoros cercanos, lejanos y sus combinaciones. La idea es mezclar los planos sonoros para dar una sensación de profundidad lo más parecido a la realidad.
En una grabaciòn multimicrofono cada micrófono que utilicemos va a grabar un plano sonoro distinto y recordando tambien que cada instrumento tiene un comportamiento acústico diferente ante un espacio.
La mezcla de planos sonoros debe dar la impresión que se comunican entre si. Que armonizan entre ellos. No de planos aislados que suenan juntos.
Este es el problema cuando se graba con microfonia cercana individual por canales. Es muy difícil conectar los planos sonoros entre si por métodos artificiales como variaciones de ganancia, filtrajes o reverberaciones (que son lo mismo a la final).
El trabajo se debe hacer en la captura de sonido... Pero nos topamos con el problema de anulación de frecuencias por contrafases… y eso si que es un problema…
De verdad la captura de perspectivas es todo un arte.
La clave esta en grabar un buen encuadre de plano general, bien buscado, equilibrado, armónico… y reforzar con tomas puntuales los problemas de sombras sonoras. Hay que prestar mucha atención en la proyección de la energía sonora en el espacio donde se graba…
He oído de gente que graba orquestas por secciones, con metrónomo… esa gente hay que enviarla directamente a un manicomio… eso mata la musica!!! Mata la interpretación!!! la sonoridad orquestal se basa en la interactividad entre la orquesta y el director… algo así solo se justificaría para grabar sountracks de películas, donde el trabajo de post-producción sea en función de la imagen…
En el diseño sonoro para imagen la perspectiva puede lograrse relativamente fácilmente con tone-rooms o paisajes sonoros combinado con ganancias, filtros y reverberaciones… pero es bueno también coordinar los planos de la cámara con los planos del micrófono y no dejarlo todo para el trabajo de post-producción… es mas natural así…
La simulación de perspectiva sonora es el un parámetro demasiado importante en el proceso de grabación, es lo que le da amplitud natural al sonido, elegancia, buen gusto…
Es como una reina en su castillo… una reina sin castillo no es una reina… jajajaj!!!!

lunes, 17 de noviembre de 2008

Efecto de proximidad y Microfonia del hiperrealismo

Académicamente hablando… la captura de sonido tiene como objetivo la simulación de la realidad… es decir… semejarnos lo mas posible al hecho auditivo humano… pero los micrófonos tienen un comportamiento un poco diferente a nuestro oído. Nuestros órganos de audición son condicionados tanto físicamente como psíquicamente por factores externos al hecho auditivo, sea por respuesta física de los materiales que conforman nuestro cuerpo o por la cultura auditiva que tenemos. Llamémoslo fisio-acústica (oímos en promedios) o psico-acústica (oímos lo que conocemos) en pocas palabras : )
El hecho de escuchar en nuestros primeros meses de vida nos ocupa gran parte de nuestro tiempo… hacemos nuestra propia biblioteca de sonidos y los identificamos. Es un esfuerzo tremendo… vamos encapsulando "grupos de armónicos" y etiquetándolos con nombres que recordaremos para toda la vida... hasta que aprendamos otro idioma, que es cuando nos damos cuanta en realidad que un objeto o una situación se puede identificar con otros sonidos…
Microfonia cercana o lejana, simple, depende que queramos hacer… una captura mas sonido directo que entorno y la otra todo lo contrario. Dirección del micrófono hacia la fuente sonora… ración de radiaciones principales y radiaciones secundarias… da sonidos más o menos equilibrados…
Es demasiado relativo decir que es procedente o no en la captura del sonido… siempre depende de la situación... diafragma corto o largo, definición o promedio… micro duro o blando, aguante de presión sonora… rango dinámico… patrón polar…
El efecto de proximidad es la acentuación de frecuencias bajas y la sensación de una hiper-articulación… Pero… hasta que punto oímos así???…
Siempre me he preguntado porqué oigo grabaciones que parecen que el músico ejecutara su instrumento en mi oreja???… demasiado efecto de proximidad… para mi no basta con aplicar un filtro pasa altos.
El efecto de proximidad nos conduce a una hiper-realidad. El resultado auditivo nunca se va a parecer a lo que oiríamos normalmente, salen muchos detalles de ejecución, mucho imprevisto...
Entonces… Volver a los viejos tiempos… donde la microfonia realmente era el arte de grabar y no se dependía tanto de la post-producción. Es un poco más difícil pero da resultados sonoros más coherentes, con más unidad y más armónicos.



viernes, 31 de octubre de 2008

The Mickey Mousing Music

Esta terminología es muy frecuentemente usado para denominar la música hecha para acompañar los dibujos animados.
La MMM se caracteriza por estar excesivamente en sincronía con la imagen, exagerando su función incidental, ejecutada con ensambles orquestales, con un director casi a la usanza de la opera!!! El trabajo de postproducción se hacia con tijeras, cortando y pegando la cinta de grabación electromagnética u óptica. La cinta óptica es de plástico y esta impresa con gráficos de picos de onda. No hay que confundirlas con las interfaces de audio digital ópticas tipo adat por ejemplo, estas aparecen muchísimo después!!!, la Cinta óptica se decodifica por fotostato y la segunda es digital y se transmite por fibra óptica.
La MMM reemplazaba también el diseño sonoro, sustituían los pasos por pizziccati de violoncellos, caídas, y resbalones por glissandi de clarinetes por ejemplo. y mas aun… incluía sonidos de Foley (como ruido de sartenes o cualquier otra cosa) dentro de un ensamble orquestal, dando resultados bastante peculiares… recordemos que es mucho mas antigua la música incidental que el diseño sonoro, la música incidental se inicia prácticamente con el cine, ejecutada en vivo en las salas de proyección, el diseño sonoro va a aparecer cuando el cine deja de ser mudo (el cantor de Jazz-1927) sirviendose de un aparato llamado Vitaphone para el play-back de la banda sonora.
El productor que inmortalizo esta música fue Walt Disney y fue seguido por toda esa generación norte-americana de productores representantes de esa estética musical.
Hoy en día se sigue utilizando ya que, sin llegar a ser un cliché, es un recurso muy efectivo a la hora de crear bandas sonoras para imagen.
Algunos críticos llaman también a -the Mickey Mousing Music- la música tipo cliché usada en películas de terror o acción pero como su nombre lo indica se refiere principalmente a la tradición norteamericana de música para dibujos animados.

sábado, 10 de mayo de 2008

Compositor y Sound Designer, uno solo???


La tarea del compositor es hacer la música (jajaja!!!) y la del sound designer la de hacer el audio (buabuabua!!!). Musica + Audio= Banda sonora (estamos claros, UFF!!!).
Pero últimamente en el mundo hay una tendencia a que las dos cosas las haga la misma persona y me he dado cuenta que tiene muchas ventajas.

*Presupuestaria: menos costoso. Solo hollywood puede hacer cosas de presupuestos tan groseros, ese es su fuerte y su especialidad!!!, competir con ellos en ese ambiente es una locura, por eso no estoy de acuerdo en hacer una película QUE PUEDA COMPETIR sino que QUE PUEDA TRANSMITIR!!!.
*Rapidez de trabajo: las tomas de decisiones son menos complicadas por que una sola persona controla todo asegurando una unidad de criterio. Generalmente cuando algo se descuadra (música o audio) y se trabajan por separado se tiene que ir a etapas anteriores no solo en la post-producción sino hasta de producción!!!
*Rapidez en las correcciones: no hay que ir y venir de un estudio a otro, ir a que el músico, volver a que el sound designer, todo pasa en una sola computadora!!!.
*Facilidad de coordinación: Mientras menos personas haya en un equipo es mas fácil de gerenciar, ni hablar de cuando te quedan mal en fechas de entrega o no hacen lo que se le pide.

Tiene que haber mucha confianza entre el AUDIO-MUSICO y el director, para intercambiar ideas, criticas, y hasta golpes!!! Y el día siguiente no ha pasado nada!!!

Si la película tiene un presupuesto decente y hay un tiempo suficiente para realizarla se justificaría que estén estos dos ámbitos manejados por personas diferentes. Pero si es un proyecto de bajo presupuesto y de paso para formatos pequeños ( DVD, WEB, TV) es mucho mejor que lo maneje una sola persona (pero que lo sepa hacer!!!!)

Esto también va a obligar a los músicos a prepararse en el campo del audio que es lo que se llama hoy en día la “TECNOLOGIA MUSICAL”. Desde que el audio entro en la informática es mucho mas asequible tanto económicamente como en conocimiento.
Al final las reuniones con el director para supervisar la banda sonora iran descubriendo detalles que se corregirán facilmente.
Por muy polémico que sea este tema creo que no es una locura pensar desde ya a que en un futuro será así y prepararse para los SUPER-TECNOLOGOS MUSICALES!!!!

domingo, 27 de abril de 2008

Mixing vs. Mastering…


Quisiera hablar ahora de la parte conceptual de la edición de audio, que para mi es la mas importante.
Vamos a contrastar el proceso de mezcla al de masterización.
El mixing es un proceso sustractivo, contrariamente como se podría ver si tomamos en cuenta que es una sumatoria de ondas. Este proceso se basa en el filtraje de los sonidos involucrados para que puedan convivir todos juntos en un nuevo espacio sonoro. Las resonancias son puntos de exceso de energía resultado de la suma de dos o mas sonidos de espectro parecido. La solución??? El filtraje de uno de ellos sin que este pierda características básicas del timbre que representa, el oído y el gusto musical dan la pauta… como podemos ver ,este es un proceso muy artístico.
Para meter muchos sonidos en uno solo hay que esculpir los sonidos individualmente, tratando de respetar su identidad tímbrica en lo posible y teniendo en cuenta siempre
La psicoacústica del resultado sonoro final!!!!!!

EL RESULTADO SONORO FINAL ES MAS IMPORTANTE QUE LA SUMATORIA DE SUS PARTES.

El mastering es un proceso aditivo, contrariamente como pensaríamos si observamos los tratamientos dinámicos típicos de esta etapa.
Yo definiría el mastering como una expansión sonora.
Recordemos que en el resultado del mixing es un complejo sonoro traumatizado por fuertes golpes al espectro individual de cada sonido.
El mastering tiene que homogenizar y recuperar el aspecto general del nuevo elemento sonoro creando un nuevo balance para este nuevo espacio.
Este proceso en el dominio tímbrico es representado por repotenciadores espectrales de cualquier naturaleza y en el dominio dinámico lo evidencian procesos de compresión y limitación de loudness.
El Mastering engrandece la mezcla y le da unidad tímbrica a través de la sumatoria de diversos planos sonoros generados en el curso del tratamiento de la señal en cuestión.

LA BUSQUEDA DE UN SONIDO EQUILIBRADO ES LA META, PERO ESTO DEPENDE DE CÓMO ESTE TU EQULIBRIO INTERNO. JAJAJA!!!

jueves, 21 de febrero de 2008

Diseño Sonoro???

El diseño sonoro es una terminología empleada para denominar principalmente la elaboración del sonido en una obra audiovisual, sea cine, tv, web-streaming y también la ilustración sonora para radio.
Así mismo se usa algunas veces como sinónimo de síntesis sonora o de proceso de tratamiento de señal de audio, pero el uso mas generalizado de esta frase es el ámbito audiovisual…
El proceso de diseño sonoro se usa para crear la banda sonora de una película, es decir... todo lo que suena.


Una Banda sonora principalmente esta conformada por tres planos sonoros:
1-Plano Vocal: integrado por los diálogos (grabados en el rodaje o doblados) y la narración (voces en off o en pantalla). Este plano es el principal!!!
2-Plano de efectos:
-Efectos de ambiente: como el Tone-room (sonido de ambiente de interiores), paisaje sonoro (ambiente de exteriores).
-Foley: en honor a Jack Foley, su creador… es la reconstrucción en estudio de los detalles sonoros sincronicos a la imagen grabada, ya que no pueden ser recibidos bien por el micro usado en el rodaje debido a que este se enfoca principalmente al plano narrativo…
-Efectos especiales: son los sonidos que ilustran situaciones precisas naturales o artificiales (despegue de un avión, explosión de una granada, colisión de un asteroide) pueden ser grabados o de creación sintética.
3-Plano Musical: la música diegética, que se ve su emisor en pantalla, por ejemplo: un cantante actuando en un bar… o no diegética, que no se ve su emisor en pantalla, por ejemplo: una orquesta que suena mientras hay un combate de una guerra…
Estos tres planos se manejan independientemente… en el rodaje solo se concentra la atención en grabar el plano narrativo (diálogos) y algún otro detalle que se cuele … todo lo demás es post-producción… (Profesionalmente hablando!!!)

Hay otros términos que es bueno aclarar…
-Música incidental: es la música que acompaña y apoya la imagen, tiene un efecto meramente psicológico sobre la imagen.
-Tema de la película: en la mayoría de los casos es una canción que no tiene nada que ver con la película, es un elemento comercial para dar publicidad al film… o darle publicidad al cantante…

en fin...
El diseñador sonoro se encarga de la mezcla armoniosa de todos estos planos, dando preponderancia al narrativo ya que este es el hilo conductor del film…

viernes, 1 de febrero de 2008

Conexiones entre los equipos: CUIDADO!!!




Tanto en el audio analógico como en el digital, las conectividad entre equipos es un punto muy álgido y generalmente descuidado y como todo lleno de mitos…
En el audio digital la conectividad en mucho mas clara que en el audio analógico… no puedes enchufar un cable firewire a una entrada usb o un cable usb a una entrada adat, es imposible…
En el audio analógico se trabaja siempre con corriente eléctrica y esta misma señal puede entrar y salir por diferentes tipos de conectividad según nuestros requerimientos o nuestra ignorancia, jajajaja!!!

Las salidas de señal y los cables que la llevan son dos factores importantes a tomar en cuenta…
El primer factor que hay que revisar es la impedancia...
La impedancia es la resistencia que opone un dispositivo al paso de la corriente…su valor viene caracterizado por baja, alta y muy alta impedancia. Lo-Z Baja impedancia Hi-Z Alta impedancia VHi-Z Muy alta impedancia

Un dispositivo tiene siempre dos tipos de impedancia: una de entrada y otra de salida.
La de entrada nos indica el flujo óptimo de corriente con el cual trabaja el aparato y la de salida indica su compatibilidad con el proceso o dispositivo siguiente.
Lo que se recomienda en que la impedancia de salida de un dispositivo debe ser por lo menos un tercio de la impedancia de entrada del dispositivo receptor de la señal…
Hay que leer los manuales, en la información técnica del aparato siempre informan de las impedancias… Aunque en la mayoría de los casos las exageran un poco para vender mas!!! Jajaja!!!

El segundo factor es el cable:
Hay dos tipos de cable: los balanceados y los no-balanceados…
Los no-balanceados son los que internamente tienen dos cables… tipo RCA por ejemplo (señal y tierra).
Estos cables son conexiones no profesionales que manejan niveles altos de ruido porque no tienen ningún blindaje, el cable actúa como una antena de TV, absorviendo todo lo que le llega cerca. por eso se recomienda usarlos con poca extensión…
Estos cables son muy ruidosos y junto a un mini-jack de conexión es la combinación perfecta para originar toda clase de ruidos parásitos!!!
Es preferible un RCA (si es dorado mejor) que un mini-jack…

Los cables balanceados son el formato de conectividad profesional.
Estos tienen internamente tres cables (señal, señal en contratase y tierra)
La tierra es una malla que envuelve los dos cables de señal y funciona como un blindaje extra de protección… y también se usa para pasar la alimentación Phantom para micrófonos electroestáticos o cajas directas activas (mas adelante las mencionaré)…
-Hay dos cables con la misma señal pero en contratase para prevenir y eliminar ruidos parásitos (me imagino que por cancelaciones de fase)-
Este tipo de cable puede ser muy extenso ya que tiene una perdida de energía mínima… y además captura muy poca interferencia por su blindaje…
Generalmente usa conector tipo cannon o XLR (es lo mismo)… aunque también se puede usar con jacks stereo…

–+4 dbm y +10dbv
Esto son los niveles de línea, En teoría la calidad de audio es la misma para los dos pero hay que guardar la compatibilidad entre los aparatos…

“Linea” o “Micro”???
La entrada/salida llamada “de línea” son de alta impedancia, es un flujo de electricidad fuerte pero de calidad no profesional…(usan conector RCA, plug o mini plug)
La entrada/salida llamada “de micrófono” son de baja impedancia, aunque pareciera que suena menos fuerte que la “de línea” es el flujo de señal optimo para los equipos profesionales…(usan conector cannon principalmente)
Hay que guardar compatibilidad de entrada/salida entre equipos…



Las famosas cajas directas (direct box)
Se usan para varios tipos de conversión de señal de audio analogica…
Balanceado a no-balanceado…
Alta impedancia a baja impedancia…
Conexión tipo jack a cannon…
Reduce la ganancia de linea (típica de teclados) a micro…
También se usan para anular la conexión de tierra en un cable balanceado con la finalidad de eliminar el “LOOP de tierra” que es un sonido parasito originado por el encuentro de dos tierras de direcciones diferentes, por ejemplo: una computadora cuando se conecta a una consola hay un encuentro de dos tierras, por que cada aparato tiene su propia tierra y cuando se conectan en muchas ocasiones se origina un ruido muy desagradable…
Para solucionar esto se usa una caja directa y se le switchea la tierra de la compu…
D.B. activas o pasivas???
En principio hacen lo mismo, pero las activas tienen mayor respuesta de ganancia y frecuencia, es decir, suenan mejor!!! La activa necesita una carga eléctrica para funcionar... cada caja directa tiene sus características, hay que leerlas antes de comprarlas para ver si es la que te conviene!!!

Espero aclarar un poco este delicado tema… piensen un poco que conexión les conviene (o tal vez a su bolsillo)… JAJAJA!!!!!

domingo, 27 de enero de 2008

Pro-tools or no Pro-tools?


Con este artículo no quiero poner en duda la calidad de Digidesing como diseñadora y constructora de software y hardware de audio. Solo quiero reflexionar un poco acerca del mito Pro-tools en el mundo entero, ya que me he dado cuenta que hay mucha desinformación al respecto.

El primer factor que hay que tomar en cuenta es que Pro-tools es ante todo un HARDWARE, hasta hace algunos años este software lo podias bajar gratuitamente de la pagina de Digidesign (incluso para Windows 98).
La calidad de sus convertidores es indiscutible, tiene una calidez de sonido increíble.
Sus preamplificadotes son muy buenos también… pero el fuerte de Pro-tools realmente es su DSP dedicado (se concibió como sistema propietario), eso es lo que le da su estabilidad rendimiento y calidad sonora final, es decir, su poder de calculo…

Pero la mayoría de la gente cree que si se compra un dispositivo de la serie barata de Pro-tools como la M-box o la Digi00X, tiene acceso a ese maravilloso mundo del audio Pro-tools y realmente lo único que tiene son los convertidores, es decir, una pequeña parte del sistema.
Me imagino que esto lo hace la Digidesign para darle publicidad a sus productos y enfilar el publico hacia la compra de un sistema completo tipo HD…

FOTO Pro-tools HD-3


También hay que decir que el software Pro-tools (en cualquiera de sus versiones) es un editor no-lineal como cualquier otro, lo que lo hace especial principalmente es que tiene acceso al formato de plug-ins RTAS y sobretodo TDM….. que es allí donde esta el poder de sonido, por el uso de los dsp dedicados y sin usar recursos de la computadora.

Para aumentar la confusión sale una versión de Pro-tools que funciona con tarjetas M-audio (las hay desde 80$, como la JAMLAB), este software yo lo llamo el Pro-tools de pobres… este sistema ni siquiera tenemos los convertidores pro-tools, lo único pro-tools que hay es el nombre, jajaja!!!



-Tengo un amigo que tiene un estudio y compro una consola digital con salidas a-dat que se las conecta a una M-audio FireWire 1814 y usa protools M-powred, también usa plug-ins waves ..osea, hello, esto realmente de Pro-tools no tiene nada!!!!-

Hay que recordar que el software Pro-tools es famoso también por su antigüedad (es uno de los primeros editores de audio comercial), su interfase grafica es muy clara (aunque las ultimas versiones se están complejizando un poco, con la inclusión del midi, los instrumentos virtuales, etc…), usa pocos colores reduciendo el riesgo de problemas gráficos que afecten el proceso de audio (o sea, que se clave la maquina!!!), y muchas cosas que Digidesing es pionera en el audio digital…

Foto DIGI-002


Recapitulando… Con el Pro-tools de la serie M-box y DIGI-00X solo tenemos acceso a los convertidores, que por cierto también los tiene la E-MU 1616-PCI … (http://www.emu.com/products/product.asp?category=505&subcategory=491&product=15189). Lo demás como las conexiones en diferentes formatos digitales, pre-amps, etc, etc, lo podemos conseguir en cualquier otra tarjeta mas barata…
Esto ha obligado a la Digidesing a bajar precios los precios y a diseñar hardware más pequeño, para acercarse a un público no tan profesional ( que por cierto no fue la idea originaria)…
Entonces, para acceder a un sistema Pro-tools de verdad verdad deberíamos tener, mínimo, a partir de la serie HD 1.
Este sistema es el mas caro (por supuesto!!!), pero tiene los DSP dedicados, que te aseguran la pureza de sonido Pro-tools verdadera…Estabilidad de calculo, ligereza de proceso, rendimiento, viaje a la luna, sushi, champange y todo!!!
Ni siquiera con una tarjeta HD seria suficiente para un estudio comercial, se necesitaría dos o tres… mas todas las interfaces, pre-amplificadores, interface midi… etc, que vienen por separado y se ven bellísimas montadas en un rack, JAJAJAJA!!!

Un estudio para llamarse “profesional” debería tener un Pro-tools a partir de la serie HD, la serie M-box y DIGI00X son pensadas para home-studio… (lamentablemente) y ni hablar de las M-audio, aunque son muy buenas a su nivel tambien...


FOTO M-BOX "mini"
Espero con este artículo haber aclarado un poco el mito Pro-tools y animar a la gente que:
-O se compre un HD o pruebe también otros sistemas de grabación que son tan buenos como el Pro-tools y no son tan famosos…
En otros artículos abordaremos ese tópico…

Espero no deprimir a nadie... JAJAJA!!!!







viernes, 25 de enero de 2008

Usar o no usar metrónomo para grabar???


Nene Quintero...

Son casi las 6 de la mañana...Vengo llegando de una rumbita (las rumbitas son el único lugar para hablar de cosas serias entre músicos, aunque las novias crean todo lo contrario, jajaja!!!), estuve hablando con “nene quintero”…músico a quien admiro y quiero que jode…
Conversamos acerca del uso del metrónomo en el proceso de grabación…
Me imagino que todos en Venezuela sabemos quien es “nene quintero”,o sea, resumiendo… el es todo un mito de la percusión venezolana y caribeña… sin mas comentarios… Este artículo es para MUSICOSSSSSS…

Yo pensaba que el uso del metrónomo limitaba la expresividad y tornaba el ambiente de grabación más hostil y tenso…
La opinión de “nene quintero” es todo lo contrario…

El metrónomo te da la estabilidad y la tranquilidad de la pulsación rítmica,
El músico de estudio debe confiar en el metrónomo y saberlo usar, comprenderlo pero que no te domine… el metrónomo es tu guía, el está para hacerte las cosas mas cómodas… no para encasillarte en una cuadricula matemática sin sentimientos…
El deber de un buen músico es aprender a trabajar con metrónomo y a tocar encima de el como si el no existiera...


Yo voy a reflexionar un poco más en estos consejos… pero dada la experiencia de “nene Quintero” hay que tomar en bien en serio este comentario…
PIENSENLO MIS PANAS…

lunes, 21 de enero de 2008

Honor al Dolby Stereo!!!!

El surround no es una tecnología nada nueva… tiene mas de treinta años de uso…hoy en día se habla mucho del dolby digital y de otros distemas como el DTS o el SDDS; y nos hemos olvidado del padre del surround que es el Dolby stereo…

Ahora… el Dolby stereo es muy diferente al stereo convencional, y esta es una duda muy común en los editores de audio para video…


Entonces, atención… el dolby stereo es un sistema de difusión CUADRAFONICO, es decir, de cuatro puntos de difusión, que son derecho, izquierdo, central y trasero… aunque en un cine con este sistema se vean muchos parlantes, realmente son una distribución de cuatro señales solamente…


Entonces…el dolby stereo es un sistema a cuatro canales codificado o matrizado a dos… lo que se llama Right Total-Left Total…


Pero… como meter cuatro señales diferentes en una stereo, con procedimientos analógicos??? aquí el ingenio humano se luce!!!


Es un simple juego de cancelaciones de fase controlada… increíble!!!


...Para que vean lo peligroso que puede llegar a ser los problemas de fase en las grabaciones multimicrofono, que te puede borrar, literalmente, un instrumento de una grabación!!!



Lo que pasa es lo siguiente:


Al hacer la mezcla en dolby stereo se necesita un codificador dolby stereo (seguro!!!), también hay plug-ins que lo hacen si se usa un DAW…


El codificador rutea las señales así:


Lo que va por el canal derecho sigue estando por el derecho


Lo que va por el izquierdo también sigue estando por el izquierdo, hasta aquí no hay problemas…


El central es la suma del derecho+izquierdo un unos cuantos db menos…


Ahora… el trasero es donde esta el detalle…


La señal que queremos enviar al trasero debe ser monofónica y el decodificador le hace un espejo..o sea…la convierte en stereo pero EN CONTRAFASE… y la suma al mixdown…


Cuando se hace la mezcla, la señal stereo lleva por dentro también una señal en contrafase, esto es a lo que se llama Right-Total Left-Total y esto es lo que diferencia una señal stereo convencional a una señal stereo en formato dolby stereo… aunque veamos la señal en un DAW y se vean igual, realmente son diferentes...


Esta señal es la que se imprime en el plástico de las películas (35 mm, etc…) o en los videos que tienen el sonido hecho en dolby stereo, tambien es usado para radio y TV!!!! (Radio y TV surround!!!)


Si oímos esta mezcla en stereo no notaremos nada raro (en principio)…si la oímos en mono desaparecerá lo que enviamos al parlante trasero por la resta de señales en contrafase…


Para oir otra vez los cuatro canales debemos pasar la mezcla RT-LT por un DECODIFICADOR dolby stereo (que lo encontramos en salas de cine!!!) , algunos lectores de DVD lo tienen tambien… creo…


El decodificador interpreta lo siguiente:


Canal derecho para el canal derecho


Canal izquierdo para el izquierdo


El canal central es la suma de los dos anteriores con unos db menos…


Y HE AQUÍ EL DETALLE: Entonces el decodificador cambia la fase de uno de los canales del la mezcla total en stereo RT-LT y los suma, originándose una resta casi total de lo que esta en contrafase, pero recordemos, que como había una señal interna ya en contrafase, esta queda en fase y es lo único que queda en la nueva señal (ingenioso, no???)… y esta nueva señal el decodificador la manda para el canal trasero, jajaja!!!



Como este proceso se basa en los problemas de fase, en la mayoría de los casos se van a generar sonidos parásitos en la onda resultante…minimizados por supuesto en la grabación si se usa un sistema dolby SR (spectral recording) o algún filtro.



Actualmente el estándar de audio para cine y dvd es el dolby digital (5.1) pero el dolby stereo se usa como back-up de seguridad y va impreso en el plástico en una línea al lado de los fotogramas, cuando el 5.1 falla, se brinca al dolby stero…


También se usa así para guardar la compatibilidad en salas que solo tienen dolby stereo o que solo tienen stereo convencional o mono, ya que una de las bondades del dolby stereo es que es compatible a stereo convencional y a mono!!!



Y NO TE PREOCUPES…Si haces la mezcla para video en stereo convencional (que es lo mas común en Venezuela), claro que se puede pasar en una sala con sistema dolby stereo, solamente que el operador de la maquina sea pilas y este bien despierto y switchee el codificador a stereo convencional, jajaja!!!



A la final…


Este procedimiento no esta muy bien explicado en la pagina dolby.com (no les conviene, jajaja!), tampoco lo he visto con este detalle en ningún lado en internet !!!


Me puse a ser unas pruebas en mi computadora analizando ondas codificadas en dolby stereo… y trate de buscar un camino lógico de vueltas de fase y los descubrí!!!!!!!!! Jajaja!!!


Si saben de una site que tenga una explicación mejor me la mandan por favor!!!









domingo, 20 de enero de 2008

Que es el "0" db ?

Yo considero que tener una idea de que significa esta frase es básico para todo el que quiere trabajar con audio digital…

Cuando oímos una canción nuestro oído tarda en reaccionar a los cambios de la dinámica, o sea, nuestra audición no es instantánea, oímos en promedio…


Esto que tiene que ver???

Hay dos tipos de aparatos usados para medir la potencia sonora (loudness) de una canción:


Los Peak-meters y los VU-meters


Los peak-meters miden el nivel instantáneo de potencia sonora, esto sirve principalmente para ver si hay una saturación de la señal en cuestión…Ok, nos da información valiosa, pero los humanos no oímos así!!!


Los VU-meters, heredados del audio analógico, toman varias muestras en un periodo de tiempo determinado, hacen un promedio y nos dan la potencia sonora relativa. Esto es mas parecido a como oímos!!!


Todo parece claro, pero hay otro factor:


El “0” DB


El “0” DB en pico es el máximo punto que aguanta un sistema (DAW) de audio digital sin saturar, DB FS (Full Scale) es la escala en DB usada en el audio digital.


El “0” DB VU es el nivel de persistencia, es decir, es el nivel alrededor del cual se deberían mover las agujas (o las rayitas) para simbolizar un flujo de señal optimo, estable...


Este nivel es variable; se recomienda por ejemplo que el “0” DB para aplicaciones en cine, home theatre, se encuentre a -20 DB FS (o sea 20 DB FS de Head-room!!!). Para el audio comercial en CD se recomienda que el “0” DB este a -14 DB FS, para Transmisiones por antena (radio o tv) el “0” DB se recomienda a -12 DB FS ,aunque el nivel de compresión dinámica de los procesadores de audio antes del transmisor es otra historia...


Estas recomendaciones son bastante efectivas, yo he mezclado para cine y cuando lo he escuchado en una sala con sistema dolby suena impecable…


Entonces???


Monitorear los Peak-meters y los VU-meters siempre; los peak te dan la posible saturación y los VU te dan el nivel perceptivo, por supuesto que calibrando el VU meter según tu formato ultimo de difusión(cine, CD, etc…) a 300 ms.

Tal vez no sea la mejor explicación pero les va a encaminar en el escabroso uso de estos tan interesantes cacharros ; )

Comenzamos a grabar...


La Captura de sonido es la primera etapa del proceso de grabación:

La Microfonìa:
Que tipo de micrófono voy a usar???
Hay dos tipos de micros: los electro-dinámico y los Electro-estáticos.
En líneas generales los micros dinámicos son “duros” (necesitan de mucha presión sonora para funcionar), son buenos para aplicaciones en vivo como conciertos o conferencias. En estudio se pueden usar para instrumentos que descarguen mucha energía como bombos o redoblantes.
Corrientemente en estudio se usan micros electroestáticos o de condensador (necesitan electricidad para funcionar), como muchos también los llaman…Estos son mucho más sensibles al sonido, los de diafragma pequeño (tipo lápiz) son más sensitivos que los de diafragma grande que son un poco mas duros, ósea, se recomienda usar para fuentes sonoras fuertes los de diafragma grande y para instrumentos mas delicados los de diafragma pequeño.
También, los de diafragma grande benefician más las frecuencias graves y los de diafragma pequeño benefician las agudas.
La directividad o “patrón polar” en importante también:
Direccionales o Cardioides, son los más usados, tienen un primer plano sonoro en frente del micro.
Omnidireccionales: tienen su primer plano sonoro por delante, los lados y por detrás.
Bidireccionales… dos direcciones…muy poco usados.
Hay micros que se le puede cambiar el patrón polar con un conmutador o con una capsula que se le enrosca en el diafragma.

Allí la escogencia:
Que rango de frecuencias tiene el instrumento que grabaremos??? Que rango dinámico tiene??? Que dinámica tiene la obra??? Que rango dinámico o frecuencial queremos acentuar??? Que efecto queremos lograr??? Prueba con varios tipos de micro, conócelos, cada uno tiene su timbre…
Por ejemplo para voces yo recomendaría un diafragma grande, para veneficiar los rangos medios y graves de la voz, los de diafragma grande aguantan mejor los ataques de las vocales, entre otras cosas... Pero también puedes resolver con un micro dinámico tipo SM-58 o algún genérico, nada debe ser un impedimento para la creación…
Total, si el micro es muy oscuro le das brillo en la mezcla o lo contrario, experimenta con EQ …pero yo recomiendo usar también algún enhancer, excitador aural, calentadores virtuales de válvulas (todos son distorsionadores disfrazados!!!), o un compresor multibanda tipo Waves-C4, o combinaciones de ellos. he oido de los plug-ins modeladores de micrófono, no los he usado pero me gusta su principio!!!
Cuidado con los sonidos parásitos como las PPP… las SSS… usa filtros anti-pop.
La voz tiene un rango dinámico horriblemente extenso (cuando graben una cantante de opera se van a acordar de este articulo!!!)

En las músicas actuales el uso del compresor tradicional marca la diferencia, ya que la señal de la voz es muy inestable y variable, para que se pueda mezclar bien con otros elementos se necesita de un buen compresor (y de un buen técnico que lo sepa usar!!! Jajaja!!!). ya lo veremos mas adelante!!!
Juega con los presets…
Un micrófono malo tiende a sonar muy metálico, al igual que una reverb de mala calidad!!!
Un micro muy malo suena oscuro y escaso de graves…

El pricipio:
La idea principal es que la grabación se debería parecer al máximo a la realidad sonora que se intenta reproducir. Todo el “envenenamiento” se hace en el proceso de mezcla, a menos que quieras lograr un efecto muy especifico, pero lo mas sano es grabar con una microfonìa cercana, en una sala digamos poco viva y sin ningún proceso de señal (algún limitador como mucho) todo se tratarà de reconstruir en la edición…
A menos de que grabes en la catedral de Notredame de Paris o algo por el estilo, jajaja!!!
El sonido equilibrado:
La microfonìa puede ser cercana (se toma mas instrumento que ambiente) y lejana (mas ambiente que instrumento) y sus combinaciones…
Cuando grabamos, siempre entra por el micro la señal que nos interesa al igual que los rebotes de la sala u otros instrumentos (SPILL) también es importante la distancia del micro a la fuente sonora, a menor distancia hay más efecto de proximidad (aumento de frecuencias graves) que es muy bonito si se sabe usar!!!.
Todo instrumento irradia sonido por todo su cuerpo, pero hay una región donde sale un golpe de frecuencias mas duro… este es el punto que se usa para microfonìa en vivo de un concierto, por ejemplo, la trompeta tiene ese punto donde?.... cerca de la campana…
Todo lo contrario es la microfonìa en estudio, se debe hacer una captura de sonido no muy cercana evitando situar el micro muy cerca del punto de mayor presión dinámica, cosa de que capture también las radiaciones de los otros puntos del instrumento…
La grabación con varios micrófonos es complicada y generalmente si el técnico no es experimentado le traerá problemas de fase, de comb-filter. En principio yo no la recomiendo. Cuando la intentes hacer verifica siempre la fase en un correlador de fase.
Si no estas seguro de que es eso deséchala…
Ley tres es a uno:
Cuando grabes varias fuentes sonoras con varios micrófonos simultáneamente, la distancia entre un micro y otro debe ser por lo menos tres veces mayor a la distancia del micro a su fuente. MINIMO!!!
Explora el instrumento moviendo el micrófono monitoreándote con audífonos, encuentra el punto que mas te convenga…
Ténganle mucho respeto a la grabación con varios micrófonos…
Lean sobre fase, aparición de comb-filters, ondas estacionarias, es increíble como estos problemas pueden interferir en una grabación!!!
Grabar es como tomar fotos…Experimenten!!!

El Proceso de Grabaciòn


El proceso de grabación consta de tres pasos básicos:

*La captura de sonido (mono, stereo o multicanal)

*La mezcla: es la sumatoria de todos los elementos grabados hacia un formato de difusión determinado, como lo son el monofónico, estereofónico convencional o cualquier otro formato surround como el dolby stereo (Right total-Left total) o el dolby digital (AC-3) por ejemplo.

*La masterizaciòn: es la optimización de la mezcla donde se homogenizan todos los elementos participantes en ella.

Cada una de estas etapas debe ser cuidada por igual, con calma... cualquier anomalía en alguna fase significaría una degeneración en la materia sonora, porque en el audio digital tambien hay degeneración por procesamiento de señal!!!

La atenta audición es vital, ya que es el oído quien siempre tiene la ultima palabra...

no hay reglas, todo depende del contexto...

se oye primero y se mira después...

tu nivel cultural dirà lo demas, jajaja!!!!