martes, 24 de junio de 2014

EL HARDWARE DE AUDIO

Son dispositivos muy variados, los mas populares vienen en interface PCI , USB y Firewire.
Al igual que las tarjetas hay hardware nativo (puede funcionar con cualquier software) y propietario (usa un software exclusivo)…

DSP: aunque DSP lo que significa procesador digital de señal, es decir, todo lo relacionado con hardware es un DSP, así se le llaman tradicionalmente a los dispositivos aceleradores de procesos de audio, que vienen en forma de tarjetas PCI o periféricos externos Firewire, estos DSP son manejados por un software Propietario. 
Hay que estar consiente que la gran mayoría de las tarjetas de audio son solo convertidoras y no aceleradoras, los DSP de aceleración son muy caros y elevan mucho el precio de ellas.
Las interfaces nativas usan el procesador de la computadora para hacer sus cálculos y funcionan bien hasta que sobrepasan la capacidad del CPU.
Las interfaces propietarias usan su propio procesador, es decir, son una computadora dentro de una computadora. Son mucho más estables y rinden mucho más. Algunos son tan potentes que usan la computadora solo para la parte gráfica.

La gran mayoria de las tarjetas son convertidoras solamente (o sea nativas) a menos que digan lo contrario.
Tarjetas internas son las que van dentro del “case” de la computadora, por ejemplo las PCI, ISA…
Tarjetas externas son las que van por fuera del case como las USB y Firewire
También hay tarjetas PCI (internas) que tienen un board de extensión afuera de la maquina para evitar los ruidos del ventilador interno de la computadora.


Tarjetas internas con DSP incorporado:
Son tarjetas que traen DSP`s para no usar el procesador de la compu...
PRO-TOOLS HD con sus impresionantes tarjetas con innumerables DSP`s de aceleracion de audio...
(los convertidores vienen aparte!!!)
es el software propietario por exelencia...
Convertidores y canales:
Las tarjetas de sonido tienen un número limitado de convertidores de entrada y de salida, esto no tiene que ver con cuantos canales puede trabajar internamente, solo va a depender también del procesador (si es nativo) o del DSP (si es propietario). Por ejemplo una tarjeta con solo dos entradas puede manejar 20 canales internos y hacer un play-back estable, pero si le enciendes una reverb, un chorus  y un compresor (usando 20 tracks), muy posiblemente no te funcione bien, necesitarías una ayudita con un DSP...
 


También es importante los pre-amplificadores de la tarjeta (si los tiene).
Un buen pre-amp mejora mucho el sonido.
Mientras mas profesional es una tarjeta tiene mas formatos de entrada y salida. Los mas populares son: SPDIF (stereo) y ADAT (fibra optica-8 canales), también si tiene conexiones de linea o de micro, o los dos, PHONO input (curba de eq RIAA) para tocadiscos de vinyl...
Hay que revisar a cuantos Bits trabajan y que frecuencias de muestreo manejan, niveles de ruido de fondo (a que nivel en db aparece el ruido?)...
Como ven son muchos factores a la hora de elegir una...

SOFTWARE DE AUDIO


Existen dos tipos de Software de audio: el nativo y el propietario.

El nativo es el que no necesita de un hardware exclusivo para funcionar, es compatible con la mayoría de tarjetas de sonido.
El propietario necesita de un hardware específico para funcionar, tipo PROTOOS-HD. También hay programas secuenciadores de audio con sus propios modulos de sampler y sintetizadores como REASON de la Propellerheads (exelente para aplicaciones en estudio y en vivo!!!)
La Edición lineal es usada para procesos de mastering o de edición muy puntual, son programas como Sound forge (Sony) o Wavelab (Steimberg)…

Sound Forge de la Sony (antiguamente de la Sonic Foundry)

La edición no-lineal es el software multipista… tipo, Cubase (Steimberg), Pro-tools (Digidesign), Vegas (sony)…
 Generalmente la mayoría de los software secuenciadores de hoy en día trabajan con audio y midi simultáneamente…

Cubase de la Steimberg


Hay un concepto importante que hay que aclarar: la LATENCIA.
La latencia es la diferencia de tiempo que hay entre la entrada de datos a un sistema y su salida.

software en tiempo real y en tiempo diferido:
En tiempo real significa que tiene una latencia imperceptible.
En tiempo diferido significa que hay que esperar el “render”.

El plug-in es un sofware  complementario que se incrusta en una aplicación matriz para ampliar sus posibilidades de tratamiento de señal... pueden ser nativos o propietarios.Los hay en formatos: VST, Direct-x, RTAS, TDM (todos son nativos menos el TDM que es propietario).
Tambien hay tarjetas DSP para plug-ins (propietarios) que descargan de trabajo al procesador de la compu...
por ejemplo:
Universal Audio UAD 1 Project Pak DSP Card,
 no esta nada mal...

Instrumentos virtuales: son sintetizadores o samplers en forma de plug-ins y los manejas desde un track MIDI desde el secuenciador. Los hay nativos y tambien propietarios!!!

REAKTOR (Native Instruments)... 


Por ultimo es bueno hablar del los protocolos ASIO y  Direct Sound… sencillamente es un software que conecta la tarjeta de sonido con la aplicación que se va a usar…
Hay que configurarla en el set-up del programa, ya que hay tarjetas que funcionan mejor con uno que con otro, muchos fabricantes de hardware hacen sus drivers con compatibilidad ASIO por que este protocolo implica muy poca LATENCIA…
Hasta el hardware  Pro-tools  es compatible ASIO…
Este punto es muy álgido ya que cuando una tarjeta se vuelve inestable, muy posiblemente tenga problemas con su driver de conexión al hardware (ASIO o cualquier otro)…
BUFFERING???
Es la capacidad de memoria para el proceso de audio en tiempo real, ésta es configurable, Pero recuerda, a mayor buffering mayor latencia y viceversa… cuando grabes buffering pequeño, cuando edites buffering grande!!!

REWIRE???

Es tambien un protocolo que permite conectar dos software para un trabajo simultaneo...uno funciona como maestro (editor-Cubase) y otro como esclavo (sintetizador-Reason)...

Conversion analogico-digital




Cuando conectamos algún dispositivo de audio a la interfase de sonido  hace un proceso de conversión de un flujo de corriente eléctrica a una secuencia de números que podrá ser interpretado y posteriormente trabajado por una computadora.
El proceso de conversión analógico-digital consta de dos etapas: El muestreo y la cuantización.

*El muestreo (sampling): es un proceso en el cual se toma muestras de voltaje a intervalos regulares de tiempo (44.100 muestras por segundo, para CD audio).

*La cuantización es el proceso de definición dinámica de cada muestra, mientras el muestreo es regular la cuantización, aunque estando a un formato pre-definido de BITS máximo (8, 16,24...), es variable, es decir, cada muestra tiene su amplitud particular.

La combinación de estos dos procesos da una serie de dígitos con los cuales se harán los cálculos para el proceso de señal.

 A mayor frecuencia de muestreo y a mayor resolución de cuantización hay mayor definición de sonido.

 El estándar para CD-audio es 44.100 Hz-16 Bits aunque para grabación se recomienda grabar a la mayor definición posible y en el master hacer la conversión a la resolución final.

En Windows el archivo de audio considerado como el mejor es el .WAV. el archivo WAV puede estar a cualquier resolución de muestreo o de cuantización.
Para Internet antes del MP3 se usaba mucho el audio a 22.050 Hz-8 Bits o menos!!!.
También hay otros formatos como el ya mencionado MP3, pero son formatos de para consumo no profesional por que aunque estén a 44.100Hz-16 Bits, usan una compresión muy grande de datos (por tabla de ondas) y no son óptimos para trabajar en una mezcla de audio cuyo formato final de salida sea CD-audio.

TIPOS DE MICRÓFONOS

 Hay una gran variedad de micrófonos, de verdad muy extraños, como los parabólicos, interferenciales, de carbon, labalier, etc… aquí nos referiremos a los más usados en un estudio.

Clasificación:
Según su mecanismo:

Electrodinámicos o simplemente “dinámicos”
Su funcionamiento consiste en una membrana sensible a las diferencias de presión pegada a una bobina móvil alrededor de un imán, la cual al producirse el movimiento en la membrana esta hace que la bobina entre y salga del imán produciendo variaciones de voltaje.
Estos micros no necesita carga eléctrica para funcionar, se usan típicamente en sonido en vivo y en estudio se usan para instrumentos que tienen mucha presión sonora como bombos o redoblantes, por eso es que los llaman micros “duros”.
 Los dos micros dinámicos por excelencia:
Instrumemntal   y       vocal
Electroestáticos también llamados “a condensador”
Se basan en el principio de funcionamiento de los capacitores, éstos utilizan dos placas paralelas, una de esas placas es fija y la otra es variable dependiendo de las diferencias de presión que capte produciendo fluctuaciones de carga eléctrica y que deben ser amplificadas. Estos micrófonos para su funcionamiento necesitan de una fuente externa para polarizar las placas paralelas, esta fuente es conocida comúnmente como Phantom Power.

Son muy sensibles y son los que se usan mayormente en estudio. Los hay en diafragma corto y largo los de diafragma corto (tipo lápiz) son más sensitivos que los de diafragma largo que son un poco mas duros.
Se recomienda usar para fuentes sonoras fuertes los de diafragma grande y para instrumentos más delicados los de diafragma pequeño.
También, los de diafragma grande benefician más las frecuencias graves y los de diafragma pequeño benefician las agudas.

De diafragma largo:                                                        
diafragma corto
Según su directividad o “patrón polar”:

Cardioides o direccionales:
Estos tienen la particularidad de ser direccionales ya que captan mayormente el sonido que viene de frente al micrófono y muy poco sonido que esté detrás de él , la figura característica de este patrón polar es de un corazón que parte de la capsula del micrófono.
Omnidireccionales:
 Este tipo de micro captura el sonido que viene de todas direcciones, que como su nombre nos dice (omni – todo) captan el sonido de manera análoga a una esfera.

También hay otros tipos mucho menos usados que verán en el gráfico.




sábado, 31 de julio de 2010

EL POST-MASTERING



El proceso de masterizaciòn no termina cuando se replica o duplica un CD, cada persona tiene un gusto por la sonoridad que quiere en su equipo casero o automóvil.
a este fenómeno, se podría llamar el POSTMASTERING.
El POSTMASTERING es un factor que se debe tomar en serio, ya que practicamente cada equipo y cada parlante tiene su respuesta de frecuencias en particular,
por eso se recomienda probar la grabación finalizada en muchos equipos reproductores, buenos, regulares y malos para tener una idea del funcionamiento de la música en ellos y tomar los correctivos necesarios.
Otro ámbito del postmastering es el broadcasting, tanto de radio como de tv.
el flujo de señal en la transmisión contempla procesadores de audio que optimisan la señal aplicando gran cantidad de procesos principalmente de compresiòn dinámica,
muchas veces el audio debe pasar por enlaces de micro-ondas, repetidoras, enlaces via internet y cada etapa implica perdida de información la cual se trata de compensar
con procesadores de audio basados principalmente en tecnología psicoacùstica para repotenciar la señal.

Procesos como la limitaciòn, compresiòn multibanda, correcciòn automática de ganancia, exitadores, etc, son procesos que se repiten casi en cada etapa, sin distincìon estètica alguna.
es decir, es compresiòn sobre compresiòn sobre compresiòn...
entonces si el material musical sale muy comprimido del mastering, imaginense cuando sale al aire por una estación de radio o tv...
Después hay que tomar en cuenta el equipo de radio o tv receptor que también tendrá un proceso de optimización de audio respectivo, entonces, la música que sale del estudio de masterizacion va a pasar por una serie de postmasterizaciones que van a distanciar considerablemente el resultado sonoro del deseado por el compositor o productor en un principio.
La tendencia actual en el mastering es aplicar drásticos procesos de limitación para aumentar la percepción de volumen sonoro, a través de los años hay una verdadera competencia para ver que suena mas fuerte, pero este procedimiento destruye el sonido, la dinámica interna de la pieza musical, daña el timbre de los instrumentos, todos estos detalles muy importantes a nivel de interpretación musical.
Es bueno reflexionar esto y consiente mente poder sacrificar unos db de intensidad sonora en beneficio de un resultado auditivo mas limpio y musical.

martes, 27 de enero de 2009

Reverberación???


La reverberación es la herramienta mas importante con la cual contamos para recrear artificialmente espacialidad en el sonido, también la reverberación puede tener otros usos como el de engrosar el sonido de un instrumento…
Pero que es una reverberación????
Digitalmente hablando la reverb es un proceso que conjuga filtrajes y retardos para darnos la impresión de espacio.
Existen dos formas de hacer reverberaciones, pasando la señal de audio por dos tipos de procesos digitales.
Estos procesos son los llamados filtros de respuesta finita (FIR) y los filtros de respuesta infinita (IIR).
Los filtros FIR se usan para hacer reverbs de CONVOLUCION… simplemente es que se toma una muestra del sonido de un lugar que se quiere reproducir acústicamente (se graba un tiro de pistola, literalmente…), esta muestra se llama RESPUESTA IMPULCIONAL del lugar “X” y mediante un software se convolucionan las dos señales (se pasa las propiedades de una hacia la otra) dando como resultado la señal original mas el entorno acústico de la respuesta impulsional… es decir… el guitarrista de mi grupo tocando en la catedral de Notredame en Paris… es como magia no????
Estos son filtros finitos por que son fijos, es decir que dependen de una respuesta impulsional para trabajar.

Los filtros IIR son filtros de respuesta infinita ya que al no depender de una respuesta impulsional sus parámetros son moviles, es decir… los niveles de filtraje, retardos y retroalimentaciones pueden ser editados a nuestra conveniencia…
Últimamente hay también combinaciones entre estos dos tipos de reverbs… de “convolución editables” por llamarlas de alguna manera, que toma los mejor de cada tipo…

Cada proceso de reverberación tiene su color, su sensación… no es que una sea buena y otra mala… depende de que vayas a hacer con esto…
Por ejemplo: para la grabación de una orquesta sinfónica preferiblemente se usaría una reverb de convolución, ya que seguramente tendrá una librería de respuestas impulsionales de teatros famosos, ideales para este tipo de agrupaciones. Pero por otro lado… Imaginate si metes a un grupo de rock a tocar dentro de una catedral??? Jajaja!!!

sábado, 29 de noviembre de 2008

La Perspectiva Sonora


La perspectiva sonora es un parametro que la mayoría de técnicos de audio no toman mucho en cuenta cuando hacen una captura de sonido. Sobre todo cuando se trata de música clásica.
La perspectiva sonora es la sensación de profundidad de campo sonoro en la grabación.
Hay planos sonoros cercanos, lejanos y sus combinaciones. La idea es mezclar los planos sonoros para dar una sensación de profundidad lo más parecido a la realidad.
En una grabaciòn multimicrofono cada micrófono que utilicemos va a grabar un plano sonoro distinto y recordando tambien que cada instrumento tiene un comportamiento acústico diferente ante un espacio.
La mezcla de planos sonoros debe dar la impresión que se comunican entre si. Que armonizan entre ellos. No de planos aislados que suenan juntos.
Este es el problema cuando se graba con microfonia cercana individual por canales. Es muy difícil conectar los planos sonoros entre si por métodos artificiales como variaciones de ganancia, filtrajes o reverberaciones (que son lo mismo a la final).
El trabajo se debe hacer en la captura de sonido... Pero nos topamos con el problema de anulación de frecuencias por contrafases… y eso si que es un problema…
De verdad la captura de perspectivas es todo un arte.
La clave esta en grabar un buen encuadre de plano general, bien buscado, equilibrado, armónico… y reforzar con tomas puntuales los problemas de sombras sonoras. Hay que prestar mucha atención en la proyección de la energía sonora en el espacio donde se graba…
He oído de gente que graba orquestas por secciones, con metrónomo… esa gente hay que enviarla directamente a un manicomio… eso mata la musica!!! Mata la interpretación!!! la sonoridad orquestal se basa en la interactividad entre la orquesta y el director… algo así solo se justificaría para grabar sountracks de películas, donde el trabajo de post-producción sea en función de la imagen…
En el diseño sonoro para imagen la perspectiva puede lograrse relativamente fácilmente con tone-rooms o paisajes sonoros combinado con ganancias, filtros y reverberaciones… pero es bueno también coordinar los planos de la cámara con los planos del micrófono y no dejarlo todo para el trabajo de post-producción… es mas natural así…
La simulación de perspectiva sonora es el un parámetro demasiado importante en el proceso de grabación, es lo que le da amplitud natural al sonido, elegancia, buen gusto…
Es como una reina en su castillo… una reina sin castillo no es una reina… jajajaj!!!!

lunes, 17 de noviembre de 2008

Efecto de proximidad y Microfonia del hiperrealismo

Académicamente hablando… la captura de sonido tiene como objetivo la simulación de la realidad… es decir… semejarnos lo mas posible al hecho auditivo humano… pero los micrófonos tienen un comportamiento un poco diferente a nuestro oído. Nuestros órganos de audición son condicionados tanto físicamente como psíquicamente por factores externos al hecho auditivo, sea por respuesta física de los materiales que conforman nuestro cuerpo o por la cultura auditiva que tenemos. Llamémoslo fisio-acústica (oímos en promedios) o psico-acústica (oímos lo que conocemos) en pocas palabras : )
El hecho de escuchar en nuestros primeros meses de vida nos ocupa gran parte de nuestro tiempo… hacemos nuestra propia biblioteca de sonidos y los identificamos. Es un esfuerzo tremendo… vamos encapsulando "grupos de armónicos" y etiquetándolos con nombres que recordaremos para toda la vida... hasta que aprendamos otro idioma, que es cuando nos damos cuanta en realidad que un objeto o una situación se puede identificar con otros sonidos…
Microfonia cercana o lejana, simple, depende que queramos hacer… una captura mas sonido directo que entorno y la otra todo lo contrario. Dirección del micrófono hacia la fuente sonora… ración de radiaciones principales y radiaciones secundarias… da sonidos más o menos equilibrados…
Es demasiado relativo decir que es procedente o no en la captura del sonido… siempre depende de la situación... diafragma corto o largo, definición o promedio… micro duro o blando, aguante de presión sonora… rango dinámico… patrón polar…
El efecto de proximidad es la acentuación de frecuencias bajas y la sensación de una hiper-articulación… Pero… hasta que punto oímos así???…
Siempre me he preguntado porqué oigo grabaciones que parecen que el músico ejecutara su instrumento en mi oreja???… demasiado efecto de proximidad… para mi no basta con aplicar un filtro pasa altos.
El efecto de proximidad nos conduce a una hiper-realidad. El resultado auditivo nunca se va a parecer a lo que oiríamos normalmente, salen muchos detalles de ejecución, mucho imprevisto...
Entonces… Volver a los viejos tiempos… donde la microfonia realmente era el arte de grabar y no se dependía tanto de la post-producción. Es un poco más difícil pero da resultados sonoros más coherentes, con más unidad y más armónicos.



viernes, 31 de octubre de 2008

The Mickey Mousing Music

Esta terminología es muy frecuentemente usado para denominar la música hecha para acompañar los dibujos animados.
La MMM se caracteriza por estar excesivamente en sincronía con la imagen, exagerando su función incidental, ejecutada con ensambles orquestales, con un director casi a la usanza de la opera!!! El trabajo de postproducción se hacia con tijeras, cortando y pegando la cinta de grabación electromagnética u óptica. La cinta óptica es de plástico y esta impresa con gráficos de picos de onda. No hay que confundirlas con las interfaces de audio digital ópticas tipo adat por ejemplo, estas aparecen muchísimo después!!!, la Cinta óptica se decodifica por fotostato y la segunda es digital y se transmite por fibra óptica.
La MMM reemplazaba también el diseño sonoro, sustituían los pasos por pizziccati de violoncellos, caídas, y resbalones por glissandi de clarinetes por ejemplo. y mas aun… incluía sonidos de Foley (como ruido de sartenes o cualquier otra cosa) dentro de un ensamble orquestal, dando resultados bastante peculiares… recordemos que es mucho mas antigua la música incidental que el diseño sonoro, la música incidental se inicia prácticamente con el cine, ejecutada en vivo en las salas de proyección, el diseño sonoro va a aparecer cuando el cine deja de ser mudo (el cantor de Jazz-1927) sirviendose de un aparato llamado Vitaphone para el play-back de la banda sonora.
El productor que inmortalizo esta música fue Walt Disney y fue seguido por toda esa generación norte-americana de productores representantes de esa estética musical.
Hoy en día se sigue utilizando ya que, sin llegar a ser un cliché, es un recurso muy efectivo a la hora de crear bandas sonoras para imagen.
Algunos críticos llaman también a -the Mickey Mousing Music- la música tipo cliché usada en películas de terror o acción pero como su nombre lo indica se refiere principalmente a la tradición norteamericana de música para dibujos animados.

sábado, 10 de mayo de 2008

Compositor y Sound Designer, uno solo???


La tarea del compositor es hacer la música (jajaja!!!) y la del sound designer la de hacer el audio (buabuabua!!!). Musica + Audio= Banda sonora (estamos claros, UFF!!!).
Pero últimamente en el mundo hay una tendencia a que las dos cosas las haga la misma persona y me he dado cuenta que tiene muchas ventajas.

*Presupuestaria: menos costoso. Solo hollywood puede hacer cosas de presupuestos tan groseros, ese es su fuerte y su especialidad!!!, competir con ellos en ese ambiente es una locura, por eso no estoy de acuerdo en hacer una película QUE PUEDA COMPETIR sino que QUE PUEDA TRANSMITIR!!!.
*Rapidez de trabajo: las tomas de decisiones son menos complicadas por que una sola persona controla todo asegurando una unidad de criterio. Generalmente cuando algo se descuadra (música o audio) y se trabajan por separado se tiene que ir a etapas anteriores no solo en la post-producción sino hasta de producción!!!
*Rapidez en las correcciones: no hay que ir y venir de un estudio a otro, ir a que el músico, volver a que el sound designer, todo pasa en una sola computadora!!!.
*Facilidad de coordinación: Mientras menos personas haya en un equipo es mas fácil de gerenciar, ni hablar de cuando te quedan mal en fechas de entrega o no hacen lo que se le pide.

Tiene que haber mucha confianza entre el AUDIO-MUSICO y el director, para intercambiar ideas, criticas, y hasta golpes!!! Y el día siguiente no ha pasado nada!!!

Si la película tiene un presupuesto decente y hay un tiempo suficiente para realizarla se justificaría que estén estos dos ámbitos manejados por personas diferentes. Pero si es un proyecto de bajo presupuesto y de paso para formatos pequeños ( DVD, WEB, TV) es mucho mejor que lo maneje una sola persona (pero que lo sepa hacer!!!!)

Esto también va a obligar a los músicos a prepararse en el campo del audio que es lo que se llama hoy en día la “TECNOLOGIA MUSICAL”. Desde que el audio entro en la informática es mucho mas asequible tanto económicamente como en conocimiento.
Al final las reuniones con el director para supervisar la banda sonora iran descubriendo detalles que se corregirán facilmente.
Por muy polémico que sea este tema creo que no es una locura pensar desde ya a que en un futuro será así y prepararse para los SUPER-TECNOLOGOS MUSICALES!!!!

domingo, 27 de abril de 2008

Mixing vs. Mastering…


Quisiera hablar ahora de la parte conceptual de la edición de audio, que para mi es la mas importante.
Vamos a contrastar el proceso de mezcla al de masterización.
El mixing es un proceso sustractivo, contrariamente como se podría ver si tomamos en cuenta que es una sumatoria de ondas. Este proceso se basa en el filtraje de los sonidos involucrados para que puedan convivir todos juntos en un nuevo espacio sonoro. Las resonancias son puntos de exceso de energía resultado de la suma de dos o mas sonidos de espectro parecido. La solución??? El filtraje de uno de ellos sin que este pierda características básicas del timbre que representa, el oído y el gusto musical dan la pauta… como podemos ver ,este es un proceso muy artístico.
Para meter muchos sonidos en uno solo hay que esculpir los sonidos individualmente, tratando de respetar su identidad tímbrica en lo posible y teniendo en cuenta siempre
La psicoacústica del resultado sonoro final!!!!!!

EL RESULTADO SONORO FINAL ES MAS IMPORTANTE QUE LA SUMATORIA DE SUS PARTES.

El mastering es un proceso aditivo, contrariamente como pensaríamos si observamos los tratamientos dinámicos típicos de esta etapa.
Yo definiría el mastering como una expansión sonora.
Recordemos que en el resultado del mixing es un complejo sonoro traumatizado por fuertes golpes al espectro individual de cada sonido.
El mastering tiene que homogenizar y recuperar el aspecto general del nuevo elemento sonoro creando un nuevo balance para este nuevo espacio.
Este proceso en el dominio tímbrico es representado por repotenciadores espectrales de cualquier naturaleza y en el dominio dinámico lo evidencian procesos de compresión y limitación de loudness.
El Mastering engrandece la mezcla y le da unidad tímbrica a través de la sumatoria de diversos planos sonoros generados en el curso del tratamiento de la señal en cuestión.

LA BUSQUEDA DE UN SONIDO EQUILIBRADO ES LA META, PERO ESTO DEPENDE DE CÓMO ESTE TU EQULIBRIO INTERNO. JAJAJA!!!

jueves, 21 de febrero de 2008

Diseño Sonoro???

El diseño sonoro es una terminología empleada para denominar principalmente la elaboración del sonido en una obra audiovisual, sea cine, tv, web-streaming y también la ilustración sonora para radio.
Así mismo se usa algunas veces como sinónimo de síntesis sonora o de proceso de tratamiento de señal de audio, pero el uso mas generalizado de esta frase es el ámbito audiovisual…
El proceso de diseño sonoro se usa para crear la banda sonora de una película, es decir... todo lo que suena.


Una Banda sonora principalmente esta conformada por tres planos sonoros:
1-Plano Vocal: integrado por los diálogos (grabados en el rodaje o doblados) y la narración (voces en off o en pantalla). Este plano es el principal!!!
2-Plano de efectos:
-Efectos de ambiente: como el Tone-room (sonido de ambiente de interiores), paisaje sonoro (ambiente de exteriores).
-Foley: en honor a Jack Foley, su creador… es la reconstrucción en estudio de los detalles sonoros sincronicos a la imagen grabada, ya que no pueden ser recibidos bien por el micro usado en el rodaje debido a que este se enfoca principalmente al plano narrativo…
-Efectos especiales: son los sonidos que ilustran situaciones precisas naturales o artificiales (despegue de un avión, explosión de una granada, colisión de un asteroide) pueden ser grabados o de creación sintética.
3-Plano Musical: la música diegética, que se ve su emisor en pantalla, por ejemplo: un cantante actuando en un bar… o no diegética, que no se ve su emisor en pantalla, por ejemplo: una orquesta que suena mientras hay un combate de una guerra…
Estos tres planos se manejan independientemente… en el rodaje solo se concentra la atención en grabar el plano narrativo (diálogos) y algún otro detalle que se cuele … todo lo demás es post-producción… (Profesionalmente hablando!!!)

Hay otros términos que es bueno aclarar…
-Música incidental: es la música que acompaña y apoya la imagen, tiene un efecto meramente psicológico sobre la imagen.
-Tema de la película: en la mayoría de los casos es una canción que no tiene nada que ver con la película, es un elemento comercial para dar publicidad al film… o darle publicidad al cantante…

en fin...
El diseñador sonoro se encarga de la mezcla armoniosa de todos estos planos, dando preponderancia al narrativo ya que este es el hilo conductor del film…

viernes, 1 de febrero de 2008

Conexiones entre los equipos: CUIDADO!!!




Tanto en el audio analógico como en el digital, las conectividad entre equipos es un punto muy álgido y generalmente descuidado y como todo lleno de mitos…
En el audio digital la conectividad en mucho mas clara que en el audio analógico… no puedes enchufar un cable firewire a una entrada usb o un cable usb a una entrada adat, es imposible…
En el audio analógico se trabaja siempre con corriente eléctrica y esta misma señal puede entrar y salir por diferentes tipos de conectividad según nuestros requerimientos o nuestra ignorancia, jajajaja!!!

Las salidas de señal y los cables que la llevan son dos factores importantes a tomar en cuenta…
El primer factor que hay que revisar es la impedancia...
La impedancia es la resistencia que opone un dispositivo al paso de la corriente…su valor viene caracterizado por baja, alta y muy alta impedancia. Lo-Z Baja impedancia Hi-Z Alta impedancia VHi-Z Muy alta impedancia

Un dispositivo tiene siempre dos tipos de impedancia: una de entrada y otra de salida.
La de entrada nos indica el flujo óptimo de corriente con el cual trabaja el aparato y la de salida indica su compatibilidad con el proceso o dispositivo siguiente.
Lo que se recomienda en que la impedancia de salida de un dispositivo debe ser por lo menos un tercio de la impedancia de entrada del dispositivo receptor de la señal…
Hay que leer los manuales, en la información técnica del aparato siempre informan de las impedancias… Aunque en la mayoría de los casos las exageran un poco para vender mas!!! Jajaja!!!

El segundo factor es el cable:
Hay dos tipos de cable: los balanceados y los no-balanceados…
Los no-balanceados son los que internamente tienen dos cables… tipo RCA por ejemplo (señal y tierra).
Estos cables son conexiones no profesionales que manejan niveles altos de ruido porque no tienen ningún blindaje, el cable actúa como una antena de TV, absorviendo todo lo que le llega cerca. por eso se recomienda usarlos con poca extensión…
Estos cables son muy ruidosos y junto a un mini-jack de conexión es la combinación perfecta para originar toda clase de ruidos parásitos!!!
Es preferible un RCA (si es dorado mejor) que un mini-jack…

Los cables balanceados son el formato de conectividad profesional.
Estos tienen internamente tres cables (señal, señal en contratase y tierra)
La tierra es una malla que envuelve los dos cables de señal y funciona como un blindaje extra de protección… y también se usa para pasar la alimentación Phantom para micrófonos electroestáticos o cajas directas activas (mas adelante las mencionaré)…
-Hay dos cables con la misma señal pero en contratase para prevenir y eliminar ruidos parásitos (me imagino que por cancelaciones de fase)-
Este tipo de cable puede ser muy extenso ya que tiene una perdida de energía mínima… y además captura muy poca interferencia por su blindaje…
Generalmente usa conector tipo cannon o XLR (es lo mismo)… aunque también se puede usar con jacks stereo…

–+4 dbm y +10dbv
Esto son los niveles de línea, En teoría la calidad de audio es la misma para los dos pero hay que guardar la compatibilidad entre los aparatos…

“Linea” o “Micro”???
La entrada/salida llamada “de línea” son de alta impedancia, es un flujo de electricidad fuerte pero de calidad no profesional…(usan conector RCA, plug o mini plug)
La entrada/salida llamada “de micrófono” son de baja impedancia, aunque pareciera que suena menos fuerte que la “de línea” es el flujo de señal optimo para los equipos profesionales…(usan conector cannon principalmente)
Hay que guardar compatibilidad de entrada/salida entre equipos…



Las famosas cajas directas (direct box)
Se usan para varios tipos de conversión de señal de audio analogica…
Balanceado a no-balanceado…
Alta impedancia a baja impedancia…
Conexión tipo jack a cannon…
Reduce la ganancia de linea (típica de teclados) a micro…
También se usan para anular la conexión de tierra en un cable balanceado con la finalidad de eliminar el “LOOP de tierra” que es un sonido parasito originado por el encuentro de dos tierras de direcciones diferentes, por ejemplo: una computadora cuando se conecta a una consola hay un encuentro de dos tierras, por que cada aparato tiene su propia tierra y cuando se conectan en muchas ocasiones se origina un ruido muy desagradable…
Para solucionar esto se usa una caja directa y se le switchea la tierra de la compu…
D.B. activas o pasivas???
En principio hacen lo mismo, pero las activas tienen mayor respuesta de ganancia y frecuencia, es decir, suenan mejor!!! La activa necesita una carga eléctrica para funcionar... cada caja directa tiene sus características, hay que leerlas antes de comprarlas para ver si es la que te conviene!!!

Espero aclarar un poco este delicado tema… piensen un poco que conexión les conviene (o tal vez a su bolsillo)… JAJAJA!!!!!

domingo, 27 de enero de 2008

Pro-tools or no Pro-tools?


Con este artículo no quiero poner en duda la calidad de Digidesing como diseñadora y constructora de software y hardware de audio. Solo quiero reflexionar un poco acerca del mito Pro-tools en el mundo entero, ya que me he dado cuenta que hay mucha desinformación al respecto.

El primer factor que hay que tomar en cuenta es que Pro-tools es ante todo un HARDWARE, hasta hace algunos años este software lo podias bajar gratuitamente de la pagina de Digidesign (incluso para Windows 98).
La calidad de sus convertidores es indiscutible, tiene una calidez de sonido increíble.
Sus preamplificadotes son muy buenos también… pero el fuerte de Pro-tools realmente es su DSP dedicado (se concibió como sistema propietario), eso es lo que le da su estabilidad rendimiento y calidad sonora final, es decir, su poder de calculo…

Pero la mayoría de la gente cree que si se compra un dispositivo de la serie barata de Pro-tools como la M-box o la Digi00X, tiene acceso a ese maravilloso mundo del audio Pro-tools y realmente lo único que tiene son los convertidores, es decir, una pequeña parte del sistema.
Me imagino que esto lo hace la Digidesign para darle publicidad a sus productos y enfilar el publico hacia la compra de un sistema completo tipo HD…

FOTO Pro-tools HD-3


También hay que decir que el software Pro-tools (en cualquiera de sus versiones) es un editor no-lineal como cualquier otro, lo que lo hace especial principalmente es que tiene acceso al formato de plug-ins RTAS y sobretodo TDM….. que es allí donde esta el poder de sonido, por el uso de los dsp dedicados y sin usar recursos de la computadora.

Para aumentar la confusión sale una versión de Pro-tools que funciona con tarjetas M-audio (las hay desde 80$, como la JAMLAB), este software yo lo llamo el Pro-tools de pobres… este sistema ni siquiera tenemos los convertidores pro-tools, lo único pro-tools que hay es el nombre, jajaja!!!



-Tengo un amigo que tiene un estudio y compro una consola digital con salidas a-dat que se las conecta a una M-audio FireWire 1814 y usa protools M-powred, también usa plug-ins waves ..osea, hello, esto realmente de Pro-tools no tiene nada!!!!-

Hay que recordar que el software Pro-tools es famoso también por su antigüedad (es uno de los primeros editores de audio comercial), su interfase grafica es muy clara (aunque las ultimas versiones se están complejizando un poco, con la inclusión del midi, los instrumentos virtuales, etc…), usa pocos colores reduciendo el riesgo de problemas gráficos que afecten el proceso de audio (o sea, que se clave la maquina!!!), y muchas cosas que Digidesing es pionera en el audio digital…

Foto DIGI-002


Recapitulando… Con el Pro-tools de la serie M-box y DIGI-00X solo tenemos acceso a los convertidores, que por cierto también los tiene la E-MU 1616-PCI … (http://www.emu.com/products/product.asp?category=505&subcategory=491&product=15189). Lo demás como las conexiones en diferentes formatos digitales, pre-amps, etc, etc, lo podemos conseguir en cualquier otra tarjeta mas barata…
Esto ha obligado a la Digidesing a bajar precios los precios y a diseñar hardware más pequeño, para acercarse a un público no tan profesional ( que por cierto no fue la idea originaria)…
Entonces, para acceder a un sistema Pro-tools de verdad verdad deberíamos tener, mínimo, a partir de la serie HD 1.
Este sistema es el mas caro (por supuesto!!!), pero tiene los DSP dedicados, que te aseguran la pureza de sonido Pro-tools verdadera…Estabilidad de calculo, ligereza de proceso, rendimiento, viaje a la luna, sushi, champange y todo!!!
Ni siquiera con una tarjeta HD seria suficiente para un estudio comercial, se necesitaría dos o tres… mas todas las interfaces, pre-amplificadores, interface midi… etc, que vienen por separado y se ven bellísimas montadas en un rack, JAJAJAJA!!!

Un estudio para llamarse “profesional” debería tener un Pro-tools a partir de la serie HD, la serie M-box y DIGI00X son pensadas para home-studio… (lamentablemente) y ni hablar de las M-audio, aunque son muy buenas a su nivel tambien...


FOTO M-BOX "mini"
Espero con este artículo haber aclarado un poco el mito Pro-tools y animar a la gente que:
-O se compre un HD o pruebe también otros sistemas de grabación que son tan buenos como el Pro-tools y no son tan famosos…
En otros artículos abordaremos ese tópico…

Espero no deprimir a nadie... JAJAJA!!!!







lunes, 21 de enero de 2008

Honor al Dolby Stereo!!!!

El surround no es una tecnología nada nueva… tiene mas de treinta años de uso…hoy en día se habla mucho del dolby digital y de otros distemas como el DTS o el SDDS; y nos hemos olvidado del padre del surround que es el Dolby stereo…

Ahora… el Dolby stereo es muy diferente al stereo convencional, y esta es una duda muy común en los editores de audio para video…

Entonces, atención… el dolby stereo es un sistema de difusión CUADRAFONICO, es decir, de cuatro puntos de difusión, que son derecho, izquierdo, central y trasero… aunque en un cine con este sistema se vean muchos parlantes, realmente son una distribución de cuatro señales solamente…

Entonces…el dolby stereo es un sistema a cuatro canales codificado o matrizado a dos… lo que se llama Right Total-Left Total…

Pero… como meter cuatro señales diferentes en una stereo, con procedimientos analógicos??? aquí el ingenio humano se luce!!!

Es un simple juego de cancelaciones de fase controlada… increíble!!!

...Para que vean lo peligroso que puede llegar a ser los problemas de fase en las grabaciones multimicrofono, que te puede borrar, literalmente, un instrumento de una grabación!!!


Lo que pasa es lo siguiente:

Al hacer la mezcla en dolby stereo se necesita un codificador dolby stereo (seguro!!!), también hay plug-ins que lo hacen si se usa un DAW…

El codificador rutea las señales así:

Lo que va por el canal derecho sigue estando por el derecho

Lo que va por el izquierdo también sigue estando por el izquierdo, hasta aquí no hay problemas…

El central es la suma del derecho+izquierdo un unos cuantos db menos para contrarrestar  el aumento de señal de la suma…

Ahora… el trasero es donde esta el detalle…

La señal que queremos enviar al trasero debe ser monofónica y el codificador le hace un espejo..o sea…la convierte en stereo pero EN CONTRAFASE… y la vierte al mixdown…

Cuando se hace la mezcla, la señal stereo lleva por dentro también otra señal stereo en perfecta contrafase, esto es a lo que se llama Right-Total Left-Total y esto es lo que diferencia una señal stereo convencional a una señal stereo en formato dolby stereo… aunque veamos la señal en un DAW y se vean igual, realmente son diferentes...

Esta señal es la que se imprime en el plástico de las películas (35 mm, etc…) o en los videos que tienen el sonido hecho en dolby stereo, tambien es usado para radio y TV!!!! (Radio y TV surround!!!), llamado también Magic surround...

Si oímos esta mezcla en stereo no notaremos nada raro (en principio)…si la oímos en mono desaparecerá lo que enviamos al parlante trasero por la resta de señales en contrafase…

Para oir otra vez los cuatro canales debemos pasar la mezcla RT-LT por un DECODIFICADOR dolby stereo (que lo encontramos en salas de cine!!!) , algunos lectores de DVD lo tienen tambien… creo…

El decodificador interpreta lo siguiente:

Canal derecho para el canal derecho

Canal izquierdo para el izquierdo

El canal central es la suma de los dos anteriores con unos db menos

Y HE AQUÍ EL DETALLE: Entonces el decodificador cambia la fase de uno de los canales de la mezcla total en stereo RT-LT y los suma, originándose una resta casi total de lo que esta en contrafase, pero recordemos, que como había una señal interna ya en contrafase, ésta queda en fase y es lo único que queda en la nueva señal (ingenioso, no???)… y esta nueva señal el decodificador la manda para el canal trasero, jajaja!!!


Como este proceso se basa en los problemas de fase, en la mayoría de los casos se van a generar sonidos parásitos en la onda resultante…minimizados por supuesto en la grabación si se usa un sistema dolby SR (spectral recording) o algún filtro.


Actualmente el estándar de audio para cine y dvd es el dolby digital (5.1) pero el dolby stereo se usa como back-up de seguridad y va impreso en el plástico en una línea al lado de los fotogramas, cuando el 5.1 falla, se brinca al dolby stero…

También se usa así para guardar la compatibilidad en salas que solo tienen dolby stereo o que solo tienen stereo convencional o mono, ya que una de las bondades del dolby stereo es que es compatible a stereo convencional y a mono!!!


Y NO TE PREOCUPES…Si haces la mezcla para video en stereo convencional (que es lo mas común en Venezuela), claro que se puede pasar en una sala con sistema dolby stereo, solamente que el operador de la maquina sea pilas y este bien despierto y switchee el codificador a stereo convencional, jajaja!!!


A la final…

Este procedimiento no esta muy bien explicado en la pagina dolby.com (no les conviene, jajaja!), tampoco lo he visto con este detalle en ningún lado en internet !!!

Me puse a  hacer unas pruebas en mi computadora analizando ondas codificadas en dolby stereo… y trate de buscar un camino lógico de vueltas de fase y los descubrí!!!!!!!!! Jajaja!!!

Si saben de una site que tenga una explicación mejor me la mandan por favor!!!








domingo, 20 de enero de 2008

Que es el "0" db ?

Yo considero que tener una idea de que significa esta frase es básico para todo el que quiere trabajar con audio digital…

Cuando oímos una canción nuestro oído tarda en reaccionar a los cambios de la dinámica, o sea, nuestra audición no es instantánea, oímos en promedio…


Esto que tiene que ver???

Hay dos tipos de aparatos usados para medir la potencia sonora (loudness) de una canción:


Los Peak-meters y los VU-meters


Los peak-meters miden el nivel instantáneo de potencia sonora, esto sirve principalmente para ver si hay una saturación de la señal en cuestión…Ok, nos da información valiosa, pero los humanos no oímos así!!!


Los VU-meters, heredados del audio analógico, toman varias muestras en un periodo de tiempo determinado, hacen un promedio y nos dan la potencia sonora relativa. Esto es mas parecido a como oímos!!!


Todo parece claro, pero hay otro factor:


El “0” DB


El “0” DB en pico es el máximo punto que aguanta un sistema (DAW) de audio digital sin saturar, DB FS (Full Scale) es la escala en DB usada en el audio digital.


El “0” DB VU es el nivel de persistencia, es decir, es el nivel alrededor del cual se deberían mover las agujas (o las rayitas) para simbolizar un flujo de señal optimo, estable...


Este nivel es variable; se recomienda por ejemplo que el “0” DB para aplicaciones en cine, home theatre, se encuentre a -20 DB FS (o sea 20 DB FS de Head-room!!!). Para el audio comercial en CD se recomienda que el “0” DB este a -14 DB FS, para Transmisiones por antena (radio o tv) el “0” DB se recomienda a -12 DB FS ,aunque el nivel de compresión dinámica de los procesadores de audio antes del transmisor es otra historia...


Estas recomendaciones son bastante efectivas, yo he mezclado para cine y cuando lo he escuchado en una sala con sistema dolby suena impecable…


Entonces???


Monitorear los Peak-meters y los VU-meters siempre; los peak te dan la posible saturación y los VU te dan el nivel perceptivo, por supuesto que calibrando el VU meter según tu formato ultimo de difusión(cine, CD, etc…) a 300 ms.

Tal vez no sea la mejor explicación pero les va a encaminar en el escabroso uso de estos tan interesantes cacharros ; )

Comenzamos a grabar...


La Captura de sonido es la primera etapa del proceso de grabación:

La Microfonìa:
Que tipo de micrófono voy a usar???
Hay dos tipos de micros: los electro-dinámico y los Electro-estáticos.
En líneas generales los micros dinámicos son “duros” (necesitan de mucha presión sonora para funcionar), son buenos para aplicaciones en vivo como conciertos o conferencias. En estudio se pueden usar para instrumentos que descarguen mucha energía como bombos o redoblantes.
Corrientemente en estudio se usan micros electroestáticos o de condensador (necesitan electricidad para funcionar), como muchos también los llaman…Estos son mucho más sensibles al sonido, los de diafragma pequeño (tipo lápiz) son más sensitivos que los de diafragma grande que son un poco mas duros, ósea, se recomienda usar para fuentes sonoras fuertes los de diafragma grande y para instrumentos mas delicados los de diafragma pequeño.
También, los de diafragma grande benefician más las frecuencias graves y los de diafragma pequeño benefician las agudas.
La directividad o “patrón polar” en importante también:
Direccionales o Cardioides, son los más usados, tienen un primer plano sonoro en frente del micro.
Omnidireccionales: tienen su primer plano sonoro por delante, los lados y por detrás.
Bidireccionales… dos direcciones…muy poco usados.
Hay micros que se le puede cambiar el patrón polar con un conmutador o con una capsula que se le enrosca en el diafragma.

Allí la escogencia:
Que rango de frecuencias tiene el instrumento que grabaremos??? Que rango dinámico tiene??? Que dinámica tiene la obra??? Que rango dinámico o frecuencial queremos acentuar??? Que efecto queremos lograr??? Prueba con varios tipos de micro, conócelos, cada uno tiene su timbre…
Por ejemplo para voces yo recomendaría un diafragma grande, para veneficiar los rangos medios y graves de la voz, los de diafragma grande aguantan mejor los ataques de las vocales, entre otras cosas... Pero también puedes resolver con un micro dinámico tipo SM-58 o algún genérico, nada debe ser un impedimento para la creación…
Total, si el micro es muy oscuro le das brillo en la mezcla o lo contrario, experimenta con EQ …pero yo recomiendo usar también algún enhancer, excitador aural, calentadores virtuales de válvulas (todos son distorsionadores disfrazados!!!), o un compresor multibanda tipo Waves-C4, o combinaciones de ellos. he oido de los plug-ins modeladores de micrófono, no los he usado pero me gusta su principio!!!
Cuidado con los sonidos parásitos como las PPP… las SSS… usa filtros anti-pop.
La voz tiene un rango dinámico horriblemente extenso (cuando graben una cantante de opera se van a acordar de este articulo!!!)

En las músicas actuales el uso del compresor tradicional marca la diferencia, ya que la señal de la voz es muy inestable y variable, para que se pueda mezclar bien con otros elementos se necesita de un buen compresor (y de un buen técnico que lo sepa usar!!! Jajaja!!!). ya lo veremos mas adelante!!!
Juega con los presets…
Un micrófono malo tiende a sonar muy metálico, al igual que una reverb de mala calidad!!!
Un micro muy malo suena oscuro y escaso de graves…

El pricipio:
La idea principal es que la grabación se debería parecer al máximo a la realidad sonora que se intenta reproducir. Todo el “envenenamiento” se hace en el proceso de mezcla, a menos que quieras lograr un efecto muy especifico, pero lo mas sano es grabar con una microfonìa cercana, en una sala digamos poco viva y sin ningún proceso de señal (algún limitador como mucho) todo se tratarà de reconstruir en la edición…
A menos de que grabes en la catedral de Notredame de Paris o algo por el estilo, jajaja!!!
El sonido equilibrado:
La microfonìa puede ser cercana (se toma mas instrumento que ambiente) y lejana (mas ambiente que instrumento) y sus combinaciones…
Cuando grabamos, siempre entra por el micro la señal que nos interesa al igual que los rebotes de la sala u otros instrumentos (SPILL) también es importante la distancia del micro a la fuente sonora, a menor distancia hay más efecto de proximidad (aumento de frecuencias graves) que es muy bonito si se sabe usar!!!.
Todo instrumento irradia sonido por todo su cuerpo, pero hay una región donde sale un golpe de frecuencias mas duro… este es el punto que se usa para microfonìa en vivo de un concierto, por ejemplo, la trompeta tiene ese punto donde?.... cerca de la campana…
Todo lo contrario es la microfonìa en estudio, se debe hacer una captura de sonido no muy cercana evitando situar el micro muy cerca del punto de mayor presión dinámica, cosa de que capture también las radiaciones de los otros puntos del instrumento…
La grabación con varios micrófonos es complicada y generalmente si el técnico no es experimentado le traerá problemas de fase, de comb-filter. En principio yo no la recomiendo. Cuando la intentes hacer verifica siempre la fase en un correlador de fase.
Si no estas seguro de que es eso deséchala…
Ley tres es a uno:
Cuando grabes varias fuentes sonoras con varios micrófonos simultáneamente, la distancia entre un micro y otro debe ser por lo menos tres veces mayor a la distancia del micro a su fuente. MINIMO!!!
Explora el instrumento moviendo el micrófono monitoreándote con audífonos, encuentra el punto que mas te convenga…
Ténganle mucho respeto a la grabación con varios micrófonos…
Lean sobre fase, aparición de comb-filters, ondas estacionarias, es increíble como estos problemas pueden interferir en una grabación!!!
Grabar es como tomar fotos…Experimenten!!!

El Proceso de Grabaciòn


El proceso de grabación consta de tres pasos básicos:

*La captura de sonido (mono, stereo o multicanal)

*La mezcla: es la sumatoria de todos los elementos grabados hacia un formato de difusión determinado, como lo son el monofónico, estereofónico convencional o cualquier otro formato surround como el dolby stereo (Right total-Left total) o el dolby digital (AC-3) por ejemplo.

*La masterizaciòn: es la optimización de la mezcla donde se homogenizan todos los elementos participantes en ella.

Cada una de estas etapas debe ser cuidada por igual, con calma... cualquier anomalía en alguna fase significaría una degeneración en la materia sonora, porque en el audio digital tambien hay degeneración por procesamiento de señal!!!

La atenta audición es vital, ya que es el oído quien siempre tiene la ultima palabra...

no hay reglas, todo depende del contexto...

se oye primero y se mira después...

tu nivel cultural dirà lo demas, jajaja!!!!