lunes, 31 de diciembre de 2012

Modelo cognitivo-teórico del universo


La Teoría de Teorías


Por Cristopher Michael Langan


Ya sabes lo que dicen acerca de las teorías: todo el mundo tiene una. De hecho, algunas personas tienen una teoría acerca de casi todo. Aunque eso no es una Teoría Maestra del Todo... es una teoría separada acerca de cada pequeña cosa bajo el sol. (Para tener una Teoría Maestra, debes ser capaz de atar todas esas pequeñas teorías unas con otras).

Pero, ¿qué es una “teoría”? ¿Es una teoría simplemente una historia que puedes construir acerca de algo, que sea tan fantástica como te apetezca? ¿O una teoría al menos tiene que parecer que podría ser cierta? Incluso, más rigurosamente, ¿es una teoría algo que tiene que ser plasmado en forma de símbolos lógicos y matemáticos, y descrito en lenguaje sencillo solamente después de que los garabatos originales hayan hecho una ronda de visitas por la academia?

Una teoría es todo lo anterior. Una teoría puede ser buena o mala, fantástica o plausible, verdadera o falsa. Los únicos requisitos firmes son que (1) tenga un tema, y (2) esté expresada en un lenguaje que permita que el tema pueda describirse de forma coherente. Donde estos criterios se cumplen, la teoría puede siempre “formalizarse”, o traducirse al lenguaje simbólico de la lógica y las matemáticas. Una vez formalizada, la teoría puede someterse a varios tests matemáticos para comprobar su veracidad y consistencia interna.

Pero, ¿no hace eso que esencialmente “teoría” sea sinónimo de “descripción”? Sí. Una teoría es simplemente una descripción de algo. Si podemos usar las implicaciones lógicas de esta descripción para relacionar los componentes de ese algo con otros componentes de formas reveladoras, entonces la teoría se dice que tiene “poder explicativo”. Y si podemos usar las implicaciones lógicas de la descripción para realizar predicciones correctas acerca de cómo ese algo se comporta bajo varias circunstancias, entonces la teoría se dice que tiene “poder predictivo”.

Desde una perspectiva práctica, ¿en qué tipos de teorías debemos interesarnos? La mayoría de la gente estará de acuerdo en que, con objeto de ser interesante, una teoría debe tratar un tema importante... un tema que implique algo útil o valioso para nosotros, aunque sea siquiera a un nivel puramente abstracto. Y la mayoría también estará de acuerdo en que, con objeto de que nos facilite extraer y maximizar ese valor, la teoría debe tener poder explicativo o predictivo. Por ahora, permite que llamemos a cualquier teoría que cumpla ambos criterios una teoría “seria”.

Entre los interesados en teorías serias se encuentra prácticamente todo el mundo, desde ingenieros y corredores de bolsa hasta doctores, mecánicos de automóviles y detectives de la policía. Prácticamente cualquiera que da consejos, resuelve problemas o construye cosas que funcionan necesita una teoría seria a partir de la cual trabajar. Pero tres grupos que están especialmente interesados en teorías serias son los científicos, los matemáticos y los filósofos. Estos son los grupos que plantean los requisitos más estrictos sobre las teorías que usan y construyen.

Aunque hay similitudes importantes entre los tipos de teorías tratadas por los científicos, matemáticos y filósofos, también hay diferencias importantes. Las diferencias más importantes implican el tema de las teorías. A los científicos les gusta basar sus teorías en la experimentación y observación del mundo real... no en las percepciones en sí mismas, sino en lo que ellos llaman “objetos de los sentidos” concretos. Es decir, les gusta que sus teorías sean empíricas. A los matemáticos, por otro lado, les gusta que sus teorías sean esencialmente racionales... que estén basadas en deducciones lógicas relativas a objetos matemáticos abstractos existentes en la mente, independientemente de los sentidos. Y a los filósofos les gusta buscar extensas teorías de la realidad dirigidas a relacionar los dos tipos de objetos anteriores. (Esto en realidad exige un tercer tipo de objeto, el operador sintáctico infocognitivo... pero eso será en otro momento).

De los tres tipos de teoría, las teorías de la ciencia lideran la mayor parte de la popularidad. Desafortunadamente, esto presenta un problema. Pues, mientras que la ciencia tiene una gran deuda hacia la filosofía y las matemáticas —puede caracterizarse como la hija de la primera y la hermana de la segunda— ni siquiera las trata como sus iguales. Trata a su padre, la filosofía, como no merecedor de consideración. Y, aunque tolera y usa las matemáticas a su conveniencia, dependiendo del razonamiento matemático en casi cada curva, acepta la extraordinaria obediencia de la realidad objetiva a los principios matemáticos como poco más que un “golpe de suerte” cósmico.

La ciencia es capaz de disfrutar de su relación superficial con las matemáticas precisamente debido a su majestuoso rechazo de la filosofía. Rechazando considerar la relación filosófica entre lo abstracto y lo concreto en los campos en los que se supone que la filosofía es inherentemente poco viable e improductiva, se reserva el derecho de ignorar esa relación incluso cuando la explota en la construcción de teorías científicas. ¡Y realmente explota esa relación! Hay un tópico científico que afirma que si uno no puede poner un número en la información de uno, entonces no puede probar nada en absoluto. Pero, desde el momento en que los números están aritmética y algebraicamente relacionados por varias estructuras matemáticas, el tópico equivale a una afirmación velada de la base matemática del conocimiento.

Aunque a los científicos les gusta pensar que todo está abierto a la investigación científica, tienen una regla que les permite explícitamente descartar ciertos hechos. Esta regla es llamada el método científico. Esencialmente, el método científico dice que el trabajo de todo científico es (1) observar algo en el mundo, (2) inventar una teoría que encaje con las observaciones, (3) usar la teoría para hacer predicciones, (4) comprobar experimental u observacionalmente las predicciones, (5) modificar la teoría a la luz de nuevos hallazgos, y (6) repetir el ciclo desde el paso 3 en adelante. Pero, aunque este método es muy efectivo para recoger hechos que cumplen sus suposiciones subyacentes, no sirve para recoger los que no las cumplen.

De hecho, si consideramos el método científico como una teoría sobre la naturaleza y adquisición de conocimiento científico (y podemos), no es una teoría del conocimiento en general. Es solamente una teoría de las cosas accesibles para los sentidos. Aún peor, es una teoría de las cosas sensibles que presentan dos atributos adicionales: no son universales y pueden por lo tanto distinguirse del resto de la realidad sensorial, y pueden verse por múltiples observadores que sean capaces de “replicar” unos a partir de otros las observaciones bajo condiciones similares. No hace falta decir que no existe ninguna razón para asumir que estos atributos son necesarios incluso en el ámbito sensorial. El primero no describe nada suficientemente general como para coincidir con la realidad como un todo —por ejemplo, el medio homogéneo del que está compuesta la realidad, o un principio matemático abstracto que sea cierto en todas partes— y el segundo no describe nada que sea, bien subjetivo, como la conciencia humana, o bien objetivo pero raro e impredecible... p. ej. fantasmas, ovnis y yetis, de los cuales se hacen chistes pero que pueden, dado el número de observadores individuales que informan de ellos, corresponder a fenómenos reales.

El hecho de que el método científico no permite la investigación de principios matemáticos abstractos es especialmente embarazoso a la luz de uno de sus pasos más cruciales: “inventar una teoría que encaje en las observaciones”. Una teoría resulta ser un constructo lógico y/o matemático cuyos elementos básicos de descripción son unidades matemáticas y relaciones. Si el método científico se interpretase como una interpretación exhaustiva de la realidad, lo cual es demasiado a menudo el caso, el resultado sería algo como esto: “La realidad consiste en todo y solamente aquello a lo que podemos aplicar un protocolo que no puede aplicarse a sus propios ingredientes (matemáticos) y que por lo tanto es irreal”. Exigir el uso de la “irrealidad” para describir la “realidad” es bastante cuestionable en el protocolo de cualquiera.

¿Qué sucede con las matemáticas en sí mismas? El hecho es que la ciencia no es la única ciudad amurallada en el paisaje intelectual. Con iguales y opuestos prejuicios, los métodos mutuamente exclusivistas de las matemáticas y la ciencia garantizan su separación continuada a pesar de los esfuerzos de otra época de la filosofía. Mientras que la ciencia se esconde tras el método científico, que excluye eficazmente de la investigación a sus propios ingredientes matemáticos, las matemáticas se dividen a sí mismas en ramas “pura” y “aplicada” y explícitamente divorcian a la rama “pura” del mundo real. Nótese que esto hace que “aplicada” sea sinónimo de “impura”. Aunque el campo de las matemáticas aplicadas por definición contenga todos los usos prácticos que se hayan dado a las matemáticas, es visto como “no precisamente matemáticas”, y por lo tanto más allá de la consideración de cualquier matemático “puro”.

En lugar del método científico, las matemáticas puras se basan en un principio llamado el método axiomático. El método axiomático comienza con un pequeño número de declaraciones obvias llamadas axiomas y unas pocas reglas de deducción a través de las cuales pueden derivarse nuevas declaraciones, llamadas teoremas, a partir de las declaraciones existentes. De un modo paralelo al método científico, el método axiomático dice que el trabajo de todo matemático es (1) conceptualizar una clase de objetos matemáticos; (2) aislar sus elementos básicos, sus principios más generales y obvios, y las reglas por las cuales sus verdades pueden derivarse de esos principios; (3) usar esos principios y reglas para derivar teoremas, definir nuevos objetos, y formular nuevas proposiciones acerca del conjunto extendido de teoremas y objetos; (4) probar o desaprobar esas proposiciones; (5) donde la proposición es verdadera, hacerla un teorema y añadirla a la teoría; y (6) repetir desde el paso 3 en adelante.

Los métodos científico y axiomático son como imágenes especulares el uno del otro, pero localizadas en dominios opuestos. Simplemente sustituye “observar” por “conceptualizar” y “parte del mundo” por “clase de objetos matemáticos”, y la analogía prácticamente se completa a sí misma. No es ninguna sorpresa, por lo tanto, que los científicos y los matemáticos a menudo se profesen mutuo respeto. Sin embargo, esto oculta un desequilibrio, pues, mientras que la actividad del matemático es esencial para el método científico, la del científico es irrelevante para el matemático (excepto para el tipo de científico llamado “informático”, que juega el papel de embajador entre los dos ámbitos). Al menos en principio, el matemático es más necesario para la ciencia de lo que el científico lo es para las matemáticas.

Como un filósofo podría decir, el científico y el matemático trabajan en lados opuestos del separador cartesiano entre la realidad mental y física. Si el científico se queda en su propio lado del separador y meramente acepta lo que el matemático elige arrojarle a su través, el matemático hace su trabajo muy bien. Por otro lado, si el matemático no arroja lo que el científico necesita, entonces el científico tiene problemas. Sin las funciones y ecuaciones del matemático a partir de las cuales construir teorías científicas, el científico estaría confinado a poco más que taxonomía. Por lo que concerniese a hacer predicciones cuantitativas, él o ella bien podría estar adivinando el número de gominolas en un frasco.

A partir de esto, uno podría estar tentado a teorizar que el método axiomático no sufre del mismo tipo de insuficiencia que el método científico... que él, y él solo, es suficiente para descubrir todas las verdades abstractas legítimamente llamadas “matemáticas”. Pero, ay, eso sería demasiado práctico. En 1931, un lógico matemático austríaco llamado Kurt Gödel probó que existen declaraciones matemáticas verdaderas que no pueden comprobarse por medio del método axiomático. Tales declaraciones se llaman “indecidibles”. El hallazgo de Gödel sacudió el mundo intelectual a tal punto que, incluso hoy, matemáticos, científicos y filósofos por igual se esfuerzan en averiguar cómo tejer el hilo suelto de indecidibilidad en la tela sin costuras de la realidad.

Para demostrar la existencia de la indecidibilidad, Gödel usó un truco simple llamado auto-referencia. Considera la declaración “esta oración es falsa”. Es fácil vestir esta declaración como una fórmula lógica. Aparte de ser verdadera o falsa, ¿qué más podría una fórmula decir de sí misma? ¿Podría declararse a sí misma, digamos, indemostrable? Intentémoslo: “Esta fórmula es indemostrable”. Si la fórmula dada es indemostrable, entonces es verdadera y por lo tanto un teorema. Desafortunadamente, el método axiomático no puede reconocerla como tal sin una prueba. Por otro lado, supón que es demostrable. ¡Entonces es en sí misma aparentemente falsa (ya que su demostrabilidad contradice lo que dice de sí misma) y además verdadera (ya que es demostrable sin respeto a su contenido)! Parece que de todos modos creamos una paradoja... una declaración que es “indemostrablemente demostrable”, y por lo tanto absurda.

Pero, ¿qué tal si introducimos una distinción entre niveles de demostración? Por ejemplo, ¿qué tal si definimos un metalenguaje como un lenguaje usado para hablar, analizar o demostrar cosas respecto a declaraciones en un lenguaje objeto de más bajo nivel, y llamamos al nivel base de la fórmula de Gödel el nivel “objeto” y el nivel (de demostración) superior el nivel de “metalenguaje”? Ahora tenemos dos cosas: una declaración que metalingüísticamente puede demostrarse ser lingüisticamente indemostrable, lo cual, aunque poco informativo, al menos no es una paradoja. Voilà: ¡auto-referencia sin paradoja! Resulta que ese “esta fórmula es indemostrable” puede traducirse a un ejemplo genérico de una verdad matemática indecidible. Ya que el razonamiento asociado implica un metalenguaje de matemáticas, es llamado “metamatemático”.

Sería suficientemente malo si la indecidibilidad fuese la única cosa inaccesible a los métodos científico y axiomático juntos. Pero el problema no termina aquí. Como señalamos antes, la verdad matemática es la única de las cosas que el método científico no puede tocar. Entre los otros se encuentran no solamente fenómenos raros e impredecibles que no pueden ser fácilmente captados por microscopios, telescopios y otros instrumentos científicos, sino cosas que son demasiado grandes o demasiado pequeñas para ser captadas, como todo el universo y la más diminuta de las partículas subatómicas; cosas que son “demasiado universales” y por lo tanto indiscernibles, como el medio homogéneo del que está formada la realidad; y cosas que son “demasiado subjetivas”, como la conciencia humana, las emociones humanas, y las así llamadas “cualidades puras” o qualia. Ya que las matemáticas no han ofrecido hasta ahora ningún medio de compensación para estos puntos ciegos científicos, continúan marcando agujeros en nuestro dibujo de la realidad científica y matemática.

Pero las matemáticas tienen sus propios problemas. Mientras que la ciencia sufre de los problemas que se acaban de describir —los de indiscernibilidad e inducción, irreplicabilidad y subjetividad—, las matemáticas sufren de indecidibilidad. Por lo tanto parece natural preguntar si podría haber algunas otras debilidades inherentes a la metodología combinada de matemáticas y ciencia. En efecto, las hay. Conocidas como el teorema de Lowenheim-Skolem y la tesis de Duhem-Quine son los respectivos recursos de disciplinas llamadas teoría de modelos y la filosofía de la ciencia (como cualquier padre, la filosofía siempre tiene la última palabra). Estas debilidades tienen que ver con la ambigüedad... con la dificultad de decir si una teoría dada se aplica a una cosa u otra, o si una teoría es “más verdadera” que otra con respecto a lo que ambas teorías pretenden describir.

Pero antes de dar una explicación de Lowenheim-Skolem y Duhem-Quine, necesitamos una breve introducción a la teoría de modelos. La teoría de modelos es parte de la lógica de las “teorías formalizadas”, una rama de las matemáticas que trata más bien auto-referencialmente de la estructura e interpretación de teorías que han sido formuladas en la notación simbólica de la lógica matemática... es decir, el tipo de garabatos aturdidores de la mente que a todos excepto a un matemático les encanta odiar. Debido a que cualquier teoría útil puede formalizarse, la teoría de modelos es un sine qua non de la teorización significativa.

Hagamos que esto sea breve y contundente. Empezamos con la lógica proposicional, que no está compuesta sino por relaciones tautológicas, siempre verdaderas, entre oraciones representadas por variables únicas. Luego nos movemos a la lógica predictiva, que considera el contenido de estas variables oracionales... lo que las frases dicen en realidad. En general, estas oraciones usan símbolos llamados cuantificadores para asignar atributos a variables que semánticamente representan los objetos matemáticos o del mundo real. Tales tareas son llamadas “predicados”. A continuación, consideramos las teorías, que son predicados complejos que se dividen en sistemas de predicados relacionados; los universos de teorías, que son los sistemas matemáticos o del mundo real descritos por las teorías; y las correspondencias descriptivas en sí mismas, que son llamadas interpretaciones. Un modelo de una teoría es cualquier interpretación bajo la cual todas las declaraciones de la teoría son verdaderas. Si nos referimos a una teoría como un lenguaje objeto y a su referente como el universo objeto, el modelo intermedio solamente puede describirse y validarse en un metalenguaje del complejo lenguaje-universo.

Aunque formuladas en los ámbitos matemático y científico respectivamente, Lowenheim-Skolem y Duhem-Quine pueden pensarse como lados opuestos de la misma moneda modelo-teórica. Lowenheim-Skolem dice que una teoría no puede en general distinguir entre dos diferentes modelos; por ejemplo, cualquier teoría verdadera acerca de la relación numérica de los puntos de un segmento lineal continuo también puede interpretarse como una teoría de los números enteros (números de cálculo). Por otro lado, Duhem-Quine dice que dos teorías no pueden en general ser distinguidas sobre la base de cualquier declaración de observación relativa al universo.

Simplemente para obtener una idea rudimentaria del tema, echemos un vistazo más detenido a la Tesis Duhem-Quine. Las declaraciones de observación, los datos en crudo de la ciencia, son declaraciones que pueden demostrarse verdaderas o falsas mediante observación o experimentación. Pero la observación no es independiente de la teoría; una observación se interpreta siempre en algún contexto teórico. De modo que un experimento en física no es meramente una observación, sino la interpretación de una observación. Esto lleva a la Tesis Duhem, que afirma que las declaraciones y experimentos científicos no pueden invalidar hipótesis aisladas, sino solamente conjuntos completos de declaraciones teóricas a la vez. Esto se debe a que una teoría T compuesta por varias leyes {Li}, i=1,2,3,... casi nunca implica una declaración de observación excepto en conjunción con varias hipótesis auxiliares {Aj}, j=1,2,3,... Por lo tanto, una declaración de observación como mucho refuta el complejo {Li+Aj}. Para tomar un ejemplo histórico bien conocido, permitamos a T = {L1,L2,L3} ser las tres leyes del movimiento de Newton, y supongamos que estas leyes parecen implicar la consecuencia observable de que la órbita del planeta Urano es O. Pero, de hecho, las leyes de Newton solas no determinan la órbita de Urano. Debemos considerar además cosas como la presencia o ausencia de otras fuerzas, otros cuerpos próximos que podrían ejercer influencia gravitacional apreciable sobre Urano, y así sucesivamente. En consecuencia, determinar la órbita de Urano requiere hipóteis auxiliares como A1 = “solamente las fuerzas gravitacionales actúan sobre los planetas”, A2 = “el número total de planetas solares, incluyendo Urano, es 7”, etcétera. De modo que, si se encuentra que la órbita en cuestión difiere del valor O predicho, entonces, en lugar de simplemente invalidar la teoría T de la mecánica newtoniana, esta observación invalida la totalidad del complejo de leyes e hipótesis auxiliares {L1,L2,L3;A1,A2,...}. Se desprendería que al menos un elemento de este complejo es falso, pero, ¿cuál? ¿Hay alguna forma 100% segura de decidirlo? La realidad era que el enlace débil en este ejemplo era la hipótesis A2 = “el número total de planetas solares, incluyendo a Urano, es 7”. De hecho, resultó que había un planeta grande adicional, Neptuno, que posteriormente fue buscado y localizado precisamente gracias a que esta hipótesis (A2) parecía abierta a la duda. Pero, desafortunadamente, no hay ninguna regla general para adoptar tales decisiones. Supón que tenemos dos teorías T1 y T2 que predicen las observaciones O y no-O respectivamente. Entonces, un experimento es crucial con respecto a T1 y T2 si genera exactamente una de las dos declaraciones de observación O o no-O. Los argumentos de Duhem demuestran que, en general, uno no puede contar con encontrar tal experimento u observación. En lugar de las observaciones cruciales, Duhem cita le bon sens (el buen sentido), una facultad no lógica en virtud de la cual los científicos supuestamente deciden tales temas. En relación con la naturaleza de esta facultad, no existe en principio nada que descarte el gusto personal y el sesgo cultural. Que los científicos prefieran nobles apelaciones a la navaja de Occam, mientras que los matemáticos empleen términos justificativos como belleza y elegancia, no excluye influencias menos apetecibles.

Todo esto acerca de Duheim; y ahora, ¿qué pasa con Quine? La tesis de Quine se divide en dos tesis relacionadas. La primera dice que no existe distinción entre las declaraciones analíticas (p. ej. definiciones) y las declaraciones sintéticas (p. ej. afirmaciones empíricas), y, por lo tanto, que la tesis de Duhem se aplica por igual a las así llamadas disciplinas a priori. Para darle sentido a esto, necesitamos conocer la diferencia entre declaraciones analíticas y sintéticas. Las declaraciones analíticas se supone que son verdaderas por sus solos significados, asuntos de hecho empírico no obstante, mientras que las declaraciones sintéticas equivalen a hechos empíricos en sí mismos. Ya que las declaraciones analíticas son necesariamente declaraciones verdaderas del tipo encontrado en la lógica y las matemáticas, mientras que las declaraciones sintéticas son declaraciones contingentemente verdaderas del tipo encontrado en la ciencia, la primera tesis de Quine presupone un tipo de equivalencia entre las matemáticas y la ciencia. En particular, dice que las declaraciones epistemológicas acerca de las ciencias deben aplicarse también a las matemáticas, y que la tesis de Duhem debe por lo tanto aplicarse a ambas.

La segunda tesis de Quine involucra el concepto de reduccionismo. El reduccionismo es la afirmación de que las declaraciones acerca de algún tema pueden reducirse a, o explicarse completamente en términos de, declaraciones acerca de algún tema (normalmente más básico). Por ejemplo, buscar reduccionismo químico respecto a la mente es afirmar que los procesos mentales realmente no son más que interacciones bioquímicas. Específicamente, Quine suspende a Duhem manteniendo que no todas las afirmaciones teóricas, p. ej., teorías, pueden reducirse a declaraciones de observación. Pero, entonces, las observaciones empíricas “subdeterminan” teorías y no pueden decidir entre ellas. Esto lleva a un concepto conocido como holismo de Quine; ya que ninguna observación puede revelar qué miembro(s) de un conjunto de declaraciones teóricas deben ser reevaluadas, la reevaluación de algunas declaraciones implica la reevaluación de todas.

Quine combinó sus dos tesis como sigue. En primer lugar, afirmó que una reducción es esencialmente una declaración analítica que hace que una teoría, p. ej., una teoría de la mente, sea definida en otra teoría, p. ej., una teoría de química. Seguidamente, afirmó que, si no existen declaraciones analíticas, entonces las reducciones son imposibles. A partir de aquí, concluyó que sus dos tesis eran esencialmente idénticas. Pero, aunque la tesis unificada resultante se pareciese a la de Duhem, difería en su alcance. Pues, mientras que Duhem había aplicado su propia tesis solamente a teorías físicas, y tal vez solamente a hipótesis teóricas más que a teorías con consecuencias directamente observables, Quine aplicó su versión a la totalidad del conocimiento humano, incluyendo las matemáticas. Si barremos esta bastante importante distinción bajo la alfombra, obtenemos la así llamada “tesis Duhem-Quine”.

Ya que la tesis Duhem-Quine implica que las teorías científicas están subdeterminadas por evidencias físicas, es a veces llamada Tesis de Subdeterminación. Específicamente, dice que, ya que la adición de nuevas hipótesis auxiliares, p. ej. condicionales que involucran declaraciones “si...entonces”, posibilitaría cada una de dos teorías diferentes sobre el mismo tema científico o matemático para acomodarse a cualquier nueva evidencia, ninguna observación física podría jamás decidir entre ellas.

Los mensajes de Duhem-Quine y Lowenheim-Skolem son como sigue: los universos no determinan de forma exclusiva teorías de acuerdo a leyes empíricas de observación científica, y las teorías no determinan de forma exclusiva universos de acuerdo a las leyes racionales de las matemáticas. La correspondencia modelo-teórica entre teorías y sus universos está sujeta a ambigüedad en ambas direcciones. Si añadimos este tipo descriptivo de ambigüedad a las ambigüedades de medición, p. ej., el Principio de Incertidumbre de Heisenberg que gobierna la escala subatómica de la realidad, y la ambigüedad teórica interna captada por la indecidibilidad, vemos que la ambigüedad es un ingrediente ineludible de nuestro conocimiento del mundo. Parece que las matemáticas y la ciencia son... bueno, ciencias inexactas.

¿Cómo, entonces, podemos formar una imagen verdadera de la realidad? Debe existir un modo. Por ejemplo, podríamos empezar con la premisa de que tal imagen existe, si acaso como un “límite” de teorización (ignorando por ahora el asunto de demostrar que tal límite existe). Entonces podríamos sacar relaciones categóricas que implicasen a las propiedades lógicas de este límite para llegar a una descripción de la realidad en términos de la realidad en sí misma. En otras palabras, podríamos construir una teoría auto-referencial de la realidad cuyas variables representasen a la realidad en sí misma, y cuyas relaciones fuesen tautologías lógicas. Entonces podríamos añadir una distorsión instructiva. Ya que la lógica consiste en las reglas del pensamiento, p. ej., de la mente, lo que realmente estaríamos haciendo sería interpretar la realidad en una teoría genérica de la mente basada en la lógica. Por definición, el resultado sería un modelo cognitivo-teórico del universo.

Gödel usó el término “incompletitud” para describir aquella propiedad de los sistemas axiomáticos debido a la cual contienen declaraciones indecidibles. Esencialmente, demostró que todos los sistemas axiomáticos suficientemente poderosos están incompletos al demostrar que, si no lo estuviesen, serían “inconsistentes”. Decir que una teoría es “inconsistente” equivale a decir que contiene una o más paradojas irresolubles. Desafortunadamente, ya que tales paradojas destruyen la distinción entre lo verdadero y lo falso con respecto a la teoría, la teoría en su conjunto está mutilada por la inclusión de una sola. Esto hace que la consistencia sea una necesidad primaria en la construcción de teorías, dándole prioridad sobre la demostración y la predicción. Un modelo cognitivo-teórico del universo situaría la realidad científica y matemática en un entorno lógico auto-consistente, donde aguardar soluciones para sus paradojas más intratables.

Por ejemplo, la física moderna está aquejada de paradojas que implican al origen y la direccionalidad del tiempo, el colapso de la función de onda cuántica, la no localidad cuántica, y el problema de contención de la cosmología. Si alguien presentase una teoría simple y elegante que resolviese estas paradojas sin sacrificar los beneficios de las teorías existentes, las soluciones acarrearían más peso que cualquier número de predicciones. Similarmente, cualquier teoría y modelo que resolviese conservadoramente las paradojas de auto-inclusión acosando la teoría matemática de conjuntos, que es la base de casi cualquier tipo de matemáticas, podría demandar aceptación en esa sola base. Dondequiera que exista una paradoja científica o matemática intratable, hay una necesidad desesperada de una teoría y modelo que la resuelva.

Si tal teoría y modelo existen —y, por el bien del conocimiento humano, sería mejor que existiesen—, usan un metalenguaje lógico con suficiente poder expresivo para caracterizar y analizar las limitaciones de la ciencia y las matemáticas, y son por lo tanto filosóficos y metamatemáticos en su naturaleza. Esto se debe a que ningún bajo nivel de discurso es capaz de casar dos disciplinas que excluyen mutuamente sus contenidos tan a fondo como lo hacen la ciencia y las matemáticas.

Finalmente, esta es la conclusión: tal teoría y modelo efectivamente existen. Pero, por ahora, satisfagámonos con haber vislumbrado el arcoiris bajo el que esta maceta de oro nos espera.



domingo, 27 de febrero de 2011

La mecánica celestial y el destino del ser humano


Este post no tiene mucho que ver con la música... ¿o tal vez sí? En cualquier caso, es un pensamiento sobre el que me parece que sería muy útil que reflexionásemos. Los seres humanos nos movemos por dos pulsiones, el instinto de conservación o de supervivencia del individuo (egoísmo) y el de conservación de la especie (altruismo). Todo, desde que tenemos uso de razón, e incluso desde antes, se mueve por esos dos instintos. Las guerras, motivadas por el egoísmo, fueron a su vez las épocas de máximo desarrollo tecnológico y un poderoso estímulo para la imaginación. Pareciera que estuviésemos abocados a resignarnos al continuo azote de la violencia, del egoísmo, del mal, en definitiva, porque está en nuestros genes, para poder avanzar como especie. Pero... ¿debe necesariamente ser así?

He estado pensando sobre ese asunto, y he llegado a una conclusión que me llena de inmensa alegría. Si tenemos esperanza, si valoramos la felicidad por encima de todas las cosas, es porque hay algo en lo más recóndito de nuestro ser, y del universo mismo, que nos dice que ese es el camino. Miles de millones de años de evolución respiran por nuestros átomos, señalándonos nuestro papel en el universo.

Todo en el mundo se mueve entre el yang y el yin. El yang es lo masculino, lo dinámico, el cuerpo, la muerte, y el yin es lo femenino, lo pasivo, la mente, la vida. El pintor da un trazo violento con todo su odio... y luego retoca el trazo con todo su cariño. La voluntad humana penetra en el tejido del tiempo... y luego adorna el espacio con su amor.

Pero hay algo que nunca nos dijeron, y es que el yang y el yin actúan a su vez sobre el proceso que los une, convirtiendo el arte en un arte de sí mismo. La violencia entonces se vuelve tierna, y la ternura violenta.

Como consecuencia, el ser humano del futuro será un ser extremadamente sensible, y al mismo tiempo extremadamente fuerte. La violencia dejará de ser autodestructiva, porque abandonará el ámbito terrestre, pero nuestro sufrimiento espiritual será mayúsculo, sufrimiento, por otra parte, que experimentaremos de un modo bien distinto a lo que conocemos actualmente. Será el sufrimiento del poeta, del músico, del científico, del escritor; esas serán nuestras peores pesadillas a superar en un nuevo ciclo. El yin y el yang habrán crecido desde el ápeiron (Anaximandro), y el yang habrá quedado por fin fuera de nuestro planeta. Canalizaremos nuestro sufrimiento como violencia contra el cosmos, y no contra nosotros mismos. El amor, el altruismo como individuo y el egoísmo como especie, son y serán los únicos aliados de la razón humana.

domingo, 26 de diciembre de 2010

Cómo comparar dos pistas de audio

A veces no estás seguro sobre si dos pistas son o no exactamente iguales. A veces piensas que son ligeramente diferentes, pero, en cualquier caso, no deja de ser un método subjetivo.
5b415a0a74765006f122f979f487f751
Si quieres comparar científicamente dos pistas de audio, a continuación te enseño cómo hacerlo fácilmente. Usaremos como ejemplo el programa Sound Forge, pero igualmente puedes utilizar cualquier otro programa accediendo a los menús y opciones que correspondan.



Para que la comparación sea efectiva, ambas pistas deben tener las mismas características de audio. Si son pistas procedentes de CD, que es lo más normal, ambas estarán a 44.1 kHz de frecuencia de muestreo y 16 bits. Si las características son diferentes, normalmente el programa te avisará de tal circunstancia cuando vayas a realizar un operación donde sea determinante; en tales casos deberás convertir una de las pistas a las características de la otra. Lo indicado es convertir la pista de peores características. No ganará calidad con ello, pero será compatible a la hora de realizar operaciones de mezcla.

0) Carga el programa. Abre ambas pistas y selecciona Window/Tile horizontally. Verás la pantalla dividida en dos ventanas que contienen las pistas a ser comparadas.

1) Elige un punto inicial en ambas pistas. Asegúrate de que es exactamente el mismo en ambas haciendo zoom temporal de forma alterna en las dos ventanas y colocando el cursor más o menos en la misma posición cada vez hasta que obtengas el máximo nivel. A medida que vayas ampliando irás afinando cada vez más respecto a la exactitud del punto donde sitúas el cursor, de tal modo que al final tendrás ambas ondas ampliadas al máximo y con el cursor justo en el mismo sitio. El zoom temporal se hace presionando el botón + que hay en la esquina inferior derecha de la ventana de la onda.

En este momento verás dos ondas idénticas o casi idénticas, ampliadas al máximo de tal modo que puedes ver los puntos de información (samples), y sincronizadas con la precisión máxima. Ahora, para no perderte, puedes marcar ambos puntos (que, si lo hiciste todo correctamente, estarán situados justo en el punto medio de cada ventana, donde deberá estar además el cursor) pulsando la tecla
M en el teclado sobre cada una de las ventanas. Al hacerlo, aparecerá en la posición del cursor una línea vertical y un número de marcador en la zona superior de dicha línea. Esto es útil en el caso de que accidentalmente alteres la posición del cursor, para volver al punto exacto sin tener que volver a empezar desde el principio.

2) Copia una de las pistas. Para hacerlo sin tener que reducir el zoom, elige Edit/Selection/Set, a continuación elige Cursor to End of Sample como método de selección y finalmente pulsa OK.

3) Haz clic sobre la otra ventana de onda (teniendo cuidado de no cambiar la posición del cursor o pinchando sobre el marcador para situarlo justo en ese punto), elige Edit/Paste special/Mix y en la ventana de diálogo que te aparecerá marca Invert data en Source y 0.00 dB en Source y Destination.

El resultado será que ambas ondas se mezclarán con la polaridad invertida. Si son realmente idénticas, el resultado será silencio durante toda la duración de la pista.

4) Haz zoom de volumen al máximo para comprobar que es silencio absoluto. El zoom de volumen se puede hacer pulsando el botón + que hay en la esquina inferior izquierda de la ventana de onda.

Si ambas ondas son diferentes, verás la onda correspondiente a sus diferencias, y, lo que es más, podrás incluso escuchar esas diferencias reproduciendo la onda resultante. Puedes hacer el mismo experimento con diferentes ediciones de la misma canción, con versiones originales y remásteres, o incluso con MP3 y FLAC, para ver y escuchar la diferencia REAL entre ellas.

martes, 23 de noviembre de 2010

Los fundamentos del audio digital


5b415a0a74765006f122f979f487f751Iba a escribir yo mismo un artículo sobre los conceptos básicos del audio digital, pero, evidentemente, en internet hay mucha gente que ya lo ha hecho. Me gustó especialmente, por su sencillez y su carácter didáctico, y a pesar de que tiene el aspecto de ser ya un poco antiguo, un artículo escrito por Joost Boomkamp, un estudiante de Diseño de sonido y de Desarrollo de software musical y de audio que vive en Holanda, de modo que os lo voy a traducir directamente. A pesar de que contiene algún que otro anacronismo, he preferido respetar su redacción sin cambiar una sola coma, principalmente porque te ayuda a ponerte en perspectiva sobre el vertiginoso ritmo de evolución de la tecnología (ten en cuenta que este artículo es de hace sólo unos pocos años).



Para poder crear los mejores sonidos posibles por tu cuenta, es importante que tengas algunos conocimientos sobre el sonido digital. En este artículo trataré de explicarte, en un lenguaje sencillo, algunas de las cosas que probablemente te ayuden en gran medida.

Este documento está dividido en varias partes separadas:


* La teoría del sonido digital
--o Teoría del sonido:
---+ Frecuencia
---+ Nivel
--o Teoría del muestreo:
---+ Frecuencia de muestreo
---+ Rango dinámico
---+ Digitalización del sonido
* Grabación de sonido por ti mismo
--o Guía paso a paso


Creo que ambas partes contienen información útil, que todo el mundo que use audio digital para crear música debería conocer. Así que echa un vistazo; probablemente encuentres aquí algo que merezca la pena leer. ;)


Teoría básica de la señal

Como probablemente sepas, el sonido es aire que se mueve muy rápidamente. La velocidad de estos movimientos recibe el nombre de “frecuencia”, y constituye una muy importante propiedad del sonido y, especialmente, la música. La frecuencia de un sonido se mide en Hz (=herzios, nombre que proviene de un hombre llamado Hertz :-/ que hizo un montón de investigaciones sobre el sonido y la acústica hace ya tiempo). La mayoría de las personas pueden oír frecuencias en el rango entre 100 Hz y 15 000 Hz. Sólo algunas personas pueden oír frecuencias muy altas, por encima de los 19 000 Hz, pero, no obstante, los científicos asumen siempre que el oído humano es capaz de discernir frecuencias entre los 20 y los 20 000 Hz, ya que esas cifras facilitan mucho sus cálculos.

Aquí hay unos pocos ejemplos de diferentes frecuencias, por si te interesa jugar un rato con ellas:

60 Hz (muy grave): http://www.hammersound.net/audiobasics/60_Hz.wav

440 Hz (nota la media del piano): http://www.hammersound.net/audiobasics/440_Hz.wav

4000 Hz (audible): http://www.hammersound.net/audiobasics/4000_Hz.wav

13000 Hz (¡ay!): http://www.hammersound.net/audiobasics/13000_Hz.wav

20000 Hz (demasiado aguda): http://www.hammersound.net/audiobasics/20000_Hz.wav


 

Otra muy importante propiedad del sonido es su nivel; la mayoría de la gente lo llama volumen. Se mide en dB (=decibelios, nombre que proviene de un hombre llamado deciBell (¡¡ES BROMA!!)... de acuerdo, su verdadero nombre era Bell, y fue quien inventó el teléfono; gracias a él, los holandeses dicen 'mag ik hier misschien even bellen?' cuando quieren usar tu teléfono).

¿Entonces por qué no medimos el volumen en belios en lugar de decibelios? Bueno, principalmente, porque tu oído en realidad puede discernir una increíble cantidad (1 200 000 000 000, son once ceros) de diferentes niveles de intensidad, de tal modo que tuvieron que pensar en un truco (¡lo siento, no voy a explicarlo aquí!) para poder describir ese increíble rango con sólo unas pocas cifras. Convinieron en usar décimas de belios, decibelios, dB, en lugar de belios.

La mayoría de los equipos de audio profesional usan un vúmetro (VU meter, Volume Unit meter, medidor de unidades de volumen) que te muestra el nivel de entrada o salida del sonido. Es algo de uso muy conveniente, pero sólo si sabes cómo usarlo: una regla general es fijar los niveles de entrada y salida de tu equipo de tal modo que la parte más alta del tema que quieres grabar/reproducir se aproxime a las luces de 0 dB. Es importante quedarse en la parte baja de la línea de 0 dB, porque, en caso contrario, el sonido aparecerá gravemente distorsionado y no habrá modo alguno de restaurarlo. Si grabas en una cinta (¡analógica!) en lugar de un disco duro (digital), podrás incrementar los niveles un poco, ya que existe suficiente del llamado 'espacio de cabezal' (headroom en inglés, o la capacidad de amplificar un poco más sin distorsión) para llevar el vúmetro a +6 dB. Abajo, en la sección sobre grabación, hay algo más de información sobre el calibrado del nivel de los equipos.

Algunos ejemplos de diferentes niveles, por si te interesa jugar con ellos por unos momentos:

0,0 dB = 100%: http://www.hammersound.net/audiobasics/4000_Hz.wav
(nivel máximo)

-6,0 dB = 50,0%: http://www.hammersound.net/audiobasics/4000_Hz-6dB.wav
(a mitad de potencia)

-18,0dB = 12,5%: http://www.hammersound.net/audiobasics/4000_Hz-18dB.wav
(muy bajo)

+6,0dB = 200%:
http://www.hammersound.net/audiobasics/4000_Hz+6dB.wav
(un poco por encima del nivel máximo - mucha saturación)


 

Bueno, ahora que conoces las cosas más importantes sobre el sonido, vayamos finalmente a la parte digital. Hace poco te he hablado sobre las propiedades del sonido 'normal' (analógico). Ahora te hablaré sobre cuáles son las propiedades más importantes del sonido digital.


Teoría del audio digital

En primer lugar, tenemos la famosa 'tasa de muestreo' (sample rate). La tasa de muestreo de una pieza de audio digital se define como 'el número de muestras grabadas por segundo'. Las tasas de muestreo se miden en Hz, o en kHz (kiloherzio, mil muestras por segundo). Las tasas de muestreo más comúnmente usadas en aplicaciones multimedia son:

8000 Hz (una verdadera porquería).

11025 Hz (no mucho mejor que la anterior).

22050 Hz (úsala sólo si te es necesario).

Los profesionales usan tasas más altas:

32000 Hz (sólo un par de samplers antiguos)

44100 Hz (ahh, qué descanso)

48000 Hz (algunas tarjetas de audio, las grabadoras DAT)


 

Algunos equipos modernos tienen la potencia de proceso requerida para permitir tasas aún mayores: 96 000 Hz, o incluso unos impresionantes 192 000 Hz, que serán posiblemente / probablemente las tasas de muestreo profesionales (¿de DVD?) en un par de años. Las ventajas de una tasa de muestreo más alta son simples: mayor calidad de sonido. Las desventajas son también simples: una muestra (sample) con una tasa de muestreo alta requiere mucho más espacio de almacenamiento que otra de baja tasa. No obstante, con los precios de los discos duros y los CD-R de hoy eso no constituye ya un problema.

¡¿...Pero, por qué la calidad es mejor?!

Para responder a eso, observemos un único período de una onda sinusoidal simple:


 
* comienza en cero..
* ..luego sube..
* ..luego vuelve a cero..
* ..luego sigue bajando..
* ..luego vuelve a cero..
* y así sucesivamente... las ondas de seno tienen vidas monótonas. ;)


 

Cuando grabes a cierta frecuencia, necesitarás al menos (aunque preferiblemente más de) dos muestras para cada período, para grabar con precisión su pico y su valle. Esto significa que necesitarás una tasa de muestreo de al menos (más de) el doble de la frecuencia más alta que quieras grabar, lo cual, para los seres humanos, se encuentra alrededor de los 20 000 Hz. ¡Esa es la razón por la que los profesionales usan como mínimo una tasa de muestreo de 44 100 Hz! Con esa tasa pueden grabarse frecuencias de hasta 22 050 Hz. (Ahora ya sabes por qué una muestra de 8 000 Hz suena tan horrible: ¡sólo reproduce una minúscula parte de lo que podemos oír!)

Usando una tasa de muestreo aún más alta, como 96 000 Hz, puedes grabar frecuencias superiores, pero, no obstante, no esperes oír los 48 000 Hz. Ese no es el objetivo principal de esas super-tasas. Si grabas a 96 000 Hz, tendrás más de cuatro muestras para cada período de 20 000 Hz, ¡de modo que la probabilidad de perder las altas frecuencias decrecerá dramáticamente! Faltan aún unos pocos años para que las tarjetas de sonido para el consumidor medio soporten estas cifras, no obstante [nota del traductor: actualmente (2010) ya es normal encontrar tarjetas de audio con esas características para el público general]. Hay ya unas pocas tarjetas profesionales con esas características, pero podrías fácilmente comprarte un automóvil por el mismo precio...

Eso es todo sobre la frecuencia por ahora. Como dije antes, otra muy importante propiedad del sonido es su nivel. Echemos un vistazo a cómo las tarjetas de audio digital procesan los niveles de sonido.



Rango dinámico

La capacidad de las tarjetas de audio se mide en bits, por ejemplo, tarjetas de sonido de 8 bits, o de 16 bits. El número de bits que una tarjeta de sonido puede manejar te indica algo acerca de la precisión con que puede grabar el sonido: te dice cuántas diferencias puede detectar. Cada bit extra en una tarjeta de sonido te proporciona 6 dB adicionales de sonido representable (¿por qué? Pues, porque es algo natural). Esto significa que las tarjetas de 8 bits tienen un rango dinámico (=diferencia entre la señal más débil posible y la más alta posible) de 8 x 6 dB = 48 dB. No es mucho, ya que las personas pueden oír hasta 120 dB. Por eso, inventaron el audio de 16 bits, que nos da 16 x 6 dB = 96 dB. Aún no son 120 dB, pero, como sabes, los CD suenan realmente bien, comparados con las cintas. Algunos friquis, incluyéndome yo mismo ;), queremos ser capaces de hacer un uso completo del potencial del oído gastando dinero en tarjetas con ADC (Analog to Digital Convertors, convertidores de analógico a digital, los artilugios que crean la muestra real) de 18 bits, 20 bits, o incluso 24 o 32 bits, que les dan rangos dinámicos de 108 dB, 120 dB, o incluso 144 dB o 192 dB.

Desafortunadamente, todos los rangos dinámicos que he mencionado son estrictamente niveles máximos teóricos. ¡¡¡No existe forma alguna en el mundo para que obtengas 96 dB de una tarjeta de sonido multimedia estándar!!! La mayoría de los fabricantes de tarjetas de audio están bastante orgullosos de presentar un rango dinámico por encima de los 90 dB en una tarjeta de audio de 16 bits. Esto es en parte por el hecho de que no es tan fácil poner un montón de componentes electrónicos en una zona pequeña sin que un montón de diferentes leyes físicas traten de llamar la atención. La inducción, la conducción o incluso las malas conexiones o (muy probablemente) los componentes baratos, simplememente, no son muy amigos del rango dinámico y la calidad general de una tarjeta de audio. [Nota del traductor: en 2010 ya existe, desde hace varios años, tarjetas como la M-Audio Transit que, con un precio de alrededor de 80 dólares, proporcionan un rango dinámico -real- de 104 dB]. Pero existe otro problema, que se aclarará en el próximo párrafo.



Ruido de cuantización

Antiguamente, cuando aparecieron en el mercado los primeros pianos digitales, (la mayoría de nosotros aún no vivía) nadie los quería. ¿Por qué no? ¡Si era un instrumento moderno y cojonudo, e incluso podías elegir sonidos de piano diferentes...!

El problema con esos 'artefactos' era que no tenían la sofisticación del equipo musical actual. Principalmente porque no presentaban tantos bits (y por lo tanto no tenían ni la mitad de dinámica que el instrumento real), pero también porque tenían un borde claramente abrupto al final de las muestras de sonido.



Imagina una muestra de piano como la que ves arriba. Lentamente se apaga hasta que no oyes nada. Al menos, eso es lo que tú deseas... Pero, como puedes ver en las dos imágenes separadas, eso no es lo que obtienes en absoluto... Estas imágenes son ampliaciones extremas de la misma zona de la muestra de piano original. La imagen superior podría ser el final suave de un tono de piano. ¡La inferior, no obstante, parece más código morse que una muestra de piano! La muestra ha sido convertida a 8 bits, lo cual nos deja tan sólo 256 niveles en lugar de los originales 65 536. El resultado es devastador.

Imagina que tocas el piano de un modo muy suave y sutil, ¿qué obtendrías? ¡Pues, alguna composición futurística para ondas cuadradas! No pagaste para eso. ;) Esta “espuma” recibe el nombre de ruido de cuantización, ya que es ruido generado por la (mala) cuantización.

Hay un modo de evitar que esto ocurra, no obstante. Mientras se digitaliza el piano, la tarjeta de sonido puede añadir un poco de ruido a la señal (alrededor de 3-6 dB, lo cual es literalmente un poco de ruido) que ayudará a que la señal aumente un poco de volumen. De ese modo, podría llegar a tener el tamaño suficiente para aparecer como una variación más realística en lugar de la onda cuadrada. Lo gracioso es que no oirás el ruido, ya que es muy débil y no cambia tanto como la señal grabada, de modo que tus oídos lo olvidarán automáticamente. Esta técnica recibe el nombre de 'difuminado' (dithering). También se usa en algunos programas gráficos, por ejemplo, a la hora de cambiar el tamaño de una imagen.



Variación de retardo (jitter)

Otro problema que existe en los equipos de audio digital es la llamada variación de retardo, o jitter en inglés. Hasta ahora, siempre he asumido que la tarjeta grababa el sample a exactamente 44 100 Hz, tomando una muestra cada 1/44100 de segundo. Desafortunadamente, eso es -absolutamente- irreal. Existe *siempre* un minúsculo error de sincronización que hace que cada muestra se tome un poco más tarde o un poco más temprano.

¿Constituye esto una gran diferencia, entonces? Bien, podrías empezar a quejarte por todo, pero lo más recomendable sería que te hubieses comprado una tarjeta de sonido más cara en primer lugar. Lo peor de todo es que ese jitter depende de la frecuencia. Al estar relacionado con el ritmo del sample, puede alterar un poco las frecuencias grabadas. Si graba una muestra sólo un poco antes de lo debido, la tarjeta pensará que la frecuencia grabada es un poco más baja de lo que realmente es. Esto es apreciable a frecuencias por debajo de los 5000 Hz, pero especialmente malo a las frecuencias más bajas, ya que la influencia de un pequeño error es mucho mayor en ellas. Los tiempos de variación de retardo típicos se encuentran entre 1.0 x 10 -9 segundos (eso es un NANOsegundo, léase: prácticamente nada) y 1.0 x 10 -7 segundos (eso es cien NANOsegundos, no mucho más), pero marcan la diferencia entre un sonido 'pro' y un sonido 'de consumidor medio', por ejemplo, en diferentes reproductores de CD.



Digitalización del sonido

Cuando grabas un sample con tu tarjeta de sonido, éste pasa por un montón de etapas antes de que puedas almacenarlo en tu disco duro como un archivo sonoro. Afortunadamente, no tienes que preocuparte acerca de estas etapas, pues las tarjetas de sonido modernas y los digitalizadores se ocupan de ello en tu lugar. No obstante, voy a ser un poco aburrido y te voy a hablar de esas etapas.

Veamos qué ocurre cuando pulsas 'rec':

La tarjeta de sonido pone en marcha un cronómetro muy preciso (el 'muestreo', o 'samplerate').

Proceso de conversión analógico-digital.


Entonces transforma el sonido que llega: simplemente recorta las frecuencias muy altas que no puede manejar. Esto mutila el sonido en gran medida, pero es necesario para evitar daños aún más serios al sonido, que lo harían irreconocible. Es lo que se conoce como 'filtro antialiasing (de suavizado, difuminado) pasa-bajos' ('low-pass filter', que recorta las frecuencias 'altas', permitiendo el paso de las frecuencias 'bajas') (se llama 'filtro' porque elimina algunas partes y deja el resto). Cada vez que el cronómetro ha completado un ciclo, el ADC (convertidor analógico-digital) de la tarjeta de sonido mira la señal de entrada filtrada. Calcula el volumen del sonido entrante en ese momento exacto de tiempo (de forma muy parecida a como un micrófono mediría la presión del aire) y transforma el nivel de intensidad en el número digital más cercano.

A continuación grita ese número a la computadora/ordenador, la cual lo almacena en algún lugar de la memoria, probablemente en el disco duro.

Los fabricantes ponen un 'filtro de muro' ('brickwall filter') (¡ver la imagen de abajo!) en sus tarjetas de sonido, para prevenir un efecto colateral muy desagradable denominado algo así como 'distorsión de plegado' ('foldover distortion'). El foldover es un concepto bastante complicado, pero trataré de exponerlo de forma simple.

Es más o menos lo mismo que ocurre cuando miras las ruedas de un automóvil al pasar frente a ti muy rápidamente. Algunas veces verás la rueda moviéndose hacia atrás. Otro ejemplo puede encontrarse en películas antiguas del oeste americano (westerns) en las que aparece un tren que pasa. las 'ruedas' del tren se verán moviéndose hacia atrás, también, si el tren se mueve lo suficientemente rápido.

Todas estas 'ilusiones' son efectos de foldover. Ocurren cuando un sistema rápido analiza a intervalos regulares algo que se mueve incluso más rápido que el propio sistema.

Cuando graba a 22 050 Hz, tu tarjeta simplemente no será capaz de grabar ninguna frecuencia por encima de los 11 025 Hz, pues, como dije anteriormente, son necesarios al menos dos muestras para cada período. Sin el filtro pasa-bajos, la tarjeta de sonido tratará ciegamente de grabar esas frecuencias. Pero, posteriormente, cuando reproduzcas el sample, oirás una frecuencia totalmente diferente de la original. Sucede igual que con las ruedas del automóvil, que parecen moverse hacia atrás, aunque realmente no lo hacen. (La frecuencia que realmente oirás es igual a la frecuencia de muestreo menos la frecuencia original, por ejemplo: 22 050 - 12 050 Hz = 10 000 Hz, en lugar de la frecuencia original, en este caso, 12 050 Hz).

Por lo tanto, la frecuencia máxima que puede grabarse con una determinada tasa de muestreo, es la mitad de esa tasa de muestreo. Esa frecuencia recibe el nombre de frecuencia de Nyquist, a veces abreviada como fN, y proviene de un hombre llamado Harold Nyquist, que trabajó en los Laboratorios Bell y más o menos inventó la digitalización de audio. Un gran tipo para el audio digital.

Para evitar todo eso, los fabricantes de tarjetas de sonido ponen un filtro especial en su tarjeta (ver la figura de abajo).


Filtro de muro a 4000 Hz.


Este filtro pasa-bajos elimina las frecuencias altas del mismo modo que lo haría cualquier ecualizador o reductor de corte de altas frecuencias, excepto que es *mucho* más agresivo. Puedes ver que el filtro permite el paso de todos los sonidos por debajo de 1000 Hz, y que le da un pequeño refuerzo al rango de frecuencias entre 1000 y 3500 Hz. (Este refuerzo es necesario para que sea posible el corte de las frecuencias más altas con tal violencia.) Las frecuencias por encima de 4000 Hz se eliminan con agresividad extrema. Esta es la razón por la que lo llaman un filtro de muro: porque su pendiente tiene forma de muro.

El filtro mostrado arriba podría usarse para una tasa de muestreo de alrededor de 8000 Hz, ya que un sample de 8000 Hz tiene una frecuencia de Nyquist, la máxima frecuencia grabable, de 4000 Hz. Esto hace que sea muy importante elegir la tasa de muestreo adecuada para tu sample; es decir, si tienes una razón legítima para no grabar a 44 100 Hz, o más.
;)


Grabación digital de sonido por ti mismo

Vayamos por este asunto paso a paso.

En primer lugar empezaremos seleccionando Archivo->Nuevo [o la opción correspondiente que aparezca en tu programa], algo que pueden hacer todos los editores de samples que conozco. ;) Querrás seleccionar el número de bits que deseas usar para cada sample. También querrás seleccionar la tasa de muestreo. Mi consejo es: elige la mayor tasa que pueda manejar tu hardware. Eso suele ser 16 bits a 44 100 Hz, ya que la mayoría, si no todas, las tarjetas de sonido de consumo medio soportan grabación y reproducción de calidad de CD. [Nota del traductor: con los procesadores y programas actuales es posible grabar fácilmente a frecuencias de hasta 192 000 Hz y a 24 bits].


Vúmetro - Vúmetro demasiado bajo - Vúmetro saturado.


A continuación deja a los artistas, o lo que sea, tocar durante un rato, para ver si los niveles de grabación no son demasiado altos ni demasiado bajos. Tu programa probablemente soporte monitorización/monitoreo de la entrada, y, si no lo hace, ¡debería!: consigue otro programa. ;) Al ejecutar el programa, probablemente verás una variante del viejo y querido vúmetro. A mí me gusta el de arriba. La parte de mayor intensidad que quieres capturar en disco debería estar en algún lugar cercano a los 0.0 dB, pero nunca debería, ¡¡nunca, jamás!!, superar los 0.0 dB, ya que esto da como resultado una distorsión muy desagradable, que es chévere/guay en grabadoras analógicas pero realmente horrible en el mundo digital.

Si deseas ese efecto de distorsión, consigue un programa que lo haga por ti, ¡pero no grabes a un nivel demasiado alto! El Sound Forge de Sonic Foundry [nota del traductor: actualmente, de Sony] tiene una opción de distorsión realmente buena. También, existen muchos plugins de Direct-X que emulan la compresión valvular, la saturación de la cinta, etc. Este tipo de distorsión digital recibe el nombre de 'recorte' ('clipping') porque todas las muestras que exceden el nivel máximo son 'recortadas' (cortadas y reducidas) al propio nivel máximo.

No fijes tus niveles de grabación demasiado bajo, no obstante. A largo plazo reducirá la precisión de tu grabación casera, ya que las tarjetas multimedia ya añaden un ruido muy significativo. ¡De hecho, algunas veces a duras penas te dejan algún rango dinámico en absoluto!

De modo que, sé muy meticuloso con los niveles de entrada.

A continuación, piensa en la fuente de tu grabación. ¿Un micrófono? ¿Un teclado o sintetizador? ¿Una cinta DAT? Si la fuente es ya digital, como es el caso del DAT y el CD, por favor, ¡aprovecha esa circunstancia y permanece digital! ¡Usa una conexión digital entre el DAT y la tarjeta de sonido, para evitar la operación de conversión digital-analógica -> transmisión a través de un cable barato -> conversión analógica-digital con ruido o distorsión adicionales!

Si estás grabando con un micrófono, primero deja que éste grabe un minuto o así de 'silencio'. Entonces reproduce ese 'silencio' grabado a través de los audífonos/auriculares y escucha la cantidad de ruido que proviene de la habitación. Asegúrate de guardar esta información, porque algunos buenos programas pueden eliminar ese ruido de la grabación mediante el uso de dicha información como 'huella de ruido' ('noise print') (analizan los datos de huella de ruido y luego los 'restan' a la grabación real. Sond Forge y CoolEdit tienen esta importante opción.)

También, si tienes la oportunidad, prueba varios micrófonos para la misma grabación. Aprende a confiar en tus oídos. Si tienes varias grabaciones diferentes del mismo evento, elige aquella que suene mejor. No elijas automáticamente la grabada por el micro más caro. ¡Eso! ¡No! ¡Funciona! Elige la que suene mejor. Te sorprenderá conocer la cantidad de grandes éxitos que fueron grabados con micros baratos. Pero tampoco estoy diciendo que debas usar micros baratos... Hay varios micros de propósito general bastante buenos disponibles a partir de 30 dólares (como el Behringer XM-2000). Un micro realmente bueno para la voz y la guitarra es el SM-58 de Shure. Estos son un poco más caros (por encima de 100 dólares), pero se usan en todo el mundo en estudios profesionales. El problema con estos micrófonos es que necesitarás también un pre-amplificador, ya que la señal original del micrófono es muy débil, y un 'cable XLR' para conectarlo a tu equipo. La mayoría de las mesas de mezclas tienen preamplificadores de micrófono sobre ellas. Si buscas una mesa de mezclas de buena calidad para su precio, te sugiero que le eches un vistazo al sitio web de Behringer. No tienen una calidad del 100%, pero, si un 90% es suficientemente bueno para ti (es ese 10% extra de perfección lo que hace que el equipo de audio sea tan caro) Behringer es tu sitio. No, no me pagan por decir esto. ;)

Si grabas desde un hardware diferente, por ejemplo, directamente desde el sintetizador/teclado, mira el manual para ver si ese hardware tiene salidas equilibradas. Si las tiene, necesitarás conseguir/fabricar dos clavijas estéreo y tres cables de la misma longitud, o incluso mejor: un cable aislado con tres cables aislados separados en su interior (eso es algo que te costará muchos dólares, no obstante...) para asegurarte de que el audio no se distorsiona antes de llegar a las entradas de tu tarjeta.

Un cable normal tiene 1) una cable de señal y 2) un cable de tierra. Si usas cables normales a lo largo de grandes distancias, preferiblemente cerca del alumbrado del escenario ;), notarás que el cable recoge un horrible montón de ruido y zumbido por el camino. Esto tiene que ver con la inducción y los campos magnéticos, pero todo lo que necesitas saber es que la jode. Para evitar tal zumbido de 50 Hz (¡corriente alterna!), los profesionales usan cables equilibrados.

El sistema de cable equilibrado es una muy buena forma de conectar equipo a largas distancias sin pérdida de calidad del sonido o inducción no deseada. Esto es posible debido a que un cable equilibrado está formado por tres cables en lugar de dos: 1) un cable de señal, 2) un cable de señal invertida y 3) un cable de tierra. A la salida del sintetizador / mesa de de mezclas / lo que sea, la señal de salida es dirigida hacia tanto el cable de señal como el cable de señal invertida.

La señal que va al cable de señal invertida es entonces invertida (multiplicada por -1, vuelta del revés, con un cambio de fase de 180 grados) y transportada junto con el cable de señal por todo el cable hasta el otro conector. Por el camino, ambos cables recogen todo el ruido y zumbido usual. Pero, cuando la señal llega a su destino, la señal invertida es invertida de nuevo, de tal modo que vuelve a ser normal otra vez. Esta inversión invierte también el ruido y zumbido, de modo que ahora tenemos: una cable de señal con 1) la señal y 2) el ruido, y tenemos el cable de señal reinvertida (=normal!) con 1) la señal y 2) el ruido invertido. Estas dos señales son mezcladas por el equipo: señal + señal + ruido - ruido, lo cual da lugar a una señal con el doble de potencia de la señal original y ningún ruido en absoluto!

Si estás interesado en leer más sobre audio (digital), hay muchos sitios que puedes visitar. Te sugiero que pruebes algunos de ellos:

http://www.prorec.com
http://homerecording.com

 
Espero que este artículo te haya sido útil, o, al menos, te haya gustado.

¿No puedes oír los 18 kHz y crees por eso que oyes mal?

Hay gente que vive obsesionada con la salud de sus oídos. Cuando se hacen una prueba de audición y descubren que su margen superior no llega, por ejemplo, a los 18 000 Hz, se preocupan seriamente, pensando que están volviéndose sordos, ya que, como todos los libros dicen, “el oído humano puede oír desde los 20 hasta los 20 000 Hz (20 Hz - 20 kHz)”.
5b415a0a74765006f122f979f487f751
Para quienes no conozcan el tema, vamos a aclarar primero algunos conceptos. Si conoces la naturaleza del sonido, puedes pasar por alto los próximos párrafos azules.

El sonido, en física, es cualquier fenómeno que involucre la propagación en forma de ondas elásticas (sean audibles o no) que esté generando el movimiento vibratorio de un cuerpo, generalmente a través de un fluido (u otro medio elástico).

El sonido humanamente audible está formado por ondas consistentes en oscilaciones de la presión del aire, que son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro.

Hemos dicho que el movimiento vibratorio de un cuerpo es lo que produce el sonido. Así pues, el sonido puede definirse como una vibración que se propaga por contacto a través del aire. Una vibración, vista de forma simple, es un movimiento de ida y vuelta alrededor de un punto de referencia. Aunque generalmente las ondas sonoras se representan gráficamente como una línea con subidas y bajadas (la imagen del osciloscopio), el sonido se propaga en realidad en tres dimensiones (imagínate una esfera que nace de la fuente del sonido y que va aumentando de tamaño; la superficie de esa esfera es la que representa el camino que siguen las perturbaciones de presión).

Independientemente de la velocidad de propagación del sonido, que es siempre de 340 metros por segundo en el aire, las oscilaciones de la presión del aire pueden producirse más lentamente o más rápidamente, de tal modo que, al llegar a nuestro cerebro, éste lo interpretará como un sonido más grave (de baja frecuencia) o más agudo (de alta frecuencia). Un sonido grave puede ser, por ejemplo, el que produce un bajo (instrumento musical) o el motor de un automóvil, y un sonido agudo puede ser el del platillo de una batería, o, incluso más agudo, el sonido que produce un televisor de los antiguos (16 000 Hz) o los conocidos acúfenos (“pitidos en el oído”). Un sonido de 30 Hz es el producido por una vibración que realiza 30 “idas y vueltas” cada segundo, y otro de 13 547 Hz corresponderá a una vibración que realiza dicho recorrido de ida y vuelta nada menos que 13 547 veces en un segundo. Visto de otra forma, en un sonido de 20 Hz cada oscilación de la onda mide 17 metros, y, en uno de 20 kHz, 1.7 centímetros.


Representación gráfica de una onda sonora en un osciloscopio.


Propagación del sonido en 3 dimensiones.


Una vez aclarados estos conceptos para quienes lo necesiten, y antes de entrar de lleno en materia con el tema de este post, vamos a hablar un poco sobre la respuesta de frecuencia de un equipo musical.

En un equipo de audio, la respuesta de frecuencia es muy importante, ya que constituye un margen de confianza respecto a las frecuencias que dicho equipo va a reproducir correctamente. Por ejemplo, un equipo que dé una respuesta de 35 a 17 000 Hz nos garantiza que las frecuencias intermedias de ese rango (digamos, por ejemplo, de 40 a 16 000 Hz) se reproducirán a un volumen adecuado y sin artefactos. Un equipo que tenga una respuesta de frecuencia de 10 a 32 000 Hz garantiza que el rango de frecuencias audible (el famoso 20 - 20 000 Hz) se reproducirá con bastante probabilidad de forma correcta. Esa es la razón por la que existe equipo de audio con una respuesta superior a la audible (no voy a entrar a hablar por el momento sobre el efecto de los ultrasonidos sobre la fisiología humana; eso será el tema de otro post).



Curva de respuesta de frecuencia de unos (muy buenos) altavoces. Observa cómo la curva decae un poco en las frecuencias bajas y otro tanto en las frecuencias altas. Cuanto más plana sea la curva, mayor fidelidad tendrán los altavoces respecto a las frecuencias, y ello se conseguirá con materiales de alta calidad.


Como hemos dicho, la calidad de los materiales influye en el resultado final, de tal modo que, por ejemplo, unos auriculares realizados con materiales de baja calidad y con una respuesta de frecuencia de 15 - 35 000 Hz (hay muchos así en el mercado, y a precios bastante económicos) probablemente den peor resultado que otros fabricados con materiales de muy buena calidad y con una respuesta de “tan sólo” 20 - 20 000 Hz. Un neófito podría decir, ¿por qué son tan caros con una respuesta de 20 - 20.000 Hz y los otros tan baratos con una respuesta de 15 - 35 000 Hz, mucho mayor? La respuesta es sencilla: los auriculares baratos darán, efectivamente, los 15 Hz, pero a un volumen mucho más bajo del correcto, y además con distorsiones. Y no sólo fallarán al dar los 15 Hz, sino también, digamos, desde los 15 hasta los 40 Hz. Y el mismo problema sucederá con las frecuencias altas. En cambio, los auriculares “caros” darán los 20 Hz al volumen adecuado y sin distorsiones, y los 20000 Hz también. Su gráfica de respuesta es plana (es decir, con el volumen adecuado) durante todo el rango de frecuencias que produce.

Ten en cuenta todo lo anterior antes de realizar una prueba de audición, y no te deprimas cuando oigas a la gente decir que “han comprobado en su PC que pueden oír incluso más allá de los 20 000 Hz”. Si los altavoces, los auriculares, o la propia tarjeta de sonido no son lo suficientemente buenos, es probable que esos 20 000 Hz que parecen oírse sean realmente artefactos producidos por la mala calidad de los materiales, a una frecuencia menor (15 000 - 18 000 Hz). Un tono de prueba de 20 000 Hz reproducido correctamente en un equipo de alta fidelidad será inaudible para la mayoría de las personas. Si tú eres una excepción, considérate afortunado/a.

Así pues, y entrando ya en el tema de este post, ¿es realmente tan importante que seamos capaces de oír de 20 a 20 000 Hz?

Normalmente oímos mejor las frecuencias bajas que las altas, de tal modo que, con la edad, perdemos poco a poco la capacidad de oír los sonidos agudos, pero no tanto la de oír los sonidos graves. Existen pocas personas adultas capaces de oír bien los 20 000 Hz, y lo normal a partir de los 25 años es ir perdiendo la capacidad de oír las frecuencias superiores a los 15 000 - 16 000 Hz.

Entonces, uno puede preguntarse, “¿y si mi margen superior de audición actual está en 16 000 Hz y el máximo fisiológico para un ser humano son 20 000, ¿no es mucha pérdida de audición 4 000 Hz?”

La respuesta es que no. Y esto es debido a que el oído humano (el cerebro humano, hablando más propiamente) no oye de forma lineal, sino exponencial, tanto en lo referente a la intensidad (volumen) como a la frecuencia.

Hablemos primero del volumen.

La unidad de volumen del sonido que utilizamos en la práctica es el decibelio (dB), y es una unidad exponencial, de tal forma que cada diez decibelios la intensidad del sonido no aumenta en 10 unidades, sino que se multiplica por 10. Así, 10 dB corresponden a una intensidad 10 veces superior a 0 dB, 20 dB corresponden a una intensidad 100 veces superior a 0 dB, 30 dB corresponden a una intensidad 1000 veces superior a 0 dB, y así sucesivamente. Una respiración tranquila genera un sonido de 10 dB, mientras que una conversación normal lo genera de 40 dB. La diferencia entre ambos sonidos es de 30 dB, con lo que podemos concluir que el sonido de una conversación tiene una intensidad 1000 veces superior al de la respiración. Una aspiradora (70 dB) produce un sonido de intensidad 1000 veces superior al de una conversación, y un millón (sí, un millón) de veces superior al de la respiración. Un concierto de rock (120 dB) puede llegar a producir un volumen 100 000 veces superior al de una aspiradora, 100 millones de veces superior al de una conversación, y 100 mil millones de veces superior al de la respiración.

Nunca lo hubieses imaginado, ¿verdad?



Pues con la frecuencia sucede algo muy parecido.

En música, una octava son 8 notas consecutivas (empezando por el do, serían: do-re-mi-fa-sol-la-si-do).




Sabemos que, exactamente cada octava musical que subimos, se dobla la frecuencia. Así, el do0 (do-cero; el do de una octava por debajo de la más baja del piano) tiene 16.35 Hz, y el do1, 32.70 Hz (justo el doble).

La frecuencia del d02 (65.4 Hz) es el doble de la del do1, y el cuádruple de la del do0. La del do3 (130.8 Hz) es el doble de la del do2, el cuádruple de la del do1, y el óctuple de la del do0. Y, así, sucesivamente.



Si nuestra percepción de la frecuencia fuese lineal, el aumento en frecuencia de una nota con respecto a la anterior sería siempre el mismo, pero vemos que lo que realmente sucede es que la diferencia de frecuencia de una nota con respecto a la anterior crece a medida que avanzamos en la escala musical. De esto se desprende que, cuanto más aguda sea la nota, con menor precisión oiremos el sonido, pues, aunque la diferencia de frecuencia entre nota y nota será cada vez mayor, nosotros percibiremos siempre la misma diferencia musical (1 tono).

Vayámonos ahora a las frecuencias más agudas. Si pudiésemos ampliar las teclas del piano indefinidamente, tendríamos lo siguiente:

do9..............................8 372.02 Hz

...

do10...........................16 744.04 Hz

re10...........................18 735.40 Hz

mi10...........................21 039.62 Hz

...

do11...........................33 488.08 Hz


Ahora vemos más claramente que, a partir de los 16 000 Hz, nuestra percepción sonora es muy tosca. De hecho, una persona que deje de oír a partir de los 16 744 Hz se está perdiendo menos de dos notas (dos tonos) respecto al máximo teórico de 20 000 Hz. O, dicho de otro modo, un sonido de 20 000 Hz que no podamos oír podemos imaginárnoslo como el sonido más agudo que podamos percibir aumentado en sólo 2 o tres tonos.

Espero que te haya resultado interesante esta reflexión.