Skip links

Sonido, datos y la creación del espacio virtual.

Con el avance de la inteligencia artificial, tecnologías como Muse y ACE están transformando la creación de mundos virtuales. Esto plantea la pregunta: ¿Cómo afectará la IA al rol del diseñador de sonido?

Este 2025 arrancó con un giro en la industria tecnológica: la llegada de Muse, de la mano de Microsoft, y la llegada de ACE con Nvidia y Xbox; dos IA generativas capaces de construir entornos virtuales interactivos en videojuegos. Con este anuncio, la inteligencia artificial dejó atrás la simple generación de imágenes y videos—que ya mostraban signos de agotamiento creativo—para meterse de lleno en la creación de mundos completos, con reglas propias y paisajes en constante transformación. Y aquí viene la pregunta inevitable:

¿Cómo suenan estos nuevos mundos virtuales generativos?

Desde la industria tecnológica nos están entrenando no solo para habitar entornos virtuales cada vez más similares a la realidad, sino también para entender cómo se crean.

Estas nuevas tecnologías edifican paisajes virtuales moldeando nuestra relación con el entorno inmediato, y en ese proceso, nos obligan a repensar el papel que comienzan a jugar los diseñadores de experiencias inmmersivas.

La arquitectura invisible.

El sonido siempre fue una arquitectura invisible, un idioma que habla directo al cuerpo. La reverberación de un túnel subterráneo nos dice más sobre su profundidad que cualquier render en 4K.

“El eco de los pasos sobre una calle pavimentada tiene una carga emocional porque el sonido que reverbera de las paredes circundantes nos sitúa en relación directa con el espacio”
Juhani Pallasmaa

El crujir de la grava bajo los pies, la densidad de la niebla en una calle desierta, incluso el vacío de un silencio artificial, todos son elementos tradicionalmente diseñados por manos humanas, con decisiones humanas. Pero, ¿qué pasa cuando esos paisajes empiezan a generarse por sí mismos? ¿Cuando el sonido deja de componerse y empieza a predecirse?

Una reverberación nos indica la profundidad de un túnel antes de verlo; la direccionalidad de un sonido nos hace girar la cabeza en una habitación oscura.

Si el sonido siempre nos ha conectado con el espacio de forma intuitiva, la tecnología ahora redefine esa relación.

Hace algunos años grabé un programa de radio dentro de la Torre de Agua Sur en Alemania (Wasserturm Süd en Halle, Saale).

La torre era cilindro inmenso, vacío, una cáscara de concreto y ladrillo. Esa experiencia marcó mi entendimiento de las reverberaciones. En un espacio circular de gran altura, una voz, un bandoneón y un clarinete transforman un espacio vacío y semiabandonado en un lugar lleno de vida.

Me pregunto qué pasará cuando la acústica de un espacio deje de ser una consecuencia física y se convierta en una decisión algorítmica.

Cuando una IA determine la duración exacta de una reverberación o la profundidad sonora de un túnel antes de que alguien lo atraviese, ¿seguiremos percibiendo el espacio de la misma manera? ¿O nos adaptaremos a una arquitectura sonora que ya no responde a nuestra presencia, sino a una lógica calculada acerca de cómo suena un espacio?

El Futuro Suena a Datos

Pero la industria del videojuego no solo observa este avance con entusiasmo, sino también con preocupación. WHAM (World and Human Action Model) como se llama a la tecnología que impulsa Muse, ya está demostrando que la predicción y la generación de entornos en tiempo real son la nueva frontera.

A partir de solo un segundo de jugabilidad humana—equivalente a diez fotogramas—es capaz de predecir la evolución de una partida de videojuego.

Si Muse crea mundos y WHAM los anticipa, es solo cuestión de tiempo para que sistemas similares se encarguen también de la organización del sonido en el espacio.

La IA no solo podrá generar sonidos en tiempo real, sino decidir dónde ubicarlos, cómo se comportan en relación al entorno y cuál será su interacción con el usuario.

La evolución tecnológica de la espacialización de audio, desde la estereofonía al audio basado en objetos, han transformado la manera en que experimentamos el sonido en un espacio; pero la IA podría llevarlo un paso más allá: un espacio sonoro que se adapte constantemente a la posición del usuario, su velocidad, su entorno visual y hasta su estado emocional.

Ya no hablaremos de diseñadores de sonido programando cada efecto manualmente, sino de sistemas entrenados para generar entornos sonoros completos.

Pero no se trata solo de crear sonidos, sino de definir las reglas con las que se distribuirán en el espacio virtual.

Si la IA aprende a generar entornos sonoros, la pregunta es: ¿qué datos utilizará para entrenarse?. Si solo se alimenta de paisajes sonoros convencionales, podría acabar replicando un mundo estático, carente de la diversidad y la organicidad del sonido real. La IA no improvisa ni sueña; solo replica lo que le damos.

Si entrenamos a un sistema con grabaciones de espacios urbanos que reflejan únicamente las culturas hegemónicas, estos podrían acabar siendo un eco artificial de las grandes potencias y la representación pobre de las regiones más marginadas.

Si la base de datos proviene exclusivamente de grabaciones cinematográficas o bancos de sonidos que ya están en internet, perderemos la riqueza del sonido espontáneo y natural.

La forma en que curemos estos datasets determinará el tipo de paisajes que se construirán en el futuro.

Pero ¿Quiénes serán los próximos curadores de estos bancos de datos? Cómo nos preparamos para estos nuevos modelos en los que el arte se ve condicionado por la IA? Los usuarios se darán realmente cuenta de la diferencia?

La industria de los videojuegos ya se ha dividido en dos posturas claras. Por un lado, están quienes ven a las nuevas IA generativas como una herramienta tecnológica que agiliza y perfecciona la creación de mundos, como Brendan Greene, responsable de popularizar el género battle royale, del cual surgieron juegos como Fortnite.

Por otro lado, están quienes consideran que la IA reemplazará a los trabajadores de la industria con modelos carentes de creatividad y que los jugadores notarán este cambio. En este grupo se encuentran los creadores del sello No GEN AI, un colectivo de desarrolladores independientes que ha diseñado un logo para que los estudios puedan mostrarlo en las páginas de las tiendas digitales, indicando que en la creación del videojuego no se utilizó ninguna IA generativa.

El Gran Desafío: Entre la Creación y la Curaduría

La pregunta es: ¿seguiremos diseñando sonidos o empezaremos a curar datos sonoros para la IA?

Desde mi punto de vista el diseñador de sonido del futuro ya no compondrá una atmósfera desde cero, sino que seleccionará, depurará y modelará datasets de millones de sonidos, entrenando así a un sistema que creará sonidos en tiempo real.

Como un arqueólogo digital, no creará tanto como dirigirá las posibilidades de la máquina. Su labor consistirá en elegir los sonidos, definir sus características y establecer los parámetros con los que la IA operará dentro de un entorno inmersivo.

Si el rol del diseñador de sonido se inclina cada vez más hacia la gestión de datos y el entrenamiento de modelos, nuestra manera de percibir el espacio cambiará por completo.

No se trata solo de adaptarnos, sino de decidir si queremos que el sonido del futuro sea una simple réplica de lo que ya conocemos o una oportunidad para reimaginar nuestra relación con la escucha, tanto en el espacio virtual como en el físico.

No estoy en contra de la IA, pero tampoco la veo como una solución absoluta. Creo que es fundamental comprender sus implicancias, explorar sus posibilidades y cuestionar sus límites.

Las respuestas a estas preguntas quizás nos den la posibilidad de encontrar huecos posibles en un sistema que determinará la forma en la que concebimos la realidad inmediata.

Leave a comment

Este sitio web utiliza cookies para mejorar tu experiencia en la web.
Spanish