Lumicles es una plataforma de experimentación visual y sonora que corre en el navegador web. A través de la síntesis de algoritmos avanzados de renderizado, audio espacial y APIs de realidad virtual web, el proyecto propone una inmersión profunda en entornos matemáticos vivos.

A continuación, se detallan los pilares fundamentales que integran esta experiencia: desde la potencia del procesamiento en GPU hasta la filosofía del arte generativo detras del proyecto.

Arte Generativo y Fenómenos Emergentes

La esencia de Lumicles es su naturaleza generativa, a través de algoritmos preestablecidos (fields), toma decisiones estéticas que escapan al control directo del autor.

Este proceso da lugar a fenómenos emergentes: situaciones donde reglas matemáticas simples a bajo nivel, como la atracción y la repulsión, interactúan entre sí para crear una complejidad organizada de alto nivel.

El uso de algoritmos como el Ruido Perlin permiten sintetizar valores pseudo-aleatorios, logrando que el caos de las partículas mantenga siempre una apariencia orgánica, fluida y fascinante, asegurando que cada sesión sea una pieza única e irrepetible.El usuario puede forzar la simulación a un estado ordenado a partir del cual se desencadenan procesos a veces caóticos.

Arte Generativo

Simulación en GPU y Renderizado

Para gestionar hasta 4 millones de partículas en tiempo real, el software traslada toda la carga de procesamiento a la GPU mediante WebGL.

El movimiento de cada punto de luz se calcula mediante GLSL shaders, lo que permite una fluidez de hasta 60 cuadros por segundo. El pipeline de renderizado incluye un procesamiento de tres etapas diseñado específicamente para realzar la estética digital.

Se utiliza un render de 32 bits por canal, luego se aplica un blur gaussiano y finalmente se aplican correcciones de luminancia localizadas para corregir áreas subexpuestas y sobreexpuestas.

Simulación GPU

Experiencia en Realidad Virtual (WebXR)

El proyecto utiliza el estándar WebXR, que permite que Lumicles sea accesible desde cualquier visor de Realidad Virtual conectado a la PC, eliminando las barreras de instalación de software nativo.

La experiencia en RV, mediante el uso de XR controllers, permite al usuario navegar por dentro de las simulaciones, cambiar la paleta de colores y modificar los parámetros de la simulación mediante un menú RV que replica las funcionalidades de la UI web, pero utilizando un elemento canvas que luego es convertido a textura en GPU.

Se requirió implementar un pipeline especial para renderizar la vista estéreo en RV, ya que la biblioteca Three.js no permite por el momento aplicar filtros de post-procesamiento en modo RV.

Experiencia VR

Sistema de Sonido y Audio 3D

El sonido en Lumicles no es una pista de fondo, sino una composición estéreo que se ajusta dinámicamente.Las piezas principales son archivos de sonido mp3que se pueden disparar ante un evento o reproducir en loop.

Cada elemento sonoro puede ser posicionado en el espacio 3D aplicando filtros de espacialización provistos por la API WebAudio (Panner Node). Estos filtros permiten simular la direccionalidad, distancia y posición relativa del sonido respecto del oyente.

Finalmente un orquestador coordina los volúmenes, ritmos de reproducción y desafinación de cada pista, generando una escena sonora específica para cada dinámica de movimiento.El sistema también tiene en cuenta la posición del usuario en el espacio virtual y el estado de la simulación de partículas.

Sistema de Sonido