Fase 01 · fundamentos · Semana 5
Audio reactivity básica + proyecto luces
26 may – 1 jun 2025
Semana 05 · Audio reactivity básica + proyecto luces
Período: 26 may – 1 jun 2025
Fase: 01 · Fundamentos & Flujo de datos
Tag: audio
Concepto de la semana
Hacer que los visuales respondan a música. El flujo: capturar audio → analizar frecuencias → extraer valores → exportar a parámetros visuales. La clave es distinguir entre graves (bajos frecuenciales, < 200Hz) y agudos (> 4kHz) para que el visual tenga capas de respuesta.
Proyecto paralelo: Conectar las 2 luces RGBW via Arduino IR — cada una reacciona a una frecuencia distinta (graves / agudos). Con la bola disco: instalación real en la sala.
Operadores clave:
- Audio Device In CHOP — captura audio en tiempo real
- Analyze CHOP — extrae RMS, peak, etc.
- Audio Spectrum CHOP — divide el audio en bandas de frecuencia
- Math CHOP — mapea y suaviza los valores
Qué aprendí
Qué rompí
Preguntas que tengo
Mini-check
- [ ] El visual reacciona distinto a bajos vs. agudos
- [ ] Probé el patch con al menos 3 tracks de géneros diferentes
Recurso de la semana: Tutorial "Audio Reactive Visuals" — bileam tschepe (YouTube) · Referencia: ver set de Transforma para entender qué funciona en techno
Prompt creativo
Prompt creativo · Semana 05
Período: 26 may – 1 jun 2025
El prompt
Pon una track de Anetha o HAAi. El visual debe capturar algo de lo que sientes cuando la escuchas — no lo que ves, lo que sientes.
La track elegida
¿Qué track puse? ¿Por qué esa?
Mi interpretación
¿Qué siento cuando escucho esa track? ¿Cómo lo traduje en decisiones visuales?
El resultado
Descripción del patch de audio reactivity.
Lo que me sorprendió
Una cosa que no esperaba que pasara.
Desvío
Pon una track que amas. ¿El visual la "representa"? Si no, ¿qué cambiarías?
¿La track que puse y el visual coinciden en algo? ¿Qué cambiaría para que sean más honestos entre sí?