Vibrações do Duplo Corpo

Protótipo interativo de visualização e sonificação de "scores" editoriais — projeto inspirado por Debray, Machado, Salgado e Manaíra & Rocha.

Conceito

O projeto explora o duplo corpo — a distinção entre o corpo profundo do score (JSON, metadados, parâmetros) e o corpo de superfície (projeção visual e sonoridade) — como forma de tornar visível e auditiva a transmissão de ideias e dispositivos técnicos. Cada score é um objeto editorial performável: pode ser gerado, editado, salvo e reexposto como palimpsesto sobre projeções anteriores.

Estrutura da experiência

A experiência tem três zonas adaptadas para uma implementação leve:

  • Mapa do Arquivo (projeção): visualização em tela grande (SVG/Canvas) onde nós representam objetos editoriais. Arrastar nós aplica filtros; novas entradas (scores) atualizam a projeção em tempo real via IndexedDB.
  • Palco do Vibecoding (console público): layout dividido com form de prompt → visualização → JSON do score. Sessões mediadas permitem performances ao vivo com participação do público.
  • Cabines de Tradução/Resistência: estações individuais para editar, exportar e anotar scores — UI minimalista e sem necessidade de programação.

Fundamentação teórica manifesta

As referências que orientam o projeto aparecem explicitamente no núcleo conceitual:

  • Régis Debray — o duplo corpo do médium: corpo simbólico vs. material (transmissão como processo temporal).
  • A. Machado — reflexões sobre arte e mídia: distinção e tensão entre obra e meio.
  • Luciana Salgado — objetos editoriais como entidades geográficas; topografia editorial e acessibilidade.
  • Manaíra & Rocha — humanidades digitais na América Latina: espacialidade, latência e práticas colaborativas.

Modo de interagir

Fluxo básico de interação:

  1. Digite um prompt curto (ex.: "o duplo corpo da imagem técnica") e clique em Gerar score.
  2. Revise o JSON gerado na área de edição; salve-o no arquivo local (IndexedDB) ou publique conforme consentimento.
  3. Ao executar, o score é interpretado pelo interpreter (pseudocódigo abaixo) e projetado no palco; o áudio sincroniza via WebAudio.
  4. Scores salvos compõem o palimpsesto — camadas antigas são sobrepostas com baixa opacidade.

Interpreter (pseudocódigo)

Loader: carrega score JSON
For each layer: switch(type) → chamar função de desenho (particleField, textCloud, vortex, nodeNetwork)
Animação: requestAnimationFrame(com parâmetros de motion)
Áudio: WebAudioOscillator + Gain + envelopes (ou granular via AudioBufferSource)
Persistência: indexedDB.put(score)

Estética & sonoridade (prática)

Implementação prática: partículas em Canvas com blend modes (screen/multiply), textos em SVG para legibilidade; camadas antigas com globalAlpha reduzida; som produzido por envelopes lentos e pequenos loops granularizados de sílabas do prompt ou samples livres.

Segurança, ética e curadoria

  • Não há execução de JS arbitrário — o usuário edita apenas campos do JSON. Sem eval().
  • Consentimento para publicação: scores podem ficar privados ou publicados conforme escolha.
  • Curadoria editorial: licenciamento copyleft sugerido (ex.: CC-BY-SA) e metadados transparentes sobre origem e parâmetros.
Abre o protótipo (index do protótipo)