El Entorno Aumentado. Universidad Politécnica de Madrid Escuela Técnica Superior de Arquitectura - PDF Free Download

El Entorno Aumentado. Universidad Politécnica de Madrid Escuela Técnica Superior de Arquitectura

Tamaño: px
Comenzar la demostración a partir de la página:

Download "El Entorno Aumentado. Universidad Politécnica de Madrid Escuela Técnica Superior de Arquitectura"

Transcripción

1 Universidad Politécnica de Madrid Escuela Técnica Superior de Arquitectura El Entorno Aumentado Imperativo informacional para una ecología digital de lo arquitectónico Tesis doctoral Eduardo Roig Segovia 2014

2 Departamento de Ideación Gráfica Arquitectónica Escuela Técnica Superior de Arquitectura El Entorno Aumentado. Imperativo informacional para una ecología digital de lo arquitectónico. Autor Directora Arquitecto Eduardo Roig Segovia Dra. Arquitecta Atxu Amann y Alcocer

3

4

5 Tribunal nombrado por el Magnífico y Excelentísimo Sr. Rector de la Universidad Politécnica de Madrid, el día de de 2014 Presidente D. Vocal D. Vocal D. Vocal D. Secretario D. Realizado el acto de defensa y lectura de la tesis El Entorno Aumentado. Imperativo informacional para una ecología digital de lo arquitectónico el día de de 2014 en Calificación: EL PRESIDENTE LOS VOCALES EL SECRETARIO

6

7 Mi gratitud para Atxu por aumentar con tu mirada dialéctica, cómplice y cercana el sentido de esta investigación y otros maravillosos sinsentidos Javier Seguí, Andrés Perea, Antonio Miranda, Paco Alonso por aumentar mis atenciones y profanar mis fronteras Andrés Cánovas, Nicolás Maruri por aumentar la temperatura ya extrema Francisco de Gracia por aumentar el mensaje con tu cirugía José Mestre por aumentar con tu tekne este logos Javier y Cruz Daniel por aumentar con videojuegos una infancia compartida Ion Cuervas-Mons, Keiichi Matsuda por aumentar lo arquitectónico Nieves por el hábito de aumentar mis sueños

8 A mis abuelas. A mis padres, por todo.

9 Todas las instituciones que aseguraban una cierta estabilidad han dejado paso a una individualización: yo y el mundo. Yo con las redes que yo me construyo en el mundo. Manuel Castells (2009), Comunicación y poder.

10

11 Resumen Esta tesis se suma a los intentos teóricos de clarificar la impronta del dominio digital en lo arquitectónico. Propone una cartografía crítica para reconstruir el proceso de tal convergencia considerando aquellos acontecimientos reveladores que lo han pautado. La integración de la extensión digital propia las tecnologías de la información y la comunicación en el contexto tradicional arquitectónico ha supuesto el advenimiento de un ecosistema artificial complejo. A esta realidad o proceso concurrente se la denomina el Entorno Aumentado. La línea principal de investigación explora el desarrollo de la interacción hombre-máquina, en sendas trayectorias sincrónicas convergentes. El análisis se aborda por tanto desde la consideración de esa naturaleza dual, atendiendo simultáneamente a la humanización del dominio digital o cómo la computación se adapta a la condición natural de ser humano, y a la digitalización del ser humano o cómo éste asume el imperativo digital. El análisis resulta vertebrado desde la condición panóptica del punto de observación del acontecimiento: la cuarta pared, entendida como pantalla y punto de inflexión que estructura la convergencia de los entornos físico y digital. La reflexión acometida sobre la construcción del Entorno Aumentado procura la verificación de la tesis, que es central en esta investigación: la multiplicación dimensional del lugar físico mediante su extensión con un campo informacional procedente del dominio digital, y sus efectos en la construcción de la nueva ecología digital propia del Entorno Aumentado. Esta circunstancia se produce tras la eclosión de la Revolución Digital en la segunda mitad del siglo XX, el consecuente incremento de la interacción entre los entornos digital y físico, y el alcance de un nivel superior de comunicación en los procesos arquitectónicos. Los síntomas del Entorno Aumentado se hacen notar en nuestra contemporaneidad; en ese sentido, la tesis alcanza un diagnóstico del cambio. La fractura y obsolescencia del límite espacio-temporal establecido por las dicotomías históricas privado-público, casa-ciudad, trabajo-ocio, etc., o la vigencia del proyecto procedimental son algunas de sus consecuencias en el modo de abordar la disciplina arquitectónica. Abstract This dissertation aims to complete the theoretical attempts to clarify the digital domain imprint on the architectural realm. It constructs a critical cartography to reconstruct the process of such convergence, considering those principal events who have scheduled it. The integration of TIC s digital extension through the traditional architectural context has meant the advent of an artificial complex ecosystem. This reality or concurrent process is called The Augmented Environment. The key research attempt explores man-machine interaction process in both synchronous converging trajectories. The analysis therefore addresses from the consideration of this dual nature, focusing simultaneously in humanizing digital domain process or how the computer fits the natural condition of human beings, and in digitalizing human beings or how it affords the digital imperative. The analysis is structured from the panoptic condition of the event scope: the fourth wall as screen that structures the convergence of physical and digital environments. The examination of The Augmented Environment s assembly pretends the verification of the central point of this research: the dimensional multiplication of physical space by extending informational fields from the digital domain, and its effects on the construction of the Augmented Environment new digital ecology. This circumstance occurs after the arrival of the Digital Revolution in the second half of the twentieth century, with the consequent increase in the interaction between digital and physical environments, and the reach of a higher level of communication in architectural processes. The Augmented Environment signs are alive nowadays; in that sense, the thesis reaches a diagnostic of the changes. The fracture and obsolescence of the time-space limit established by historic dichotomies as private-public, home-city, working-leisure...etc., or the validity of the procedural design are some of its consequences on the architectural discipline.

12

13 Índice Introducción Objetivos Hipótesis Metodología de investigación Estructura de la tesis Capítulo I. Preliminares al Entorno Aumentado 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia 1.2. Escenario histórico. Cambio de paradigma 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información Capítulo II. Revolución digital. Humanización del Entorno Digital (ED) 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses 2.2. Cultura mediática arquitectónica. El arquitecto comunicador 2.3. Arqueología del lugar aumentado Computación y arquitectura. Metamorfosis del retrato de Jacquard Videojuegos, paradigma arquitectónico del Entorno Digital Cultura arquitectónica del videojuego Un nuevo ámbito de estudio. Los videojuegos ingresan en la universidad Jugador operador investigador. La paradoja del arquinauta Metodologías de análisis del videojuego. Una propuesta metodológica para el análisis del Entorno Aumentado Conquista de la dimensión dinámica en la escena digital del videojuego. Tras los pasos de Lara Croft Capítulo III. Revolución Digital. La impronta digital en lo arquitectónico, una cronología crítica (EF) 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador 3.2. Presagios de la Revolución Digital Influencias transdisciplinares. Arquitectura y ficción Alteraciones cinéticas. Preludio de la simultaneidad y el dinamismo digital 3.3. Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética 3.4. Revolución Digital en la práctica arquitectónica, Integración conceptual Vía del lenguaje tecnológico Vía del lenguaje retórico Integración metodológica: proceso vs producto Integración operativa Computación y arquitectura mediática TIC. La arquitectura como estrategia de comunicación Arquitectura cibernética. La materialización del diagrama Interacción en la arquitectura sistémica del Estructuralismo Del desenlace arquitectónico al patrón generativo 3.5. Postulados y visiones pre-globales,

14 Capítulo IV. Post-revolución Digital. El Entorno Aumentado (EA) 4.1. La convergencia tecnológica Topología del Entorno aumentado. Deriva digital hacia la eclosión El fin de la mano mecánica y el advenimiento de la ergonomía post-digital 4.2. El proyecto arquitectónico del Entorno Aumentado El carácter inteligente de los parámetros. Variaciones sobre un tema La narrativa proyectual dinámica. Del zootropo a los Serious Games El chip replicante. En busca paisaje sensorial natural A propósito del reciclado digital: el proyecto nómada El proyecto procedimental: arquitectura opensource y proyecto colaborativo 4.3. El hábitat del Entorno Aumentado La vivienda aumentada. Ciudadanización de la domus Perfil antropológico de la vivienda aumentada. Del morador al electronómada [ , +1998] Interferencia mediática en el ámbito doméstico. Cartografía multimedia de las TIC Interferencia informacional en el ámbito doméstico. Del Post- It de nevera a la realidad aumentada Apuntes sobre la casa del futuro Anatomía de la vivienda aumentada La ciudad aumentada. Domesticación de la ciudad La disolución del entorno dicotómico tradicional El umbral aumentado. La sintonización del paisaje El entorno transfigurable y el declive de la estética estática La Ciudad Origami Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo. Conclusiones Bibliografía Índice de figuras Anexos Apéndice. Glosario de términos.

15 Introducción Objetivo El objetivo de esta tesis consiste en aportar una investigación sobre el actual estado de la cultura arquitectónica, aunque enfocada hacia el estudio de las consecuencias producidas por la emergencia tecnológica de la información y la comunicación (TIC). De hecho propone una reflexión específica sobre la evolución del Paradigma Digital y su eclosión en el Entorno Aumentado, para cuya definición ha resultado determinante el progreso técnico orientado hacia el perfeccionamiento de la interacción hombre-máquina, especialmente la computadora. La historia reciente de la arquitectura adolece de una visión cartográfica de la construcción de esta naturaleza contemporánea híbrida que propone una revisión de la relación entre el ser humano y su hábitat. Con ánimo de documentarla y sin perder la atención prioritaria hacia lo interactivo, se presenta un análisis crítico 1 que describe la huella ocasionada por la inmersión de la computadora en la disciplina arquitectónica, tanto en la práctica profesional como en el ámbito académico. La integración efectiva de las ciencias de la computación es consustancial a la Revolución Digital, período que organiza cronológicamente la anatomía de esta tesis. Con la intención de enmarcar este período y aportar luz sobre sus causas y consecuencias, se propone una exploración de sus antecedentes -origen del Entorno Aumentado- y los acontecimientos inmediatamente posteriores que activarán la afinidad entre el Entorno Físico y el Entorno Digital. La hipótesis de partida postula el Entorno Aumentado como función de éstos. En lo que atañe al Entorno Físico, la investigación intensifica su análisis en las décadas de los sesenta y setenta por considerarlas la etapa pionera y esencial de la integración digital en lo arquitectónico. Resulta clave la aportación de la obra de Alison y Peter Smithson, por su atención hacia los nuevos conceptos y sintagmas provenientes de la computación, la experimentación con los medios de comunicación de Charles y Ray Eames, el enfoque cibernético de Cedric Price y Gordon Pask, la incorporación operativa de la computadora en algunos proyectos de Archigram, las propuestas interactivas de los metabolistas japoneses, la arquitectura basada en patrones de Christopher Alexander y las máquinas arquitectónicas computerizadas de Nicholas Negroponte, en el marco del MIT. A su vez, esta tesis constituye una mirada hacia el ámbito académico experimental de la investigación, destacando la influencia de instituciones como el Medialab del MIT y el Centro de Cálculo de la Universidad de Madrid. El trazado de un mapa integrador del fenómeno medialab, en la época pionera y en la contemporaneidad, así como la descripción de sus conexiones y sinergias, resultará consecuencia de la observación de este fenómeno. 1 El calificativo denota interpretación en el sentido referido por Seguí (1996: 90): El análisis sólo tiene sentido cuando se busca interpretativamente algo respecto al objeto o la obra que analiza. Analizar una obra es someterla a ciertas hipótesis acerca de su naturaleza y aplicar los instrumentos idóneos para probar si se cumplen. I

16 El análisis del proceso de integración de mayores ratios de interactividad entre los agentes participantes del proyecto arquitectónico es inherente a la incorporación del entorno digital en la profesión de arquitecto. En este sentido, se articula el reconocimiento del videojuego como paradigma arquitectónico por su esfuerzo en integrar al usuario en la capa digital y su impulso en la conquista de su capacidad de movimiento en el ciberespacio del Entorno Digital; un formato imprescindible en el proceso de la fusión físico-digital. La eclosión del Entorno Aumentado se produce en el marco de la Sociedad de la Información. La evolución y emergencia de las técnicas creadoras, transformadoras y comunicadoras de información ha derivado en la expansión del paradigma tecnológico. La investigación propone un análisis del cambio informacional y mediático, a tenor de las consecuencias operadas en la práctica proyectual arquitectónica y en el usuario de arquitectura. Una vez analizados los antecedentes de la integración de la computadora en la disciplina arquitectónica, la tesis habilita un espacio para la conjetura acerca de la nueva realidad alternativa que supone el Entorno Aumentado. La estructura de la tesis plantea en su capítulo final una colección de indagaciones que reflexionan sobre el proceso de hibridación y describen los fundamentos de la ecología digital característica del Entorno Aumentado. Hipótesis La tesis precisa para su desarrollo de la validez hipotética de unas suposiciones, que si bien no están confirmadas, su formulación aporta el valor de generar capacidad relacional entre los hechos que aquí se investigan, así como desencadenar a la postre la razón de su naturaleza. El valor hipotético se corresponde aquí literalmente con lo que se pone debajo. Con ese significado cimentador se propone a continuación una serie articulada de enunciados que antecede a otros, constituyendo así sus fundamentos. Hipótesis 1 El Entorno Aumentado (EA) se produce como desenlace de la Revolución Digital, un periodo de cambios que ha supuesto, entre otras cosas, la sustitución del Paradigma Mecanicista por el Paradigma Digital y de la Sociedad Post-industrial por la Sociedad de la Información. La naturaleza técnica del nuevo paradigma y su influencia en la disciplina arquitectónica depara una realidad compleja y transformada. Como hipótesis de partida se considera la condición interactiva que articula la correspondencia hombre-máquina como causa principal de la emergencia del EA. Resulta pertinente acotar el campo de la investigación de los acontecimientos sucedidos a lo largo de la Revolución Digital a aquellos que han sido relevantes a efectos de tal atributo interactivo. Cualquier otra materia que no participe significativamente en la gestación y evolución del concepto de interacción excederá el ámbito de investigación de esta tesis. II

17 Hipótesis 2 La segunda proposición es determinante para el curso de la investigación, bien sea por la incidencia en el orden epistemológico o por su proyección en el sistema clasificatorio de la información. La injerencia de la Revolución Digital y el progresivo auge de las tecnologías de la información y la comunicación (TIC) han deparado en la naturaleza de la disciplina arquitectónica cambios profundos. La multiplicación dimensional del lugar arquitectónico obedece a esta circunstancia. El lugar físico asume en el Entorno Aumentado una nueva extensión o dimensión digital cuya consecuencia imperativa es el desdoblamiento y la incorporación de la capa de información digital. Se toma como hipótesis de la investigación la consideración del Entorno Aumentado (EA) como una función de dos variables: ser digital y ser físico. Cada variable genera una realidad propia: realidad digital y realidad física. Cada realidad define un entorno o ámbito propio: Entorno Digital (ED) y Entorno Físico (EF). El EA se produce como consecuencia de la conjunción del ED y el EF. EA = (ED, EF) La presencia simultánea de ED y EF es condición sine qua non para la existencia del Entorno Aumentado, obteniéndose de este modo: EA = ED+EF El estudio del EA o convergencia EA se practicará desde el origen independiente de los entornos ED y EF hasta la fusión de ambos, acontecimiento propio y diferencial de las tecnologías de la información y la comunicación. La integración de planteamientos arquitectónicos en la convergencia (ED + EF) irá produciendo progresivamente una evolución más intensa y prolífica del Entorno Aumentado arquitectónico. Hipótesis 3 La Revolución Digital es una etapa de progreso técnico acontecido en el siglo XX. La computadora es a la Revolución Digital lo que la máquina de vapor fue a la primera Revolución Industrial, contiene en sí misma la doble condición de ser simultáneamente factor desencadenante y símbolo. En 1998, Nicholas Negroponte 2 realizó en el número 6.12 de la celebrada revista Wired la siguiente aseveración: la Revolución Digital ha finalizado 3. La cronología de la investigación 2 Arquitecto de formación y columnista de la revista Wired, fundó en 1967 el MediaLab del Massachusetts Institute of Technology, en Cambridge, con la intención de explorar la interacción entre el III

18 se referirá a dicha etapa, distinguiendo: un tiempo primero, precedente a la Revolución Digital que concluye con el fin de la Segunda Guerra Mundial; la propia Revolución Digital acontecida desde la Segunda Guerra Mundial hasta 1998; y por último, un tiempo post-revolucionario. Dada la ausencia de perspectiva histórica que refrende la afirmación de Negroponte, se toma como hipótesis su propuesta de fecha de finalización de la Revolución Digital. Metodología de investigación La naturaleza de la hipótesis central de esta tesis no obedece a una inquietud historicista hacia el análisis de un acontecimiento, sino más bien a una atención sistematizada hacía una circunstancia contemporánea relativamente reciente, como lo es el Entorno Aumentado. El planteamiento metodológico empleado en el análisis de la circunstancia aquí definida como Entorno Aumentado pone de manifiesto una sistematización escalar de la investigación. Esta gradación escalar metodológica se caracteriza por el empleo de diferentes métodos. Tiene en su fundamento el método de la argumentación lógica (Groat & Wang: 302), sistemática argumental que estructura el análisis ontológico de su naturaleza. Este método resulta eficiente para la construcción, en el capítulo I, de un modelo descriptivo del acontecimiento que proyecta el origen del Entorno Aumentado en la convergencia de dos entornos, el digital y el físico; lo define como fusión de ambos. Una vez precisado y acotado el campo y el alcance de la investigación, se acomete el análisis de este fenómeno convergente. Los capítulos III y IV estudian el Entorno Digital en su aproximación al Entorno Físico y viceversa. Esta fase de la investigación se aborda mediante el método de investigación histórico-interpretativo (Groat & Wang: 136), empleado habitualmente por su rigor y estandarización en el análisis datos históricos y predicción relacional de causas y efectos. El capítulo IV se encuentra en el último lugar de la escala metodológica. La tesis central de la investigación y consecuencia del proceso de construcción del Entorno Aumentado se refiere a la multiplicación dimensional, por imperativo digital, del lugar arquitectónico y sus consecuencias ecológicas en el espacio-tiempo contemporáneo. Ésta y otras consideraciones secundarias, como la disolución de los límites de las dicotomías vigentes en el siglo XX o el advenimiento del proyecto procedimental, son analizadas mediante el método de casos de estudio. El examen comparado de estos casos de estudio, escogidos por su aportación diferencial en la construcción ser humano y la computadora. Adams (2003) se refirió a él como alguien que escribe del futuro con la autoridad del que ha estado mucho tiempo allí. 3 Del inglés, Face it - the Digital Revolution is over. Disponible en: < (Consultada el 20 de junio de 2011). IV

19 del Entorno Aumentado, concluirá con unas consideraciones finales que tratarán de refrendar la tesis central. Fuentes bibliográficas La extensión de la bibliografía consultada obedece al efecto pluridisciplinar que provoca la construcción del Entorno Aumentado. El desarrollo del corpus principal de la investigación se basa en el análisis de obras de autores que reflexionan sobre el alcance de la convergencia del Entorno Digital y el Entorno Físico. Desde enfoques con diferente empaque tecnológico, Javier Echeverría (1999), Los señores del aire: Telépolis y el tercer entorno; Manuel Castells (2002), La Era de la Información; Manuel de Landa (2002) Virtual Science and Intensive Philosophy; Lev Manovich (2005), The poetic of the augmented space; Mario Carpo (2010) The Alphabet and the Algorithm; William Mitchell (2005), Placing words. Symbols, Space and the City; o Keiichi Matsuda (2010), Domesti-city. The dislocated home in augmented space, coinciden en proponer una conjetura sobre esta coyuntura tecnológica que perturba la cotidianeidad. Respecto a los antecedentes del Entorno Aumentado, las fuentes bibliográficas consultadas documentan el advenimiento de la Revolución Digital y el impacto de la emergencia de las tecnologías de la información y la comunicación. Marshall Mcluhan (2003) Understanding media: The extensions of man; Jean Baudrillard, (1981) El sistema de objetos; Walter Benjamin (1989) Discursos interrumpidos I; o Zygmunt Bauman (2003), Modernidad líquida, constituyen referencias obligadas para abordar la teorización de la génesis del Entorno Aumentado. La incorporación a la disciplina arquitectónica de procesos interactivos procedentes de la computación ha sido tratada por autores como Dominique Rouillard o Mary Louise Lobstiger en publicaciones que describen el proceso de asimilación llevado a cabo en su mayor parte en la pionera década de los sesenta. La transformación que el Entorno Aumentado opera en la realidad arquitectónica de la vivienda y de la ciudad, y por extensión en el ciudadano, es tratada en textos afines a la sociología, la psicología y antropología. Autores como Juan Herreros (1994), Mutaciones en la arquitectura contemporánea: el espacio doméstico; Atxu Amann (2011), El espacio doméstico: la mujer y la casa; Beatriz Colomina (2006), La domesticidad en guerra; o Hilde Heynen (2005), Modernity and Domesticity: Tensions and Contradictions dibujan una cartografía arquitectónica de esta circunstancia. Estructura de la tesis La organización del documento queda determinada por la propia geometría implícita en el argumento, en base a la distinción de tres categorías, aquí llamadas entornos. Cada una de ellas (ED-EF-EA) es estudiada en un capítulo independiente, siendo todos precedidos por el capítulo introductorio. La condición estática del soporte papel impone la cualidad lineal de la estructura V

20 de tesis. A pesar de ello, no debe entenderse como una taxonomía jerárquica, sino como un sistema rizomático que posibilita el acceso independiente a los tres entornos. La condición tecnológica de la materia de análisis hace necesaria la disposición de un capítulo introductorio que dibuje una vista panorámica de la escena y aclare la terminología usada en este texto. Entorno Digital Entorno Aumentado Entorno Físico Capítulo I. Preliminares al Entorno Aumentado Escenario ontológico. Trascendiendo el dipolo de existencia. La aproximación a la ontología que fundamenta el Entorno Aumentado tiene como objetivo no tanto estudiar la estructura metafísica de éste cuanto explorar algunos conceptos esenciales introducidos por la Revolución Digital en lo arquitectónico que amplían el corpus teórico contemporáneo. Para esta labor resulta necesario describir el ámbito de coexistencia espaciotemporal entre los tres entornos -aumentado, digital y físico- así como señalar algunas de las habituales tergiversaciones semánticas alusivas a la realidad alternativa que propone el Entorno Aumentado Escenario histórico. Cambio de paradigma. Dado que el tema de la disertación se enmarca en un período histórico cercano, aunque con vocación de continuidad y miras de trascender nuestra contemporaneidad, este apartado predispone al lector a una comprensión general de la materia en relación a otros cambios que la han acompañado. Mayoritariamente, todos los acontecimientos que se vierten en el texto acontecen en la segunda mitad del siglo XX, un periodo de compresión extrema donde tienen lugar la Segunda Era de la Máquina (Banham 1960), el ascenso del Paradigma de la Sostenibilidad 4 (Rifkin 2011), la Revolución Digital (Negroponte 1998) y la Sociedad Informacional (Castells 1998) y del Conocimiento Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información. El Entorno Aumentado emerge como soporte híbrido de información, nunca antes experimentado. Su naturaleza dual advierte una revisión de las estructuras informacionales y del cambio suscitado en la sociedad a tenor de las nuevas técnicas para informar la materia. La información, el código, el algoritmo fundamentan estrategias arquitectónicas cuya evolución en 4 Rifkin (2011) afirma que la fusión de la tecnología de Internet con las energías renovables dará lugar a una nueva y potente Tercera Revolución Industrial. VI

21 los últimos cincuenta años ha supuesto la inflexión y el origen de una nueva vía de exploración. Con la llegada de Internet al final del siglo XX, la computadora complementó sus atributos matemáticos inaugurales con otros derivados de su nueva capacidad para comunicar. Mensaje, emisor, receptor, signo, símbolo, lenguaje, medio, canal, usuario, renuevan su vigencia con la eclosión del Entorno Aumentado. El tratamiento arquitectónico de la información, y también, la formulación inversa que aborda la comprensión del hecho arquitectónico desde estas sensibilidades, suponen un reto para arquitecto del siglo XXI en su aproximación y gobierno del Entorno Aumentado. Capítulo II. Revolución Digital. Humanización del Entorno Digital (ED). Propone una mirada arquitectónica al ser digital en su devenir hacia el Entorno Aumentado o proceso de fusión con el Entorno Físico. El origen de la tecnología digital, o al menos sus primeras combinaciones genéticas, señalan algunas tendencias acaecidas en el seno del Paradigma Mecanicista desarrollado a lo largo de la Revolución Industrial. El progreso de las técnicas ha permitido la sustitución de éste por el Paradigma Digital, una de cuyas consecuencias es el abandono gradual de la cualidad maquinista que ha dominado las tecnologías de la información y la comunicación (TIC 5 ), en favor de unas TIC más cercanas a la biomecánica. El Entorno Aumento se construye con una artificialidad diferente, más compleja pero a la vez más intuitiva y cercana al rigor orgánico implícito en el ser humano Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a lasgoogle Glasses La humanización del Entorno Digital supone la incorporación progresiva de dispositivos y procedimientos que favorecen la interacción hombre-máquina. Este proceso acelera la superación de muchas rutinas arraigadas en la computación y propone nuevos procesos digitales operados mediante diferentes modelos de interfaz que propician un control más cercano a la cualidad corpórea del ser humano y a su naturaleza intuitiva. La evolución suscitada en la mecánica y en la electrónica de la interfaz que conecta al usuario con el Entorno Digital tiene una analogía clara con lo sucedido en otras disciplinas. El teatro, la literatura, las artes visuales o la propia arquitectura han avanzado hacia la consecución del objetivo de una integración plena entre lector y texto, televisión y televidente, espectador y espectáculo, jugador y videojuego, continente y contenido. La revisión histórica crítica de los paralelismos transdisciplinares y de sus trayectorias sinérgicas trata de alcanzar una de las tesis sustanciales a la investigación: la ruptura de la cuarta pared como desencadenante topológico del Entorno Aumentado. 5 Se consideran tecnologías de la información y la comunicación el teléfono, la radio, la televisión y la computadora, entre otras que favorecen la comunicación y el intercambio de información. El concepto TIC es dinámico si nos referimos a las nuevas TIC, lo que implica la obsolescencia de la tecnología con el paso del tiempo. VII

22 2.2. Cultura mediática arquitectónica. El arquitecto comunicador Los nuevos medios de información y comunicación han influido considerablemente en el devenir arquitectónico. Tanto los procesos propios del oficio como el propio perfil (-les) de arquitecto han asumido las nuevas inquietudes y demandas mediáticas originadas en la segunda mitad del siglo XX. El texto expone una aproximación hacia este acontecimiento desde un enfoque humanista que teoriza los nuevos medios de la radio, la televisión, el cine y la computación, haciendo énfasis en el cambio operado en el modelo de comunicación, tras el abandono de los métodos pre-digitales y la emergencia de otros más avanzados que aumentan el potencial mediático y mediador del Entorno Aumentado. La distinción entre computación y medio de comunicación resultó válida hasta la aparición de las WWW de Internet en 1998, momento en que la computadora se convirtió en un medio de masas y trascendió los soportes tradicionales. Esta capacidad mediadora se irá incorporando poco a poco al proyecto arquitectónico y al edificio, en una conquista hacia la comunicación completa con el usuario Arqueología del lugar aumentado Explora los orígenes del lugar aumentado desde el punto de vista de la representación del lugar digital. La representación característica de la dimensión alternativa del campo aumentado ha superado al ciberespacio ingrávido que contienen las pantallas digitales. La incorporación de la capa digital al lugar físico newtoniano se produce en diferentes grados simbióticos. Este apartado propone una cronología de los acontecimientos más relevantes producidos en relación con la representación digital del espacio, desde los orígenes de la computación a los primeros programas de diseño asistido por ordenador que incorporaban una primitiva interfaz gráfica de usuario, hasta la percepción contemporánea de entornos aumentados. El análisis arquitectónico del Entorno Digital toma como caso paradigmático de estudio el videojuego; distinguido por la necesidad de su formato de integrar dentro de la pantalla el movimiento del usuario. Desde los primeros ensayos textuales, hasta la conquista de la representación perspectiva y, posteriormente, la consecución de la ruptura de la cuarta pared, el videojuego ha ido asumiendo una mayor capacidad para figurar el movimiento inferido por el usuario a su alter ego digital. La exploración y el análisis del lugar aumentado recorre una de las tesis de la investigación: la evolución del movimiento en el lugar digital propuesto por el videojuego como causa primera de la ruptura de la cuarta pared que habilita el comienzo de la construcción del Entorno Aumentado. Capítulo III. Revolución Digital. La impronta digital en lo arquitectónico, una cronología crítica (EF) 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador Plantea un estado del arte de los acontecimientos anteriores a la Revolución Digital que anticiparon el advenimiento de esta etapa técnica. Se acompaña de una cronología selectiva de VIII

23 edificios surgidos al albur del desarrollo de las TIC a lo largo de la primera y segunda Revolución Industrial, desde las redes de telegrafía óptica napoleónicas hasta las antenas de telecomunicaciones de nuestros días; una breve histórica crítica de la arquitectura-tic abordada desde su capacidad tecnológica para la mediación con el hábitat. La exploración propone un punto de vista que penetra más allá del atributo material del edificio, el cual además de confinar un espacio gravitatorio definirá un espacio para la comunicación. Esta condición aumenta la concepción tradicional de edificio, a veces con un campo visual de comunicación, otras veces con un campo de ondas herziano, otras con un campo eléctrico, o sonoro, etc Presagios de la Revolución Digital Constituye una mirada hacia acontecimientos sucedidos esencialmente durante las vanguardias, haciendo énfasis especialmente en aquellas obras de la literatura del género de la ciencia ficción que tomaron como referentes los avances científicos acontecidos al final del siglo XIX y principios del XX, premonitorias a menudo de cualidades que definen la naturaleza del Entorno Aumentado como la simultaneidad y el dinamismo. A pesar de que la pintura rupestre de animales de cinco patas ya constituyera en Lascaux y Altamira una reproducción gráfica interesada del movimiento, no es hasta el siglo XX cuando la variable tiempo desencadena un verdadero cambio en las artes. La divulgación de la Teoría de la Relatividad de Einstein supuso una invitación, generalmente aceptada por la vanguardia artística, a la integración de la cuarta dimensión temporal en la literatura, el cine, la pintura y otras artes, una práctica que dejó numerosas experiencias de que recuperan su vigencia en el debate acerca del diseño de la capa digital interactiva que tiene lugar en nuestros días. El camino recorrido por la ciencia ficción a los largo del siglo pasado, retroalimentado por los hallazgos de la carrera espacial y otros importantes logros tecnológicos de gran influencia en el imaginario colectivo, está jalonado de propuestas cinematográficas como Metrópolis (Fritz Lang, 1927), Tron (Steven Lisberger, 1982), Terminator (James Cameron, 1984), Blade Runner (Ridley Scott, 1986), Matriz (Andy y Larry Wachowski, 1999), las cuales configuran escenarios de simbiosis entre el Entorno Digital y el Físico. La red que a lo largo del XX tejen los diferentes géneros de la ciencia ficción, a los que también podrían sumarse los proyectos de la arquitectura-ficción, y otros que sin ser ficción van más allá incluso que los anteriores, parece premonitoria de algunas realidades definidas por el Entorno Aumentado. 3.3 Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética Recoge las influencias de la Teoría Cibernética, formulada por Norbert Wiener en la Segunda Guerra Mundial, en las artes. Esta circunstancia resulta fundamental dada la intensidad del vínculo establecido entre artistas y arquitectos que durante la década de los sesenta compartieron la inquietud por lo cibernético y por la injerencia de la computación en sus disciplinas. Todo ello tiene su origen en una década de los sesenta cargada de nuevas sensaciones y revolucionarias expectativas. El proceso de vulgarización de la computadora por parte de la sociedad civil atiende a impulsos diversos relacionados con la aparición del concepto de feedback, las nuevas técnicas de representación digital, la semiótica y los nuevos lenguajes y, en general, un afán decidido por la contaminación transversal de las disciplinas impulsado por la emergencia poderosa de las TIC. IX

24 3.4. Revolución Digital en la práctica arquitectónica, Describe la impronta de la Revolución Digital y la integración de las TIC en el contexto arquitectónico de la innovación universitaria y de la práctica profesional. La búsqueda arqueológica de los orígenes del lugar aumentado se traduce en una relación de aquellas vías de integración de la computación en la disciplina arquitectónica, desde los comienzos de la computación hasta el final de la Revolución Digital, destacando el período pionero de la década de los sesenta donde comenzó a hacerse efectiva la transferencia tecnológica. A pesar del desarrollo computacional contenido, esta época destacó por la emergencia de numerosos conceptos que acuñaron estrategias arquitectónicas originales. Es en ese sentido, que resulta de gran interés para la investigación y por ello se propone una mirada en profundidad sobre aquellos acontecimientos, frente a otros más cercanos en el tiempo pero menos determinantes en su radicalidad propositiva Postulados y visiones pre-globales, Si bien las bases la convergencia del Entorno Físico y el Digital fueron sentadas en la década anterior, esta etapa que concluye en 1998 con la inauguración de las WWW de Internet, queda sintetizada en una panorámica de tal convergencia, donde la computación aún no se identificaba como medio de comunicación pero se expandía igualmente por otros motivos en el grueso de la masa social. Capítulo IV. Post-Revolución Digital. El Entorno Aumentado (EA) Una vez expuesta la tendencia concurrente entre los Entornos Digital y Físico y analizada su anatomía, se procede en este último capítulo a la investigación sustancial de la propia realidad fusionada. Esta materia objeto de estudio será examinada desde diferentes categorías, en una disección que llega a profundizar en los avatares contemporáneos del Entorno Aumentado. Acontecida la Revolución Digital, la construcción del Entorno Aumentado se produce de manera progresiva y acelerada -al menos, desde el punto de vista de nuestros días-. Un compendio de artículos o indagaciones tratará de describir el modo en que el Entorno Aumentado influye en lo arquitectónico. Las consideraciones sobre la construcción de la cualidad hiperreal de la contemporaneidad se producen en base a tres supuestos escalares: el campo proyectual arquitectónico; la vivienda, como arquetipo individual de la domesticidad; y la ciudad, en tanto que estructura colectiva soporte de la nueva ecología digital La convergencia tecnológica. El conjunto de las técnicas digitales que afectan a la disciplina arquitectónica y a sus usuarios constituye en sí mismo el preámbulo al proyecto arquitectónico, un grado cero donde la elección de la herramienta supone el primer posicionamiento estratégico. El texto analizará algunos conceptos sobre esta eventualidad en relación a la construcción del Entorno Aumentado. Propondrá una descripción topológica de la deriva que toman las TIC en su afán por definir el nuevo entorno. El desarrollo de la computación nos acerca a la superación del Test de Turing, y X

25 con ello, a alcanzar la imposibilidad de distinguir en una comunicación computerizada entre la máquina y el ser humano. Esta circunstancia implica una necesaria sensibilización (humanización) del Entorno Digital, como de hecho ha sucedido en la última generación web 3.0, calificada por los expertos como web sensorial. La conquista de un Entorno Digital verdaderamente sensible tiene uno de sus fundamentos en la evolución de la interfaz. Frente a los diseños producidos en el siglo XX de marcada ergonomía mecánica, la interfaz o articulación entre los entornos físico y digital -vehicular del control del usuario- del siglo XXI ostenta los niveles más altos en biomecánica, llegando incluso a hacer desaparecer el hardware de contacto manual y dando paso a una ergonomía post-digital. La necesidad semántica de nuevos sintagmas que expliquen la convergencia se hace aquí manifiesta, cristalizando en una propuesta de términos esenciales para esta investigación. La etimología de los neologismos se suma a la existente e intenta aproximar su campo conceptual a una interpretación arquitectónica del espacio que define el Entorno Aumentado El proyecto aumentado. El proyecto arquitectónico contemporáneo, proceso cuya técnica goza de mucha mayor amplitud que la propia del proyecto de edificación, está siendo sustancialmente afectado por el Entorno Aumentado. La evolución en los mecanismos de interacción y el control de la capa digital hace notar sus efectos también en el proceso proyectual. La investigación reflexiona en este punto sobre la naturaleza del proyecto arquitectónico y su transformación al ver incorporadas las nuevas tecnologías de la información y la comunicación. El progreso de los programas generadores de forma, sumado a la especialización en la parametrización de las funciones algorítmicas, dibuja un escenario donde el proyecto se convierte en un protocolo complejo que integra variables cada vez más cualificadas. Asimismo, se plantea el proyecto procedimental como metodología pertinente que alimenta el proceso proyectual con unas dosis máximas de interacción entre los agentes participantes. Las arquitecturas opensource o de código libre incitan a la participación y a la colaboración entre los agentes. El proyecto arquitectónico de un entorno aumentado asume así estrategias de comunicación avanzadas que articulan una interfaz propicia para los niveles de interacción de este nuevo entorno. Si las metodologías del proyecto arquitectónico quedaron contaminadas en el siglo XX por los procedimientos informáticos vinculados al procesamiento de datos, la naturaleza renovada de la computación que opera la máquina como un elemento mediador de comunicación -a raíz de la inauguración de la world wide web- ha inferido nuevos atributos metodológicos. El desarrollo y perfeccionamiento de los procesos de retroalimentación originados en la década de los años sesenta del siglo pasado cristalizan en nuevas propuestas inducidas desde el Paradigma de la Complejidad y el Paradigma de la Sostenibilidad. La cohabitación del arquitecto proyectista con múltiples oficios antes ajenos a la disciplina parece resultar un requisito necesario para abordar con rigor el diseño de la ciudad aumentada, lo cual implica la consideración de la atención mediadora por parte del proyecto arquitectónico así como su renovación tecnológica. El proceso de artificialización de la Naturaleza que propone el Entorno Aumentado insta al individuo a asumir una nueva percepción simbiótica que amplía la comprensión fenomenológica XI

26 del medio. La combinatoria de los diferentes tipos de paisajes sensoriales -en la versión digital y en la biológica- alimenta un catálogo de entornos aumentados cuyo diseño atañe a la competencia del arquitecto. Frente al dominio apremiante de lo visual que ha caracterizado a los últimos siglos, otras tendencias perceptivas se abren paso en la realidad híbrida del Entorno Aumentado El hábitat del Entorno Aumentado. Explora la proyección del Entorno Aumentado en los referentes tradicionales de lo arquitectónico. En primer lugar, este apartado sopesa su efecto en la vivienda y en la ciudad, entendidas éstas como ámbitos históricamente complementarios de la naturaleza artificial que es la polis. La disolución de los límites establecidos por las dicotomías históricas -privado-público, exterior-interior, casa-ciudad, etc.- debida a la distorsión mediática e informacional experimentada por la asignación de nuevos programas a la ciudad y a la vivienda, implica una revisión en profundidad del significado contemporáneo de habitar un espacio en relación al proceso de construcción del Entorno Aumentado. Éstas y otras dicotomías se toman como punto de partida de un análisis que alcanza al usuario como ser social. La domesticación (de domus) de la ciudad y la ciudadanización de la casa plantean para el usuario del Entorno Aumentado un escenario de habitación renovado con cambios implícitos en los hábitos y en las rutinas. La reflexión sobre las transformaciones acontecidas tanto en el paisaje urbano y como en el paisaje humano trata de dibujar una definición que describa el nuevo modelo habitacional. La estética analógica pre-digital será cuestionada a tenor del potencial mediador que incorpora la envolvente aumentada al edificio. La interpretación de éste como una terminal mediadora conectada a la Red, entendida como una extremidad topológica del tejido aumentado, amplía la naturaleza dimensional de su inserción en la ciudad. La agregación de edificios y espacios públicos no basta ya para alcanzar el sumatorio que propone la ciudad aumentada; sus ciudadanos-usuarios tienen la capacidad de percibir con intensidad similar cualquiera de los tres entornos que baraja esta investigación. La tesis propone un análisis final que indaga en la convergencia de dos paradigmas de vigencia relativamente temprana, como lo son el digital impulsado por las TIC y el sostenible alentado por la presencia creciente en la sociedad de las ciencias medioambientales. Frente a las tendencias que trabajan desde la endogamia aséptica de cada campo, resulta de especial interés para esta teorización del Entorno Aumentado considerar la influencia que el modelo híbrido físico-digital ejerce sobre la jerarquía ecológica dispuesta entre el ser humano y su hábitat. XII

27 Capítulo I Preliminares al Entorno Aumentado 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia 1.2. Escenario histórico. Cambio de paradigma 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información 1

28 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia Aumentar. (Del lat. augmentāre). Dar mayor extensión, número o materia a algo. Adelantar o mejorar en conveniencias, empleos o riquezas. Real Academia de la lengua Española. Brown (2011: 1) sostiene en su escrito Un acercamiento topológico a la psicología: memoria, ontología y virtualidad que el giro ontológico de las ciencias sociales ha dotado de una nueva vida al pensamiento constructivista y a la experimentación conceptual avanzada. Según Brown, este argumento puede constatarse en la reflexión de Bergson y Deleuze sobre la psicología, cuya relación con la memoria sirve de puerta de entrada en la ontología, lo que representa una nueva actitud para formular la problemática relación entre las ciencias sociales y la filosofía, disyuntiva en la que se encuentran autores como Brian Massumi (2002), Manuel de Landa (2002; 2006), John Protevi (2009) y Lev Manovich (2002). La dimensión artificial ontológica, pero también social y psicológica, propuesta por el Entorno Aumentado 1 es producto del proceso de hibridación de los entornos Físico y Digital. Sus atributos son, al unísono, consecuencia y causa de una alteración espacio-temporal del hábitat contemporáneo, de origen y compás tecnológico. La naturaleza biológica propia del Entorno Físico corresponde a la percepción y la comprensión del universo de acuerdo a cada específica especie biológica (Dyens 2005: 45). Esta realidad biológica fue subvertida ya en tiempos del Sapiens Sapiens por el advenimiento de la técnica 2 que alentó la construcción de herramientas, dando lugar a una realidad tecnológica donde confluían sentidos no-humanos como el científico y el de la máquina 3. 1 La tesis nombra aquí un acontecimiento, una experiencia global y que construye una nueva jerarquía en las relaciones establecidas entre los seres humanos y su hábitat. El registro en mayúsculas o minúsculas distingue la acepción propia de la común, que ya no se refiere a un acontecimiento sino a una circunstancia espacio-temporal concreta vinculada a un lugar físico aumentado con una extensión digital. 2 Véanse definiciones de técnica y tecnología en el Glosario anexo. 3 Ibíd. La realidad tecnológica que describe Dyens (Alcalá 2007: 37) no podrá ser habitada realmente hasta que no se asuma que podemos distinguir entre la humanidad de las especies animales, los sistemas dinámicos, la tecnología y la cultura; hasta que se presuponga que la materia, orgánica o metálica, analógica o digital, química o binaria pueda ser subdividida con claridad. Ahora moramos más allá de la realidad tecnológica. Constituimos un todo nos guste o no. Humanos, máquinas, redes biológicas o artificiales, todas están entrelazadas dentro del marco planetario. 2

29 El usuario del Entorno Aumentado experimenta una circunstancia duplicada que irremediablemente afecta a su componente social. Profundamente influida por los cambios suscitados tras la emergencia de las vigentes tecnologías de la comunicación y la información, el cambio conlleva un hondo calado ontológico que invita y obliga a una revisión exhaustiva de los modos de vida. El Entorno Aumentado, sumido en plena etapa de construcción, abraza una realidad que podría ser llamada híbrida (Alcalá 2007: 38) y que inaugura una nueva habitabilidad cuya plenitud trasciende la realidad tecnológica de Dyens. Las cartografías del Entorno Aumentado no solo registran los accidentes tradicionales del Entorno Físico o de la morfología electrónica, líquida e intangible del Entorno Digital, sino que además describen las ecologías híbridas nacidas de las sinergias establecidas entre ambos. Los entornos aumentados proponen situaciones a menudo borrosas donde se con-funde la extensión digital protésica del usuario con la sensibilización digital, digitalización sensorial, del lugar; la condición líquida de las arquitecturas ciberespaciales 4, con la materialidad del mundo real. Conceptos que guardan analogía con el aquí sustantivado como Entorno Aumentado han sido anteriormente teorizado por otros. Su constructo mental, ha deparado acepciones con significados diversos y sugerentes como Aldea Global (McLuhan 1962), Telépolis o Tercer Entorno (Echeverría 1999), Ciberespacio (Gibson 1984), Realidad Virtual (Artaud ), e- topia (Mitchell 2001), Realidad Artificial (Krueger 1970), Frontera Electrónica (Dyson, Keuworth y Toffler 1994), etc. En el siglo XX, la polisemia existente entre estos términos apenas era apreciable, pero el avance tecnológico ha especializado el léxico de modo que, con el tiempo, éstos responden a concreciones cada vez más particulares de un concepto cuyo desarrollo y alcance se amplían aceleradamente. Echeverría (1999: 15) hace acopio de algunas de estas acepciones; el mismo concepto acuñado por el sociólogo canadiense Marshall McLuhan como Aldea Global aparece varias veces en sus libros The Gutenberg Galaxy: The Making of Typographic Man (1962) y Understanding Media (1964), por lo que puede ser considerado como el primero en una concepción tecnologicista del constructo aquí tratado, si bien para Echeverría 6 resulta cuanto menos incierta la propuesta de McLuhan de retorno a la tribalidad y al mundo audiotáctil. Derrick de Kerckhove, sociólogo nacionalizado canadiense y discípulo aventajado de McLuhan, representanta la concepción mentalista. Concibe Internet 4 Véase ciberespacio en el Glosario. 5 En The Theatre and Its Double el poeta y dramaturgo francés Antonin Artaud (1958: 49) describe el teatro como una realidad virtual : The perpetual allusion to the materials and the principle of the theater found in almost all alchemical books should be understood as the expression of an identity (...) existing between the world in which the characters, images, and in a general way all that constitutes the virtual reality of the theater develops, and the purely fictitious and illusory world in which the symbols of alchemy are evolved. 6 Óp. cit., p.27. 3

30 como una extensión del cerebro humano, interpretación aceptada por Barlow y Sterlarc entre otros. También se puede analizar el concepto en otros términos como el mercantil. Impostura proteccionista de la que toman parte Bill Gates o George Sooros frente a la neoliberal desreguladora del mercado, acuñada por Dyson, Keuworth y Toffler con el término Frontera Electrónica. Por su parte, Manuel Castells -en la línea de Chomsky- considera que la Sociedad de la Información es un producto del capitalismo avanzado; donde el nuevo espacio social se relaciona con la dominación global de las grandes multinacionales. La metáfora del Tercer Entorno, versión complementaria y perfeccionada de Telépolis según el propio Echeverría 7, se refiere al conjunto de redes locales que se superponen a los recintos tradicionales y tienden a integrarse en la futura ciudad global. La diferencia más importante entre el Tercer Entorno y los otros dos 8 estriba en la posibilidad de relacionarse e interactuar a distancia. Echevarría resume con el prefijo tele la tesis central de Telépolis y cualidad principal del Tercer Entorno, que propuesto como una nueva forma de sobrenaturaleza es producto de la innovación tecnológica o adaptación del sujeto al medio 9 -en oposición a la técnica, adaptación del medio al sujeto-. La diferencia semántica que plantea el Entorno Aumentado respecto al Tercer Entorno es de naturaleza arquitectónica. Por encima de otras cualidades y jerarquías, el Entorno Aumentado señala al lugar como circunstancia diferencial a esclarecer. La observación y cartografía del proceso que poco a poco articula el lugar aumentado constituye por tanto el leit motiv de esta tesis. Frente a la distancia operativa aludida por Echevarría respecto al prefijo tele 10, esta investigación focaliza la atención en la disyuntiva topológica que provoca la convergencia del Entorno Digital y el Físico. Sendos dominios forman parte del campo de incidencia de lo arquitectónico: el primero, lo viene haciendo desde la segunda mitad del siglo XX; el segundo, desde los orígenes del ser humano. La convergencia se estudia en base a éstos, pero también desde la perspectiva de otras disciplinas como la comunicación, la información, la antropología o la sociología. Al fin y al cabo, el Paradigma de la Complejidad que en nuestros días sustituye 7 Óp. cit., p El Primer Entorno se refiere al medioambiente natural o Primera Naturaleza donde se ha consolidado la forma humana. El Segundo Entorno puede ser denominado entorno urbano (Ibíd., p.41). 9 Echeverría (Ibíd., p.35) toma el término sobrenaturaleza de Ortega y Gasset (1970), Meditación de la técnica. La sobrenaturaleza obedece a una circunstancia nueva más favorable creada por el ser humano para sobrevivir en el medio (Naturaleza reminiscente del Paraíso Perdido). Ortega y Echeverría se refieren a ella como condición individual. Frente a ella, el Entorno Aumentado se fundamenta en la cualidad híbrida genérica de la Segunda Naturaleza o Naturaleza Artificial a la que se refiere Herreros (2005: 21). Véase en Cap. IV, El chip replicante. La sensibilización artificial del Entorno Aumentado. 10 También hace referencia al lugar pero a un lugar relativo dado en función del tiempo. 4

31 al positivista (reduccionista) afecta de modo integral al Entorno Aumentado, desarrollado por el arquitecto, el ingeniero, el político, el sociólogo, el filósofo, etc. y por ti, usuario común 11. Tras esta breve revisión histórica de las principales voces, aunque no únicas, que se han aproximado a la definición del concepto de Entorno Aumentado, se añaden a continuación unas notas aclaratorias sobre su etimología. El sustantivo espacio fue calificado por primera vez de aumentado por Lev Manovich (2002) en su ensayo The Poetics of Augmented Space: Learning From Prada 12, que explora la dinámica general entre la forma espacial y la información que ha estado desde hace siglos con nosotros. Manovich define espacio aumentado como aquél espacio físico superpuesto con información cambiante dinámica. Esta información suele darse en formato multimedia y habitualmente es localizada por cada usuario. Asimismo, señala su intención de reconceptualizar el término aumentar como una idea y práctica cultural o estética, más que como una técnica 13. Este ajuste semántico del sintagma se orienta en esta investigación en el sentido ontológico de ampliar la extensión de la entidad. Así, por un lado, el objeto físico biológico verá extendida su naturaleza gravitatoria con información digital y, por otro, la naturaleza digital sin masa y liberada de las leyes físicas será aumentada al asumir la extensión física. El vínculo físico-digital se formaliza en múltiples formatos ideados, fabricados y sustituidos al son tecnológico de Silicon Valley y otros escenarios que seguro se le ocurren al lector. La computación ubicua, la integrada en la ropa o en los complementos 14 o los entornos sensoriales artificiales son, según Manovich (2006: 223), territorios propicios para la aparición de entornos aumentados. La geo-referencia de los datos digitales procedentes de un sitio web mediante un Sistema de Posicionamiento Global -GPS o similar-, la adhesión de la capa digital a un objeto mediante un código QR o el reconocimiento facial mediante escáneres digitales empleados en video-vigilancia son ejemplos extendidos y cotidianos de soluciones técnicas que habilitan esta convergencia ontológica. Conviene en este punto realizar alguna precisión más sobre el significado del término espacio, de extensa tradición arquitectónica pero también filosófica, matemática y física. Javier Seguí (1996: 86) especifica que tanto en arquitectura como en el proyecto arquitectónico podrían llegar a distinguirse, según los estados de anticipación y definición o acabado, una infinidad de 11 Véase Cap. IV., Portada de la revista Time. 12 La cronología de los textos de Manovich respecto al espacio aumentado puede encontrarse en: < (Consultado el 21 octubre de 2013). Véase cita de Manovich introduciendo el texto en p Se refiere Manovich a la técnica de la realidad aumentada, de la cual proviene el adjetivo aumentado en la expresión espacio aumentado. Para conferencias y webs sobre la tecnología de la Realidad Aumentada, véase < (Manovich 2006: 238). 14 En inglés wearable computing. Véase definición en el Glosario. 5

32 matices relacionados con la amplitud que acaba siendo espacio cuando se determina como figura construida, como tema. Por lo tanto, y continuando con la exploración semántica, esta amplitud asumirá por imperativo digital una nueva extensión informacional alejada de la acepción tradicional de vacío o ámbito negativo del lugar físico edificado. En esta línea, Zydarich (2002) sostiene que el espacio arquitectónico trasciende este hecho constructivo, convirtiendo la construcción en un objeto que transmite un mensaje. ( ) El espacio tiene características pero nunca carácter 15 ( ) y ha sido definido por Gnemmi como un residuo vacío, encerrado dentro de límites que le dan una función. Esta alusión a la cualidad informacional del espacio, como transmisor de un mensaje, resulta pertinente para presentar la definición de campo, concepto sobre el que se fundamenta y construye la naturaleza de la fusión físico-digital. La definición de campo, en su acepción informática propuesta por la Real Academia de la Lengua Española, alude a un registro, espacio usado para una categoría particular de datos. Es precisamente esta connotación la que describe exactamente la capacidad informacional del espacio aumentado de Manovich y completa la amplitud espacial a la que se refiere Seguí. El concepto de campo es intrínseco al entorno aumentado pero no implica presencia material, como recoge Kwinter en su definición de connotaciones matemáticas: El campo describe un espacio de propagación, de efectos. No incluye materia o puntos materiales, sino funciones, vectores y velocidades. Describe relaciones internas de diferencia dentro de campos de celeridad, de transmisión o de puntos de aceleración; en una palabra, lo que Hermann Minkowski llamó el mundo. Según estas definiciones podríamos aventurarnos a afirmar que el ámbito propio de un entorno aumentado es el lugar ampliado (EF) con un campo 16 informacional (ED). Cualquier otro ámbito que pertenezca exclusivamente al EF o al ED carece de la extensión informacional para considerarse aumentado, entendida esa extensión en el sentido de ampliación y no en el sentido particularmente descartiano de res extensa Zydarich (Óp.cit., p.s/n.) se refiere a lugar como poseedor de cualidades intangibles basadas únicamente en las impresiones proporcionadas por las experiencias. ( ) Los lugares son de este modo centros de acción y de interacción. ( ) Mientras el espacio y sus particularidades son entidades divisibles independientes, el lugar y sus particularidades no pueden ser divididas y distinguibles porque el Lugar no existe sin la intervención humana. 16 En 1997, Stan Allen (2013: 70) incorporó este concepto para el debate teórico arquitectónico. 17 Citado en Extensión versus comprensión; Echeverría, Los Señores del aire: Telépolis y El Tercer Entorno, y la vida cotidiana, óp. cit., p

33 Acuñado alrededor de 1990, el concepto de Realidad Aumentada es comúnmente opuesto a Realidad Virtual 18. En el caso de la Realidad Virtual, el usuario trabaja en un entorno digital simulado, una simulación virtual. En el caso de la Realidad Aumentada, se trabaja en objetos actuales en el entorno físico sobre los cuales se opera información digital percibida a través de dispositivos electrónicos. De cualquier modo, la Realidad Aumentada es una evolución de la Realidad Virtual surgida a raíz de la ruptura de la cuarta pared 19. Fig.1. Virtual geography. Fuente: Martin Dodge & Rob Kitchin, redibujado de Batty (1997:341) Fig.2. Diagrama ontológico del Entorno Aumentado. Autor: Eduardo Roig. Para Manovich 20 aumentar el espacio 21 supone implicar a tecnologías similares que coexisten y trabajan en dominios físicos, como es el caso de la video-vigilancia. De igual modo, las tecnologías pertenecientes al entorno de la telefonía móvil (cellspace 22 technologies) como los 18 En un sistema típico de Realidad Virtual, todo el trabajo se ejecuta en el espacio virtual; el espacio físico se torna innecesario, y es la percepción visual del espacio físico por el usuario la que se cercena completamente. Al contrario, un sistema de Realidad Aumentada ayuda al usuario a trabajar en un espacio físico aumentando ese espacio con información añadida. Este objetivo se consigue depositando información sobre el campo visual del usuario. Un escenario precoz de una posible aplicación de Realidad Aumentada desarrollada en Xerox PARC proponía un dispositivo incorporado a la vestimenta del personal de mantenimiento que superponía una imagen alámbrica de la copia antigua según está había sido reparada. Hoy, pueden ser imaginados escenarios adicionales para el uso diario: por ejemplo, gafas de Realidad Aumentada para un turista que permiten la visualización dinámica de información sobre lugares a visitar dispuesta en su campo visual digital. 19 Véase Cap. IV, Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 20 Óp.cit., p La voz espacio es a vacío lo que lugar a lleno, sustantiva el contenido del lugar físico. Por esta razón, se desestima su uso a favor del término entorno o domino, que no manifiestan específicamente ninguna de esas condiciones. 22 Aunque Manovich lo emplea en un sentido más amplio, el término es acuñado en 1998 por David S. Benahum. Cellspace se refiere originalmente a la entonces habilidad de acceder al o a Internet Wi- Fi. Véase en profundidad en Topología del Entorno Aumentado. Deriva Digital hacia la eclosión

34 medios portátiles, los medios inalámbricos o los medios geo-referenciados 23, procuran un entorno lleno de datos provenientes de otros usuarios, de otras computadoras o de Internet. A éstos se suman los dispositivos electrónicos computerizados o de video. Además, Manovich cita 24 otras tantas que en el momento de escribir el ensayo se encontraban en fase experimental en universidades o en laboratorios de empresas, entre las que cabe destacar las interfaces tangibles, la computación ubicua, las redes sensoriales, los edificios y los espacios inteligentes o e-papel (libro electrónico). El espacio aumentado, definido como computación consciente del contexto o computación sensible al contexto (Moran & Dourish 2001:108), es para Manovich el sucesor del espacio virtual y es además un espacio monitorizado. El dominio físico tradicional contiene por lo tanto más dimensiones que la antigua 25 geometría tridimensional cuyas coordenadas ordenaban el lugar. A efectos tecnológicos, sociales, políticos o económicos, el orden jerárquico de la geometría trasciende las tres dimensiones ancestrales. La cuarta, el tiempo, se desdobla entre su acepción digital y la tradicional. La metáfora del iceberg para explicar la naturaleza del espacio del videojuego ilustra de modo muy esclarecedor esta circunstancia (fig.3). Como en los entornos aumentados, detrás de la vida animada audiovisual del videojuego se cierne una compleja circunstancia tecnológica cuyo cometido consiste en procurar al usuario una perfecta inmersión lúdica. El análisis que esta investigación lleva a cabo sobre el concepto de lugar aumentado pone en cuestión la lógica reduccionista de las dicotomías; artificios que se demostrarán obsoletos en la contingencia de la construcción del Entorno Aumentado 26. Detrás del entorno aumentado se suscita una realidad compleja técnica que ordena la información para que el usuario la perciba de forma clara. Éste ha de poder proceder a una inmersión sin titubeos y efectiva. Los límites dibujados tradicionalmente por las dicotomías empleadas en el siglo XX, por ejemplo, privadopúblico, se vuelven borrosos al referirlos al lugar aumentado. En esta línea, De Landa (Farías 2008: 79) invita a superar el microrreduccionismo (reducir todo al individuo racional, por ejemplo, o a la experiencia fenomenológica) y el macrorreduccionismo (reducir todo a la estructura social y hacer a la persona un mero epifenómeno). La distinción micro/macro puede ser mantenida mientras sea relativa a cierta escala: las personas son micro como componentes de comunidades, las cuales serían macro; pero las comunidades son micro si hablamos de coaliciones de comunidades, como se dan en los movimientos de justicia social. ( ) No hay micro o macro absolutos, sólo relativos a cierta escala, la cual es a su vez relativa a la relación parte/todo. Este razonamiento sobre la jerarquía escalar invita a introducir otra consecuencia 23 Véase La convergencia tecnológica. Derivas digitales hacia la eclosión Ibíd., p Óp.Cit., p Véase en el Cap. IV, La disolución del entorno dicotómico tradicional. 8

35 que atañe a la categoría del tiempo: el microtiempo. La estructura topológica del Entorno Aumentado conlleva una alteración en el orden escalar del tiempo. La expansión creciente de la capa digital por la ciudad ha permitido la recuperación de los tiempos muertos de espera para el usuario y la incorporación del microtiempo en la agenda, como formato específico que demanda un tipo concreto de información. El genius loci romano ha sido implicado profundamente en el proyecto de arquitectura y de ciudad por Louis Kahn -que lo definió como lo que una cosa quiere ser - la psicología de la Gestalt o el propio Kevin Lynch, casi siempre desde el punto de vista fenomenológico. La extensión digital del lugar supone una oportunidad no solo fenomenológica sino informacional para retomar el concepto. La comprensión del espíritu del lugar se torna manifiestamente accesible y construible por parte de los moradores de ese lugar. Fig.3. Listen to the bulk of the iceberg. Axel Stockburger (2007: 113). 9

36 La intrusión del dominio digital en la cotidianeidad promueve continuos cambios en unos hábitos ciudadanos que se diluyen en la propuesta híbrida del Entorno Aumentado. Los avances científicos toman protagonismo en las disciplinas de la comunicación y de la información, pero también llegan a campos de otra índole por los caminos trasversales de la técnica o de la mercadotecnia, de la cultura o de la medicina, por poner ejemplos 27. Los avances de la técnica digital se implementan en la sociedad desde su praxis cotidiana para transgredir los modos de vida de los usuarios y de los no usuarios, que ven afectada su circunstancia por la inferencia de una galopante epidemia tecnológica; el dominio digital entendido como poder o feudo digital. En este proceso, el ciudadano no usuario 28 que se resiste a verse involucrado en estos nuevos desarrollos tecnológicos, queda segregado socialmente y apartado de la contemporaneidad. La puesta al día del yo tecnológico requiere, como en cualquier proceso de aprendizaje, de tiempo y dedicación para asumir las técnicas nuevas, los conocimientos científicos, empíricos y también los atributos económicos, y una determinada comprensión del contexto sociocultural que surge en torno a la tecnología. A día de hoy, la población, a tenor de los canales de comunicación e información que cada individuo es capaz de operar, concentra una máxima capacidad mediática en la población de jóvenes adultos, si bien, es cada vez más habitual encontrarse sectores de población ya anciana aprendiendo a manejar los nuevos dispositivos. La Realidad Virtual o Virtualidad Real. El ascendente de la Realidad Aumentada. Virtual. (Del lat. virtus, fuerza, virtud). Que tiene virtud para producir un efecto, aunque no lo produce de presente, frecuentemente en oposición a efectivo o real. Que tiene existencia aparente y no real. Real Academia de la lengua Española La realidad digital alternativa a la realidad física 29 o presencial es etiquetada comúnmente como Realidad Virtual. La comprensión de este adjetivo resulta esencial para sentar las bases de esta 27 Recientemente se ha presentado en el Congreso de los Diputados una propuesta de ley para eliminar el soporte papel de la documentación de los juzgados. Es éste uno de los últimos reductos, junto con la judicatura, en adoptar el soporte digital para la información. 28 Para profundizar en la materia social, véase Perfil antropológico de la vivienda aumentada. Del morador al electronómada ( , +1998), Cap. IV. 29 El comportamiento de un escenario digital no está comprometido por las leyes físicas, a no ser que explícitamente lo programemos simular tales leyes. 10

37 investigación. Si bien su uso es aceptado y común en disciplinas de muy diversa índole, fácilmente puede dar pié a equívocos semánticos dado su significado polisémico complejo, a menudo tergiversado y manido. A pesar de resultar más apropiado el significado del término realidad alternativa, el texto asume la convención virtual para referirse a la realidad alternativa. De otro modo, resultaría incómodo aclarar la nomenclatura cada vez que aparece en referencias múltiples. Hecha esta aclaración, no se entenderá por tanto virtual como que tiene existencia aparente y no real 30. Lo virtual no supondrá irrealidad ni negará la existencia real; en palabras de Deleuze, lo virtual posee una realidad plena, en tanto que virtual. El caso de la Red Internet (Alcalá 2007: 40) implica una nueva infraestructura, ( ) un espacio no-físico intangible, pero real, con sitios web. Es ésta connotación de irrealidad, propia del comienzo de la era digital cuando la tecnología pretendía copiar, simular, aparentar la realidad tradicional mediante la reproducción de un entorno digital artificial generado por ordenador que permitía al usuario estar presente en dicho entorno. El marketing y la publicidad convinieron en nombrar estos procesos digitales con la palabra realidad. Aunque originalmente empleado en la industria del videojuego, esta nueva realidad fue conquistando aplicaciones usadas en otros campos como la simulación de vuelo o la medicina. El calificativo virtual pone el contrapunto a esta conveniencia, evitando la asociación que pudiera hacer el consumidor del producto tecnológico ex novo con la realidad tradicional. La expresión realidad virtual resulta al menos equilibrada en términos de mercadotecnia. Fig.4. Cybermap Landmarks, circa John December. Fig.5. V.R. Goggles: 3-D trip inside a drawing, via computer graphics, Popular Science, Abril Ivan Sutherland Acepción tercera de la RAE. 31 Transcripción literal del artículo: Slip this display device on your head and you see a computergenerated 3-D image of a room before your eyes. Move your head and your perspective changes, just as though you were actually inside the room. Architects could use the device to draw buildings in three dimensions; realtors could use it to show buyers the interiors of homes without even leaving the office. 11

38 Por otra parte, la expresión virtual hace referencia específica a la tecnología original que permitía construir y visualizar un escenario digital virtual. El primer dispositivo, en forma de casco sensible a los movimientos de la cabeza 32 que desarrollaba el concepto de realidad virtual fue desarrollado en 1961 por Corneau y Bryan, empleados de Philco Corporation. Aunque según Ortigueira (2012) el propio concepto de realidad virtual surge en 1965 cuando Ivan Sutherland publicó un artículo titulado The Ultimate Display en el que describía este particular, después prototipado en 1971 (fig.5), si bien anteriormente los científicos ya habían comenzado a asentar las bases conceptuales. Pero la locución realidad virtual no sería acuñada hasta 1989 por el informático y gurú de internet Jaron Lanier Zepel 33. La compañía VPL Inc. creada por Zepel desarrolló los exóticos Eyephones y los guantes de datos que permitían al usuario de la computadora experimentar mundos simulados que podían ser generados por los programas informáticos. No resulta de interés para esta investigación admitir única y exclusivamente la acepción meramente técnica del término virtual, pues resultarían olvidadas otras tecnologías -la Red Internet- que contribuyen también a construir el panorama de lo virtual. Si se entenderá por realidad virtual aquella que afecta a un conjunto de tecnologías que proponen múltiples caminos de virtualidad, no exclusivamente los abiertos por las máquinas virtuales de los 60 y 70. Además de la virtualidad inmersiva que proponen los diferentes dispositivos mencionados, se contemplarán otras virtualidades no inmersivas como las gestadas en Internet. La inmersión 34 es Dr. Ivan Sutherland, University of Utah, invented the device, essentially a computer-graphics version of the old stereoscope. 32 Permitía ver imágenes en movimiento y contenía un sensor magnético que reconocía la posición de la cabeza del usuario. Más adelante, y debido fundamentalmente al apoyo de la NASA, los entornos virtuales pudieron brindar a sus usuarios la posibilidad de interacción con todo el cuerpo. La experiencia iría ganando en complejidad con los años, hasta las últimas novedades contemporáneas. 33 New York Times, 25 de Septiembre de La inmersión es el proceso psicológico que se produce cuando la persona deja de percibir de forma clara su medio natural al concentrar toda su atención en un objeto, narración, imagen o idea que le sumerge en un medio artificial (Turkley 1997). A pesar de todo ello, los acontecimientos que ocurren dentro de la inmersión afectan de forma similar a lo que ocurriría si pasaran en el mundo real (Ryan 2004). Por lo tanto, la inmersión es un proceso activo de retiro de la realidad próxima para aceptar las normas y valores del mundo simulado en el que se sumergen, con sus ventajas e inconvenientes. ( ) El caso archiconocido de incapacidad de desconexión de la inmersión es El Quijote, que aunque no es un caso real, ejemplifica de forma magnífica lo que ocurre cuando una persona no es capaz de desprenderse del mundo simulado en el que se ha sumergido quedándose atrapado en él (González 2009). El propio González (2009) propone tres factores necesarios para que tenga lugar el proceso de inmersión: querer creer, empatía y familiaridad (acumulación de sentimientos y experiencias sobre un tema, actividad Esta información se suele sistematizar en automatismos (rutinas) necesarios para poder ahorrar recursos intelectuales, permitiendo realizar acciones cada vez más complejas, sin necesidad de estar concentrado en casa uno de sus pasos. 12

39 una cualidad determinante en este entorno, pues define el carácter de la realidad virtual. Una realidad virtual inmersiva permite al usuario experimentar la sensación de estar ubicado en dicha realidad, en el caso de Internet sería el ciberespacio. Resulta de especial importancia en medios simulados. Una realidad virtual no inmersiva es percibida por el usuario como un escenario ajeno a su localización física, a su posición 35. Antoine Picon (2003: 294), en su ensayo Architecture, science, technology, and the virtual real, valora la etimología clásica de la dimensión virtual entendida como llena de virtud : entendiendo aquí virtud como una capacidad de acción ( ) no es más que un potencial que espera su propia realización. La realidad virtual no es de ninguna manera irreal, pero todavía no se ha manifestado su efecto completo. La realidad no es el problema; lo que le hace falta en parte es su pleno desarrollo o presencia. La realidad virtual puede interpretarse como un germen, como el punto de partida de una evolución dinámica. Esta traslación de la Teoría Hilemórfica 36, y por extensión, de la Teoría de la Potencia-Acto, al concepto de lo virtual implica creer en la determinación de cambio de la substancia virtual. Este cambio estaría implícito en la facultad de lo virtual de producir una acción o un efecto, según el punto de vista de Picon 37 de encontrar su presencia. Se interpreta de sus palabras que la manifestación presencial de la realidad virtual implica un abandono de su soporte digital para perfeccionarse en la enteléchia virtual: la configuración definitiva que entrañaba -y extrañabala potencia digital pasiva. En oposición a la potencialidad virtual, su enteléchia refleja un estado donde se consuman todas sus potencialidades. El edificio es la enteléchia del proyecto de arquitectura; la capacidad de impulsar esta transformación es también enteléchia. El Entorno Aumentado constituye pues ese estado o tipo de existencia donde se produce la eclosión de la potencialidad de lo virtual. La enteléchia digital resultará habilitada por soportes que evolucionan rápidamente sumando precisión, potencia y eficiencia energética. En el Entorno Aumentado, las propiedades del soporte final que sirva de catalizador de esa enteléchia afectan también al escenario físico. El soporte sin duda debe proporcionar una virtualidad máxima. El entorno espacio-temporal donde se produzca dicha realidad debe permitir la interacción óptima del individuo, el entorno físico y la acción virtual. Los entornos aumentados requieren estar activados, encendida su capa digital, 35 Véase Cultura interactiva de lo visual. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google en el Cap. II. 36 Aristóteles, y más tarde casi todos los escolásticos, fundamenta la existencia corporal en la suma de materia (hyle) y forma (morphé). 37 Ibíd. 13

40 para que la enteléchia digital que completa su ontos resulte plena 38. La dependencia energética es manifiesta, tanto por parte de los dispositivos sensibles que construyen el escenario aumentado o hiper-lugar como por parte de la electrónica del usuario que lo percibe. En este sentido, una interacción máxima queda recogida en propuestas como la de Keichi Matsuda en Augmented City, donde el usuario está integrado completamente en un entorno aumentado sin necesidad de usar casco, gafas, guantes o cualquier otro dispositivo que habilite la percepción digital. Cada usuario puede conectar ipso facto con la globalidad de Internet. En palabras de Pierre Lévy (1998: 22) cada cuerpo individual se convierte en parte receptora de un inmenso hipercuerpo híbrido y mundializado 39. En este estadio tecnológico, la biotecnología habrá transferido las capacidades de todos estos dispositivos o interfaces para poder percibir el dominio digital a nuestro propio cuerpo, circunstancia que ya está sucediendo y que remite directamente a la cultura cyborg. Pierre Lévy señala la existencia de diferentes niveles de virtualidad en correspondencia con la dimensión espacial que ocupe: bidimensional, tridimensional, tetradimensional. Es decir, mayor grado de virtualidad cuanto más se parezca a la realidad tradicional. Reflexionemos sobre este particular: mayor dimensión espacial implica mayor interacción y comunicación?; existe una relación directa entre la cualidad espaciotemporal del lugar digital y la virtualidad?; o dicho de otro modo, la interacción y comunicación virtual dependen exclusivamente de la configuración formal? La respuesta parece ser negativa. Un sistema virtual no necesariamente tiene que simular la realidad para corroborar su virtualidad, ni ha de someterse a la ley de impenetrabilidad de los cuerpos sólidos ni a otras leyes físicas. La abstracción facilita a menudo la comprensión de procesos realistas complejos. La asimilación del sistema de representación cartesiano por parte de los maestros constructores puso en sus manos una nueva visualización de lo arquitectónico. Los primeros arquitectos renacentistas pudieron sintetizar y desglosar la realidad carnal así calificada en el Neuromancer- para su mejor análisis. La misma realidad atesora la representación perspectiva y la representación en planta o alzado de un objeto, simplemente, son maneras diferentes aunque en el marco de la geometría analítica de René Descartes- de aproximarse visualmente a dicho objeto para su posterior análisis. Por todo ello, no parece muy aceptable relacionar exclusivamente las dimensiones perceptibles de la realidad virtual con su grado de virtualidad. 38 Los límites del Entorno Aumentado se definen con el alcance de los dispositivos electrónicos. En relación con esta circunstancia topológica, Wittgenstein (1997) afirma: los límites de mi lenguaje significan los límites de mi mundo. ( ) Mi único propósito ( ) es arremeter contra los límites del lenguaje. 39 Sobre la virtualización del cuerpo y su transformación en hipercuerpo: la constitución de un cuerpo colectivo y la participación de los individuos en esta comunidad física usó durante mucho tiempo mediaciones puramente simbólicas o religiosas: Esto es mi cuerpo, esta es mi sangre. Hoy emplea medios técnicos. (Lévy, óp. cit., p.22). 14

41 En detrimento de la representación de la realidad virtual, si cabe pensar en una gradación de la virtualidad cuyo parámetro sea la interacción. De diferentes modos una realidad virtual dada puede hacerse manifiesta, perceptible, sensible al ser humano. Cuanto más heterogéneos sean los canales de transferencia de esta información virtual al sistema perceptivo humano más compleja será su condición. Ante la visualización de un modelado virtual 3D estaremos de acuerdo en que su virtualidad aumenta en complejidad si también podemos olerlo. Más aún si podemos tocarlo, oírlo y saborearlo. Cabe pues establecer un gradiente de virtualidad vinculado al sistema sensorial del ser humano cuyo origen sería una virtualidad cero, correspondiente a canales perceptivos ajenos al sistema perceptivo humano p.ej. una realidad virtual de rayos infrarrojos-, hasta el grado cinco que requiere de la integración de todos los sentidos del cuerpo humano. Superar el grado cinco de virtualidad implica una realidad virtual que integra estados materiales imperceptibles al ser humano (ultrasonidos, infrarrojos ). De manera análoga sucede con las dimensiones matemáticas de todos los tipos de espacio, nos resultan perceptibles solo las cuatro primeras aunque existan muchas más. La arquitectura tradicional, provista de masa, se convierte en el Entorno Aumentado soporte de la información que fluye en el ciberespacio, cuya virtualidad resulta así contaminada por la experiencia física. La TransArquitectura y la Arquitectura Líquida de Markos Novak, la Arquitectura Fluida de Toyo Ito, la Arquitetura Hipersuperficial (N-Dimensional) de Stephen Perrella (Alcalá 2007: 41) confluyen en una nueva arquitectura cyborg que se dirime entre la extensión digital y la física, y que define una Arquitectura Avanzada (Guallart 1999: 74): un concepto de lo arquitectónico que no parte de la propia arquitectura, ni habita un lugar virtual (del que ya se ocupan las Arquitecturas Virtuales), ni tampoco ya real (del que ya se ocupaban las arquitecturas estructuradas sobre las geometrías euclidianas), sino que se conforma ahora con la piel híbrida ( ) del habitante hibridado (protésicamente amplificado, expandido por las nuevas tecnologías y la virtualización). Esta arquitectura propia del Entorno Aumentado, puede definirse como una arquitectura aumentada que asume y trabaja intensamente la condición tecnológica híbrida propia del nuevo entorno Escenario histórico. Cambio de paradigma. La investigación afronta la fusión de la realidad tradicional y la alternativa articulada por la tecnología digital, en relación a sus efectos en lo arquitectónico. O dicho de otro modo, la fusión del mundo tal y como lo hemos conocido hasta el siglo XXI y el dominio digital engendrado por la computación. La aproximación a esta coyuntura supone la exploración de un campo emergente de acción y profesión para el arquitecto, que debería reivindicarse -si aun no lo ha hecho- parte activa del proceso de construcción del Entorno Aumentado. El texto no se identifica con una proclama del nuevo paradigma ni con una colección de propuestas visionarias, pero reclama para sí la intención de trazar un mapa que cartografíe el acontecimiento. 15

42 Qué es un arquitecto? Y llamo arquitecto al que con un arte, método seguro, maravilloso, mediante el pensamiento y la invención, es capaz de concebir y realizar mediante la ejecución todas aquellas obras que, por medio del movimiento de las grandes masas y de la conjunción y acomodación de los cuerpos, pueden adaptarse a la máxima belleza de los usos de los hombres. León Battista Alberti, De Re Aedeficatoria. La definición de Alberti retrata la primera generación de arquitectos surgida en Florencia a la sombra del gran Filippo Brunelleschi ( ). En aquellos días, la convergencia múltiple de nuevas técnicas de representación y de construcción, de un lenguaje integral cuya sintaxis articulara cualquier producción arquitectónica, así como la aparición de capacidades y competencias que habilitaran la recién estrenada figura del arquitecto en detrimento de la obsoleta disposición gremial de la Edad Media, fueron novedades que implicaron un punto de inflexión en el entendimiento y alcance de la disciplina. En la contemporánea Post-Revolución Digital, la vanguardia de lo arquitectónico basa su producción en un soporte a caballo entre el soporte tradicional 40 pre-digital y el soporte digital. Aceptado el irrevocable imperativo digital 41, la ortodoxia parece condenada a asimilar contenidos y continentes tecnológicos hasta hace muy poco extraños a la profesión del arquitecto. Si bien en el Renacimiento el impulso para el desarrollo de nuevas técnicas, como la representación perspectiva, el espacio proyectivo o la construcción de un nuevo lenguaje articulador del orden geométrico provino del ámbito de las artes, el desarrollo y la proliferación de la tecnología digital proceden, en un alto porcentaje, de campos profesionales ajenos. Desde la aparición en la década de los sesenta del diseño asistido por ordenador hasta nuestros días, apenas la reciente aplicación Grasshopper de Rhinoceros ha sido ideada por un arquitecto. Programado para crear formas mediante el uso de algoritmos generativos, este software cuenta con una interfaz que valora especialmente el aspecto gráfico de la información en detrimento del uso de lenguajes de programación basados exclusivamente en el código. 40 Entiéndase el término soporte como medio de comunicación del proyecto arquitectónico. 41 La Cátedra Sin Papeles de la Universidad de Columbia, uno de los primeros intentos a gran escala de usar ordenadores para el proyecto de arquitectura, fue considerada en 1992 por muchos como una extravagancia. ( ) Mientras teóricos y profesionales como Greg Lynn, William Mitchell, Peter Eisenman o Frank Ghery se alinearon con la nueva perspectiva abierta por las emergentes herramientas digitales, otros como Kenneth Frampton o Juhani Pallasmaa se mostraron más reservados (Picon 2010, óp. cit., p.8). 16

43 El arquitecto de hoy es un mediador entre el dominio digital y el medio físico, pero a diferencia de lo acontecido en el periodo de la Revolución Digital, éste ha interiorizado un interés general por las herramientas digitales, así como cierta capacidad técnica para abordar procesos de programación que antes desarrollaban otras disciplinas o unos pocos investigadores universitarios. Hoy por hoy, una buena colección de los hábitos ciudadanos está directamente enajenada por la producción científica. La tecnociencia nutre al ciudadano aceleradamente, que traza y adapta su trayectoria teniendo en cuenta los últimos productos de las TIC. Estos cambios implican importantes distorsiones en las inercias rutinarias más estables 42. El tiempo, el cambio, la información, la velocidad, la propiedad, la adaptación, la heterogeneidad o la sostenibilidad, son algunas nociones que se encuentran bajo la presión del progreso y en fase de continua revisión. El tiempo crítico contabilizado desde la construcción científica hasta su aplicación o aplicabilidad social es en palabras de Mumford (1934) el más corto de la historia 43. Estableciendo la analogía con el Quattrocento y en sincronía con el cariz pluridisciplinar de los avances científicos que tuvieron lugar en tan exiguo periodo de tiempo 44, cabría buscar rastros cotidianos de un nuevo concepto de Naturaleza, como el que en aquel entonces supuso el apogeo del antropocentrismo y la instauración de las bases sobre las que se fundamentará el mecanicismo clásico de Isaac Newton, que más adelante, derivaría en el organicismo. El editor francés André Le Bretón eligió en segunda instancia a D Alembert y Diderot para dirigir el proyecto editorial de L'Encyclopédie, consciente y expectante tras el éxito editorial en Gran Bretaña de la Cyclopaedia -Diccionario Universal de las Ciencias y las Artes- publicada por Ephraim Chamber en Cuando D Alembert redactó el Discurso Preliminar de L'Encyclopédie se refirió a la publicación como una herramienta que a la postre cambiará la forma de pensar. Sin duda contribuyó al cambio del concepto de Naturaleza, abriendo las puertas del organicismo. Publicada on line el 11 de abril de 2001 Jimmy Wales y Larry Sanger, Wikipedia nació también como complemento de otro proyecto enciclopédico Nupedia (2000). Mientras Nupedia dejó de funcionar en 2003, Wikipedia se encuentra hoy entre los diez sitios más populares de la Red y 42 En la entrevista a Amparo Lasén titulada Las nuevas formas de acción colectiva desafían la lógica de la representación se desarrolla en este argumento. Disponible en: < (Consultada el 1 de julio de 2013). 43 Véase Incidencia ecológica en el Entorno Aumentado, Cap. IV. 44 En los anaqueles de una biblioteca podemos acceder a Leonardo o Galileo desde Astronomía, Filosofía, Matemáticas y Física, entre otros. Hubo un momento en que la Piazza de la Signoría fue un escenario común a los pintores, escultores, filósofos, matemáticos, arquitectos, físicos, etc., que participaron en la construcción del nuevo paradigma antropocentrista. 17

44 tiene hoy más de 11 millones de artículos que configuran el compendio editable de conocimiento de consulta colectivo. Frente a la correspondencia unívoca que depara L'Encyclopédie en su construcción y transmisión del conocimiento, de D Alembert y Diderot al pueblo, Wikipedia encarna la colectivización y la accesibilidad a los distintos saberes de una Sociedad del Conocimiento que irrumpe de la mano de la Sociedad de la Información y de la Sociedad en Red. Históricamente las aportaciones de la ciencia han acabado induciendo cambios en el concepto de Naturaleza. Carlos Naya (1998: 51) señala en su tesis Arquitectura y técnica que la identificación en la consideración de los objetos naturales y artificiales lleva consigo que el conjunto de estos pasan a constituir una nueva naturaleza ( ) donde las leyes científicas aparecen como sustitutivas de las naturales y los procesos técnicos son vistos en su equivalencia 45 con los naturales. La estabilidad y permanencia, cualidades del concepto de Naturaleza compartidas por el Paradigma Mecanicista 46, se volvieron inestabilidad y evolución con los novedosos presupuestos organicistas (Ábalos 2011) acontecidos en el siglo XIX. El concepto de Naturaleza vuelve a evolucionar tras la Revolución Industrial y las teorías relativistas de Einstein. A lo largo del siglo XX, el acceso a niveles subatómicos de información, la emergencia de la Mecánica Cuántica entre 1920 y 1930 o la exploración de Poincaré de incertidumbres e inexactitudes matemáticas han propiciado a su vez nuevos puntos de vista. Según apunta Nicolás Caparrós (2012: 19) en la Introducción General a Viaje a la Complejidad, los sistemas dinámicos no lineales ofrecen dos particularidades enojosas e interesantes a un tiempo. Por un lado, presentan patrones identificables de comportamiento, por otro, son impredecibles lo largo plazo. La experiencia científica que corroboraba los dictados de la razón, implica una metodología que poco a poco va cayendo en desuso según avanza el siglo XXI. Hoy en día los procesos de investigación de nuevos materiales invierten el transcurso del protocolo científico: primero se elabora la lista de propiedades del nuevo material y luego se sintetiza su materia. 45 De esta equivalencia de los procesos técnicos y los naturales procede a menudo la consideración de la técnica desde un punto de vista orgánico. De ella se desprende la concepción de una cierta evolución y selección de los objetos técnicos, similar a la de las especies naturales. Esta se traducirá en una especie de visión darwinista del proceso técnico. Cfr. Steadman (1984) El mito del darwinismo arquitectónico, AA.VV, Óp. Cit., MOPU, p Nótese la diferencia entre máquina y técnica. La máquina es un objeto técnico mientras que la y técnica es un modo de racionalización. Si bien la máquina es el producto propio de un determinado modo de técnica (la mecánica), la identificación de técnica y máquina supone necesariamente una reducción. En este sentido, propiamente, solo se puede plantear la cuestión de la función del arte o la arquitectura en una concepción técnica del mundo, pero parece de sentido hacerlo desde el punto de vista del maquinismo (si podría hablarse de concepción mecanicista, en cuanto se refiere a un tipo de técnico, pero no maquinista. No obstante el desarrollo enorme del fenómeno mecanización ha hecho que la máquina como modelo o como paradigma cobre notable importancia. (Naya 1996: 49). 18

45 El anuncio de nuevos horizontes en la perspectiva científica que explican la realidad cambiante desde presupuestos no lineales supone una inyección de luz y propone un nuevo paradigma para la comprensión y trascendencia de los fundamentos del Entorno Aumentado. El Paradigma de la Complejidad amplía la perspectiva reduccionista que el Paradigma científico de Galileo infería a los fenómenos y comportamientos naturales, y atisba un cambio radical -en favor del holismoen la impostura científica fundamentado en la no-linealidad 47, el caos determinista, la autoorganización, geometría fractal, etc. La obsolescencia de un pensamiento cuyo clímax alcanzó cotas tan elevadas y fructíferas en la Ilustración o en la Revolución Industrial parece resultar caduco en la interpretación de la realidad del siglo XXI. Así lo describe Andrés Perea (2013: 30) en el Viaje a la Complejidad: El Paradigma Positivista, engendrado entre otros por L'Encyclopédie francesa y el pragmatismo anglosajón, ha sido el activo esencial en el desarrollo del pensamiento lógico científico, y es la causa del exponencial progreso técnico y científico, para bien y para mal, del siglo XIX y de la primera parte del XX. Definir conceptos, acotar fenómenos, clasificar, fueron propósito esencial del paradigma positivista hasta que la complejidad, multiplicidad de agentes de información que intervienen en la producción del conocimiento, hacen obsoletas gran parte de las afirmaciones y consiguientes definiciones positivistas. El Entorno Aumentado presenta síntomas de independencia con respecto al espacio-tiempo lineal característico de las posiciones deterministas; el cambio de paradigma trasciende sobremanera a la valoración del concepto tiempo. La extensión digital vinculada a un lugar donde sucede un acontecimiento introduce una dimensión temporal diferente al tiempo analógico. El Espacio de Minkowski, 3D + T= 4D, debe asumir la nueva bipolaridad híbrida donde el lugar digital y el tiempo digital significan parámetros fundamentales en el reloj del ser humano del siglo XXI. La dimensión temporal del ciberespacio de Internet implica alteraciones en el orden temporal tradicional, convergencias, tiempos compartidos, simultaneidad, retroalimentación, nuevos escenarios de predicción y otros efectos ajenos al tiempo newtoniano absoluto, al tiempo solar o al tiempo flecha irreversible de Arthur Edington. El cibertiempo que pauta la inmersión en la escena virtual de los videojuegos deforma la temporalidad externa 47 En 1814, Pierre Simon de Laplace resumió en el que ahora se conoce como demonio de Laplace, la esencia del paradigma newtoniano de forma provocadora: Hemos de considerar el estado presente del universo como el efecto de su pasado y como causa del futuro. Un intelecto que en cualquier momento pudiera conocer todas las fuerzas que animan a la naturaleza y las posiciones relativas de los seres que las componen, si fuese lo suficientemente basto para someter esos datos al análisis, podría condensar en una sola fórmula desde el movimiento de los mayores objetos del universo hasta el del menor de los átomos; para un intelecto así nada resulta incierto y tanto el futuro como el pasado sería presente. (Nicolis G. & Nicolis C. 2012: 55). 19

46 al juego 48. En el Entorno Aumentado, el cibertiempo del dominio digital se amalgama con el tiempo de la realidad física dando lugar a un derivado temporal complejo cuya magnitud resulta a menudo confusa y desubicada. El concepto de espacio-tiempo es indisoluble en la contemporaneidad. A la naturaleza topológica espacial del lugar aumentado se suman pues unas facultades particulares que caracterizan el concepto de tiempo aumentado. La simultaneidad físico-digital del Entorno Aumentado implica la existencia de un tiempo híbrido 49 resultante de la interacción que Echeverría (Ibíd.: 83) tacha de multicrónico para indicar la pluralidad de pautas temporales del tiempo del Entorno Aumentado 50. Por otro lado, la porosidad 51 de la topología del Entorno Aumentado denota que el tiempo aumentado no es continuo. La capa digital se supone a disposición del usuario, que accede a la información a demanda, lo que se traduce en una asincronía temporal entre lo que acontece fuera y dentro del dominio digital. El consumidor digital constituye una parte activa en el proceso, capacitado para la conectar o desconectar a voluntad el dispositivo electrónico por el que percibe la capa digital. La asincronía también se revela en la capacidad para dosificar el tiempo entre las acciones digitales que propone el Entorno Aumentado y el control de la preponderancia de las más intrusivas o inmediatas frente a otras quizás más importantes. La riqueza y complejidad del tiempo en el Entorno Aumentado, sumadas a la condición topológica de su espacio, advierten la necesidad de establecer una magnitud capaz de medir la sustancia que le es propia sin perder ninguna de sus propiedades esenciales. En el siglo XX, el filósofo ruso del lenguaje Mijaíl Bajtín propuso el cronotopo como unidad indisoluble del combinado espacio-temporal. Tal vez sea ésta la unidad de medida idónea para dimensionar y transformar el espacio que propone el Entorno Aumentado 52. La integración del tiempo en lo arquitectónico ha ido cambiando con el devenir del siglo XX. Las imposturas perpetuas que han dominado en la escena histórica arquitectónica han dado paso al dinamismo y a la aceptación del cambio como elemento fundamental del proyecto. La exploración de procesos de proyecto no lineales, la arquitectura responsiva o la asimilación arquitectónica del concepto temporal de desarrollo sostenible resultan posiciones 48 Véase definición en el Glosario. 49 Tal vez resulte más adecuada la voz simbiótico para calificar el tiempo aumentado, como producto de la relación convergente que establecen los diferentes tiempos. 50 Para profundizar en la categoría temporal del Entorno Aumentado véase Conectividad aumentada. La distorsión del espacio-tiempo. 51 Véase el desarrollo de este concepto en el Cap.IV, El entorno transfigurable y el declive de la estética estática. 52 Se invita al lector al ejercicio de plantear la cartografía (que no planimetría) de un proyecto de vivienda aumentada cuya magnitud no se mida en metros sino en cronotopos. 20

47 contemporáneas que abrazan una consideración diferente del tiempo. La Teoría de la Evolución formulada por Charles Darwin 53, tan alejada de la estabilidad del Paradigma Newtoniano, y los descubrimientos en el campo de la genética han influido decididamente en el desarrollo de sistemas creativos evolucionados que toman la variable tiempo como parámetro fundamental. La computación ha habilitado en la segunda mitad del siglo XX el desarrollo generativo de modelos embrionarios a partir de un genotipo que se convierte en fenotipo con el paso del tiempo. Fig.1. Skeletal Structures of forelimbs, Monroe W. Strickberger. Fig.2. Embryos, Ernst Haeckel. Transcurrida la Revolución Digital, Michel Serres nos recuerda que aun tenemos pendiente la renovación de nuestro Contrato Natural, si bien hay indicios suficientes para señalar ingredientes nuevos con respecto a la supremacía científica en el diseño de esa nueva naturaleza. El concepto de Desarrollo Sostenible (Brundtlan 1984) supone una mirada ética diferente hacia la configuración de la Naturaleza Artificial que supone el Entorno Aumentado, y por extensión, a la aplicación de los avances científicos en el ámbito social y a la maquinación de una nueva ontología que reformule un nuevo concepto de naturaleza en el que ciencia y sociedad tiendan a converger en mayor y mejor medida de lo que lo hacen en nuestros días. 53 Véanse las figuras 2 y 3 a propósito de esta afirmación de Charles Darwin: Qué puede haber más curioso que la mano de un ser humano conformada para asir, la de un topo para escavar, la pata de un caballo, la paleta de una marsopa y el ala de un murciélago, siendo todas construidas sobre el mismo patrón e incluyendo huesos similares en la mismas posiciones relativas?. 21

48 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información. ( ) Nosotros, contemporáneos, estamos provistos de dos tipos de cuerpo, para responder a estos dos tipos de naturaleza. El cuerpo real está unido al mundo real por medio de fluidos que corren por su interior y el cuerpo virtual unido al mundo virtual mediante el flujo de electrones. Toyo Ito, La naturaleza informacional 54 del Entorno Aumentado constituye uno de sus fundamentos más relevantes. Su estudio y análisis resulta por tanto clave para la compresión del fenómeno. El alcance del proceso constructivo en su transformación multidimensional, en palabras de Manuel Castells (2002; 2006), es abordada en este texto tomando en consideración referencias de la literatura provenientes de distintas disciplinas como la sociología, las artes visuales o la arquitectura. La Era de la Información (2002) o La Sociedad Red (2006), del sociólogo y profesor de Sociología y de Urbanismo en la Universidad de California en Berkeley Manuel Castells, son referentes seminales en la materia. The Alphabet and the Algorithm (2011) de Mario Carpo, Code. Between Operation and Narration junto con Complexity. Design Strategy and World View y Simulation. Presentation Techinique y Cognitive Method editados por Andrea Gleiger y Georg Vrackhliotis 55, y ME++ junto con Placing Words de William Mitchell, desarrollan visiones analíticas de la coyuntura tecnológica a investigar, desde enfoques vinculados al contexto informacional derivado de la Revolución Digital. La presencia concreta de la realidad objetual es consecuencia de la interacción de multitud de procesos en los que intervienen diferentes niveles de información. A lo largo de la historia se ha procedido a descodificar esta información para lograr la comprensión precisa de causas y efectos. Este conocimiento, procedente del examen minucioso de la naturaleza y la constatación 54 Nótese la preferencia del Castells por el término informacionalismo y sociedad informacional en relación con la sociedad industrial (industrialismo). El término informacional indica el atributo de una forma específica de organización social en la que generación, el procesamiento y la transmisión de la información se convierten en las fuentes fundamentales de la productividad y el poder, debido a las nuevas condiciones tecnológicas que surgen en este nuevo período histórico. La terminología de Castells trata de establecer un paralelismo con la distinción entre industria e industrial. 55 Estas publicaciones forman parte de la colección Context Architecture dirigida por la Zurich University of Arts (ZHdK) y Ludger Hovestadt, catedrático de Computer Aided Architectural Design en el ETH Zurich. 22

49 experimental científica 56 ha permitido la manipulación, la transformación y la predicción probabilística de procesos. El afán del ser humano por desentrañar el código natural responde a intenciones de índole muy diversa, si bien generalmente subyace el propósito deseado de la conquista artificial de la réplica natural y su consecuente manipulación. Los pueblos de la taiga escandinava sabían de las propiedades impermeables de la corteza del tronco del abedul 57 o Betula Pendula. La empleaban como material de construcción en la cubierta de los edificios, sobre ella acopiaban turba y plantaban hierba. Su corteza imperecedera es rica en aceites y componentes que la hacen muy resistente a las agresiones rigurosas del medio: el frío y el viento septentrional. Los escandinavos desconocían la razón primera responsable de esa propiedad química, ignoraban su código genético. Sin tener acceso a la información genética, disponían de ella aprovechando las propiedades de su metabolismo. Si bien en numerosas ocasiones la ciencia ha avanzado mediante procesos asistemáticos e incluso casuales, el método empírico-analítico ha interpretado experimentalmente la materialidad de los objetos y de los procesos hasta reducirlos a algoritmos. Ello no solamente ha permitido anticiparse al hecho natural, sino que ha posibilitado su mutación y transformación. Las herramientas y los instrumentos necesarios para la obtención y/o generación de información han proliferado en multitud de formatos, desde los más ajenos al individuo operados por control remoto, hasta la ropa inteligente (fig.14). El código comenzó a estudiarse de modo sistemático con la formulación sintética de la proteína a partir de cuatro bases y veinte aminoácidos. En 1954, George Gamow publicó su código diamante (fig.13) en la revista Nature, uno de los pasos decisivos hacia la comprensión plena del código genético compartido por todos los organismos conocidos, incluyendo los virus. La información como reseña generadora de la materia es objeto de reflexión por Manuel de Landa (2002) en Deleuze y el uso del algoritmo 58 genético en arquitectura, donde se cuestiona la capacidad matemática de crear forma. Afirma De Landa (Ibíd.: 151) que la dificultad consiste en definir la relación entre los genes virtuales y los rasgos físicos que generan. En biología, el estudio de dinámicas de población ha desarrollado una técnica bien arraigada que permite el ensayo simulado de poblaciones en ecosistemas artificiales que replican conductas naturales. De modo similar, la arquitectura biomórfica fundamenta su estructura en las sinergias establecidas entre los patrones de crecimiento naturales y el diseño paramétrico de 56 La ciencia tiene dos maneras de cambiar nuestros conocimientos: una podemos llamarla extrovertida, que opera desde el mundo; la otra puede calificarse de introvertida, que opera desde nosotros mismos (Floridi 2010). 57 Algunos investigadores sugieren que el término procede del sánscrito bhurga, que significa árbol para escribir, por el hecho de que la corteza de este árbol era utilizada como papel antes de inventarse éste. Fuente: < (Consultada el 14 de agosto de 2013). 58 Quizá del lat. tardío algobarismus, y éste abreviado del árabe clásico ḥisābu lḡubār o 'cálculo mediante cifras arábigas'. RAE. 23

50 algoritmos generativos. A este respecto, De Landa (Ibíd.: 151) defiende la necesidad de pensar en términos poblacionales cuando experimentamos con el código genético y no reducir el caso de estudio a uno o dos ejemplos. A este propósito, Deleuze suma al pensamiento poblacional la cualidad intensiva. El pensamiento intensivo es indivisible escalarmente; al contrario que el extensivo, no puede simplificarse sin perder propiedades. Según este argumento, debemos plantear el algoritmo sin minusvalorar un ápice de información, ya que ésta podría ser crucial en la definición de la forma. Fig.1. Anillo ábaco, , Dinastía Qing. Fig.2. Primer reloj de bolsillo, Nuremberg. Fig.3. Reloj de bolsillo, En una sinfonía, la puesta en común de la interpretación musical de la partitura de cada instrumento descubre a menudo matices sonoros de difícil intuición en la simple notación musical monoinstrumental. De igual modo, la importancia de la selección de la función paramétrica es equiparable al buen diseño de las variables que serán operadas. Cuanto mayor sea la inteligencia y oportunismo de los parámetros, más idónea será la formulación arquitectónica. Recordando el caso de la corteza del abedul, puede afirmarse que la arquitectura entraña en sí la capacidad de fabricar información, sistematizar su codificación, interpretar, emitir y difundir la información. El planteamiento del proceso proyectual como exploración y desarrollo de una fórmula matemática generadora de un compromiso formal en la propuesta arquitectónica es, a día de hoy, uno de los caminos de investigación recorridos por la vanguardia arquitectónica contemporánea, conocido como arquitectura paramétrica 59. En cierto sentido, el proyectista 59 Véase Cap.IV para profundizar en lo referente al diseño paramétrico de modelos arquitectónicos y adviértanse las palabras de Manuel de Landa, óp. cit., p : `( ) de este modo, los arquitectos que quieran utilizar el nuevo instrumento de los algoritmos genéticos deberán no solo convertirse en piratas informáticos (para poder crear el código necesario que reúna aspectos extensivos e intensivos), sino también ser capaces de piratear la biología, la termodinámica, las matemáticas y otras áreas de la ciencia para explotar todos los recursos necesarios. Por fascinante que pueda ser la idea de criar edificios dentro de un ordenador, está claro que la simple tecnología digital sin el pensamiento poblacional, intensivo y topológico, nunca será suficiente. 24

51 puede utilizar este tipo de software para generar formas nuevas en vez de simplemente diseñarlas (Ibíd.: 2002). El arquitecto, el diseñador industrial, el artista plástico o cualquier otro oficio que desarrolle un proyecto, puede llegar a convertirse en diseñador de un genotipo o huevo matriz, a incubar en un tiempo y espacio también diseñado para la ocasión, de modo que en un momento determinado se active el proceso de construcción estacionalmente latente. No resulta difícil imaginar proyectos cuyo formato se asemeje al de la serie de libros juveniles de hiperficción explorativa elige tu propia aventura 60, en los que el texto induce una jerarquía ordenada en la interacción del lector, que tomará decisiones sobre la manera de actuar de los personajes y modificará así el transcurrir de la narración. El conocimiento de los códigos objetuales genéticos que formulan la materia, como en el caso del mapa del genoma humano, tiene como primera consecuencia la posibilidad de conocer y practicar la mutación de ésta y con ello, procurar el control y el dominio del mundo objetual. El acceso a la información, ya sea a escala microscópica o macroscópica, supone en nuestra contemporaneidad un hecho diferencial con otros tiempos pretéritos. La deidad medieval, el ser humano renacentista, la máquina moderna, el individuo existencial, etc., constituyeron paradigmas 61 de periodos históricos. Algunos autores como el propio Manuel Castells (Himanen 2001) apuntan al informacionalismo como paradigma tecnológico contemporáneo, en sustitución del industrialismo, mientras otros construyen sus argumentos en base, bien al cambio de época, bien a la época de cambios que ha evidenciado el siglo XXI. Las tecnologías de la información y la comunicación se encuentran en el origen de estas profundas transformaciones. Nunca antes el conocimiento y la información han estado tan relacionados con el poder económico, militar y político. En palabras de Castells (Ibíd., 2001), lo distintivo de nuestra época es un nuevo paradigma tecnológico marcado por la revolución en la tecnología de la información, y centrado en torno a un racimo de tecnologías informáticas. Es cierto que en todas las épocas la información y el conocimiento han tenido gran peso en la sustancia social, pero lo que nos diferencia de aquellas es la capacidad cualitativa y cuantitativa de generar, procesar, comunicar y aprehender la información. Castells observa en las nuevas tecnologías de la información tres rasgos principales y distintivos, relacionados con la capacidad de procesamiento, la capacidad recombinatoria y la flexibilidad distributiva. Estas tres cualidades son perfectamente extensibles al soporte último 60 Por ejemplo, la primera disyuntiva que aparece en El abominable hombre de las nieves es: Si decides cancelar tu cita con Runal y buscar a Carlos, pasa a la página 7; si crees que Carlos está bien y sigues con la idea de ver a Runal, pasa a la página 8. Fuente: Wikipedia. 61 El concepto de paradigma fue propuesto por el destacado historiador Thomas S. Kuhn para explicar la transformación del conocimiento a través de las revoluciones científicas. Un paradigma es un modelo conceptual que establece los criterios estándares de interpretación (Castells en Himanen 2001). Manuel Castells y Linus Torvalds son autores del prólogo a La ética del hacker y el espíritu de la era de la información, del finés Pekka Himanen, publicación de especial trascendencia en esta investigación. 25

52 de la información, el archivo digital. Copiar, pegar y cortar son acciones repetidas cada día por el consumidor de información digital, las cuales tienen una connotación relacionada con la velocidad. Responden a operaciones informáticas casi inmediatas, sobre todo si las comparamos con las copias de manuscritos realizadas en los scriptorium medievales o con las copias de tablas en los talleres de pintura del Renacimiento 62. La Sociedad del Conocimiento, la Sociedad de la Información, la Sociedad en Red o la Sociedad Post-Industrial constituyen algunas candidaturas semánticas para acuñar esta época. Hoy por hoy, la Sociedad Informacional parece haber ganado la partida. Los orígenes de la expresión Sociedad de la Información se remontan a 1973, cuando el sociólogo neoyorquino y profesor emérito de Harvard Daniel Bell avanzó el concepto en El advenimiento de la sociedad post-industrial. Para Bell, las tecnologías de la información habilitaron la ruptura histórica con los modelos sociales y sistemas industriales sociopolíticos anteriores. El conocimiento teórico (Torres 2005: 1) constituye la columna vertebral de la sociedad y advierte que los servicios basados en el conocimiento habrían de convertirse en la estructura central de la nueva economía y de una sociedad apuntalada en la información 63. La Sociedad Informacional forma específica de organización social está afectada por el informacionalismo, paradigma tecnológico acuñado por Castells (2002) que concierne a la tecnología, no a la organización social ni a las instituciones. El informacionalismo, prosigue Castells, suministra la base para un tipo definido de estructura social: la Sociedad Red. Sin el informacionalismo, la Sociedad Red no podría existir, pero esta nueva estructura social no es producto del informacionalismo, sino de un patrón más amplio de evolución social. Esta trascendencia informativa se produce en un amplio espectro escalar que abarca desde estructuras sociales y políticas, a las organizaciones jerárquicas colectivas o al contexto personal del individuo cuyos objetos de uso cotidiano asumen también el imperativo informacional. El diseño de un objeto como soporte de información es una práctica inherente al ser humano. Las pinturas paleolíticas, las cinematográficas historias petrificadas de las portadas góticas o las fachadas mediáticas contemporáneas constituyen arquetipos de cómo la información se implementa en el soporte material. La polivalencia de los objetos, cualidad propia del diseño industrial actual, integra a menudo aspectos relacionados con la rentabilidad retórica de la información. 62 Véase en Cap. IV, El fin de la mano mecánica y el advenimiento de la ergonomía post-digital. 63 Esta expresión reaparece con fuerza en los años 90, en el contexto del desarrollo de Sociedad de la información / Sociedad del conocimiento y de las TIC. A partir de 1995, se lo incluyó en la agenda de las reuniones del G7 (luego G8, donde se juntan los jefes de Estado o gobierno de las naciones más poderosas de la planeta). Se ha abordado en foros de la Comunidad Europea y de la OCDE (los treinta países más desarrollados del mundo); también lo adoptó el gobierno de Estados Unidos, así como varias agencias de Naciones Unidas y el Grupo Banco Mundial. Todo ello con gran eco mediático. A partir de 1998, fue escogido, primero en la Unión Internacional de Telecomunicaciones y luego en la ONU, para el nombre de la Cumbre Mundial a realizarse en 2003 y (Torres 2005). 26

53 El campo informacional del Entorno Aumentado facilita la inscripción de datos concretos en un lugar concreto. Como si de un escultor se tratara, el arquitecto Keiichi Matsuda integra la capa digital en sus proyectos Cell (2011) -en colaboración con James Alliban- o Augmented City (2010). El contenido del mensaje y la percepción -visualización- del mismo ocupan y caracterizan así el espacio arquitectónico. En el caso de la instalación interactiva Cell (fig.4), comisionada para el Alpha-Ville Festival, se produce la asignación de unas etiquetas en el perfil de la silueta del visitante. Su tecnología se fundamenta en un escáner 3D (consola Kinect) que reconoce el desplazamiento de la figura humana y registra la trayectoria en un archivo binario. En palabras de Matsuda 64 : Se juega con la noción de la mercantilización de la identidad mediante la imagen especular de los visitantes y la forma de las personalidades asignadas aleatoriamente extraídas de los perfiles on line. Su objetivo es conseguir que los visitantes piensen en la manera en que usamos las redes sociales para fabricar nuestras segundas yoes, y cómo estos personajes construidos definen y nos atrapan. Cuando los usuarios entran en el espacio se les asigna una identidad aleatoria. Asimismo, las etiquetas que flotan en la nube comienzan a moverse y a adherirse a los usuarios hasta que se representan en su totalidad como una maraña de datos que aparentemente reúne conjuntamente nuestro yo físico y digital. El fotógrafo de la célebre revista Life, Gjon Mili, inmortalizó a Pablo Picasso en una serie realizada en 1949, experimentando la técnica de pintar con luz mediante una pequeña linterna (fig.5). Si Picasso hubiera añadido a la lámpara un dispositivo que registrase la trayectoria del movimiento en base a un sistema de coordenadas, usando por ejemplo un GPS (Global Positioning System), la señal lumínica se hubiera codificado en un mensaje digital y la figura del minotauro sería visible en ese mismo lugar a través de la pantalla de un dispositivo electrónico, como sucede en Cell. En algunas ocasiones, los objetos exteriorizan extractos de la información genética que ordena su crecimiento. En muchas otras, el código o genotipo permanece oculto. Es el caso del visitante neófito que se sitúa por primera vez delante de Constelación III, de Joan Miró, y obtiene una percepción completamente diferente de la que experimenta el experto. El conocimiento de la información que subyace sitúa al observador en una posición mucho más cercana a la naturaleza de esa pintura 65. La accesibilidad a la información vertida en la capa digital del Entorno Aumentado es directamente proporcional a la velocidad de interpretación del lugar aumentado por parte del usuario. No importa tanto cuál es el mensaje de la información, o contenido semántico, sino cómo se accede y cómo se organiza y 64 Disponible en: < (Consultado el 26 de julio de 2013). 65 No se está afirmando con esta consideración que una obra de arte tenga necesariamente que valorar esta circunstancia. 27

54 garantiza su estructura, es lo que constituye realmente un cambio diferencial en la historia de la interfaz 66 entre el ser humano y la máquina. Fig.4. Campaña de National Geographic con Realidad Aumentada y CELL 67, Keiichi Matsuda y James Alliban. Fig.5. Portada de Life La percepción o sintonización del Entorno Aumentado por el usuario es una acción que en sí misma puede categorizar el perfil social y político del ciudadano. Frente a un acceso común y democrático que identifique plenamente al usuario con el ciudadano, la posibilidad de que se produzca segregación, restricción o cualquier otra mala práctica deberá bastar para poner en alerta al cosmopolita ciudadano del Entorno Aumentado. El análisis en profundidad de esta circunstancia y otras índole equivalente -pensemos en situaciones similares acontecidas en Internet- no son pertinentes al enfoque propuesto por esta investigación, pero si capitales en la definición de la ideología del Entorno Aumentado. La emergencia de la visualización dinámica de datos basada en sistemas de variables interactivas está cambiando la manera de hacer comprensible la información digital. Lev Manovich reflexiona así sobre la visualización de datos 68 en su artículo Cultural analytics: analysis and visualization of large cultural data sets, donde plantea las siguientes cuestiones: Podemos crear una medición cuantitativa de la innovación cultural? (Can we create quantitative measures of cultural innovation?) 66 Véase definición de interfaz en el Glosario. 67 La tecnología del proyecto CELL combina realidad aumentada + datos + Kinect. Fuente: < (Consultada el 8 de junio de 2013). 68 Es sintomático el uso extendido de esta expresión para diferenciarse de otras como representación, gráficos, etc. En un escenario más amplio, podría haberse referido a retórica de datos, incluyendo otras posibles percepciones, como la auditiva. 28

55 Podemos tener un mapa actualizado en tiempo real de la producción y el consumo global cultural? (Can we have a real-time detailed map of global cultural production and consumption?) Podemos visualizar los flujos de las ideas, imágenes y tendencias culturales? (Can we visualize flows of cultural ideas, images, and trends?) Podemos representar visualmente cómo cambian gradualmente con el tiempo las preferencias culturales y de modos de vida -ya sean de música, formas, diseños o productos-? (Can we visually represent how cultural and lifestyle preferences whether for music, forms, designs, or products gradually change over time? Los interrogantes de Manovich hacen referencia a la capacidad tecnológica para evolucionar la representación de información digital, circunstancia que atañe a la construcción de cartografías complejas relacionadas con el Entorno Aumentado y también al propio diseño de la capa digital. Sin duda, asistimos a una proliferación de registros dinámicos de la información. Si el trabajo de Edward Tufte en The Visual Display of Quantitative Information o Envisioning Information 69, constituye un referente en el diseño de la visualización pre-digital de datos, su homólogo digital incluiría sin duda algunos proyectos del estudio Bestiario 70, pionero en este campo dinámico de la información. Las nuevas herramientas de visualización de datos son capaces de mostrar nuevas relaciones semánticas en una información ya conocida. Las estructuras dinámicas organizan la información incorporando la interacción del espectador, así como el parámetro tiempo en su configuración. La figura 6 muestra sendos gráficos StreamGraph de las palabras clave en el discurso del presidente Obama en la Convención Nacional Demócrata de 2004 y 2008, foros en los que debía comunicar que aceptaba la candidatura a presidente de los EEUU. El mensaje se muestra como una pura expresión de la materialidad del lenguaje. Se puede apreciar la cronología de la información y la alta frecuencia del contenido semántico de ciertos tópicos. La figura 7 propone una comparación interactiva (dinámica) en forma de nube de los dos documentos anteriores. El gráfico permitió a Jeff Clark realizar un análisis concreto y novedoso de sendas intervenciones. Obama no uso las palabras blanco o negro en los discursos. La palabra más utilizada (tópicos aparte) fue promesa, la palabra esperanza fue mucho más recurrente en 2008 que en An incredibly beautiful, true, refined, and luscious book, en opinión de Denise Scott Brown y Robert Venturi. 70 Véase el sitio web oficial en < y el proyecto Visualizar de Medialab Prado, dirigido por José Luis de Vicente en colaboración de Bestiario, que propone un proceso de investigación abierto y participativo en torno a la teoría, las herramientas y las estrategias de visualización de información. (Consultado el 12 de enero de 2012). 29

56 Las nuevas cartografías de la representación de datos animan a una inteligencia de la información como si se tratara de un fluido maleable. La materia informacional compuesta de bits puede procesarse optimizando la retórica de su mensaje, mostrándose de maneras muy diversas. La evolución en la retórica de las imágenes altera en sí misma los contenidos semánticos. Fotografías, fotocopias, collages, dibujos, y un largo etcétera propio de la cultura visual del siglo XX, conviven con los mensajes dinámicos vivos cuyo diseñador final es el propio usuario que configura la interfaz de visualización a su antojo, congelando el momento informativo preciso. Fig.6. Democratic National Convention Keynote Addres, 2004 y Jeff Clark. Los análisis en 1960 del primer debate presidencial televisado entre John F. Kennedy y Richard M. Nixon no tenían la contundencia visual contemporánea. Aquel primer debate televisado marcaría el futuro de la manera de enfrentarse a ese tipo de acontecimientos políticos. Russell Baker, analista político estadounidense de la época, escribiría poco después que tras aquel debate la imagen sustituiría a la letra impresa como lenguaje político natural. El soporte de la información implica cambios en la transmisión del mensaje. Así sucedió con la llegada de la televisión y así continua sucediendo en nuestros días. La máxima de McLuhan sobre los Media, el medio es el mensaje, renueva su vigencia respecto al soporte de la información. Representar, almacenar y transmitir información son acciones que se pueden desarrollar de forma analógica y digital. El dibujo figurativo que se parece a la cosa es analógico, la palabra, en cambio, es un signo arbitrario o digital. Analógico y digital se relacionan con continuo y discreto (Krall 2008). La realidad tiene entidades discretas (número) y continuas (espacio). Lo discreto no permite la existencia de un elemento entre dos, así la aritmética calcula mientras que la geometría razona sobre la extensión del espacio. A lo largo de la historia, la tradición oral de 30

57 los conceptos dominó a la visual de las imágenes. En esa circunstancia el hemisferio izquierdo verbal predominó sobre el derecho visual. La computación basada en números, velocidad, memoria y en una innovación imparable, aceleró el proceso. La tecnología digital afecta el modo intuitivo y sensorial de relacionarnos con el mundo (Ibíd.: 2008). Fig.7. Document cloud comparison, Democratic National Convention Keynote Addres, 2004 y Fuente: Jeff Clark. Tradicionalmente la información ha conformado una hiperrealidad sensible a todo tipo de objeto o lugar físico. Con el advenimiento de la era digital, la hiperrealidad ha encontrado un cauce natural en los soportes de silicio, generando una realidad compleja alternativa a la tradicional. En una primera etapa de desarrollo, el Entorno Digital ha concebido herramientas muy potentes capaces de recrear escenarios propios de la realidad física. Esta circunstancia fue especialmente abordada en la década de los noventa, cuando la realidad virtual proponía representaciones informacionales cada vez más parecidas a la realidad. El Entorno Digital ha sido capaz de comprender y ordenar la información obtenida del ámbito físico como nunca anteriormente se había hecho. En 2003, investigadores de la Facultad de Procesos y Sistemas Informáticos de la Universidad de Berckeley estimaron que la humanidad había acumulado aproximadamente 12 exabytes de datos 71 hasta la aparición de las computadoras en los años 50. La sobre-producción informativa de nuestros días hace que hayamos entrado en la Era del zettabyte. Esta sobrecarga informativa alimenta el compendio de conocimientos de nuestra 71 1 exabyte equivale a bytes o un DVD de años de duración, 1 zettabyte a 1000 exabytes. 31

58 sociedad. Jorge Luis Borges podría haber visto satisfecho en Wikipedia su sueño de la Biblioteca de Babel, cuento del escritor argentino aparecido por primera vez en la colección de relatos El jardín de senderos que se bifurcan (1941), que más tarde fue incluida en Ficciones (1944): Quienes imaginan la Biblioteca sin límites, olvidan que los tiene el número posible de libros. Yo me atrevo a insinuar esta solución del antiguo problema: La Biblioteca es ilimitada y periódica. La construcción del Entorno Aumentado acepta las nuevas interfaces que estructuran la información de acuerdo a una nueva ergonomía que ya no está constreñida por la planitud de la pantalla 72 y la mecánica del teclado. La cualidad informacional de la materia que integra estas dos realidades dispuestas a fundirse en el Entorno Aumentado es examinada por William Mitchel (1999), que propone la dualidad biomasa-infomasa para referirse a la materia de sendos entornos: la materia de estos lugares digitales es producto de la convergencia de la biomasa y la infomasa. Ciertamente, esta relación implica procesos biunívocos: la biomasa puede inducir procesos en la infomasa, que puede provocar una reacción biomasiva. En el primer caso, la transmisión de un dominio a otro se produce mediante sensores sensibles a los cambios en la biomasa. En el segundo, la infomasa se muestra a través de un medio con un grado de virtualidad concreto que activará la biomasa. El origen del vínculo que habilita el nexo entre la infomasa y la biomasa es técnico. Los sistemas de posicionamiento, o de referencia, ya sean locales o globales 73 permiten anclar información en cualquier coordenada física del ámbito donde opera dicho sistema. La percepción de la infomasa se realiza mediante dispositivos electrónicos que procesan su señal en una interfaz digital. Por tanto, dada una hipótesis de precisión absoluta sin tolerancia alguna del sistema de referencia, un punto de biomasa y otro de infomasa, de idénticas coordenadas de referencia, quedarían localizados en el mismo lugar físico. Este desdoblamiento de la realidad resulta inexplicable desde el punto de vista de la física clásica de Newton, pero se alinea con las hipótesis de las leyes de la Física Cuántica, establecidas en las décadas de los años 20 y 30, las cuales regulan las partículas a nivel subatómico. Uno de sus principios básicos es el Principio de Incertidumbre o Indeterminación de W. Heisenberg (descubierto en 1927) según el cual: es imposible medir simultáneamente, y con precisión absoluta, el valor de la posición y la cantidad de movimiento de una partícula. Es imposible conocer simultáneamente la velocidad y la posición, o lo que es lo mismo, una partícula puede estar en dos sitios diferentes a la vez. La nueva extensión digital de la realidad 72 Véase El fin de la mano mecánica y el advenimiento de la ergonomía post-digital, Cap. IV. 73 Véase Locative Media en Topología del Entorno Aumentado, Cap. IV. 32

59 convierte al planeta -por acotar el territorio a la escala de los satélites- en un entorno dual donde la información y la materia se solapan. Así lo corroboraba Vlatko Vedral, Profesor de Teoría de la Información Cuántica Universidad de Oxford, el 15 de febrero del 2011: ya no debemos pensar en las unidades más elementales de la realidad como fragmentos de energía o materia, sino que deberíamos pensar en ellas como unidades de información. Esta incertidumbre física ha tenido una gran influencia en muchas disciplinas. La Action Painting de Jackson Pollock, las propuestas de extensión infinita del Neoplasticismo de Mondrian o de la Casa de ladrillo de Mies van der Rohe, o la obra del propio John Cage comparten este fundamento. En la disciplina arquitectónica, este discurso vinculado al cambio a menudo ha supuesto la negación del edificio como objeto acabado o incluso, la negación del programa en tanto que particular y temporal uso del edificio, más relacionado a una abstracción proyectual que a la realidad fluctuante. El imperativo de la generación Archigram (Sadler 2006) era crear finales abiertos, como afirmaba la editorial del grupo en Archigram nº8; una arquitectura que expresara el supuesto deseo de sus habitantes de cambio continuo o como quedó registrado en el film para la BBC: los edificios que no tienen capacidad de cambio solo pueden convertirse en tugurios o monumentos antiguos. Fig.8. Sobrecarga informativa: panel de información de una cabina de avión, postes de señalización de tráfico, Las Vegas de noche. La penetración creciente, e inédita hasta nuestros días, de altas dosis de información en el entorno físico (fig.8) alcanza una dimensión escalar global. La afluencia de mensajes audiovisuales o la sobrecarga aérea de herzios procedentes de las comunicaciones entre terminales de telefonía móvil convierten los entornos urbanos en ciudades condensadas en términos de información. El término infobesidad (del inglés information overload) se define precisamente como patología de la sobrecarga de información 74. Kwinter (1994) se refiere a la progresiva saturación y colonización del microchip y augura que todo aspecto del entorno material que hemos heredado quedará aparentemente intacto, aunque también computerizado: lo dejará controlado por software, a distancia, con respuesta en tiempo real e intervinculado. Asimismo, la ciencia evoluciona y enriquece los materiales sintéticos, activos, sensitivos o 74 Es un verdadero sufrimiento. Pone a las personas en una situación de angustia constante y de frustración porque no logran seguir este flujo continuo que, en consecuencia, conduce a una sensación de impotencia y a un fuerte estrés, explica Caroline Sauvajol-Rialland, profesora de la Universidad Católica de Lovaina (UCL) y de Sciences Po Paris. (ABC, 31 de Agosto de 2012). 33

60 programables como las aleaciones con memoria de forma (fig.11), cristales y geles (fig.9), cerámicas y polímeros, nuevos materiales híbridos con cristales piezoeléctricos integrados, moléculas orgánicas y ropa inteligente o tecnológica 75. La morfología y la estructura del material pueden cambiar como respuesta a estímulos múltiples, por ejemplo ambientales. La computación ubicua 76 se implanta como una de las características de las ciudades inteligentes, entendida como la integración de la computación en el hábitat, de forma que los dispositivos electrónicos no se perciban como objetos diferenciados. Frente a la proliferación de estos hiper-lugares de tecnología camuflada e inaccesible por el ciudadano, algunos -posición generalizada entre los hackers- defienden otro tipo de ciudad aumentada donde la computación sea visible, accesible y manipulable por el usuario. El debate estriba en la regulación del carácter público o privado de la capa digital que construye entornos aumentados en lugares físicos públicos. Fig.9. Aerogel, Fig.10. Código QR 78, Illmeanu. Bernd Hopfengärtner. Fig.11. Heatseat, Jürgen Mayer, SF MoMA, San Francisco, EEUU. 75 Electrónica imperceptible. Fino y ligero como una pluma, flexible, virtualmente irrompible y, pese a lo anterior, portador de un circuito integrado que le permite ejecutar todo tipo de funciones electrónicas. El nuevo circuito tiene un espesor de solo dos micras (milésimas de milímetro), y si fuera posible mirarlo de canto resultaría literalmente invisible para el ojo humano (una célula biológica típica mide unas 10 micras). La comparación con una pluma no es gratuita: el circuito pesa tan poco que realmente flota por el aire como las plumas de los pollos. Lo puedes estirar hasta el 230% de su longitud y doblar sin que se rompa, también arrugarlo como un discurso fallido, y funciona bien incluso en condiciones tan calientes y húmedas como para amargar la vida a un Homo sapiens. No se trata de un anucio: se presenta con todos los honores en la revista Nature. (El País, 24 julio 2013). Para más información véase Wearable Computing. In: Soegaard, Mads and Dam (Mann 2013). 76 Véase ubicitous computing en el Glosario. 77 Compuesto por un 2-5% silicatos y 95-98% de aire. Este ligero material poroso es conocido como humo sólido. Desarrollado por la NASA en torno a 1950; es un aislante térmico óptimo. 78 Un gigantesco código QR (Quick Response Barcode) de 160 x 160 metros de lado fue visto en un campo de maíz cerca del pueblo de Illmeanu en Alemania. El código QR consiste en 18 x 18 cuadrados claros y oscuros que de hacer spot en ellos, verás la frase Hello, World!. La razón de su producción fue la de ser capturado por los satélites de Google Earth. 34

61 Sostiene Kwinter (Ibíd.: 1994), entre otros, que la propia idea de arquitectura como música congelada por fin se ha vuelto literal y, no solo ideológicamente, obsoleta. El incremento de los grupos de expertos e institutos de investigación de vida artificial, en oposición a la inteligencia artificial, y el notable prestigio adquirido por las especulaciones de los ingenieros, antaño puramente teóricas, en nanotecnología, son asimismo señales de una transformación fundamental que nos aleja del Paradigma Mecánico clásico 79. La dualidad híbrida característica del Entorno Aumentado acerca su naturaleza a los preceptos de incertidumbre de la Mecánica Cuántica y se aleja de la mecánica newtoniana. La afirmación de Kwinter se corresponde con la cualidad dinámica de los procesos digitales que proponen protocolos donde la variable tiempo estructura la jerarquía de la información y la comunicación. Así, una imagen se entiende como un instante congelado de la acción. La capa digital viva, dinámica, conectada en tiempo real a lugares distintos, puede mostrar su naturaleza en forma de instante congelado, como lo hace una sección planimétrica de un edificio mostrando un pedazo del conjunto. Fig.12. Iconological symbolic code, diagrams. Jencks y Baird Fig.13. Diamond code, George Gamow. Posible relation between Deoxiribonucleic Acid and Protein Structures. Fig.14. Microchip flexible y Wearable computing, Martin Kaltenbrunner y la Universidad de Tokio. Los presupuestos higienistas internacionales del Movimiento Moderno dejaron paso en la Postmodernidad a la recuperación del contexto como bagaje informacional del lugar, de tradición romana -genius loci-. En la década de los sesenta, el término código formó parte del debate suscitado por la relación establecida entre la arquitectura moderna y la teoría de la información. El término fue adoptado de la Teoría general de la comunicación. Gillo Dorfles 79 Véase Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo, Cap IV. 35

62 (1971: 97) se refería en 1967 a un código iconográfico, si el edificio se erigía sobre la base de una semántica estacionada e institucionalizada (fig.12). Al contrario que Dorfles, Umberto Eco miraba el ado pragmático de la arquitectura como mensaje construido. Eco (1969) asumía que la arquitectura juega un importante papel como vehículo en el proceso de comunicación cultural: Formas significativas; códigos compilados derivados de los hábitos, presentados como modelos estructurales de relaciones estructurales dadas; significados denotativos y connotativos que pueden ser aplicados a los significantes del código base: este es el universo de la semiótica en el que una lectura comunicativa arquitectónica puede procesarse con rigor. La construcción del Entorno Aumentado vincula necesariamente el lugar con una memoria digital y con un contenido semántico que, además de poder señalar los condicionantes semióticos de Eco, pone a disposición del ciudadano la posibilidad de construir otra ciudad donde ya existe una. La asignación de información, como afirma Manovich (2002), es una cuestión tratada históricamente por los arquitectos. La tecnología debería mirar a la profesión para comprender sus cualidades: ( ) el diseño del espacio aumentado electrónicamente puede ser abordado como un problema arquitectónico. En otras palabras, arquitectos y artistas pueden dar el próximo paso lógico de considerar el espacio invisible de los flujos de datos electrónicos como una substancia más que sólo como un vacío -algo que necesita una estructura, una política y una poética-. La distinción entre la información asignada al espacio físico del edificio, o bien, al plano simbólico del significado -Umberto Eco, Robert Venturi y Denise Scott Brown, etc.- y la que ocupa el campo electrónico del Entorno Aumentado es de cariz tecnológico, pero esta circunstancia no es óbice de que la tarea de la construcción de la nueva capa de información del Entorno Aumentado no sea accesible y proyectada por arquitectos. 36

63 Capítulo II Revolución Digital. La humanización del Entorno Digital (ED) 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses 2.2. Cultura mediática de la Revolución Digital. El arquitecto comunicador 2.3. Arqueología del lugar aumentado Computación y arquitectura. Metamorfosis del retrato de Jacquard Videojuegos, paradigma arquitectónico del Entorno Digital Cultura arquitectónica del videojuego Un nuevo ámbito de estudio. Los videojuegos ingresan en la universidad Jugador operador investigador. La paradoja del arquinauta Metodologías de análisis del videojuego. Una propuesta metodológica para el análisis del Entorno Aumentado La conquista dinámica de la dimensión digital del videojuego. Tras los pasos de Lara Croft 37

64 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses. Unamuno: Pues bien, la verdad, querido Augusto, que no puedes matarte porque no estás vivo, ni tampoco muerto, porque no existes. Augusto: Cómo que no existo? U: No, no existes más que como ente de ficción; no eres, pobre Augusto, más que un producto de mi fantasía. A: Mire usted bien, don Miguel... no sea que esté usted equivocado y que sea usted y no yo el personaje de ficción, el que no existe en realidad. U: Tú no existes más que en mi fantasía, te lo repito, y como no debes ni puedes hacer sino lo que a mí me dé la gana, y como no me da la real gana de que te suicides, no te suicidarás. Lo dicho! Miguel de Unamuno, Niebla, La disección analítica de la encrucijada digital que somete al individuo de nuestro tiempo 1 presenta un cuadro complejo y cambiante. Las características del límite que dibuja y abarca dicho dominio digital se renuevan continuamente al dictado de las grandes empresas TIC. La interfaz que articula el campo digital y la realidad física es responsable del tipo de paisaje aumentado que ya se construye en la ciudad, una materialización de la capa digital que obedece a una jerarquía topológica reguladora del híbrido aumentado que pone en valor un tipo concreto de percepción relacionado con los sentidos. La reflexión acerca de las propiedades de este límite tiene su ascendente en los límites de la ficción del teatro o del cine, y en general, en la cultura de la imagen. A grandes rasgos puede afirmarse que ha tenido lugar un proceso de desmaterialización en el soporte y de síntesis en el contenido del mensaje. La desmaterialización del límite que separa la existencia física de la realidad alternativa propuesta por el dominio digital comienza a explorarse en una época lejana a la nuestra. Algunas propuestas escenográficas ya subvirtieron en el s. XVII la condición ubicua de la farsa. Aunque no pertenece esta realidad alternativa al ámbito digital, su aparición precoz se anticipó trescientos años al siglo que vio nacer las computadoras. A pesar de la ausencia de bits, la escena dramática fue siempre partícipe de su propia impostura dual de realidades: la ficción representada en el cuadro escenográfico frente a la presencia carnal del gran público. Dicho sea de paso que esta controversia ha sido objeto de interpretaciones múltiples, incluso las que señalan a la tribuna como el verdadero lugar en que habita la ficción. 1 No necesariamente el sujeto ha de pertenecer al Primer Mundo. En 2011, India sumó 142 millones de suscripciones de móviles, el doble que en toda África, y más que los Estados Árabes y Europa juntos. Al final de 2011, había 105 países con más suscripciones de telefonía móvil que habitantes, incluidos países africanos como Botswana, Gabón, Namibia, Seychelles y Sudáfrica. Los países donde la penetración del teléfono móvil aumentó más en 2011 son Brasil, Costa Rica, Kazajstán, Laos P.D.R. y Malí. Fuente: ITU World Telecommunication/ICT Indicators Database. Disponible en: < >. (Consultada el 1 de junio de 2013). 38

65 En esta búsqueda arqueológica de los orígenes del Entorno Aumentado, William J. Mitchell (1999) data el origen en el Barroco. Retrocede a esta época para señalar a los arquitectos que se enfrentaron a la tarea de armonizar el espacio para la acción dramática con el espacio para el público, y lograron tal combinación a través del proscenio. En el afán de encontrar la primicia, Mitchell se fija en una figura particular entre todos aquellos arquitectos: Giovanni Battista Aleotti y su actuación en el Teatro Farnese de Parma. Fue en ese proyecto donde por primera vez se formalizó la presencia de la cuarta pared o plano que separa al público de la escena dramática, a partir de entonces, elemento característico del teatro a la italiana. Para articular las dos realidades, Aleotti dispuso una estructura de madera que integraba la iluminación así como un gran paño de tela. El cuadro escénico estaba servido. Este mecanismo permitía definitivamente ocultar al público, habilitándolo para espiar desde la oscuridad de la tribuna. Fig.1. Teatro Farnese de Parma, Giovanni Battista Aleotti. Fig.2. Teatro de los Intrépidos, proscenio y escena trágica en Grabado de Oliviero Gatti, Colección Sciolla, Roma. El proscenio es además enmarcado por una arquitectura urbana que potencia la lectura de la cuarta pared, que interpreta la cávea como espacio exterior y el escenario como interior. Comparado con otro famoso teatro, el Olímpico de Andrea Palladio, cabe decir que en este último, el espacio perspectivo que se dispone detrás de la fachada frontal no es lo suficientemente grande para convertir el escenario en un proscenio. Si intentamos identificar esta relación topológica en otro escenario que no plantee una dualidad ontológica tan definitoria, encontramos ejemplos que aportan luz al análisis. La implicación entre sí de las dos realidades cabe reducirla a una relación geométrica que valida la siguiente casuística topológica. En palabras de Miranda (1999), pueden darse los casos de macla, articulación y yuxtaposición. La analogía establecida entre esta taxonomía y la que define el vínculo existente entre el exterior y el interior del edificio responde a una misma naturaleza. Si se valora la posibilidad de que el edificio construido sirva de soporte digital, por ejemplo de una fachada o envolvente mediática, resultan apropiados los tres casos como definitorios de la capacidad del soporte arquitectónico para asimilar y mostrar la capa digital. La realidad alternativa teatralizada del texto dramático y la presencia física de los espectadores permanecían yuxtapuestas en el teatro griego y romano. Ningún elemento constructivo entre ambas que las separase. El Medievo tampoco hizo uso del telón. El siglo de Oro de Lope y 39

66 Calderón tampoco dispuso articulación alguna. Esta ausencia física de un ámbito articulador deparaba situaciones dramáticas de difícil solución. Shakespeare recurría con cierta asiduidad a una figura retórica que consistía en incluir en el guión de algún personaje la frase que alguien se lleve los cadáveres, y acto seguido, un personaje sacaba los cuerpos calientes pero muertos, a hombros o a rastras. Como apunta Ivana Costa (1999), con la frase Abajo el telón! el teatro moderno intentó desdibujar la presencia misma de la muerte, habilitando un espacio en la obra que ni pertenecía a la ficción ni pertenecía a la platea. La tercera y última relación topológica se produce en la macla. En el teatro de Bertold Brecht o en la nivola Niebla de Miguel de Unamuno se produce la ruptura de la cuarta pared 2, comunicando directamente al público con los actores o al escritor con su personaje. Esta intersección topológica es idónea para representaciones que pretenden hacer al espectador partícipe del drama. De repente el espectador/lector se sitúa en medio de la acción. Unamuno riza el rizo: rompe la cuarta pared pero en vez de abrir el relato al lector hace que su personaje Augusto salga de la ficción, revelándose contra él mismo. La construcción en del Gran Teatro (Großes Schauspielhaus) de Berlín, firmado por Hans Poelzig, propuso una escena en tres partes y un proscenio que sobresalía ampliamente del escenario. Proyectado para el empresario y director teatral Max Reinhardt, es uno de los ensayos, junto al Teatro de la Confederación del Trabajo de Henry Van de Velde -Colonia y el Teatro de la Exposición de Oficios Artísticos de Perret -París que a juicio de Walter Gropius han sido llevados a cabo con miras prácticas que han modificado el anquilosado problema de las construcciones teatrales. Sin duda, el desarrollo del espacio teatral tiene un momento clave en 1927 cuando el propio Walter Gropius toma la cuarta pared como leitmotiv de su proyecto de Teatro Total (fig.3). La formalización de los tres tipos escenográficos tiene cabida de manera simultánea gracias a la disposición de un escenario triple móvil, un instrumento preciso para el drama 4. La arquitectura del Teatro Total, en este caso de interior, articula su capacidad mediadora en el proceso de comunicación de un modo determinante para la transmisión concreta del mensaje. La figuración arquitectónica afecta al contenido del mensaje, pero también de a su condición relacional, según el modelo de comunicación desarrollado por Claude E. Shannon y Warren Weaver en El término quinta pared se emplea como una extensión de la cuarta pared referida al público compuesto por la crítica, trabajadores del teatro u otras personas que se alejan del público estándar. 3 Demolida en Mi Teatro Total (patentado en Alemania) permitirá que el metteur en scéne del porvenir gracias a la ayuda de ingeniosas instalaciones técnicas- realice en la misma representación escenas ejecutadas en el tablado alto, en el proscenio o en la arena circular; más aún, podrá trabajar simultáneamente en varios de esos escenarios. (Gropius 1931). 40

67 Fig.3. Teatro Total, Walter Gropius. Izq. Planta de la posición normal. Se puede utilizar como escenario no solo el escenario de la posición convencional, marcado en negro, sino también el anillo excéntrico que circunda la zona de butacas; Centro. El disco giratorio menor que está integrado en la zona de butacas se puede usar como proscenio; Derecha. Se habrían podido proyectar películas desde 14 posiciones. La vía de la exploración dramática recorrerá su camino a lo largo del siglo XX en paralelo a la experimentación de entornos generadores de ambientes virtuales, a partir de dos situaciones divergentes. Rodríguez (2012) distingue entre la contracultura y su investigación en torno a nuevos formatos de experimentación sensitiva y de comunicación de recursos compartidos, y las Exposiciones Universales, como símbolo del capitalismo avanzado y banco de pruebas de todos los sistemas audiovisuales tecnológicamente emergentes. Entre los ejemplos de las propuestas experimentales vinculadas a la contracultura norteamericana cabe destacar Movie Drome, construido en 1963 por el arquitecto norteamericano Stan Van der Breek. El proyecto se desarrollaba en torno a una cúpula geodésica metálica de unos 9.5 metros de altura construida sobre la cota del terreno a la que se accedía por el suelo. En el interior de la bóveda se podían proyectar imágenes simultáneamente, con un equipo de sonido que se utilizaba para happenings, cine experimental y todo tipo de Image-events o Expanded Cinema 5. Movie Drome (Ibíd.: 2012) fue concebido como un mediador, una herramienta de comunicación por imágenes no verbal, por el que cada comunidad podría construir su banco de imágenes y comunicarse con otras comunidades por medio de ellas, en lo que denominó como Culture Intercom 6. La superación de la cuarta pared en la ficción llevada a cargo en el teatro o en el cine supone un antecedente de lo que ocurrirá con este elemento del Entorno Digital. La tecnología digital permitía representar lugares tridimensionales que el usuario podía ver pero no entrar, como sucedía en la pantalla de televisión o en los videojuegos. 5 YOUNGBLOOD, Gene (1970) Expanded Cinema, New York: Dutton. (Ibíd., 2012). 6 VAN DER BEEK, Stan (1967) Culture Intercom and Expanded Cinema, a proposal, Battock, Gregory (ed.), The New American Cinema, New York: Dutton, p

68 La minimización del marco que configura la pantalla digital de una tablet o de una televisión trata de hacer desaparecer la referencia, el límite, que articula la infomasa visionada por el espectador con respecto al contexto que lo circunda. Esto sucede también cuando se proyecta directamente sobre una superficie. El borde de la imagen se desvanece. Ya no hay ningún impedimento formal que impida la fusión perceptiva de lo proyectado y del soporte. La desmaterialización de los soportes que enmarcan la percepción visual del campo digital influye decididamente en el diseño industrial de objetos, por ejemplo, el parabrisas del automóvil. La eliminación de la estructura tubular del bastidor libera las esquinas de la cabina o la inclusión de techos solares panorámicos que mejoran la visibilidad, induce a los ocupantes a experimentar la sensación de viajar flotando sobre la carretera. El borde de la pantalla, la montura de unas gafas o la carpintería de la ventana son óbice de experimentar una disminución de su presencia física que produce la desaparición del soporte a ojos del espectador. Pero la percepción visual del ojo humano impone su propio marco esfumado y borroso a todas las imágenes nítidas que enfoca la retina. La profundidad del campo visual influye en la óptica de nuestro encuadre. Por el contrario, la visualización de imágenes digitales no precisa de esta profundidad de campo. Piénsese en el zoom operado en la visualización de las cartografías de Google Earth o en cualquier visualizador de imágenes, donde no se enfoca el centro de la imagen y se desenfocan los bordes, sino que directamente centramos el contenido ocupando todo el campo visual enfocado por igual. Fig.4. L Invisivile. Publicidad de carpintería oculta de aluminio. Fig.5. Parlor Movie Screen, Mechanix Illustrated, Marzo de Fig.6. Movie Drome, Stan VanderBreek, Stony Point, Nueva York. La interpretación del marco a lo largo de la historia del arte, no solo como armazón estructural para soportar el plano de expresión gráfica sino como frontera de la propuesta expresiva, ha sido susceptible de reflexión por parte del artista. El marco como articulación que afecta a una percepción nítida de la información por parte del espectador, metáfora del fondo mural de un 7 Transcripción literal: Movie screen in the parlor need no longer be a problem with this new device known as the Pict-O-Screen. Concealed within the frame of a lithograph print, it can be pulled into place with a cord whenever your projector is ready. When the show is over, just tug the cord again and the screen disappears. It s made by Radiant Mfg. Co., Chicago. 42

69 museo, la vajilla de un restaurante, el papel de este texto u otras circunstancias relacionadas con el fondo y la forma, afectan a la transmisión y al contenido del mensaje. La manifestación de ese límite en un fresco medieval mediante una franja de pintura o con una cenefa de teselas oscuras en el mosaico romano era práctica habitual del artesano del Mundo Antiguo. Los ejecutores de esta estrategia contrastaban así la expresión artística. A menudo resolvían el límite aplicando con otra técnica el mismo material que habían usado en la propuesta plástica. Los oficios involucrados en estas técnicas de representación masiva ejecutaban su trabajo directamente sobre el soporte construido, bien fuera el vertical de los muros de carga o bien el horizontal de suelo y techo. La información se adhería directamente al soporte físico. Gran parte de las propuestas pictóricas del siglo XX resultaron consecuencia de procesos, primero de desfiguración y después de desmaterialización, de la realidad pictórica. La muerte de la pintura, tantas veces proclamada por artistas como Jackson Pollock, situó al artista en el grado cero de la expresión. Muchos encontraron el camino valorando el soporte como auténtica expresión artística. Este grado cero presenta en los dispositivos digitales una condición anisótropa que permite desvincular en todo momento lo reproducido del reproductor. La condición isótropa del borde resultaría alterada de manera extensiva en la Europa de la Alta Edad Media. El deseo de los mecenas de poder portar las obras que poseían dio lugar a la aparición de un sustento pictórico con propiedades muy distintas a las masivas y pesadas de las construcciones inmuebles anteriores. Fue así como la pintura sobre tabla se popularizó. Si bien en muchas ocasiones el pintor resolvía el soporte con maderas locales, el nogal, el pino o abeto y el chopo italiano fueron por sus propiedades los más usados. Los retratos portátiles más antiguos de la Edad Media aparecen en esculturas funerarias y como parte de manuscritos iluminados, siendo un ejemplo de ello el autorretrato de la escritora mística Hildegarda de Bingen, datado en 1152 (fig.9). La portabilidad de una representación era directamente proporcional al tamaño del soporte, por lo que habitualmente se recurría a soportes pequeños y livianos como los camafeos grecorromanos y persas o la tabla. Javier Seguí (2010) señala este acontecimiento mecánico como el surgimiento de la configuración con-sustancial al cuadro o recorte de una configuración teóricamente ilimitada. El encuadre de una expresión pictórica se produce casi siempre antes de que esta surja. Sin duda es una condición que en sí misma -y por cómo ha sido abordada por los pintores, incluso cuando la niegan- forma parte de la historia del arte. Este es un hecho no compartido por muchas imágenes digitales que se proyectan sobre un soporte de tamaño y cualidad desconocida para el autor. La percepción de la capa digital del Entorno Aumentado plantea este mismo dilema acerca del soporte y del fondo sobre el cual se implementa la infomasa o pintura de bits. La visualización de información a través de un dispositivo electrónico que emplee por ejemplo la técnica de la realidad aumentada, se produce sobre un fondo y un contexto cambiante, circunstancia a tener en cuenta para la correcta interpretación de los signos lingüísticos. 43

70 Fig.7. Daraughsman Drawing a Recumbent Woman, Alberto Durero. Fig.8. Casco-pistola, Patente de Albert Bacon Pratt. Al reproducir una pintura a un tamaño distinto del original -por otra parte, circunstancia muy habitual hoy en día dada la condición editable del soporte- hemos de tener en cuenta que el autor probablemente hubiera pintado otra cosa diferente en ese nuevo recinto de perímetro distinto. A este respecto Javier Seguí 8 especifica que cuando el pintor entiende el cuadro como una autorreferencia impuesta se limita a ajustar trazos en esa trama plana ( ). Completa la geometrización del marco, aparece la urdimbre de todo lo pictórico, la arquitectura de la pintura. La aparición de los dispositivos digitales inalámbricos ha propiciado la desubicación de la pantalla que contiene la capa digital. A partir de entonces, la información viaja con el usuario -como en el caso de del portador de las Google Glasses 9 -. El espectador abandona su sedentarismo para desdibujar el sitio donde tendrá lugar el acto de percibir la información. En el museo de Sir John Seoane (fig.10) la disposición de la escultura y la pintura está condicionada por la arquitectura específica de la mansión londinense. Cada obra está dispuesta en una localización precisa y no se puede mover de ahí porque la luz distorsionaría la visión que el Sir quería regalar al invitado, además de alterar el orden y la jerarquía relacional de su casa-museo. La portabilidad de la obra permite cambiar el contexto perceptivo. No es difícil pensar en la sorpresa que pudo causar a muchos holandeses la primera visión de una tabla pictórica. Un objeto que arrancaba la capa pictórica del muro para viajar a los salones privados y ser contemplada de mano en mano, o en el exterior de un palacio, donde la luz natural descubría los matices latentes en la pintura mural. La información incorporada al muro suma orígenes tan diversos como el grafiti de Bansky, el jardín vegetal vertical de la medianera del CaixaForum, las medianeras descubiertas tras una demolición o el cartel electoral. Todos comparten esa adherencia informativa parásita de otros soportes mayores. En este sentido parásito, Javier 8 Ibíd., Véase Blended reality digital story: the world as I chose to see it en < (Consultado el 1 de junio de 2012). 44

71 Rubio (2006) recoge experiencias de artistas que como Juan Carlos Rodríguez trabajaron en ese ámbito de la información: Recuerdo (Juan Carlos solía hablarme de las paredes que tenía localizadas) que ellos esperaban a que el futuro soporte adquiriera una cierta consistencia: cada noche los pegadores de carteles añadían una nueva capa a la pared y llegaba un momento en que el espesor de la masa de papel era tal que tendía a caerse por sí sola; ese debía ser el punto optimo de grosor. El estrato digital del Entorno Aumentado incorpora en la materia una capacidad informacional que supera infinitamente a la existente antes de la era digital. Los mega-, tera-, giga-bits apenas guardan relación con la volumetría de la materia, al menos a nivel de usuario estándar. La capacidad informacional original de los muros de Juan Carlos Rodríguez se agotaba al rentabilizar las propiedades aglutinantes de la cola de contacto empleada en la pegada de carteles. La amplitud informacional del campo digital del Entorno Aumentado, a escala de edificio o a escala urbana, cuenta con una capacidad casi ilimitada de asumir datos. Fig.9. Hildegarda de Bingen, Fig.10. Casa de Sir John Seoane. Londres. Fig.11. Arrancadas. Leandro Antolí arrancando. Tres obras. Autores como el arquitecto Keichi Matsuda 10 (Augmented City, 2010) o el director de cine Ridley Scott (Blade Runner, 1986) exploran cierta capacidad urbana de implementar información, casi siempre en forma de propaganda, publicidad residual o publicidad muy invasiva. La información basura abandonada puebla el mundo de ficción de Augmented City, donde los personajes caminan por sus calles levantando a su paso remolinos de imágenes digitales, como si de polvo se tratara. El concepto de basura digital que se produce en la Red -a distinguir de la basura electrónica o e-waste-, como el de basura espacial que se produce en las órbitas estacionarias, cuenta con poco tiempo de existencia pero resulta de gran interés por el debate que suscita, por ejemplo, en relación al carácter público o privado de su limpieza. 10 Véase en Cap. IV, Vanguardia de la vivienda aumentada. 45

72 Como en Alicia en el País de las Maravillas, las pantallas digitales superan el cuadro-ventana renacentista instándonos a introducirnos directamente al otro lado del espejo. Además, no solamente percibimos un reflejo 11 óptico del otro mundo digital si no que resultamos invitados, obligadamente invitados, a convertirnos en Alicia y viajar. Si el cuadro -como decía Merleau- Ponty- nos muestra cómo el artista percibió el mundo, desaparecido aquél, es el mundo el que se convierte en cuadro; deja de ser un objeto autónomo y se confunde con nuestra forma de percibirlo 12. A tenor de la dualidad planteada, Rubio (Óp., cit., 2006) se pregunta: no se ha repetido hasta la saciedad, desde la publicación de las tesis de McLuhan en La aldea Global hasta las de Baudrillard sobre La guerra del Golfo, que sólo nos parece real el mundo que vemos reflejado en la pantalla?. El interrogante alude a la cuestión contemporánea de la hiperrealidad generada por las redes sociales, cuestión por otro lado de máxima vigencia en el Entorno Aumentado. Algunos grupos sociales priman inmediatez de la realidad contada en la Red -Facebook, Twitter, etc.- frente al auténtico acontecimiento. La necesidad de comunicar el suceso, y de tomar previamente las instantáneas que lo ilustran e inmortalizan, distorsionan en muchas ocasiones la rutina del desenlace habitual del mismo. El contenido audiovisual interactivo que reproduce una pantalla digital difiere de la imagen no intrusiva reproducida en la televisión, o de una copia. El sentido de que el usuario no puede operar la información encapsulada de la imagen televisiva o de la copia, a diferencia de aquella información cuya cualidad interactiva permite ofrecer un documento sin finalizar, abierto a modificaciones. En el sentido de su interactividad, la imagen digital por ejemplo un videojuego, un mapa interactivo o un hipertexto- trasciende el marco de una posible modificación de la conciencia original perceptiva que postulaba Husserl. La imagen interactiva de naturaleza digital, concebida en origen como imagen-copia, no llega a ser tal, al depender su integridad de la implicación del usuario, que la modificará. En lo que respecta a la realidad aumentada digitalmente, el soporte digital -pensemos por ejemplo en unas gafas digitales- procura en sí mismo el recinto donde se produce el solapamiento. Podemos tener más o menos conciencia de una única experiencia según dispongamos de referencias geométricas que configuren ese cristal-lente-pantalla, llegando incluso a experimentar un espacio (imagen) isótropo en que los límites de lo digital se diluyen de manera similar a como el ciudadano percibe el ruido cotidiano de la ciudad, sin perturbarle lo más mínimo. La expresión apartamento con vistas es muy común en el mercado de la promoción inmobiliaria. El apartamento al que se refiere la expresión suele constituirse en un habitáculo proyectado desde el interior con ánimo de avistar el paisaje, a menudo enmarcado en la estancia 11 Reflectere significa enviar hacia atrás, reflejar y reflexionar-meditar. (Óp. Cit., 2006). 12 Paul Klee: El arte no reproduce lo visible, hace visible. En su epitafio dejó escrito: De este lado no podéis atraparme. 46

73 principal. Las fascinantes vistas desencadenan el proyecto ocupando el primer lugar de la jerarquía de las atenciones proyectuales, por encima de presupuestos bioclimáticos, cuestiones programáticas o planteamientos sobre eficiencia energética. Fig.12. Slow house, Long Island, New York. Dillier y Scofidio. Los arquitectos Elizabeth Diller y Ricardo Scofidio proyectan la Slow House en base a la percepción visual del usuario. Concretamente, afrontan la transición que éste experimenta desde la aproximación en su medio de transporte, el automóvil, hasta que atravesando el largo corredor se acomoda en el estar, donde puede disfrutar de un paramento-pantalla que proyecta y recoge las vistas electrónicas a demanda del usuario. La sucesión de pantallas tiene su origen en la imagen especular del retrovisor del coche. La Slow House propone un dominio visual sin marco alguno, como ocurre al divisar el horizonte en la playa. El gigantesco muro se convierte en pantalla electrónica cuyo límite lo confiere la propia arquitectura. La visión del paisaje pasa de ser contemplada a ser habitada. Se convierte en un dispositivo más al servicio del usuario que puede manipular su profundidad de campo, alterarlo con filtros fotográficos digitales o programarlo por control remoto, configurando múltiples secuencias. La ventana con vistas asume en este proyecto neoyorquino una nueva cualidad social que la convierte en un dispositivo de entretenimiento. Las técnicas actuales han capacitado al proyectista y al usuario para pensar en fines no lúdicos. Desde las terapias fenomenológicas, a los dispositivos de comunicación o a las herramientas de trabajo, el control de la visualización de información confiere a la arquitectura posibilidades que se renuevan según evolucionan las TIC. Este tipo de interiorización visual arquitectónica tiene su contrapunto en el video mapping, técnica de proyección que permite solaparse a lo edificado, habitualmente en un formato lúdico practicado desde el exterior. Esta simbiosis entre lo digital y lo construido tiene lugar al adaptar la proyección de información a la geometría tridimensional de la fachada. Para ello, han de modelarse parcial o totalmente aquellos elementos construidos que el artista visual estime oportuno. El video mapping, como proyección animada, constituye un nuevo canal de comunicación que toma lo construido como soporte. Este tipo de arquitectura aumentada no precisa de marco alguno para encuadrar la visualización, es más, estas manifestaciones 47

74 audiovisuales a menudo explotan el límite entre lo digital y lo construido con el objetivo de lograr un mayor impacto perceptivo en el espectador, induciendo una ilusión óptica que transforma lo edificado en un objeto líquido. La integración del estrato digital en lo construido puede producirse, como se observa, a través de técnicas muy distintas. En la figuración del Entorno Aumentado, el proyecto de arquitectura se contempla como un proceso integral donde la importancia de lo digital y lo físico se sitúan a la par, en equilibrio con su naturaleza. La casuística de acoplamiento del híbrido se abre al avance tecnológico. Los arquitectos han sido llamados desde el Renacimiento 13 a proyectar soluciones de fachada a menudo desvinculadas del interior del edificio y casi siempre dando respuesta a propósitos estéticos relacionados con estereotipos sociales. El oficio ha procurado tradicionalmente una imagen exterior acabada de la obra, nada más lejos que pensar en el edificio como soporte para otra cosa diferente de lo que se representa en el proyecto, que ha obtenido los permisos pertinentes de las administraciones y demás organismos profesionales. Actualmente este hábito se pone en crisis en la medida en que el proyectista incluye en la propuesta conceptos sostenibles como el de ciclo de vida del edificio o estrategias de proyecto relacionadas con el reciclado y la reutilización de elementos constructivos. Vincular el ciclo de vida de los elementos artificiales al ciclo de vida biológico (Braungart & McDonough, 2005) constituye la superación de la concepción renacentista de edificio llave en mano, para pensar en procesos con implicaciones posteriores. De alguna manera esta actitud tiene su réplica en los procesos audiovisuales interactivos que toman el edificio como escenario interactivo de propuestas artísticas. La Kunsthaus (2003) de Graz de Peter Cook y Colin Fournier, en colaboración con los arquitectos berlineses Tim y Jan Edler de la oficina Realities United, incorpora la BIX 14 Media Façade como soporte de arte audiovisual a diferencia del video mapping, no se proyecta- que operan artistas audiovisuales. La relación simbiótica entre la capa digital y el edificio masivo habilita la envolvente a los nuevos media. Tanto el video mapping como la piel mediática transforman lo edificado en soporte, aquél mediante proyecciones exteriores y ésta desde el propio tejido del edificio, trascendiendo los límites pictóricos de la enmarcación y asumiendo capacidades contemporáneas multidisciplinares. La humanización de la Realidad Virtual: prótesis y cibors. La génesis tecnológica del Entorno Aumentado. La materialización del Entorno Aumentado es factible gracias a la evolución de la tecnología que hizo posible el desarrollo de la virtualidad en la pantalla electrónica. El proceso ha sido 13 En 1456, León Battista Alberti sometió a exposición pública una réplica en madera de su propuesta de fachada para completar la fachada inacabada de la Iglesia de Santa María Novella. 14 Big + Pixels. 48

75 similar a la desmaterialización de tantas otras cosas. Las características de las herramientas que propician la comunicación del mensaje digital, así como su semántica y su sintaxis, han evolucionado aceleradamente. La tecnología ha mejorado su diseño abandonado su tosquedad primitiva, aplicando un criterio evolutivo que penaliza lo grávido y volumétrico frente a la ligereza, una suerte de desmaterialización tecnológica que afecta al software y al hardware, por otra parte, proceso similar al acontecido en otras disciplinas como la arquitectura. Inventada la computadora (fresco medieval) los técnicos se propusieron investigar en su portabilidad, objetivo que consiguieron cuando lograron disminuir las dimensiones de la máquina (cuadro). En torno a la portabilidad surgieron multitud de formatos electrónicos. El siguiente paso, inducido de manera lógica por la necesidad de transporte, fue la parasitación tecnológica del cuerpo humano como soporte (tatuaje tecnológico). En la década de los ochenta, las TIC comenzaron a colonizar el cuerpo humano, abandonando poco a poco su condición extracorpórea. La transformación del ser humano en cibor, explorada tanto por la ciencia ficción como por la ingeniería electrónica, fue descrita por Clynes y Cline (1960) como un organismo mitad animal mitad máquina. Años antes, en 1947, Moholy-Nagy en su libro póstumo Vision in Motion (fig.14) se había referido a la tecnología como parte del metabolismo humano. La apuesta por una arquitectura híbrida (cibor) fue experimentada por Archigram a finales de la década de los sesenta. La figura 13 muestra una instantánea de Peter Cook con las gafas Info Gonk 15, una propuesta de kit de enseñanza mediante televisión, cuya tecnología electrónica se adapta a la ergonomía humana. Construidas con unas mini-televisiones de una pulgada y media, las Info Gonk permiten estar permanentemente conectado con el exterior. Rodríguez (2012) ha reunido en su blog Arqueología del Futuro una profusa colección de ejemplos sobre arquitecturas kit que resuelven la conexión tecnológica con el usuario. Además de las gafas, el casco fue otra tipología que integraba la experiencia audiovisual. Henry Colbert 16 destacó por la construcción de varios prototipos (fig.14). Haus Rucker Co (Rodríguez 15 Peter Cook: Gonks was Warren s term for glasses. I designed the info-gonks, making a set of goggles from four cheap pairs of sunglasses, gluing them together and using a wire to connect them. It looked like the real thing, but of course it did not work. Then I took a photograph out of a magazine and drew and collaged a photo of the gonks on top of a girl. One often did things like that the instant city over Bournemouth was a photo of Bournemouth out of a magazine and I drew on top of the photo. Fuente: Entrevista a Peter Cook, disponible en: < (Consultada el 1 de mayo de 2013). 16 Casco para la enseñanza diseñado en 1968 por Charles Colbert. Interesante propuesta muy en la línea de los cascos sensoriales de Haus Rucker Co (y muchos otros). Este dispositivo lleva incorporado un sistema de televisión, altavoces e incluso su propio sistema de ventilación para que el alumno pueda aprender conocimientos de manera individualizada debido a la autonomía que el casco le otorga. Quizá un precursor de los portátiles aunque todavía objetualizado en un casco,...etc., que pesaba en torno a los 10Kg y que según Colbert sería sustituido en el futuro por unos electrodos implantados en el cerebro al nacer,...etc. (Óp. Cit., Rodríguez, 2012b) 49

76 2012c) se incorporó a la primera vía de investigación experimental sobre el ámbito interno a través de sus Environment Transformers desarrollados en 1968, una serie de máscaras y cascos transformadores que distorsionaban la realidad: Viewatomizer, una máscara que deformaba y pulverizaba la mirada del usuario; Drizzler, generaba un efecto óptico gracias a un gráfico fluorescente giratorio que ofrecía un efecto alienante de la realidad; Flyhead, un casco audiovisual que simula la visión fragmentada de un insecto y distorsiona la percepción auditiva del receptor. Todos ellos podían combinarse con una colección de vestidos tecnológicos o Electric Skins, diseñados en plástico transparente con adornos que aumentaban esa sensación de aislamiento de los dispositivos. La combinación de traje y casco fue utilizada en 1969 por Coop Himmelblau para desarrollar su White Suit, en la que utilizó un casco con imágenes proyectadas cuya percepción se intensificaba mediante una serie de olores y sensaciones táctiles generadas por el traje. Fig.13. Info Gonks Project. Peter Cook. Fig.14. Unidad de casco de aprendizaje, Henry Colbert. Architectural Design 9/12, Septiembre Fig.15.Vision in Motion, Moholy-Nagy. Las teorías de Marshall McLuhan sobre la nueva extensión tecnológica del hombre, interpretadas más tarde por McHale como Man Plus, se identificaron con propuestas como la de Julio Le Parc Lunettes pour une vision autre (fig.18). El proyecto fue desarrollado para la XXXIII Biennale di Venezia de 1966, y consta de doce modelos de gafas que distorsionaban la percepción mediante la fragmentación de la visión, coloreándola e incluso volviéndola retroactiva. De esta manera Le Parc (Rodríguez 2013) experimenta en relación a la interactividad de la obra de arte, que hasta ahora era ajena al espectador y de la cual ahora el usuario es protagonista absoluto. Superado el cibor de la década de los ochenta, la realidad virtual característica de la década de los noventa dejó unos cuantos hitos que conviene registrar para una mejor comprensión del origen del Entorno Aumentado. En este proceso, los dispositivos electrónicos intrawall se fueron transformando en extrawall 17, proponiendo un control con un mayor grado de sensibilización hacia el cuerpo humano, dando pié a la construcción de los primeros prototipos de entornos aumentados donde el espacio físico se convertía en un campo digital receptor de la interacción del usuario. Ya en la contemporaneidad, el espectador se ha convertido en actor del Entorno Aumentado. El soporte digital abandona su constitución maquinista para constituir, por 17 Véase en Cap. IV, p.258, Intrawall vs Extrawall. Al otro lado del espejo. 50

77 ejemplo, prendas inteligentes que interpretan el cuerpo como si se tratara de un controlador electrónico (fig.16 y 17). Podría decirse que el usuario del Entorno Aumentado habita ya el interior del espejo de Alicia. La evolución de la realidad virtual hacía derroteros propios del Entorno Aumentado propició la construcción de numerosos prototipos que avanzaban la hibridación de la capa digital con el Entorno Físico. Esta tecnología tuvo en Tom Zimmerman y su primer guante de realidad virtual comercializado (1987) un hito singular. Por otro lado, Davidson trabajó en la producción de visores de bajo coste (1988) y VPL -después Autodesk- ensayó demostraciones de sus complejos sistemas de realidad virtual (1989), circunstancia de sumo interés para el desarrollo y comercialización de futuros prototipos. Un año más tarde surgiría la primera compañía comercial de software de realidad virtual, Sense8, fundada por Pat Gelband. Fig.16. Wearable computer evolution, Steve Manns. Fig.17. Sergey Brin, cofundador de Google, portando un prototipo de gafas Google en el metro Fig.18. Lunettes pour une vision autre (Julio Le Parc), La carrera por la desmaterialización de la interfaz, con rumbo hacia la ruptura de la cuarta pared, continuó dando frutos. La compañía W. Industries desarrolló en 1991 el equipo Virtuality, unos cascos y gafas de visionado instalados en los salones recreativos norteamericanos que hicieron las delicias de los gamers. En este mismo periodo aparecieron numerosos modelos replicando cabinas de simulación de vuelo o conducción y también el primer programa destinado a los usuarios para la confección de ambientes virtuales 3D. Un año después, en 1992, SUN hizo la primera demostración de su Portal Visual, el ambiente VR de mayor resolución hasta el momento. En mayo de ese mismo año, el videojuego Wolfenstein se convirtió en el primero cuya perspectiva gráfica tenía lugar en primera persona, acercando al usuario un poco más al límite de la capa digital. Entre el jugador y el escenario digital ya no se interponía nada. Diez años antes de que Nintendo traspasara los límites de la cuarta pared comercializó en 1995 la primera consola de realidad virtual llamada Virtual Boy, con gráficos en 3D y en rojo y negro. A pesar del avance tecnológico, supuso un auténtico fracaso comercial de la industria del videojuego pues la máquina era demasiado grande y frágil, y su uso continuado durante varios minutos podía producir entre otros síntomas, dolor de cabeza. Electronic Visualization Lab (EVL) de la Universidad de Illinois, Chicago, desarrolló en 1992 el concepto de una habitación con gráficos proyectados desde detrás de las paredes y suelo, dando lugar a CAVE (Cave Automatic Virtual Environment), uno de los primero intentos de entorno aumentado en que el 51

78 entorno físico se adapta como un guante a la capa digital, y viceversa. Este formato de cave resultará a partir de entonces habitual en muchos departamentos de investigación de facultades y escuelas universitarias vinculadas al desarrollo digital. Inmediatamente después, Silicon Graphics (SGI) anunciaba un motor de realidad virtual (1993) y aparecía (1995) la primera formulación del VRML (Virtual Reality Modeling Language o Lenguaje para Modelado de realidad virtual ). La compañía Stricom desarrolló en 1995 para la armada estadounidense un dispositivo que permitía caminar, correr y moverse en un reducido espacio en todas las direcciones posibilitando experimentar el movimiento real en una cabina hiper-sensibilizada. Con el cambio de milenio, los acontecimientos se aceleraron. La tecnología, preparada para producir dispositivos de gran calidad, sacó a la luz importantes avances. El célebre mundo virtual tridimensional Second Life vio la luz en 2003 por medio de un programa para ordenador personal desarrollado por Linden Lab. Los usuarios o residentes podían habitarlo con sus avatares, relacionarse, modificar su entorno y participar y alterar su economía. Sin tener un objetivo concreto, el entorno virtual de Second Life inauguró una plataforma social con altos niveles de interactividad entre los usuarios 18. Google compró Earthview un año más tarde, un programa desarrollado en 2001 para crear el Google Earth, una representación cartográfica del mundo que combinaba la potencia del buscador Google con imágenes de satélites, mapas, topografía y construcciones en tres dimensiones. Fig.19. HUD (Head-Up Display). Fig.20. Augmented Reality prototype. Leonard Low. Fig.21. Bionic Contact Lens Display 19.Baba Parviz, University of Washington es un año importante en la historia de la construcción del Entorno Aumentado. Nintendo anunció el lanzamiento de WII, con el nombre en clave de Revolution, la videoconsola nació con 18 A mediados de 2007, el número de negocios en Second Life con flujo de caja positivo superó los y más de 45 multinacionales tienen ahora presencia en el mundo virtual. Fuente: Wikipedia. 19 El sistema multicapa integrado en la lentilla de este prototipo, denominado Contact Lens Display (CLD), se compone de una capa de cristal líquido, filtros polarizadores para formar los píxeles y un microchip que transforma estos píxeles en letras o signos. Uno de los obstáculos es que no han logrado utilizar toda la superficie de la lentilla como pantalla y controlar de forma individual los píxeles proyectados. Fuente: < (Consultado el 15 de abril de 2013). 52

79 la idea de conseguir una interacción antes nunca experimentada entre el jugador y el videojuego. WII supuso la ruptura de la cuarta pared y con ello la introducción del jugador en la escena de juego. En términos tecnológicos, fue el controlador o mando de la WII el dispositivo que permitió esta circunstancia. Comúnmente conocido como WII Remote, este aparato utilizaba una combinación de acelerómetros y detección infrarroja para registrar la posición en un lugar tridimensional. Su diseño permitía a los jugadores ejercer el control del juego mediante gestos corpóreos. El controlador se conectaba a la consola a través de una conexión Bluetooth. Además podía vibrar y alojaba en su interior un altavoz. El controlador convertía en tablero de juego el espacio tridimensional de la habitación donde se ubicaba el jugador, invirtiendo el proceso de la transferencia de información (fig.23). Así como Virtual Boy fue un fracaso, WII a día de hoy ha sido un éxito rotundo. En el Entorno Aumentado, la superación de la cuarta pared que convierte al espectador en su propio avatar se complementa con el solapamiento múltiple de datos digitales. Como sucede en el HUD 20 (Head-Up Display), registro de la información digital de los aviones militares (fig.19) o en la visión del Terminator, la actualización de los datos emplea dispositivos con webcam y conexión a Internet para posibilitar la imagen en la pantalla en tiempo real. Matsuda 21 data la aparición de la tecnología de la realidad aumentada hacia 2009, en el contexto industrial del juguete que incorporaba a una webcam 22 : A finales de ese año pasaría a formar parte de los dispositivos de telefonía móvil ha constituido un punto de inflexión para la Realidad Aumentada, incluida dentro de la lista Top Tech Trends de 2010 de la revista Time. La técnica de la realidad aumentada emplea habitualmente un marcador impreso -código de barras, código QR, BIDI etc.- cuya localización registra un escáner y sobre la cual se referencian los datos digitales visualizados en la pantalla de un dispositivo electrónico. Una vez dispuesta la visualización aumentada, por ejemplo de un modelo arquitectónico en 3D, la imagen digital puede rotarse con un movimiento del marcador de modo que la manipulación de la capa digital se opera de una manera intuitiva, como si fuera real (Ibíd., 2010). La realidad aumentada está siendo protagonista de numerosas aplicaciones, gran parte de ellas diseñadas para dispositivos de telefonía móvil: traductores instantáneos que funcionan tan sólo con el escaneado del texto desde la cámara de un teléfono móvil 23 ; acceso a información turística georeferenciada en tiempo real en la trama de la ciudad; visualización de modelos digitales 3D a 20 Véase definición en el Glosario. 21 Óp.cit., 2010: Véase Eyetoy para PlayStation Disponibles en: Word Lens, < < < < (Consultadas el 3 de mayo de 2013). 53

80 escala real sobre un lugar físico -replanteo de edificios, simulación de técnicas quirúrgicas, etc.-; acceso a la información de un producto; pedagogías basadas en la visualización dinámica de datos, visualización de campos hertzianos -WIFI-, etc. Fig.22. Kinect, Microsoft. Fig.23. WII Remote, Nintendo, Fig.24. Workshop: Being played, 23 de junio Axel Stockburger. La conexión con la capa digital plantea diferentes procedimientos técnicos. En vez de escanear un código impreso en 2D, se puede usar un escáner 3D que detecta y rastrea, por ejemplo, los movimientos tridimensionales del cuerpo humano (Fig.22). Las superficies geométricas del cuerpo se traducirán en una nube de puntos que se extrapola a la aplicación digital. El modelo capturado por un escáner 3D representa la posición en el espacio tridimensional de cada punto analizado. El protocolo que referencia los puntos del Entorno Físico en los sistemas digitales es objeto de continua evolución, mejorando las prestaciones de esta tecnología, por ejemplo, la capacidad de referenciar colores, sonidos y otras circunstancias relacionadas con la percepción, generándose nuevas vías de simbiosis y nuevas aplicaciones que aumentan el lugar tradicional 24 con información adicional. La amplitud del espacio físico se ha convertido en un campo sensible registrado por el dominio digital (fig.24). 24 El procedimiento inverso tiene lugar en las impresoras 3D. Véase por ejemplo Foster + Partners desarrolla una estructura impresa en 3D para la Luna. Disponible en: < (Consultada el 4 de febrero de 2013). 54

81 2.2. Cultura mediática de la Revolución Digital. El arquitecto comunicador. Never predict anything that hasn t already happened. Marshal McLuhan 25 El nacimiento y evolución de los nuevos medios de comunicación ha sido informado, analizado y criticado por multitud de teóricos en un intento de hacer comprensible una materia que cuenta hoy con más de sesenta años de antigüedad. El corpus teórico ha ido nutriéndose poco a poco hasta nuestros días, en que la proliferación de teorías y modelos filosóficos, sociológicos y políticos que integran la naturaleza mediática está a la par del acelerado desarrollo tecnológico. La solidez de este campo teórico complementa la naturaleza técnica de una disciplina mediática que a través de los avances tecnológicos ha influido en el devenir de la Sociedad Informacional de los siglos XX y XXI. La producción tecnológica y sus consecuencias en los modelos sociales, económicos, políticos, habitacionales, etc., han inducido a la revisión de los modelos disciplinarios profesionales. El que corresponde a la arquitectura se encuentra actualmente trufado de influencias procedentes de otras disciplinas y por supuesto afectado por el desarrollo de las TIC. Al perfil o perfiles ortodoxos de arquitecto se ha sumado otro por influencia e injerencia de los nuevos media. El arquitecto comunicador emerge en la escena contemporánea como pieza relevante en la divulgación y crítica arquitectónica. Sin la eclosión de los nuevos medios de información y comunicación, la llegada del Entorno Aumentado habría sido inviable. La exploración de la literatura que describe esta evolución resulta necesaria para tratar de dibujar un modelo teórico de Entorno Aumentado desde la perspectiva de los medios de comunicación. La cultura de los nuevos medios es analizada en un enfoque global por expertos como Murray o Manovich en la publicación The New Media Reader, editado por Noah Wardrip-Fruin y Nick Montfort (2003); en The Digital Turn in Architecture , editado por Mario Carpo (2013); en Computational Design Thinking, editado por Achim Menges y Sean Ahlquist (2011); o en The Cybercities Reader, editado por Stephen Graham (2004), un compendio de artículos en formato reader que rememora el Reader s Digest estadounidense. En respuesta a la popularización de la televisión en la década de los cincuenta y su expansión en los sesenta, tanto críticos como expertos e investigadores en comunicación dirigieron su atención hacia la propia experiencia mediática como materia de análisis, fomentando un nuevo interés hacia la comprensión de la propia experiencia mediática. Los nuevos medios, entre los que cabe destacar la fotografía, la radio, el cine y la televisión, fueron pronto entendidos como 25 Federman, M. (2006) Memories of Now, Receiver 15, April 2006, Vodafone. Disponible en: < (Consultado el 12 de abril de 2012). 55

82 los herederos de la tradición oral y la escritura. Murray (2003: 3) afirma que los escritos de Marshall McLuhan suscitaron el interés mediático por otros investigadores. Mientras la tecnología articulaba las bases de Internet, McLuhan veía los medios de comunicación como extensiones del ser humano que aumentaban su capacidad de percibir y comunicar. En estos años, el debate entre los detractores y los defensores de la televisión ocupaba la mayoría de las páginas de opinión. Esta coyuntura interesaba tanto a nivel de experto como al gran público y también se extendía a la cultura de la computación 26, la cual poco a poco iba conquistando la necesaria perspectiva histórica para registrar y valorar su joven trayectoria. A lo largo de los setenta, las humanidades multiplicaron el vocabulario sobre esta materia tecnológica y formularon sofisticados modelos y teorías que abordaban el análisis de los medios de comunicación de masas o Mass Media. En esa década, la computación apenas comenzaba a vislumbrar la posibilidad de convertirse por sí misma en un nuevo medio de comunicación, complementando así su función primera de cálculo y procesado de datos. El cambio efectivo que supuso realmente el inicio de la expansión global de la Revolución Digital comenzó a producirse en la década de los ochenta con la aparición, ya generalizada en el mercado, del ordenador personal 27. Para muchos teóricos, una de las piezas clave fue Deleuze y Guattari, los cuales sin pensar en computadoras, propusieron una metáfora para la construcción de un discurso intelectual que serviría a la postre de puente hacia el mundo de la máquina para muchos teóricos. Su propuesta de un nuevo modelo de organización textual reemplazaba las jerarquías ideológicas de un mundo desfasado basado en la impresión y proponía el rizoma como forma paradigmática de pensamiento. A principios de los ochenta, el rizoma conectaba directamente con la estructura organizativa en red de la computadora. Por otro lado se potenciaba en la universidad la colaboración entre humanistas y técnicos en computación. El desarrollo del hipertexto (rizomático) y de los videojuegos, en su afán de evolucionar la capacidad interactiva del espacio digital, supusieron grandes avances en la construcción del Entorno Aumentado. Las primeras comunidades on line aparecían en Habitat, de Lucasfilm. El conflicto entre los jugadores destructores y las comunidades constructoras tenía su réplica en Internet, entre aquellos que defendían una comunidad cooperativa que desarrollara abiertamente el código y posturas con influencias comerciales que pretendían estandarizar el desarrollo en sistemas cerrados y controlados (personalizados por Microsoft). Las utopías y distopías de la computadora afloraban a finales de la década. En los años ochenta, Apple evolucionó la interfaz gráfica del usuario mejorando la interacción con la computadora. A finales de la década, la computación había emergido como una herramienta diaria de trabajo, educación y entretenimiento, una especie de escritorio primario. Esta circunstancia cambiaría radicalmente con la llegada de la World Wide Web. Tim Berners- Lee supo resolver un problema técnico de flujo de información, cambiando un modelo basado en transporte de bits por otro que compartía documentos visuales, páginas web. Con la llegada 26 El genocidio nazi fue mucho más eficaz gracias al sofisticado proceso de censo. Véase IBM, al servicio del holocausto (El País, 13 de febrero de 2001). 27 Resulta significativo la sustitución en ese momento de la computadora (computar datos) por el ordenador (ordenar datos). 56

83 en 1998 de las www finalizó la Revolución Digital 28. Las bases para el desarrollo del Entorno Aumentado quedaron sentadas y dispuestos los mecanismos de fusión de los entornos Digital y Físico. El arquitecto comunicador. El incremento de las habilidades tecnológicas, tanto para el diseño y manipulación de entornos aumentados como para el desarrollo de su propia actividad como usuario, constituye una de las características del perfil profesional de arquitecto comunicador, capacitado para incorporarse a la tarea de construcción del Entorno Aumentado. El arquitecto asume las nuevas reglas de juego del entorno mediático y global, fruto de la incorporación de los medios electrónicos y las tecnologías digitales al ámbito profesional, abrazando irremediablemente el papel de comunicador. No será suficiente ejercer la profesión técnica de arquitecto, además hay que hacerla visible, incluso audiovisible. El arquitecto mediático contemporáneo, divulgador de su obra o de la de otros, encarna un agente periodístico experto en Mass Media y en los nuevos géneros surgidos tras la eclosión de las redes sociales. Superada la posguerra, la arquitectura moderna tomaba referencias no tanto de la arquitectura construida, como de las publicaciones de revistas, exposiciones o concursos. La imagen a todo color constituiría una herramienta internacional y propia a la disciplina. El posicionamiento táctico frente al cultivo de imágenes y su repercusión en los medios de comunicación fue ejercido con precisión por Le Corbusier, Charles y Ray Eames, Alison y Peter Smithson o el grupo Archigram. La difusión de la obra del arquitecto comenzó entonces a ser tan importante como la consecución material del proyecto 29. Mies van der Rohe publicaba en 1921 los dos números de la revista G y las revistas Fruilich y Metz. Sus rascacielos berlineses imaginados de arquitectura vítrea fueron los que realmente le situaron en el mapa de la vanguardia arquitectónica, mientras tanto construía edificios de estilo en su práctica profesional. El propio Le corbusier se hizo con su cartera de clientes al publicar Le Espirit Nouveau. Al llegar Loos a París le precedió la influencia de sus textos en Das Andere, publicación autofinanciada, antes que su obra construida, situación compartida por el colectivo Archigram cuyo magazine del mismo nombre fue el canal aglutinante de las propuestas del grupo. A este respecto, Colomina (2013) hace la siguiente precisión: El mítico historiador Sigfried Gideon llegó a París buscando a Rob Mallet-Stevens porque quería escribir su historia de la arquitectura moderna. Solo por casualidad le hablaron de Le Corbusier porque salía más en la prensa, pero quién se acuerda hoy de Stevens? Le Corbusier tomó ese espacio en los medios de comunicación 28 Negroponte, óp. cit., Entonces viajar resultaba complejo y caro. La gran mayoría de los arquitectos españoles de la posguerra conocía la obra de los maestros extranjeros por los santos de las revistas especializadas. Apenas se hablaban otros idiomas. Este es el caso de Alejandro de la Sota; no de Miguel Fisac, que dio la vuelta al mundo en varias ocasiones. 57

84 convirtiéndolo en un lugar de producción de la nueva arquitectura. Los dos arquitectos más famosos del siglo XX, Le Corbusier y Mies van der Rohe, tardaron mucho en conseguir hacer algo que estuviera al nivel de lo que habían publicado como proyectos. Le Corbusier fue el primer arquitecto que realmente entendió los medios de comunicación y, al hacerlo, llevó la arquitectura al siglo XX. La mediatización de la arquitectura cuenta con géneros que han dominado épocas. Es el caso del manifiesto, formato vinculado en origen a la estrategia bélica -igual que el término vanguardia -, que se consolidó como canal de información para los arquitectos y los artistas plásticos de la primera mitad del siglo XX. Esta comunicación unilateral imperativa trataba de dejar su impronta en la coyuntura del momento. Su sintaxis se trasladó a otras publicaciones más extensas como la revista. En conjunto, la doctrina del arquitecto se hacía pública a golpe de imprenta: el futurista, el surrealista, Le Espirit Nouveau, Das Andere, Werkbund, las comunicaciones de los CIAM, el Manifiesto de Doorn del Team X, el Manifiesto Situacionista, Complejidad y Contradicción, etc. La versión construida de esta doctrina cristalizaba en una tipología: el pabellón como síntesis efímera de toda una declaración de intenciones. La naturaleza lineal y unilateral del manifiesto lo sitúa en los niveles básicos de comunicación. La aparición de las primeras teorías de la comunicación en los años cuarenta ya avisaban de que no eran éstos los canales de comunicación óptimos, ya que si bien si tenían en cuenta el destino del mensaje, el lector más o menos experto, no habilitaban ningún canal de comunicación que retroalimentara el mensaje. Las publicaciones de ese tipo constituían un claro ejemplo del determinismo positivista 30 racional que erigía al arquitecto como único autor de la obra y canalizador a su vez de una lógica de causa efecto encargada de construir soluciones proyectuales óptimas. La incorporación de la retroalimentación en los medios de comunicación enriquece la transmisión del mensaje. La impostura del manifiesto se diluye en el feedback obtenido del usuario. Pensar en la comunicación desde el feedback, implica plantear la comunicación integrando estructuras informacionales que recolecten la información del público de modo que se produzca la interacción con la de la propia fuente original. Las introvertidas revistas en blanco y negro (Sadler 2006) de los cincuenta y los sesenta tuvieron que adaptar su formato a los nuevos tiempos. Publicaciones británicas de gran tirada como Architectural Review o Architect s Journal vieron disminuir sus ventas en favor de las nuevas revistas a todo color. La demanda de publicidad en color fue satisfecha por ediciones como Sunday Times Colour Magazine. Es fácil imaginar la trascendencia que tuvo el artículo sobre Peter Blake Pioneer of Pop Art en su primera edición de febrero de 1962, la publicación en la misma revista de Plug-in City de Peter Cook en la edición del 20 de Septiembre de 1964 o de Instant City de Archigram en el Daily Express Colour Supplement, el 27 de julio de Impostura alejada del Paradigma de la Complejidad y de la apuesta por una disolución del arquitecto autor en favor del equipo multidisciplinar integrado por sociólogos, antropólogos, ingenieros, etc. 58

85 En los años sesenta, el desarrollo de las TIC no supuso únicamente la llegada del color a muchas publicaciones de arquitectura, sino también la posibilidad de incluir nuevos géneros de comunicación en la labor profesional del arquitecto. La disciplina arquitectónica inauguraba una renovada vía de investigación. La arquitectura mediática emergía como una propuesta de configuración del lugar a través del lenguaje de la información: la representación de la información en detrimento de la configuración masiva (fig.1), y el auge de la simbología, de la iconografía y de la semiótica. Fig.1.Soft Scene Monitor, Axonometría. Peter Cook y Dennis Crompton para Archigram, Fig.2. Diagrama de la obra Pithoprakta, Xenakis, Los propios integrantes de Archigram cultivaron géneros tan poco ortodoxos como el cómic -Archigram nº 7- o el News Digest 31 adulto -Archigram nº 9-. Asimismo, los Eames y los Smithson usaron estrategias y anuncios publicitarios en el proceso proyectual; incluso Dennis Crompton trabajó con Pink Floyd 32 en el Festival de Brighton en La proliferación y combinación de los nuevos soportes audiovisuales influyó en el devenir de la producción de arquitectura de vanguardia. En este sentido, cabe señalar como pioneros al propio Le Corbusier y a Charles y Ray Eames. El suizo logró en el Pabellón Phillips de la Exposición Universal de Bruselas 33 de 1958 una experiencia integral con el Poème Electronique. La colaboración con 31 Este género tiene sus orígenes en el Reader's Digest estadounidense, revista mensual con sede en Nueva York fundada en Propiedad de The Reader's Digest Association hasta marzo de 2007, fecha en que fue adquirida en su totalidad por Ripplewood Holdings en de dólares. En formato de bolsillo e ilustrada, publica artículos originales, artículos resumidos o reimpresos de otras revistas, resúmenes de libros, colecciones de chistes, anécdotas, citas y otros escritos breves. Se edita en treinta y cinco idiomas y tiene una tirada de unos de ejemplares. En diciembre de 1940 apareció la primera edición en español llamada Selecciones. Fuente: Wikipedia. 32 La banda de Roger Waters formó parte de Archigram Opera, conferencia impartida en la Architectural Association de Londres el 8 de mayo de La de Bruselas fue tal vez la exposición más importante de la Guerra Fría. El hecho de haber sido la primera exposición de categoría mundial celebrada tras la Segunda Guerra Mundial, le dio una mayor trascendencia: los gobiernos aliados de Europa Occidental explotaron la coyuntura para mostrar sus 59

86 Xenakis fue determinante. Para el interior del impresionante pabellón, Xenakis y Le Corbusier encargaron la música a Edgar Varèse, quien compuso su archifamoso Poème Électronique. Como si esto fuera poco, el mismo Xenakis (fig.2) realizó Concret PH, una pieza intrigante que se escuchaba en los interludios de la obra de Varèse. Quinientos visitantes asistían a la vez a un espectáculo de luz y sonido que duraba diez minutos. Un año más tarde, los Eames lograron en Moscú un ritmo secuencial nunca visto en las proyecciones de las siete pantallas empleadas en la exposición Glimpses of the USA. El desarrollo de las técnicas de grabación audiovisual permitió una mirada diferente a lo establecido. Afirma Sadler (2006: 146) que frente al dinamismo de la vision in motion 34 que había cautivado a generaciones anteriores, basado en un tempo mecánico lineal propio del s.xix, la visión zoom representaba mejor el tempo moderno de la era postindustrial, vinculado a la tecnología de la información, televisión, consumo y también movimiento. El zoom servía al arquitecto el movimiento asociado al campo escalar. Esta circunstancia, resuelta en la tradición arquitectónica con la representación del objeto a escalas diferentes suscitaba una lectura intermitente. El zoom dinámico cinematográfico avanzó una cualidad propia de la representación del lugar digital. Esta herramienta habitual en cualquier programa de diseño asistido por ordenador, y propia del dominio digital, puede equipararse en trascendencia con la mirada cubista de Pablo Picasso, suma de múltiples puntos de vista como consecuencia de su atemporalidad. El proceso proyectual, en tanto que acercamiento a un lugar en potencia, ha visto modificado sus técnicas a consecuencia de este avance. Tanto el grupo Archigram, en la publicación de la edición Zoom en 1964, como Charles y Ray Eames en el corto documental Powers of ten, dispusieron esta mirada pionera y singular sobre el proyecto arquitectónico. El alcance de las nuevas representaciones fue puesto en común en una serie de publicaciones que marcaron el devenir arquitectónico de la década de los sesenta y el porvenir futuro de la profesión. La imagen de Daniel Borstin (1963) supuso una primera toma de contacto a la que siguieron otras. En 1964, un profesor de literatura inglesa, crítica literaria y teoría de la comunicación saltó a la fama en las universidades de prestigio norteamericanas con la publicación de Understanding Media, una reflexión sobre los medios de difusión masiva y la sociedad de la información. Understanding Media y El Medio es el mensaje (1967), sendas obras de Marshall Mcluhan, acreditaron la imagen como la herramienta clave de la sociedad occidental. Este reconocimiento fue elevado a la escena política por Guy Debord en La Sociedad del Espectáculo (1967), atribuyendo la imagen a la organización más avanzada del sistema capitalista logros de posguerra, mientras que los países del Eje -Alemania, Japón e Italia- la tomaron como una oportunidad de limpiar su imagen en el extranjero. 34 Traducido como visión en movimiento. MOHOLY-NAGY, L. (1947) Vision in motion, Chicago: Paul Theobald. 60

87 Cabe señalar que la inclusión de McLuhan en este capítulo obedece a la pertinencia de su lado visionario más que a su faceta teórica. Su posicionamiento respecto a los medios de comunicación social, acuñado determinismo tecnológico, ha sentado las bases para la comprensión de la naturaleza de la Revolución digital, sobre todo en lo concerniente al estudio sobre los medios. A su fallecimiento, en diciembre de 1980, el estado de la tecnología digital difería bastante del contemporáneo. La relación bidireccional hombre-máquina apenas superaba el teclado digital, el ratón y unos pocos controles periféricos para las consolas de videojuegos. Los dispositivos multimedia, la world wide web o los soportes digitales actuales diferían mucho de la tecnología de principios de los ochenta. Sin embargo, y a pesar que McLuhan no asistió a la caída del muro de Berlín (1989) y a la desintegración de la Unión Soviética (1991), sostenía ya en 1961 que los medios de comunicación electrónicos estaban induciendo una aldea global 35. El pensamiento de McLuhan respecto a los medios de comunicación se inicia a partir de reflexiones como: somos lo que vemos, formamos nuestras herramientas y luego éstas nos forman y el medio es el mensaje. La traslación de uno de sus aforismos más conocidos de McLuhan somos lo que vemos al ámbito arquitectónico tuvo consecuencias múltiples y profundas. Por un lado, la supremacía de la percepción audiovisual más visual que auditiva- frente a las otras percepciones ha sido la tónica dominante en el desarrollo de la arquitectura mediática del siglo XX. La incorporación paulatina desde finales del siglo pasado del paradigma sostenible a la disciplina arquitectónica y la puesta en valor de análisis precisos y simulaciones físicas del entorno habitable en base a unos estándares de confort óptimos ha deparado un cambio en esa tendencia audiovisual. El usuario del siglo XX sometido a la dominancia de lo audiovisual se sitúa frente al edificio aumentado del siglo XXI, envuelto por una membrana digital porosa. El proyecto de arquitectura toma decididamente en consideración al usuario osmótico, sensible a balances psicrométricos, a los efectos de la radiación solar y de la microventilación. La percepción sensorial en las arquitecturas atmosféricas de Phillipe Rahm, François Roche o Dillier & Scofidio confieren una mayor atención a percepciones distintas de la audiovisual, así como a las relaciones que se establecen entre ellas. Tal es el caso del sentido criostésico, vinculado a la naturaleza psicrométrica del interior arquitectónico. En referencia al perfil comunicador del arquitecto, su capacitación para desarrollar tareas de comunicación pasa por aprender el funcionamiento diestro de las herramientas multimedia: formamos nuestras herramientas y luego éstas nos forman 36. Se entiende que el proceso 35 Nótese que la etimología de globalización deriva del anglicismo globalization, y que global no equivale a mundial en español. 36 Aserto de John Culkin (1967), compañero de McLuhan en la Forham University. Otra observación similar es la de Winston Churchill damos forma a nuestros edificios, así que ellos nos dan forma a nosotros (Schools 1960: 76) y la de Henry David Thoreau sobre la construcción de las vías de ferrocarril: no nos montamos sobre las vías, ellas nos montan a nosotros. (Strate 2012: 64). 61

88 comunicador constituye un sistema reversible de divulgación y recolección de información - producto también de la divulgación de otros- o una polaridad entre el emisor y el receptor (Ibíd.: 62). Esta inmersión mediática ha transformado los procesos de diseño y la disciplina arquitectónica en general, induciendo nuevas metodologías de trabajo. La comunicación para el arquitecto ha dejado de ser una acción mecánica consistente en la publicación de algo ya terminado. La comunicación es en sí misma un medio, una extensión corpórea del usuario, no un fin. Como aventuraba McLuhan (1964) en el título del primer capítulo de su estudio más influyente Understanding Media: The Extensions of Man: el medio es el mensaje. En relación con el enfoque biológico implícito en propuestas de Füller y en los proyectos pneumáticos de Archigram, Frei Otto o Haus Rucker Co, Marshall McLuhan (Steiner 2009: 170) describe el ideal de arquitectura como el resultado lógico de la experimentación con cápsulas espaciales, cerramientos de chorro de aire y edificios con suelos y techos que pueden moverse a voluntad. Esa flexibilidad, continúa McLuhan, tiende naturalmente hacia lo orgánico. La sensibilidad humana parece en sintonía una vez más con las energías universales que se transformaron al hombre tribal en un buzo de piel cósmica. El entendimiento de lo arquitectónico como un sumatorio de tecnologías y de modelos biológicos, identificados por la metáfora hard y soft, resulta explícito tanto en la teoría de Robert Wiener Cibernética: o el control y la comunicación en el animal y en la máquina (1948) como en la posterior tendencia de atención metabólica en muchos proyectos arquitectónicos de la década de los años sesenta Arqueología del lugar aumentado Computación y arquitectura. La metamorfosis del retrato de Jacquard. Este apartado explora los orígenes del lugar aumentado y su evolución hasta nuestros días. Es por tanto, una cartografía de la percepción de la información digital, en relación con la práctica arquitectónica. El análisis se practica con especial énfasis en la transformación acontecida en torno a la visualización y simulación del lugar digital. Este no-lugar 37 podrá ser comprendido y experimentado por el usuario en formatos diversos, desde escenarios textuales, gráficos interactivos de realidades virtuales, construcciones digitales de modelos arquitectónicos, a en última instancia, lugares físicos aumentados mediante el solapamiento de la capa digital. Los soportes tecnológicos que acompañan esta cronología digital son referencias fundamentales para la comprensión de las técnicas que han hecho posible esta evolución del ciberespacio 38, hecho por otro lado central en esta tesis. Esta historia crítica comienza hace aproximadamente doscientos años, con algunos acontecimientos preliminares que desde disciplinas y situaciones completamente ajenas a la ciencia marcarán el destino de la máquina que está transformando la 37 No se toma el significado original del término acuñado por Marc Augé vinculado al lugar de tránsito sino a la ausencia de lugar físico, resultando tan sólo existente la representación visible de ese lugar. 38 Véase Glosario de términos. 62

89 naturaleza del ser humano: la computadora. Una de las imágenes más trascendentes de la temprana historia de la computación, y me atrevería a decir el primer render de la historia, es el retrato de Joseph Marie Jacquard (fig.2) tejido en fina seda en 1839, en un telar del propio Jacquard de Lion. Años antes, en 1801, el lionés Jacquard había inventado un telar operado con un automatismo de tarjetas perforadas (figs.1 y 3) que mecanizaba el patrón del tejido. El retrato precisó de tarjetas perforadas que automatizaron la producción de la imagen. No sin cierta dosis de azar, una de las copias llegó tiempo después a manos del matemático británico Charles Babbage. El efecto inspirador que causó en el padre de la computación fue determinante para la invención de su Máquina Analítica (Analytic Engine), la primera computadora programable. La imagen de Joseph Marie Jacquard sentado en su taller, tomada como paradigma e icono de todas las imágenes digitalizadas, irá manifestando toda su realidad a lo largo del siglo XX en una escalada sensorial in crescendo, según soplen los vientos tecnológicos. La imagen de Jacquard irá tomando figuraciones distintas cada vez más precisas, sometiéndose a distintos lenguajes articuladores del plano digital. La acción de habitar el (no) espacio digital o ciberespacio se entiende necesariamente en relación con la interfaz, y ésta a su vez en relación a la aserción de Wittgenstein los límites de mi lenguaje significan los límites del mundo, ampliada y corregida (Alcalá, óp. cit., 45) por Peter Weibel: no interactuamos con el mundo, sino sólo con la interfaz del mundo ( ). El mundo cambia -entonces- a medida que lo hacen nuestras interfaces, siendo los límites del mundo los límites de nuestra interfaz. Fig 1. Ilustración de la fabricación de las tarjetas perforadas empleadas en el telar de Jacquard. Fig 2. Retrato de Joseph Marie Jacquard ( ), tapiz de seda, 55 x 34 cm. Fig.3 y 4.Tarjeta perforada de Jacquard (zoom) y tarjeta perforada IBM, Aunque el concepto de realidad virtual apareció en 1965 en el artículo de Ivan Sutherland The Ultimate Display, otras personas comenzaron anteriormente a sentar sus bases. En 1844, Charles Wheatstone inventó el estereoscopio (fig.5), fundamento de los primeros visores de realidad virtual. En resumidas cuentas consistía en obtener dos fotografías casi idénticas pero que se diferenciaban ligeramente en el punto de toma de la imagen; éstas serían observadas por cada ojo de manera separada y el cerebro resolvería la combinación en una sola, creando un efecto tridimensional. En 1891, Louis Ducos du Hauron patentó un instrumento conocido como 63

90 el anaglifo y realizó las primeras pruebas consistentes en una imagen estereoscópica en la que se eliminaba, con ayuda un filtro fotográfico, el color rojo -esta debía verse con el ojo derecho- y el verde y el azul para la imagen visualizada con el ojo izquierdo. A partir de 1915 se rodaron fragmentos de películas utilizando dicho sistema. El ajedrecista (del inglés, The Chess Player), un autómata construido en 1912 por Leonardo Torres Quevedo, es considerado por muchos como el primer videojuego. El ajedrecista hizo su debut durante la Feria de París de 1914, generando gran expectación en aquellos tiempos y repercusión en los medios con una extensa primicia en Scientific American cuyo titular apostillaba así: Torres and his remarkable automatic device. Fig.5. Estereoscopio de Wheatstone, Fig.6. El ajedrecista, Leonardo Torres Quevedo mostrando su invento. Fig.7. Ilustración del artículo The ARMY BRAIN 39, Mechanix Illustrated, Junio, La transición contemporánea que experimenta el diseño asistido por ordenador (CAD) hacia el diseño computacional o algorítmico supone la sustitución de la representación gráfica por la simulación de sistemas generativos integrados. La simulación de los procesos naturales metabólicos, las operaciones de las leyes de la termodinámica, los principios generales de la biomorfología y otras tantas circunstancias vinculadas a la simulación de la naturaleza requieren de la práctica de la computación. La consideración de la interferencia del orden matemático en el natural y viceversa, se remonta a la primera definición de morfología de 39 Transcripción literal: A GIANT thinking machine able to apply electronic speeds for the first time to mathematical tasks too difficult for previous solution, is now in use by the U. S. Army. It can compute 1,000 times faster than the most advanced calculating device previously known, can solve in hours problems which would take years on a mechanical machine and shows promise of revolutionizing longrange weather prediction and many other highly complicated sciences. Known as the ENIAC (Electronic Numerical Integrator and Computer), the revolutionary robot weighs 30 tons and occupies a room 30 by 50 feet in size. Temporarily housed at the University of Pennsylvania, the machine s permanent home will be the Army Ordnance Proving Grounds at Aberdeen, Md. The first all-electronic, general purpose computer ever developed, it was designed and constructed for Army Ordnance at the Moore School of Electrical Engineering, University of Pennsylvania. The electronic robot is capable of solving thousands of technical and scientific problems so complex and difficult that all previous methods of solution were considered impractical, if not impossible. 64

91 Johann Wolfgang von Goethe, descrita en el texto Formación y transformación 40 (1806), de gran influencia tanto en El Origen de las Especies de Charles Darwin (1859) como en la referencia seminal que fue On Growth and Form (1917), del biólogo y matemático escocés D Arcy Wentworth Thompson, cuya toma de conciencia de la influencia que los procesos naturales podían inspirar en la morfogénesis y con ello en los procesos computacionales resultaría trascendental para posteriores descubrimientos. Las matemáticas se interpretaron entonces como una herramienta que bien podía explicar la relación entre el entorno natural y la geometría. La ecuación paramétrica de variables y la homología componían la convergencia. Fig.8.Transformación de la estructura de un cocodrilo. D'Arcy Thompson. Alan Turing, autor de la conocida como Máquina de Turing, jugó un papel clave en el desarrollo del concepto de computadora. Tomó el testigo de D'Arcy Thompson mostrando interés en la morfología y en la simulación de los procesos morfológicos mediante modelos matemáticos basados en la computación (Frazer 2011: 149). La hipótesis central de Turing afirmaba que la máquina homónima podía replicar no sólo las funciones de las máquinas matemáticas sino también las funciones de la Naturaleza. Esta vía de inspiración que nace en las ciencias naturales del siglo XIX y principios del XX tuvo su contrapunto en el desarrollo tecnológico alentado y financiado en el periodo de entreguerras para mejorar la capacidad militar de los ejércitos. El ENIAC (fig.7), una de las primeras computadoras electrónicas de la década de los cuarenta -presentada en público por los aliados el 15 de febrero de podía resolver en dos segundos cálculos matemáticos para los que un humano tardaba 7 horas. Gramlesberger (Gleiger & Vrackhliotis 2010: 29) confirma que a pesar de su tamaño y de contener unas válvulas de vacío, su memoria sólo era capaz de procesar unos pocos cientos de símbolos. Este tipo de máquina computacional mecánica resultó especialmente útil, primero para cálculos de trayectorias balísticas y después para el lanzamiento de misiles. Sobre esta base, John von Newmann y Herman Goldstine, que habían 40 VON GOETHE, Johann Wolfgang (1989) Formation and Transformation, Goethe s Botanical Writings, Ox Box Press (Woodbridge, CT), p.21-4, University of Hawaii Press. 65

92 contribuido al desarrollo del ENIAC, acuñaron en 1947 en su publicación Planning and Coding Problems for an Electronic Computer Instrument, la primera definición de código: La organización de una tarea en una serie de pasos y la traducción de estos pasos en una secuencia de comandos para una máquina. Newmann y Goldstine anotaron en el texto un comentario de naturaleza arquitectónica, perfectamente válido para ser incluido en una posible metodología del proyecto arquitectónico, al recomendar un método gráfico que simplificara el concepto de la secuencia de comandos: La programación comienza con el dibujo de diagramas de flujo. Esta es la dinámica o etapa macroscópica de la programación. ( ) Esta ha sido nuestra experiencia invariable, una vez que el problema ha sido entendido y preparado ( ), el dibujo del diagrama de flujos presenta ya poca dificultad 41. A mediados de la década de los cincuenta, John von Newmann comenzó a estudiar modelos matemáticos que simularan el comportamiento de sistemas no lineales (Vrachliotis 2008: 73). La coordinación recíproca de diferentes principios sistémicos fue decisiva en sus investigaciones. La intención pasaba por considerar (Kay 2000: 157) a los organismos como computadoras y a las computadoras como organismos. Esta concepción organicista del sistema -incluso de autómata biológico- se transformó en una estructura operativa gracias a la influencia del matemático polaco 42 Stanislaw Ulam. La propuesta tomó la forma de un modelo que simulaba un tablero infinito de ajedrez, sobre el cual elementos individuales básicos (celdas) pudieran comportarse de acuerdo a un sistema regulador simple (fig.9). A pesar de que aún no utilizaba computadoras, John von Newmann concibió de ese modo un robot celular universal con la capacidad de auto-respuesta (réplica). Este robot era capaz de reproducir modelos opcionales, incluyendo a sí mismo. A pesar del avance, la emergencia del campo de investigación conocido como Vida Artificial no vería la luz hasta años más tarde, en 1987, de la mano del matemático norteamericano Christopher Langton (fig.10). Desde entonces, la máxima de Langton para tener una teoría de lo actual, es necesario conocer lo posible 43 se considera un precepto indiscutible. Desde la perspectiva del proyecto arquitectónico, la interpretación de esta teoría resulta una cuestión de gran vigencia contemporánea. Los algoritmos de programación generativa de morfología digital son operados por parámetros fácilmente intercambiables, siendo relativamente sencillo disponer de una vasta paleta de tentativas (variables) de proyecto que 41 GOLDSTINE, Herman H. & VON NEWMANN, John (1948) Planning and Coding Problems for an Electronic Compiuter Instrument, Parte II, vol. 1, en John von Newmann: Collected Works, vol. 5: Oxford, p Como Von Newmann, Ulam emigró de su país natal a Estados Unidos. 43 To have a theory of the actual it is necessary to understand the possible. (Langton 1997: 10). 66

93 ayuden a elaborar una intuición de hacia dónde encaminar la búsqueda proyectual de lo posible 44. Fig.9. Universal Constructor, John von Newmann. Fig.10. Simulación virtual de un gametofito del Farnes Microsirium lingüiforme (abajo el gametofito natural). La publicación en 1948 de A Mathematical Theory of Comunication 45 de Claude E. Shannon articuló las bases de la teoría de la informática, predecesora de la ciencia de la computación. Shannon investigó el tratamiento exclusivamente matemático -sin contenido semántico- de la información. Curiosamente la difusión del artículo tuvo lugar en un libro publicado un año después, en colaboración con Warren Weaver, The Mathematical Theory of Communication cuyo título difería del anterior en la determinación del artículo, circunstancia que viene a resumir la transcendencia del volumen. Esta publicación a su vez influyó notablemente en la obra del físico alemán Erwin Schrödinger (1948) What is life? The Physical Aspect of the Living Cell, cuyo contenido exploraba los conceptos de herencia y código genético. El avance tecnológico definitivo en la computación de la década de los 50 no fue exclusivamente la automatización de la programación por los compiladores y el uso de los primeros lenguajes informáticos 46, sino la introducción de nuevos modos matemáticos en la interacción hombre-máquina, esto es, el desarrollo de nuevos vínculos entre el software y hardware. La computadora ocupaba un ámbito disciplinario muy concreto bajo el reinado de científicos e ingenieros (fig.11). Hasta entonces, la función exclusiva de la computadora era la 44 Es el caso por ejemplo de Flamingo, el Plug-in de Rhinoceros, que ofrece al proyectista una progresión o serie de soluciones arquitectónicas a la hipótesis de proyecto inicial formulada. 45 C. E. Shannon (1948) A mathematical theory of communication, Bell System Technical Journal, vol. 27, pp and , July and October. 46 FORTRAN (Formula Translation) fue desarrollado en 1954 por John Backus. Aun se emplea en el campo de las ciencias naturales. 67

94 de realizar cálculos 47, pero a partir de ahora tomaría otras capacidades de trabajo. A principios de los sesenta, las computadoras comenzaron a procesar datos, organizar operaciones lógicas y completar procedimientos 48. De los 70 en adelante, el procesado de datos informáticos se volvió de suma importancia. Fig.11. Anuncio Launching Tomorrow s Satellite, Enero de Fig.12. Anuncio del IBM 1001 Data Transmission System, Diciembre de El científico J. C. R. Licklider (1960) autor de Man-Computer Symbiosis, que a la postre se convertiría en uno de los textos claves del siglo XX, fue el primero en visualizar el concepto de una red de computadoras que permitía la comunicación de usuarios en distintas computadoras en una serie de notas que discutían la idea de Red Galáctica y que incluían la mayoría de los aspectos que hoy contiene Internet. Una visionaria postura sobre la complementariedad del cerebro humano y las computadoras. La simbiosis hombre-ordenador es una subclase de los sistemas hombre-máquina. Hay muchos sistemas hombre-máquina. En la actualidad, sin embargo, no hay simbiosis hombre-ordenador. Los objetivos de este trabajo son presentar el concepto y, con suerte, fomentar el desarrollo de la simbiosis hombre-ordenador mediante el análisis de algunos problemas de interacción entre el hombre y las 47 En 1964 se inaugura en la Universidad Politécnica de Madrid el Centro de Cálculo, no se le llama centro de computadoras o centro informático. 48 Véanse las figuras 12 y 13 y nótese la retórica del mensaje que transmiten. Frente a la iconografía típica de la Guerra Fría, incluso con alusión a la carrera espacial, que representa a la computadora como si se tratara de una inteligencia artificial, la imagen de la figura 12 anuncia una tecnología mucho más accesible al ciudadano. Transcripción del anuncio de la figura 13: new low cost way to send punched card data by telephone. This IBM 1001 Data Transmission System lets you send business information in punched card form, from any office, plant or department to your central data processing installation at the cost of a telephone call. 68

95 máquinas de computación, llamando la atención sobre los principios aplicables de la ingeniería hombre-máquina, y señalando algunas preguntas que necesitan de respuestas innovadoras. La esperanza es que, en no muchos años, los cerebros de humanos y las computadoras estén acoplados estrechamente, y que la sociedad resultante piense como ningún cerebro humano haya pensado alguna vez y procesado información de modo no abordado por las máquinas de manipular información que hoy conocemos. En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. El primer mensaje 49 enviado en ARPANET tuvo lugar a las horas del 29 de octubre de 1969 entre la Universidad de California UCLA y la Universidad de Stanford. El 5 de diciembre del mismo año, toda la red inicial estaba lista. Un año después de la publicación de Understanding Media (1964), el cofundador de Intel Gordon E. Moore formuló una ley empírica cuyo cumplimiento se ha podido constatar hasta hoy. Cuando lo hizo, no existían los microprocesadores -desarrollados a partir de 1971-, ni los ordenadores personales cuya expansión tuvo lugar en los años ochenta. Con la intención de medir la velocidad de la evolución tecnológica, Gordon Moore (1965) afirmó que el número de transistores por unidad de superficie en circuitos integrados se duplicaría cada año 50. Este vaticinio se ajusta, al menos cualitativamente, a las circunstancias del mercado actual. No solo las empresas fabricantes de tecnología hardware o software asumen esta voracidad evolutiva sino que los usuarios también asumen que un ordenador o una cámara fotográfica digital o una televisión quedan obsoletos en dos años (figs. 13 y 14). Qué consecuencias tiene la Ley Moore para la disciplina arquitectónica? 49 En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 24 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media y llegar a alcanzar los 500 ordenadores conectados en Fuente: < (Consultada el 10 de abril de 2012). Véase p.239 para profundizar en la información. 50 Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Las limitaciones de esta ley fueron discutidas por el propio Moore y el famoso científico Stephen Hawking hace unos años, y éste último respondió que los límites dependían precisamente de los límites de la microelectrónica: la velocidad de la luz y la naturaleza atómica de la materia. Esos dos límites no están muy lejos según Moore, que ha afirmado que en 10 o 15 años su ley dejará de cumplirse. Y me temo que aunque lo haya dicho el mismísimo Moore, una y otra vez nos volvemos a encontrar con ingenios tecnológicos que se enfrentan a todo lo concebible en el pasado. Fuente: < (Publicado el 19 de septiembre de 2007 por Javier Pastor). 69

96 La evolución acelerada de los procesadores, como dicta la ley de Moore, desembocará en la gran revolución tecnológica digital del último cuarto de siglo, activada con la llegada del ordenador personal 51. El primer modelo comercializado en 1975, el Altair 8800 de MITS, se vendía como un kit por entregas en la revista Popular Electronics. Los diseñadores vieron multiplicada por diez su previsión de ventas solo en el primer mes. Sin duda Altair 52 supuso la apertura de la primera puerta al mercado de los PC. Fig.13. Diagrama de Coste y Tiempo. Cuaderno de apuntes de Moore, Fig.14. Número de transistores / año. Ley de Moore vs Procesadores Intel. Uno de los acontecimientos más señalados en la historia de la convergencia de la computadora y la arquitectura fue la primera y pionera conferencia celebrada en Boston en 1964 bajo el epígrafe Architecture and the computer. El acontecimiento despertó un interés inusual, además de la temática novedosa, el foro contó con la presencia de Walter Gropius, que comenzó así su intervención 53 : ( ) Será necesario formar a una nueva profesión de arquitectos asistentes con el propósito de articular la solución de los problemas en el lenguaje propio de la computadora? Según afirma Georg Vrachliotis (Gleiniger & Vrachliotis 2010: 75), tecnológicamente hablando la computadora era un campo completamente nuevo para los arquitectos de los sesenta, y era vista predominantemente como un artefacto hecho por los técnicos y para los técnicos, excepto en firmas importantes de planeamiento urbano y construcción, donde estaba comenzando a ser empleada como una máquina de cálculo administrativo. H. M. Morse Payne, presidente del Boston Architectural Center y asistente de Walter Gropius, dio la bienvenida al auditorio con 51 Kenneth Olsen, en 1977, director de Digital Equipment Corporation, no veía razón alguna para introducir el ordenador en los hogares 52 El primer lenguaje de programación del Altair 8800 fue escrito por Bill Gates y Paul Allen. Inmediatamente después fundarían Microsoft. 53 Discuso adjunto al Anexo. 70

97 las siguientes palabras: Nuestro tema, la computadora, parece el más actual, el más urgente, la cuestión más seria que pudiéramos traer a la profesión ( ). Así que deberíamos empezar a explorar la cuestión inmediatamente. 54 La respuesta de Gropius a la pregunta retórica inicial anticipa la función polivalente de la computadora en el estudio de arquitectura, no haciendo uso de ella como mera herramienta de cálculo: Aun creo que, si miramos esas máquinas como potenciales herramientas que optimicen nuestros procesos de trabajo, podrían ayudarnos a liberar nuestro potencial creativo. 55 El origen de la computación reservó un lugar especial al arquitecto norteamericano de origen griego Nicholas Negroponte. Arquitecto por el MIT, realizó investigaciones en el campo del diseño asistido por ordenador. Sólo tres años después de la conferencia de Boston, lideró en 1967 la fundación del Architecture Machine Group o ArcMac en el MIT, con el propósito de estudiar la interacción hombre-máquina. Más adelante, en 1985, crearía el MIT Media Lab. ArcMac fue fundada para crear una Máquina de Arquitectura que ayudara a los arquitectos en el proyecto de arquitectura. Se inspiró hasta cierto punto en proyectos como el Sketchpad de Ivan Sutherland 56 (1963), una interfaz de diseño asistido por ordenador. Negroponte esperaba que su máquina pudiera ayudar no sólo en complejas cuestiones técnicas si no también en situaciones triviales de la profesión. Sería un socio activo, inteligente, capaz de aprender y capaz de comprender la idiosincrasia humana, como por ejemplo los gestos de las manos. La máquina de arquitectura no se construyó, pero en el camino ArcMac desarrolló numerosas aplicaciones que hoy se siguen utilizando o que aguardan una evolución del desarrollo tecnológico para su construcción. El Sistema Espacial de Datos, Spatial Data System o Dataland con la interfaz Pon-eso-allí (Put-that-there) diseñado por Nicholas Negroponte y Richard Bolt fue pionera en el uso de iconos y herramientas gráficas en el escritorio. La enorme dificultad que para aquellos arquitectos supuso la investigación con computadoras tenía un sesgo múltiple. En la secuencia de imágenes incluida en el libro de The Architectural Group, Negroponte mostraba el alcance del reto. Mostraban las manos de un individuo sentado enfrente de una especie de máquina de escribir, gesticulando mientras escribía (fig.15), junto al comentario 57 : 54 H. Morse Payne, Welcome, ibíd., p Natalie Jaffe, Architects Weigh Computer s Uses. (New York Times, 6 de Diciembre de 1964). 56 Estudiante doctorando con Claude Shannon, utilizó una nueva tecnología llamada lápiz de luz, desarrollada por la experimentación militar en radares, lo que hizo posible dibujar directamente en el monitor. 57 Ibíd., 2010, p

98 En esos pocos segundos, el usuario de esta terminal ha dicho más a la máquina con el lenguaje gestual que en ninguna línea de texto, pero no es escuchado. Esta persona concreta nunca antes había usado una máquina; no sabe que es un lenguaje sin gestos (Negroponte 1970: 13). En Europa, la investigación con gráficos computacionales difería en parte de enfoques como el de Negroponte y Coon. Los gráficos eran programados con código, no dibujados. La conjunción de cibernética, arte y filosofía desarrolló rápidamente una nueva cultura experimental de la programación. Los matemáticos Friederich Nake y Georg Nees, junto con el filósofo Max Bense, trabajaron en gráficos que integraban tanto aspectos estéticos como teóricos fundamentos filosóficos cercanos a la naturaleza artística conceptual. En 1965, esta producción fue expuesta en Stutgart en la Computergrafik-Programme Exhibition, donde cada imagen venía acompañada de su código (fig.16). El trabajo de Nake como el de otros muchos investigadores y arquitectos, como Christopher Alexander, interesados en la computación tuvo en la lingüística de Noam Chomsky un referente inspirador y motivador. Nake destacaba la lingüística de Chomsky (Vrachliotis 2009: 88) como esencial en el advenimiento de la nueva ola revolucionaria de inspiración que a finales de los cincuenta abriría el nexo sinérgico entre arquitectura y computación. Fig.15. Image series,architectural Machine Fig.16. Graphic Schotter y código que genera el gráfico, 1968, Georg Nees. El Architecture Machine Group es autor del Aspen Movie Map, un proyecto de cartografía urbana desarrollado en 1978 que empleaba tecnología hipermedia para invitar al usuario a realizar un tour virtual por la ciudad. El Aspen Movie Map capturó con ayuda de cuatro cámaras de 16mm y un giroscopio montados en un coche imágenes de todas las manzanas de la ciudad de Aspen desde múltiples puntos de vista en un disco de video analógico precursor de la óptica digital del DVD. El usuario podía recorrer las calles de Aspen eligiendo el camino. Cada click de ratón significaba un paso del peatón. Otro adelanto del proyecto fue la integración de una pantalla táctil que permitía el accionamiento manual de los botones de una sencilla interfaz. Además, el usuario podía tocar cualquier edificio que apareciera en pantalla e inmediatamente se 72

99 visualizaba el alzado. Algunos edificios disponían de información alternativa para visualizar interiores, reconstrucciones históricas, entrevistas grabadas en video, menús de restaurante, etc. Otra característica de la interfaz del viaje virtual era la integración conjunta de la perspectiva dibujada en tres dimensiones y la fotografía aérea. Además, los recorridos podían señalarse, como también se podía practicar zoom para acercarse o alejarse, igual que en la película Powers of Ten que Charles y Ray Eames habían grabado un año antes. La Realidad Virtual era reconocida a principios de los 80 como una tecnología viable. Heredero de esta propuesta es el proyecto A9 de Amazon, que fotografió en 2004 la cota cero completa de varias ciudades norteamericanas con idea de configurar un motor de búsqueda similar a unas páginas amarillas. Esta línea de mapas urbanos también la integra la aplicación peatonal de Google Maps Street View y constituirá una base de datos fundamental para complementar la capa digital urbana de muchas ciudades. La evolución del Aspen Movie Map supuso el desarrollo del proyecto Movie Manual. Enmarcado en el hipermedia, se le considera uno de los precursores de internet y de la interfaz del CD. El impulso del Architecture Machine Group fue precedido de un conjunto de singulares proyectos que realmente abrieron la puerta a la realidad virtual y consecuentemente a la construcción del lugar digital. Philco Corporation e Ivan Sutherland son autores destacados por el carácter pionero de sus produciones. En 1961, Corneau y Bryan, empleados de Philco Corporation, construyeron el que parece ser el primer casco de realidad virtual de verdad, un referente en la conquista del espacio virtual. Este dispositivo permitía ver imágenes en movimiento y estaba dotado de un sensor magnético que determinaba la orientación de la cabeza del usuario. Un año más tarde se desarrolla el Sensorama, el primer dispositivo que trataba que el cine fuese percibido por todos los sentidos utilizando para esto: visión 3D estereoscópica, dos imágenes ligeramente distintas para cada ojo, sonido estéreo, vibraciones mecánicas, aromas,...etc. Asimismo, en 1964, se creó el primer holograma (Emmett Leith y Juris Upatnieks) o imagen tridimensional. El concepto de realidad virtual surgirá en 1965, cuando en su artículo Ivan Sutherland sostenía que la pantalla es una ventana a través de la cual uno ve un mundo virtual. El desafío es hacer que ese mundo se vea real, actúe real, suene real, se sienta real. Sería él mismo el creador del primer casco visor de realidad virtual utilizando tubos de rayos catódicos, uno para cada ojo, y de un sistema mecánico de seguimiento. Posteriormente en 1968, creará junto con David Evans el primer generador de escenarios con imágenes tridimensionales, datos almacenados y aceleradores; un año más tarde, en 1969, Myron Krueger fue el autor del proyecto denominado Artificial Reality que permitía la interacción con elementos creados virtualmente. La utilización de gráficos a través del ordenador tuvo que esperar aún algún tiempo, y se debe al trabajo realizado en el MIT por Roberts y Sutherland. Roberts escribió el primer algoritmo para eliminar superficies oscuras y ocultas de una imagen, abriendo así el camino a la utilización de gráficos 3D (Ortigueira et alt. 2012). Por su parte, el trabajo de Sutherland consistió en el desarrollo de algoritmos que pudiesen realizar esta tarea de manera eficiente. Uno de los frutos de estos esfuerzos se encuentra en el desarrollo por Henri Gouraud, en el año 1971, de un algoritmo de iluminación que aún es muy utilizado hoy en día. Este algoritmo hace posible que una superficie formada por polígonos cobre el aspecto de una superficie suave y continua. Al principio el campo en el que tuvo una mayor aplicación fue el militar; de hecho, en 1971, en el Reino Unido comienzaron a fabricar simuladores de vuelo con displays gráficos, pero será un 73

100 año más tarde, en 1972, cuando General Electric desarrolla el primer simulador computarizado de vuelo. Éstos operaban en tiempo real, aunque los gráficos eran bastante primitivos. Pocos años después, en 1979, el ejército empezó a experimentar con cascos de simulación. En 1977, apareció uno de los primeros guantes documentados Sayre Glove, desarrollado por Tom Defanti y Daniel Sandin. Este guante, está basado en una idea de Richard Sayre, tenía en cada dedo un tubo flexible de fibra óptica con un emisor de luz en un extremo y un receptor en el otro. En función de la cantidad de luz que llegaba al receptor se podía calcular la flexión de los dedos. El Centro de Investigación de Palo Alto, Xerox Research PARC, desarrolló en 1970 la primera interfaz gráfica de usuario o GUI (graphical user interface). Este entorno visual sencillo permitía la interaccion del usuario con el sistema operativo. A partir de entonces, en todo el mundo se empleará está metáfora: carpetas que contienen archivos dispuestas sobre un escritorio. Es el primer síntoma de domesticación de la computadora. El usuario tenía la ocasión de amueblar con objetos el espacio de la pantalla, como si de una planimetría se tratara. Dos años más tarde, ATARI desarrolló el primer juego que convirtió la pantalla de un ordenador en un tablero espacial, el PONG, al que seguiría PACMAN 58. Fig.17 y 18. Introducing Apple II. Publicidad de Apple, septiembre de Precio: $1298. Fig.19. What kind of man owns his own computer? Apple, mayo de La evolución de la computadora dispuso a finales de la década de los setenta y principios de los ochenta una serie de nuevos prototipos al alcance del usuario personal (figs.15, 16 y17). El PC o Personal Computer entraba en escena para quedarse muchos años. La cotidianeidad y la privacidad de los hogares vieron cómo estos dispositivos se incorporaban de modo análogo a como lo habían hecho antes la radio, tv y los electrodomésticos. La publicidad del Apple II presentaba el ordenador en 1977 como un kit con un teclado. Las grandes computadoras de los cincuenta y los sesenta caben de repente en la mesa de comedor de una vivienda de clase media. 58 Véase en Cap. II, p.78, Videojuegos, paradigma arquitectónico del la realidad digital. 74

101 Como dice el texto del anuncio (figs.15 y 16), el usuario 59 tan solo tenía que limpiar la mesa y conectar al dispositivo una televisión en color y una grabadora de cassette: The home computer that s ready to work, play and grow with you. Clear the kitchen table. Bring in the color T.V. Plug in your new Apple II and connect any standard cassette recorder/player. Now you re ready for an evening of discovery in the new world of personal computers. En el año 1982 en que se lanzan al mercado del personal computer los modelos Commodore 64 y el ZX Spectrum de Sinclair, el ordenador ya no es un ser ominoso y las cuestiones acerca del futuro se desplazan hacia el planteamiento de la condición de las personas en una sociedad en la que la tecnología ha hecho posible la vida y la inteligencia artificial (Waelder 2005). Esta nueva imagen del futuro en la que el género de la ciencia ficción se conoce como ciberpunk, describe una sociedad super-urbana. El vínculo entre el ser humano y la máquina se diluye. La analogía de este vaticinio en la tecnología electrónica implica necesariamente la revisión de la interfaz que une a la persona y el ordenador. La interfaz 60 permitirá al individuo operar de un modo más natural la máquina, debido a que la visualización del código de programación se vuelve gráfica. Asimismo, habilitará una configuración a su gusto del usuario. La evolución de la tecnología que exploraba la realidad virtual tuvo otro hito en el primer simulador de la cabina de avión para entrenar a pilotos. En 1981, Thomas Furnes desarrolló la Cabina Virtual. El problema inicial consistía en la creciente complejidad instrumental de estos aparatos, por lo que Furness comenzó a buscar la forma de facilitar la interacción con los pilotos. La solución fue el desarrollo de una cabina que proporcionaba información 3D a los pilotos, quienes podían controlar el aparato a través de una representación virtual del terreno con campo de visión de 120º en horizontal. Este aparato funcionó por primera vez en septiembre de 1981, y ha constituido la base para el desarrollo de los sistemas de entrenamiento militar creados a partir de ese momento. Este mismo científico sólo un año más tarde presentó el simulador de vuelo más avanzado que existía, contenido en su totalidad en un casco y creado para U.S Army AirForce. El Dr. Gary Grimes, de los Bell Labs, patentó en 1983 el primer guante que reconocía las posiciones de la mano con la intención de crear caracteres alfanuméricos y poder sustituir los teclados por estos. Este guante tenía sensores de flexión en los dedos, sensores táctiles en las yemas de los dedos y sensores de orientación y posición en la muñeca. En 1985, Mike Mc Greevy y Jim Humphries junto con la NASA desarrollaron el sistema VIVED, Visual 59 El varón analiza unos gráficos mientras toma una taza de café, preparado probablemente por ella, que se afana en las tareas domésticas de la cocina. En otro orden, nótese la interesante polisemia de la expresión grow with you en la publicidad. 60 Definiciones adjuntas al Glosario. 75

102 Environment Display System, las primeras estaciones de bajo coste dotadas de un campo de visión amplio, estéreo y con sensores de posición en el casco de realidad virtual, cuya utilidad estaba enfocada a los futuros astronautas en la NASA. Si mencionamos el acrónimo RIM correspondiente a la Red Informática Mundial, apenas habrá usuarios que se identifiquen con él. Si por el contrario hablamos de la World Wide Web o su acrónimo WWW estaremos nombrando unas siglas cuya proximidad es inmediata a todos los pobladores del planeta que tienen un conocimiento mínimo sobre tecnología. El padre de las tres w, Tim Berners-Lee, necesidado de transmitir información sobre sus investigaciones de manera más eficaz, desarrolló en 1989 un sistema de distribución de información fundamentado en hipertexto o hipermedios enlazados y accesibles a través de Internet 61. Quedaban así definidas las bases para la aparición de la Aldea Global de Marshall McLuhan. Los ciudadanos del mundo desarrollado dispondrían, por fin, de un nuevo medio de comunicación independiente e instantáneo, una red diferente a los canales tradicionales. El desarrollo de las tres uves dobles supuso la creación del último elemento tecnológico que validaría la consecución de la Revolución Digital materializada en la década de los noventa primermundista. Una de las consecuencias de la red Internet es la aparición de colectivos independientes que desarrollan iniciativas propias, desarraigados del sistema tradicional de mercado. Tal es el caso de Linux, el sistema operativo desarrollado por Linux Torvalds en Un sistema operativo de código abierto que crece y mejora gracias a la aportación de usuarios individuales. Waelder (2005) nos recuerda el paralelismo de estos colectivos que anteponen el bien común al individualismo con los acontecimientos descritos en Un Mundo Feliz de Aldoux Huxley. La estructura en red de estos colectivos, entre los cuales cabe destacar el colectivo de hackers, resulta incómoda en el estándar mercantil capitalista. Nuevas metodologías de trabajo alejadas de la Regla de San Benito-, nuevos objetivos, una ética diferente (Himanen 2005) a la que evidencia el sistema económico capitalista son características propias del hacker. Este modelo supone un referente para todas las disciplinas profesionales. En lo que atañe a la arquitectura, cabe señalar la proliferación de colectivos de jóvenes arquitectos organizados en torno a redes y plataformas que buscan entre sí alternativas académicas, sinergias profesionales, la optimización económica de los recursos y el efecto multiplicador de estas estructura 62. La Carta Magna para la Era del Conocimiento (Gilder y Toffler, 1994) o la Declaración de Independencia del Ciberespacio (1996) constituyeron proclamas de un optimismo característico 61 Se denomina Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el sistema de localización de objetos en la web URL (Uniform Resource Locator). 62 Véase Arquitectura Viva nº 145, Colectivos españoles. Nuevas formas de trabajo: redes y plataformas. 76

103 de esta etapa heroica de la Red. Giannetti (2006: 87) lo describe así: ( ) ciberactivistas, hackers defendían la apertura del código fuente, elaboraban protestas, sabotajes y movilizaciones sociales en y a través de la red. Estos años, desde 1995 hasta 1999, podrían ser considerados el punto álgido de la experimentación creativa y también del debate sobre, con y a través de Internet. Finalizada la Revolución Digital a finales de la década de los noventa 63, los presagios futuristas acontecidos a lo largo de casi todo el siglo XX, casi todos en el seno de la literatura de cienciaficción, dejaron paso a las predicciones de los expertos tecnológicos. Los gurús de Internet, de la telefonía móvil, de la realidad aumentada etc., elaborarán sus propias previsiones sobre el desarrollo del campo científico en el que son profetas. Unas previsiones más técnicas y menos utópicas. Una de las publicaciones más influyentes en los noventa fue Being Digital, de Nicholas Negroponte. En ella Negroponte analizaba las correlaciones existentes entre el mundo real, el de los átomos y el mundo informático compuesto de bits. Predijo muchas cualidades de la sociedad actual: los nuevos límites de la privacidad, comunidades digitales, nuevos horizontes en la interacción y un escenario futuro en el que el dominio digital se mezclaba de manera natural con el dominio físico encaminado a desdibujar las diferencias entre el lado izquierdo y el derecho del cerebro 64. Entre otras consecuencias de la Revolución Digital cabe destacar el desarrollo de una nueva conexión del ciudadano con los objetos en el entorno alternativo que la capa digital. Barnatt (2010) afirma que el mayor esfuerzo llevado a cabo hoy en día es el proceso inverso: la atomización masiva de los contenidos digitales o la relocalización de contenidos digitales en la realidad física. Barnatt se refiere a este proceso como Segunda Revolución Digital, que consecuentemente refleja una época en la que el creciente número de dispositivos electrónicos permite cada día el desarrollo de la informática ubicua, con acceso a Internet y otras tecnologías digitales casi constantemente disponibles. De la mecanización automática manifestada en el Retrato de Joseph Marie Jacquard se pasó, siglo XX mediante, a la construcción de una realidad alternativa basada en la conquista tecnológica de una percepción de la virtualidad más real. El proceso en sus inicios transportó al usuario de fuera a dentro de la pantalla, alcanzando la sensación casi plena de control del escenario digital, a menudo replicante de la realidad física de la naturaleza. La colonización del ciberespacio estaba servida, al menos en términos del control de la amplitud digital. El siguiente estrato tecnológico -que hoy vivimos- corresponde a un avance en la naturaleza de la cartografía del híbrido. El Entorno Aumentado propone volver a salir de la pantalla para localizar el nolugar del retrato de Jacquard en cualquier lugar del espacio cotidiano, en un proceso de territorialización o atomización masiva de la capa digital. 63 Véase nota al pié de la p. IV de la introducción. 64 Negroponte, óp.cit.,

104 Videojuegos, paradigma arquitectónico del Entorno Digital. Games are the most elevated form of investigation. Albert Einstein. La industria del videojuego 65 ha sido y continúa siendo un agente activo determinante en la evolución del Entorno Digital. Desde las primeras propuestas textuales hasta los proyectos contemporáneos que configuran el espacio de juego fuera de la pantalla hay un progreso efectivo que ha marcado los derroteros del Paradigma Digital. La transformación del espacio virtual o ciberespacio en entorno aumentado, acontecida a partir de la ruptura de la cuarta pared, ha sido posible gracias en parte al impulso tecnológico de esta industria, una de las pioneras en transferencia tecnológica a la sociedad civil. Desde la técnica de la realidad aumentada, a los locative media o a las sucesivas versiones mejoradas de la interfaz hombremáquina, el videojuego ha supuesto una vía prolífica de I+D+I. El videojuego se constituye en paradigma arquitectónico del dominio digital. Su formato, que asume como hipótesis de partida la interacción del usuario y con ello la introducción de la variable tiempo, ha propiciado una evolución sin parangón de la capacidad de movimiento habilitada en los escenarios digitales, no-lugares cuya hibridación con entornos físicos hace tiempo que se practica. En el dominio digital, es el videojuego el género que ha contribuido con mayor intensidad participativa a la construcción del Entorno Aumentado, como por ejemplo en el caso de la ruptura de la cuarta pared. Su formato ha pasado de ser una materia exclusiva de los programadores informáticos a interpretarse como un proceso creativo que comparte estrategias propias del proyecto arquitectónico y de otros proyectos enmarcados en otras disciplinas. El desarrollo del proyecto de un videojuego precisa de un equipo que integre cada vez más oficios. Es aquí donde el arquitecto interviene con mayor asiduidad y necesidad. El diseño de escenarios virtuales -fotorrealistas o abstractos- compete a profesionales expertos en el campo de las estructuras ( cómo se rompen las cosas en el ciberespacio?), en el del planeamiento urbano, en la historia de la arquitectura, en la expresión gráfica arquitectónica y, por supuesto, en el proceso creativo proyectual 66. Por todo ello, el trasvase interdisciplinar está asegurado, lógicamente también en sentido inverso. Algunos géneros del videojuego, lejos de constituir una mera propuesta lúdica, 65 Véase definición en el Glosario. 66 Nótese la diferencia entre proyecto edificatorio y proyecto arquitectónico. Éste último va mucho más allá del proyecto de un edificio que va a ser construido. Para profundizar en el sentido del sintagma arquitectónico véase MORALES, José Ricardo (1969) Arquitectónica (sobre la idea y el sentido de la arquitectura), Ediciones de la Universidad de Chile. 78

105 ofrecen una estrategia retórica narrativa apropiada para campos disciplinares diversos y ajenos a la naturaleza lúdica original del género. Es el caso de los Serious Games 67 y de la aparición del concepto de gamificación 68 o ludificación como el empleo de técnicas y dinámicas propias del videojuego en actividades no recreativas. Esta circunstancia inaugura un campo naciente que está ganando de forma rápida la atención de múltiples disciplinas Cultura arquitectónica del videojuego. Los videojuegos forman parte de nuestro presente cultural tanto por la influencia de su estética, como por la trascendencia de los procesos de interacción hombre-máquina que proponen. Todavía no hay forma de jugar a un videojuego sin ubicarlo en un lugar. El espacio específico de juego nace del acto de jugar. El espacio digital habilitado en representaciones gráficas de muy diversa índole ha sido frecuentado por los jugadores; ha cambiado -y lo sigue haciendonuestra noción del espacio y el tiempo digital, igual que el cine y la televisión fueron transformando su naturaleza a lo largo del siglo XX. Fig.1. Escena de Hábitat, Fuente: Lucas Arts Entertainment Company. Fig.2. Heavy Rain, Quantic Dream para Sony. Fig.3.Intellivision: Game/teacher 69. Anuncio publicitario, junio Mattel Electronics. Los cambios notables que ha experimentado el cine han sido casi todos operados en el soporte - incorporación del sonido, del color, de las tres dimensiones 70 - y en el guión. Este último menos dependiente del avance de tecnológico y más de la retórica que ordena la historia que se pretende contar. Pero el guión no resulta la piedra angular en la gran mayoría de los 67 Véase p Véase Glosario de Términos para la etimología. Más información en:< (Consultada el 2 de diciembre de 2013). 69 Transcripción literal: Hook Intellivision to your color TV and its preprogrammed software lets you do everything from play games to learn a language. It has 60-by-92-line graphics in 16 colors. With keyboard, it s $ A pesar de que Avatar se visionaba en 3d en 2010, la visión estereoscópica que introduce las tres dimensiones perceptivas se remonta a Véase portada de La Sociedad del Espectáculo (fig.3 en Topología del Entorno Aumentado), p

106 videojuegos. Los fabricantes de videojuegos venden escenarios digitales. La arquitectura del juego se ubica en gráficos que permiten sobrellevar la acción. Los inventores del séptimo arte, los hermanos Lumière, nunca sospecharon la posibilidad de que un espectador interactivo visionara sus películas. Más allá de un individuo receptor de estímulos visuales -que más tarde también fueron sonoros, y más aún coloreados-, el espectador contemporáneo está decidido a abandonar una estática ausencia de interactividad de un siglo de duración. La integración total de las dos disciplinas se pone de manifiesto en videojuegos como Heavy Rain 71, donde la trama se solapa al espectáculo de la acción mecánica provocada al percutir los botones de forma impulsiva: tiroteos pirotécnicos, sangre, vísceras, etc. Andrew Darley (2000) plantea en Cultura Visual Digital la relación establecida entre el espectáculo y los nuevos géneros en los medios de comunicación: De qué manera el marco estético, que sirve como fondo de la cultura contemporánea, condiciona la idea de que las expresiones visuales digitales constituyen formas espectaculares? En qué sentido se encuentran relacionadas las nuevas técnicas digitales 72 con la naturaleza particular de la cultura visual digital contemporánea? Esta disyuntiva, cuyo debate prolifera también en el género cinematográfico, plantea una lectura de la escena del videojuego como un acontecimiento que reiteradamente se repite aunque con pequeñas variaciones. El videojuego, formato audiovisual que necesita al jugador como parte activa desencadenante del proceso para el que fue diseñado, puede producir obras de arte o se considera un producto de la cultura del ocio y el entretenimiento? Ya en sus primeros trabajos, como en el caso de Réquiem for the Media, Baudrillard expresa su preocupación fundamental por la forma y el formato, en referencia a la aparición y a la influencia de los sistemas modernos de significación y de representación. En este sentido, la evolución del concepto de obra de arte o sencillamente de artefacto que va a ser fabricado para ser utilizado por un número ingente de personas tiene su punto de inflexión en los años treinta, cuando Walter Benjamin (1971) comenzó a estudiar el concepto de reproductibilidad. Este atributo, característico de los videojuegos y de la infomasa que compone el Entorno Aumentado, resulta de gran interés en la consideración del potencial arquitectónico del mismo. La cualidad reproducible del videojuego permite una experiencia lúdica múltiple abierta a la subjetividad de diferentes percepciones. La experiencia del jugador en el espacio digital, en relación al recorrido que explora y a los diferentes ensayos del juego, es intensificada por la repetición de la acción. Los tiempos de visionado, diseñados en función de la frecuencia de 71 Del director David Cage, fundador de los estudios Quantic Dream que empezaron a realizar investigaciones en este sentido en juegos como Fahrenheit. Han empleado las mismas técnicas de captura de movimientos que en Avatar. 72 Véase Lenguaje digital en el Glosario. 80

107 reproducción y el cansancio generado en el jugador, determinan la escala y la dimensión del escenario digital que el diseñador gráfico desarrollará. Lugares, por un lado, donde el usuario puede recrearse, y por otro, lugares ligeramente o rápidamente consumidos por el jugador -los cuáles no necesitan tanta precisión en el diseño de su detalle-, componen el puzle topológico del videojuego. Esta cualidad escalar del entorno virtual digital forma también parte de la naturaleza del Entorno Aumentado. Si bien el Entorno Físico se muestra siempre en toda su naturaleza, esté o no esté delante el espectador, el Entorno Digital y por extensión el aumentado, puede valorar la posición del (jugador) espectador para la activación de las dinámicas informacionales. En palabras de Jean Baudrillard (1981), la obra reproducida mediante la técnica se ha convertido paulatinamente en la obra que se concibe para ser reproducida. La reproductibilidad tecnológica, primero mecánica y después electrónica, implica la idea de repetición entendida como réplica. En este sentido, Baudrillard suscribe la afirmación de Marshall McLuhan 'el medio es el mensaje'. Así, lo relevante parar comprender correctamente el actual estado de las cosas es la naturaleza o la forma del propio medio -como se comunica-, más que su propio contenido -lo que comunica-. La Revolución Digital ha favorecido la vigencia de nuevas estructuras de pensamiento más transversales y relacionales que verticales e independientes. En detrimento del reduccionismo lineal positivista, el proceso creativo de proyecto asume como nunca esta cualidad que estructura el medio líquido. La mirada analítica del estudiante de arquitectura contemporáneo ordena y jerarquiza la sobreinformación no de un modo taxonómico si no rizomático. De este modo, se pone en valor el talante relacional de las atenciones proyectuales capaz de descubrir sinergias implícitas en el proceso, frente a otras imposturas propias del proceso creativo deductivo que cercenan la complejidad a implementar en el proyecto arquitectónico. La experiencia dinámica del videojuego y otros formatos audiovisuales aportan éstas y otras capacidades características del Entorno Aumentado. Baudrillard, Jameson y Eco consideraron los adelantos que se han producido en el campo de las tecnologías de la reproductibilidad como determinantes del proceso de desarrollo por el cual se ha llegado a una situación de preponderancia general de la forma sobre el contenido: la era del significante, frente al significado 73. Este concepto vinculado a la sociedad del espectáculo es clave para comprender el papel desempeñado por los videojuegos en los 80 y 90, momento en que el carácter mecánico casi automático de la acción del juego convertida en una sucesión de etapas a conquistar, relegaba el guión a un segundo plano. Como se observa tras obtener la experiencia de jugar -por ejemplo, al Heavy Rain- parece que esta dinámica de abandono de la primacía abrumadora del significante frente al significado del juego, el videojuego toma una dimensión mucho más próxima al cine. Al significante del videojuego se asocia el término jugabilidad 74, un parámetro exclusivo del género pero cuya traslación al Entorno Aumentado da lugar a planteamientos interesantes. En 73 Véase definición en el Glosario. 74 Del inglés gameplay. Tal vez el lector quiera buscar su equivalente en el campo de lo arquitectónico. 81

108 palabras de Montagnana (2008), la jugabilidad hace referencia a la accesibilidad y capacidad de disfrute de un juego en virtud de sus gráficos, la fluidez de movimientos o la interacción de personajes. A grandes rasgos, designa todos aquellos elementos que permiten que el jugador disfrute. Puede entenderse también como suma de jugar y habilidad o capacidad de ser jugado 75. El diseño de la interfaz formal del juego debe permitir siempre una jugabilidad óptima y el despliegue plástico de los espacios donde transcurre la acción también debe apoyar este carácter jugable. El concepto de reproductibilidad se subordina al de serie 76 o seriales. Sin duda es esta forma de producción la que domina el mercado del videojuego. Los juegos más populares han desarrollado auténticas sagas de episodios a partir de la entrega del original. La repetición queda alterada por cambios generalmente insignificantes en las réplicas o secuelas (clones). Esta clase de repetición resulta semejante, en ciertos aspectos, a la que Bruno Latour (1985) atribuyó en su breve estudio Visualization and social reproduction: opening one eye whist closing the other a note on some religious paintings a las pinturas religiosas prerrenacentistas. Sin embargo, a diferencia del lenguaje de representación prerrenacentista, en el que según Latour se incluían las pinturas religiosas, hoy en día lo importante para el espectador no radica en lo que se repite en determinados números de una serie sino más bien en las diferencias. Esta circunstancia conviene tenerla en cuenta en el proceso de proyecto del pasaje urbano que integra entornos aumentados. Un instante de vida en el trabajo, en el bar, en un tren, implica la interacción de varios canales sociales que compiten de forma legal por hacerse con la exclusividad de la atención del usuario: suena el móvil, se enciende el testigo de recibido, alguien ha escrito en tu muro de Facebook, tu hermano aparece disponible en Skype,...así hasta llenar la agenda. La tecnología proporciona el soporte de todos estos sistemas informacionales, reinventándose a sí misma y transformando nuestros hábitos de conducta. En la realidad alternativa desarticulada de los videojuegos no se produce esa fricción entre espacios heterogéneos; no existe diferencia alguna entre lo físico y lo electrónico. La experiencia electrónica acapara la atención del jugador de forma tan intensa que se experimenta físicamente 77. El cuerpo somatiza fácilmente los estímulos que percibimos de la pantalla del ordenador. Paradójicamente, los videojuegos constituyen un recinto electrónico amurallado dónde poder refugiarse. De este modo lo describe Wrigley (2007): el espacio del videojuego es el único espacio donde los móviles y los s no te encuentran. No hay mensajes del otro mundo porque no existe el otro mundo; los únicos mensajes vienen de otros jugadores. Las únicas noticias surgen del interior. 75 Este sentido de capacitación se encuentra también en la expresión la película es poco visionable, refiriéndose a una película confusa o dura de ver. Solo los visualmente cultivados pueden elevarse por encima de las modas y enjuiciar con criterio propio lo que consideran apropiado y estéticamente placentero ( ). Donis (2007) La sintaxis de la imagen, MIT. 76 Véase definición de serie y serial en el Glosario. 77 Véase definición en el Glosario. 82

109 El jugador inmerso 78 en el videojuego no precisa caprichos materiales, relaciones sociales o arquitectura. El juego diluye la realidad física en la que vive, igual que diluye el resto de construcciones del contexto físico. El acercamiento al concepto de inmersión resulta de especial interés al abordar los efectos sociales derivados de la emergencia del Entorno Aumentado. Cuáles son entonces los parámetros de estos nuevos espacios? A qué prioridades prácticas y funcionales deberían apuntar? Qué estrategias de diseño se derivarían de ello? Los lugares que nos propone la realidad alternativa del silicio son creados con vocación de resolver un problema no tanto plástico como de orden táctico. La premisa incondicional que han de cumplir es dar forma legible a una interfaz que permita al jugador avanzar en el desarrollo de la acción; vestir el lenguaje informático ingrávido con una envoltura digital que lo haga inteligible a los ojos -a veces oídos y a veces tacto- del jugador. La arquitectura ficticia proporciona un soporte, organiza la información que recibe el jugador y a la vez registra los estímulos de éste. La traslación de esta figuración de la información al Entorno Aumentado apunta sin duda a una experiencia compleja. A diferencia del videojuego, éste no comparte la dimensión plenamente lúdica, pero sí participa del concepto de inmersión. La siguiente analogía se refiere al orden jerárquico informacional del proceso de comunicación que se establece en un videojuego y en una comunicación telefónica. La reflexión se produce a propósito del orden geométrico de la información que pueda hibridarse en un entorno aumentado. El proceso de selección del individuo con el cual se quiere comunicar telefónicamente ha dependido históricamente del formato de la agenda de contactos. En tiempos de las centralitas telefónicas, la codificación numérica manual conectaba a los interlocutores a base de luz roja y el telefonista, procedimiento que daría paso más adelante a la transferencia automática (fig.4). Cuando el teléfono pasó a formar parte del ámbito doméstico, el listín ordenó la información alfabéticamente. Poco a poco fueron apareciendo en el mercado artefactos que ordenaban mecánicamente las listas de contactos 79. Años después, el diseño de la agenda de contactos de los teléfonos móviles aún replicaba el modelo lineal de lista alfabética, cuya estructura inhabilitaba vínculos de otra naturaleza que no fuera la letra inicial del nombre del contacto -el orden gramatical sobre el social-. La evolución de las estructuras de visualización de datos ha deparado recientemente la aparición en el mercado de agendas de 78 Nótese a propósito de este concepto de inmersión la aparición de nuevas prácticas comerciales como el Goldfarming (literalmente, granjear oro ), acción prohibida por las compañías de videojuegos, que consiste en canjear moneda fantástica virtual por divisas reales para potenciar avatares en videojuegos. Este mercado negro mueve 800 millones de euros anuales. Véase Playmoneyfilm, de Julián Dibbel. Fuente: < (Consultada el 2 de enero de 2010). 79 En una famosa escena del largometraje El Apartamento (Wilder 1959), el protagonista interpretado por Jack Lemmon tiene en su mesa de trabajo uno de estos artilugios que ordena fichas en torno a una rueda que éste manipula con destreza (fig.5). 83

110 contactos que ordenan la información mediante otras geometrías 80, facilitando la posibilidad de introducir nuevos parámetros visualizados simultáneamente y de modo interactivo 81 (fig.6). La opción de poder acceder a una mayor cantidad de información de forma simultánea multiplica las posibilidades de uso de la agenda y aumenta la capacidad de control y relacional de la información, lo cual influirá en la operatividad de la agenda telefónica, de la red social o del entorno aumentado en cuestión. Asimismo, la evolución del hardware en la computadora o del soporte físico que constituye el instrumental telefónico ha logrado optimizar el manejo de la información y la velocidad de la comunicación (fig.4). Fig.4. Her Biggest Job Is War, Mayo, Bell Telephone Systems. Fig.5. El Apartamento, Billy Wilder. Fig.6.Videoesphere. Bestiario. El aumento exponencial de la cantidad de información vinculada a los dispositivos electrónicos contemporáneos requiere necesariamente de nuevas estructuras informacionales que supere el colapso de las antiguas. Adaptando la expresión de De Certeau (2007), se podría afirmar que en relación al orden geométrico de la información se ha pasado del recorrido (lineal) al mapa (transversal). Este avance geométrico supone la ganancia de un grado de libertad o una nueva dimensión, y se traduce en una herramienta más precisa que optimiza mejor la información. Actualmente, la venta de televisiones 3D en USA y la incorporación de manera definitiva de las tres dimensiones en las salas de cine, deja patente la asimilación de esta nueva tecnología por el mercado. En poco tiempo, el cliente potencial tipo del arquitecto estará familiarizado con la tecnología 3D o con el video que ahora se emplea en el modelado de arquitectura simulada, accediendo a una mayor cantidad de información que con la planimetría. 80 Véase Agenda Esférica (fig.6) Videoesphere, de Bestiario. Fuente: < (Consultada el 10 de julio de 2012). 81 La especialización en las categorías de la formación, por ejemplo la pertenencia a un grupo de trabajo, amigos...etc, resultan más sencillas en las estructuras tridimensionales y/o en las estructuras dinámicas que adaptan la visualización de la información al formato que precisa el usuario en tiempo real. 84

111 La representación de la información ya sea en un videojuego, en un medio de comunicación, en el proyecto arquitectónico o en un entorno aumentado incrementa su capacidad informativa al optar por soportes que incluyen la variable temporal (dinámicos). La visualización de la capa digital del Entorno Aumentado incluye representaciones simples como la textual o la propuesta por el GPS de un automóvil, pero también puede darse el caso de una fusión de escenarios virtuales avanzados, como los propuestos por algunos videojuegos y un lugar físico determinado, de modo que se produzca un grado de inmersión tal en el usuario que su percepción sea incapaz de distinguir sendas realidades. En ese caso, la hibridación sería plena y se podría empezar a reflexionar sobre el significado de vivir (en) un videojuego Un nuevo ámbito de estudio. Los videojuegos ingresan en la universidad. Anyone who tries to make a distinction between education and entertainment doesn't know the first thing about either. Marshal McLuhan El formato del videojuego resulta apropiado para explorar el proceso de construcción del Entorno Aumentado. En sus orígenes estuvo vinculado a la investigación experimental militar y académica; hoy en día, también compete a la investigación docente. No es intención de este texto analizar el campo de la vanguardia del videojuego desde el estudio de sus fundamentos, sino más bien indagar en la emergencia de un marco teórico crítico de análisis del videojuego y su aceptación en el ámbito universitario. La oferta de programas académicos que abordan esta materia como un acontecimiento que va más allá de la novedad tecnológica o del entretenimiento presenta un crecimiento exponencial. Esta reflexión se suma a las ya realizadas sobre análisis teórico de videojuegos por otros expertos como Janet Murray (1997), Hamlet on the Holodeck; Gonzalo Frasca (2006), The Players Realm; Espen Aarseth (2001), Computer Game Studies; Mia Consalvo & Nathan Dutton, Game analysis: development a methodological toolkit for the qualitative study of games; James Newman (2004), Videogames; o Ian Bogost (2007), Persuasive Games. The expressive power of videogames. El análisis puede ser planteado desde enfoques muy distintos, dependiendo del área de interés específico que se pretenda explorar. Así, los expertos en gameplay (jugabilidad), en género, en gráficos, en psicología, en pedagogía, en sociología, en tecnología, en gamificación, en lingüística etc., investigan desde intereses concretos la materia genérica que es el videojuego. Los videojuegos y la trayectoria de la industria que los produce están ligados a los avances tecnológicos; dependen de ellos para subsistir. Un error grave de planificación en el desarrollo de la próxima plataforma puede llevar a la empresa fácilmente a la quiebra. Esta dependencia atemporal, inmediata e innegociable de la vanguardia tecnológica (siempre pendiente del futuro 85

112 inmediato) derivó en una pérdida manifiesta de perspectiva histórica, por otra parte, tan necesaria para la reflexión autocrítica del sector. El interés público está en conocer los nuevos avances tecnológicos; al consumidor no le interesa merodear en el pasado. PONG, videojuego referencia de la primera generación de videoconsolas, se remonta a Hoy PONG queda incluido en la categoría de clásicos y desde su aparición han surgido numerosas secuelas. Ya pueden encontrarse ejemplares vintage en tiendas especializadas. Esto señal de que ya es posible echar la vista atrás porque hay perspectiva suficiente para articular un modelo crítico que trate de teorizar la trayectoria de este género. A diferencia de las teorías de juegos desarrolladas por matemáticos y estadistas o de las ciencias sociales (Huinzinga 1938; Caillois 1958), los videojuegos según observa Aarseth (2001) se convirtieron en objetos de estudio para las humanidades sólo cuando éstos se volvieron populares 82. Hoy es habitual encontrar estudios de grado y posgrado en este campo lúdico, vinculados a ámbitos disciplinarios tan diferentes como los que conciernen a las ingenierías, al diseño audiovisual, a la psicología, a la economía o la informática. Probablemente, las dimensiones económicas y culturales del fenómeno han provocado su inclusión en estudios superiores y en el sector de la crítica de la cultura visual. Algo parecido ocurrió anteriormente con la aceptación del video como soporte-canal de obras de arte. El debate entre arte y tecnología fue especialmente fructífero en los 60 y70, con la llegada de los nuevos soportes audiovisuales. Espen Aarseth (Ibíd., 2001) añade una causa adicional basada en la naturaleza no efímera del videojuego, en tanto manifestación audiovisual o información almacenada que se puede reproducir. El videojuego tiene un comienzo, un desarrollo y un final, constituye una propuesta digital con una estructura lúdica no transfigurable ni editable 83 que puede ser teorizada como ya lo es la producción en video, televisión u otros medios. Por otro lado, el videojuego construye una infraestructura fenomenológica cuya naturaleza se fundamenta en la acción de ser jugado. Su dimensión objetual no está acabada, como puede estarlo si acaso un cuadro de Rothko, sino que contiene en sí misma un proceso incubado a desarrollar. Los escolásticos dirían que la dimensión objetual del juego es la potencia de un procedimiento a activar y experimentar por el jugador. Esta expresión audiovisual enlatada puede ser objeto de análisis como sucede con un largometraje cinematográfico o una escultura. Del mismo modo que ocurre en la obra de arquitectura, la experiencia del videojuego no es instantánea sino que requiere de una experiencia que sucede a lo largo de un tiempo determinado. El jugador podrá construir su opinión sobre el juego al final del ensayo subjetivo al que somete al mismo, que además es consecuencia de una cadena de decisiones que trazan una particular interacción y percepción. 82 Circunstancia que se produjo cuando encontraron una plataforma de distribución que permitía además compartir en tiempo real la experiencia de jugar. Estamos hablando obviamente de la aparición de Internet. 83 Naturalmente se aborda el concepto de editabilidad desde un escenario general tipo alejado de la cultura del hacker y de los movimientos de código abierto y licencias Creative Commons (Himanen, óp. Cit., 2001). 86

113 El reto supone asumir la paradoja de explorar un objeto de estudio no efímero en cuanto a su estructura, pero cuya razón de ser, es decir, la experiencia propia del acto de jugar, sí lo es. La partida nunca se juega dos veces de la misma forma, lo cual supone un invariante compartido por la arquitectura. El edificio y el videojuego participan de esta rutina efímera, pues también aquél debe ser jugado si se quiere alcanzar a comprender completamente su naturaleza. El jugador de videojuegos y el arquitector 84 de arquitecturas tienen experiencias personales múltiples desde una percepción sensorial que depende del movimiento del sujeto, representado en la pantalla en el caso del videojuego. El propio desplazamiento del espectador aleja este tipo de experiencia de la que se puede tener al contemplar un cuadro, un audiovisual o una pieza cinematográfica, aunque resulta análoga a lo que sucede en la escultura o en la arquitectura. Janet Murray (1997) se pregunta en Hamlet on the Holodeck 85, si los ordenadores pueden ofrecer nuevos modos de expresión narrativa del mismo modo que la imprenta contribuyó al desarrollo de la novela o el cinematógrafo al de las películas. A este propósito, Murray señala cuatro propiedades esenciales del artefacto digital (computadora): procedimiento (del inglés procedurality), participación, espacialidad y enfoque enciclopédico. En el texto Murray da una respuesta positiva a la cuestión planteada a partir del análisis de las propiedades del ordenador como medio expresivo. La computadora es procedimental, participativa, espacial y enciclopédica, y ofrece tres tipos de placer particulares -aunque no exclusivos-: inmersión, actuación y transformación. Murray define la interactividad como la combinación de lo procedimental y de la propiedad participativa, los cuales conllevan el placer de la actuación. La tesis fundamental del libro atribuye a los ordenadores la capacidad de ampliar sus posibilidades de expresión narrativa. Además de ser el videojuego un género de interés académico, su inclusión en el ámbito museístico supone una tendencia global en las metrópolis primermundistas de validación del videojuego como área de interés cultural. Actualmente las capitales del ocio y la cultura exhiben, a veces de manera precipitada, sus museos neonatos. Ejemplo de ello son el Musée du Jeu vidéo Paris, el Computerspiele Museum de Berlin, el ICHEG International Center for the History of Electronic Games de Rochester en Nueva York, o el Museo de las Máquinas Recreativas Soviéticas, donde se guarda una colección de aparatos desarrollados secretamente en fábricas militares, desde los años setenta hasta la Perestroika. Estos museos específicos del videojuego han surgido casi siempre como iniciativas privadas, con fondos procedentes de colecciones privadas. Con carácter temporal, el género del videojuego se encuentra también en el punto de mira de los conservadores de los museos, como el British Science Museum, o de curadores de salas de exposiciones que organizan muestras temporales sobre este género. 84 Término análogo a lector o tele-espectador, entendido como el consumidor de arquitectura que experimenta la obra con una predisposición tal que tome esta experiencia como fin en sí misma. Estaríamos hablando de una suerte de meta-usuario. 85 Traducido como Hamlet en la holocubierta: el futuro de la narrativa en el ciberespacio. 87

114 Fig.1. Evolución de Mario, personaje principal del videojuego Super Mario Bros, desarrollado por Shigeru Miyamoto. Lanzado el 13 de septiembre de 1985 y producido por la compañía Nintendo para la consola Nintendo Entertainment System (NES). La diseñadora gráfica Eileen López, del Columbia College, en Chicago, ha elaborado una línea del tiempo de los videojuegos más vendidos en EEUU a lo largo de 32 años de historia, desde Space Invaders (Atari 2600) in 1978 a Halo Wars (XBox 360) en Más de veinte prototipos de consolas y más de cien videojuegos componen una buena muestra para ser clasificada y analizada por los investigadores. La inauguración de estos lugares contenedores de videojuegos supone un claro indicio de que ya es efectiva la existencia de una perspectiva histórica que permite distanciarnos lo suficiente del origen del fenómeno como para disponer de una visión crítica necesaria para el análisis inteligible del presente de este género cultural. Asimismo, la continuidad y persistencia de la industria a lo largo de los últimos cincuenta años ha generado una producción de tal calibre que el corpus museístico demanda ya nuevos lugares para su exhibición. Podemos entonces considerar el videojuego como acontecimiento cultural? James Newman (2004: 5) cita dos razones por las cuales históricamente se ha rechazado el videojuego como referente cultural: la primera, se debe a que el videojuego ha sido percibido como un medio infantil fácilmente denigrado por trivial y sin favorecer investigación alguna, algo parecido a lo que ocurrió con el comic; la segunda, responde a la extendida percepción de no servir a una función cultural o social y sí prioritariamente a la distracción, el videojuego como expresión trivial de un juego recreativo. Al menos desde el punto de vista de la sociología, nos enfrentamos probablemente al género cultural de mayor impacto social del siglo XXI. Cuando una manifestación artística forma parte de un museo significa que es aceptada -aunque algunos dirían sacrificada - como auténtico acontecimiento cultural. A pesar de su éxito comercial en la industria del entretenimiento, el objetivo del videojuego por tratar de conseguir la etiqueta cultural parece que se ha logrado. Hoy por hoy, cierto tipo de videojuegos como los llamados Serious Games o los Pervasive Games se han convertido en un instrumento utilizado por diseñadores, políticos, arquitectos, sociólogos, etc., por su enorme potencial retórico en la comunicación. 86 Véase Línea del tiempo de los videojuegos más vendidos en EEUU. Desde Space Invaders (Atari 2600) en 1978 a Halo Wars (XBox 360) en Autora: Eileen López. Disponible en: < (Consultada el 20 de junio de 2012). 88

115 Jugador operador investigador. La paradoja del arquinauta. El videojuego y su naturaleza efímera procedimental (Murray 1997; Bogost 2007: 3) condiciona la metodología de análisis empleada por el jugador-investigador. Este texto propone una reflexión sobre la paradoja que afecta al investigador de videojuegos, en tanto que debe encarnar a la vez los personajes de jugador y operador en su labor de análisis. Parece ineludible tomar la acción de jugar en primera persona para asimilar la percepción que se tiene del juego. Al mismo tiempo, resulta infructuoso que el jugador olvide su condición de investigador, coyuntura que habrá de mantenerse dentro de un alto índice de inmersión para procurar una crítica analítica completa y compleja de esta manifestación audiovisual. Es sabido que la buena o mala predisposición de un enólogo para la cata puede condicionar su crítica de manera no deseable. Está claro que el jugador-investigador adoptará una estrategia encaminada a la asimilación del juego en la variante que más le interese para su investigación. Así, el investigador-psicólogo operará el videojuego para comprender su efecto psicológico, probablemente muy diferente al ocasionado en una partida de amigos o en un entorno distinto al lugar de trabajo del investigador. El investigador-diseñador adoptará una forma de jugar donde las decisiones que tome sirvan para obtener una experiencia que explique la circunstancia que investiga lo mejor posible, Cómo debe ser la inmersión del investigador-arquitecto para que el juego sea operado de la manera que más interese a la investigación? Busca el investigadorarquitecto entender el juego de la manera más neutra posible para dar así cobertura a un mayor número de perfiles de jugador, o por el contrario, siendo consciente de su percepción subjetiva, parcial y sesgada, la asume con todas sus consecuencias? En el caso de esta investigación, el análisis está vinculado intencionadamente y en todo momento al campo arquitectónico. En su condición de experto en arquitectura, y por tanto en el campo de las imágenes, el arquinauta 87 habrá de buscar sinergias entre estas dos disciplinas. Para la construcción de una actitud o disposición crítica de cierta dimensión y rigor parece necesaria la exploración tanto de las propuestas más comerciales como de aquellas consignadas como independientes o de autor. Del mismo modo que el crítico de cine supera el horizonte del Hollywood más comercial y de menos calidad cinematográfica para interesarse por producciones menos populares pero desbordantes de ingenio, el investigador-arquitecto habrá de acercarse al género en toda su diversidad de especies. Este discurso sobre el perfil del investigador arquinauta asume una dificultad añadida cuando nos referimos a videojuegos donde hay jugadores que comparten simultáneamente en un entorno virtual. El control sobre el juego que el diseñador puede inducir desde la fase de proyecto es menor o al menos mucho más complejo, dadas las múltiples interacciones que en cualquier momento pueden surgir de manera insospechada. Así lo confirman los creadores del proyecto Habitat 88, pionero del género MMORPG, desarrollado en 1985 por Lucasfilm y Quantum Computer Services para el 87 El término arquinauta toma su etimología de internauta o individuo que navega (-nauta) por Internet. El arquinauta navega por la arquitectura de Internet. 88 Véase definición en el Glosario de términos. 89

116 Commodore 64. En boca de sus creadores Chip Morningstar y F. Randall Farmer (1991), la lección magistral que abstrajeron de su experiencia en Habitat estima que el ciberespacio queda definido por las interacciones entre actores, más que por la tecnología que lo ha desarrollado: Los arquitectos del ciberespacio se beneficiarán tanto del estudio de los principios de la sociología y la economía, como de los principios de la informática. Esta aseveración se puede trasladar al ejercicio de la arquitectura. Es más, ya se hizo treinta años atrás. En la década de los sesenta, como consecuencia del auge de las ciencias sociales en la década inmediatamente anterior (reacción frente a la tríada ciencia-máquina-razón precursora de la II Guerra Mundial), los arquitectos del Team X apostaron por repensar el contenido de la acción frente al continente arquitectónico (fig. 1). El flujo de usuarios y su circunstancia, frente a la impostura de la envolvente construida. Las distorsiones que se producen forman parte del fundamento de la dinámica de juego. El control de las interferencias establecidas entre las conductas de los jugadores de videojuegos on line o masivos comienza con la definición en la fase de proyecto de los patrones de interacción. Esta circunstancia aproxima al proyectista a los presupuestos de la Teoría Cibernética de Wiener y su concepto de feedback, introducidos a su vez en proyectos como el Fun Palace de Price, Littlewood y Pask 89. Fig.1. Small Pleasures of life. Peter Smithson. 89 Véase Fun Palace en p

117 En cuanto a la definición del mundo virtual, Chip Morningstar y F. Randall Farmer abogan por un enfoque agórico, una aproximación evolutiva que vaya marcando progresivamente las pautas de la construcción virtual. Esta postura se aleja de la concepción hierática, hermética y jerarquizada que habitualmente toma el arquitecto como único responsable creador de la obra. Esta metodología agórica integradora de métodos colaborativos de participación surge en oposición a la inercia histórica del proyecto unilateral, lineal y deductivo. Forma ya parte de la paleta metodológica proyectual de estudios de arquitectura como Ecosistema Urbano, cuyos proyectos Dreamhamar 90, para el diseño de una plaza en un pueblo escandinavo, o One thousand square (fig.2) proponen lugares que se refundan mediante un proceso dinámico de diseño en red que suscita la reciprocidad proyectual entre los agentes participantes - residentes y otros actores urbanos involucrados de la mano de los proyectistas-. El proyecto está abierto a la integración trasversal de profesionales expertos en el espacio público: arquitectos, sociólogos, ingenieros, psicólogos, geógrafos, paisajistas, etc. Dreamhamar acoge también a una comunidad virtual en red. Fig.2. One Thousand Square, Ecosistema Urbano y Lluis Sabadell Artiga. 90 Disponible en: < (Consultada el 10 de junio de 2012). 91

118 La diferencia entre los proyectos de Habitat y Dreamhamar estriba en que este último se desarrolla en una plaza urbana real, aunque los dos nodos sociales asumen su condición virtual de forma integral el primero o parcial el segundo. El distintivo lúdico de Habitat es fácilmente trasladable a Dreamhamar. La transferencia de las técnicas lúdicas propias de entornos recreativos a situaciones que carecen de la idiosincrasia ociosa, también denominada gamificación 91 o ludificación, es una práctica emergente en nuestra contemporaneidad. No resulta por tanto descabellado pensar que algunas de las actividades propuestas desde su comunidad superen en intensidad los procesos inmersivos de un videojuego. El proyecto noruego tiene una clara sintonía con el género de videojuegos Serious Games, diseñados de manera que trascienden su condición lúdica para abordar temas no relacionados con la canónica industria del videojuego: pedagogía, economía, política, medicina, etc. De cualquier manera, la acción de juego forma parte de la condición humana del operador del videojuego digital y del proyecto Dreamhamar. triunfadores exploradores sociables ejecutores Fig.3. Clasificación tipológica de usuarios de MUDS. Richard Bartle. La casuística compleja suscitada por la interacción que se produce en los videojuegos de multijugador, o de modo análogo en los proyectos urbanos colaborativos 92, añade un grado de dificultad al análisis operado por el crítico desde la paradoja que acompaña a su labor de investigador-jugador-operador. Ésta dinámica interactiva puede dar lugar a un sistema objeto de ser teorizado, lo cual plantea la hipótesis de una posible simulación desde el dominio del videojuego de modelos de interacción social producidos en entornos aumentados. Veamos a continuación qué depara el estudio del comportamiento del jugador y cómo podemos aplicarlo a situaciones características del Entorno Aumentado. Con la intención de instituir un procedimiento que permita al administrador del juego dotar de estabilidad a la interacción colectiva, Richard Bartle (1996) propone una clasificación de tipos de jugadores de videojuegos MUDS 93 o MMORPG en base a su conducta en el devenir del juego: triunfadores, exploradores, 91 Véase definición en el Glosario de términos. 92 Véase El proyecto procedimental: arquitectura opensource y proyecto colaborativo en p Véase definición en el Glosario de términos. 92

119 sociables y ejecutores. Tal vez pueda tener validez una clasificación similar que describa la naturaleza del ciudadano en base a su atención interactiva con la capa digital del Entorno Aumentado. Una quinta categoría apuntada por Aarseth (2007) responde a la figura del jugador tramposo. La interacción de estos cinco tipos en juegos de varios jugadores en red determina la deriva lúdica del juego. Los triunfadores tienen como objetivo subir niveles de juego, ganar. Todo lo que hacen -explorar, socializar, etc.- debe conducirles a esa meta. Por el contrario los exploradores tratan de descubrir, comprender y recorrer la operativa interna. Para los socializadores el juego es un mero telón de fondo pues lo que les interesa realmente es conocer e interactuar con otros jugadores. Los ejecutores tratan de imponerse a los demás para obtener su ración de adrenalina. A su vez el perfil del jugador responde a unas cualidades específicas relacionadas con su experiencia en el juego. En función de éstas, podemos obtener perfiles de jugador novato, ocasional y jugón. Además, Aarseth añade otras categorías como el género de juego, la base teórica, la motivación y los distintos estratos de vinculación que permite el análisis de juegos. El perfil que debería encarnar el analista de videojuegos es sin duda el de explorador. Los otros persiguen metas que se alejan del interés cognitivo primero. Esta elección puede proyectarse al perfil de usuario-investigador del Entorno Aumentado. Resulta interesante el quinto perfil de comportamiento aportado por Aarseth: el tramposo, el que se salta las reglas del juego. Aarseth critica la tentación por parte del investigador de usar guías de trucos o walkthrough que ahorren tiempo de dedicación al juego. Por un lado, la postura de conocer más y mejor el juego con ayuda de los walkthrough propone un conocimiento más profundo del mundo del juego y de la trama. Por otro, la apuesta por vivir una verdadera experiencia lúdica no contaminada por agentes externos, garantiza un análisis de la jugabilidad más certero. Cuál de los dos caminos seguir? En esta investigación se propone elegir en cada caso la vía más cercana al análisis arquitectónico. El perfil de jugador que barajan los diseñadores de videojuegos ha cambiado con el tiempo. En la actualidad, ya no se guía al jugador por la escena digital de manera literal, si no que se utilizan sistemas de códigos más sofisticados, como el uso del color o la direccionalidad de escenarios, en perjuicio de la señalética o de los mensajes textuales de ayuda que orientaban al jugador al lugar deseado por el diseñador. Este modelo de comportamiento humano en entornos virtuales, se puede reproducir en entornos físicos? y en entornos aumentados? El usuario del Entorno Aumentado se enfrenta a interacciones con dispositivos sensibles, su comportamiento induce acciones que los activan. La figura del mediador resuelve pautas de conducta no contempladas en el diseño de escenarios interactivos. Pensemos en una sala de un museo donde se presupone que el visitante ha de acudir a un cierto punto señalado desde el cual se activa de forma automática un dispositivo, y finalmente no lo hace. Las experiencias en técnicas de orientación empleadas en los escenarios virtuales de los videojuegos proponen alternativas a considerar en la construcción del Entorno Aumentado. La visión del paisaje aumentado urbano propuesta por expertos como Keiichi Matsuda va unida a una sobre información textual característica de la capa digital (lo que vería un ciudadano que paseara por el centro de una ciudad vistiendo unas gafas digitales). Tal vez, la experiencia del videojuego sirva para replantear o al menos explorar nuevas formas de organización de la información 93

120 digital geo-referenciada. La percepción de la capa digital que compone el paisaje aumentado derivada de la multiplicación dimensional del lugar obliga a una reflexión profunda de la jerarquía informacional que la futura ciudad pueda ofrecer al ciudadano Metodologías de análisis del videojuego. Una propuesta metodológica para el análisis del Entorno Aumentado. El modo de acomodar la información digital que poco a poco comienza a modelar las ciudades del Entorno Aumentado implica estructurar la interacción del ciudadano para que su contacto con la capa digital sea intuitivo y eficaz. Esta labor que cuenta con más de cincuenta años de duración en el campo del videojuego, se encuentra en el Entorno Aumentado en una fase apenas iniciática. Las propuestas de los investigadores particulares, los artistas interesados en la fusión físico-digital, las empresas vinculadas a las TIC o el posicionamiento estratégico y reparto de competencias entre las administraciones respecto al diseño del planeamiento urbano de las Smart Cities son síntomas del proceso de construcción del Entorno Aumentado. Esta investigación llama la atención sobre la necesidad de una metodología de análisis que, desde la perspectiva de lo arquitectónico, explore la integración de la capa digital en el Entorno Físico. Con esta intención, la mirada se pone en la búsqueda de sinergias transdisciplinares entre lo arquitectónico y el Entorno Digital, entre lo arquitectónico y el género del videojuego, tomando éste como paradigma arquitectónico del tratamiento digital que implica el Entorno Aumentado. Una de las hipótesis que se propone versa sobre el tipo de espacio que puede albergar un lugar aumentado por la capa digital. En este sentido, la incorporación al Entorno Aumentado de la experiencia que el género del videojuego acumula sobre escenarios y mundos virtuales parece premonitoria o al menos digna de ser tenida en cuenta. A pesar de la reciente profusión literaria de metodologías de análisis de videojuegos, son escasas las aproximaciones metodológicas que abordan con rigor el estudio de los videojuegos desde un enfoque arquitectónico, entendiendo por metodología no sólo la extracción analítica que el investigador efectúa en el videojuego sino también el diseño del protocolo analítico del modus operandi. El interés académico por los videojuegos aparece mucho más tarde que la entrada en escena de los críticos o que las publicaciones de literatura a nivel de usuario o desde la propia industria. Algunos datan el comienzo de tal despertar académico en los albores del s.xxi (Aarseth, óp.cit., 2001). El corpus teórico metodológico cuenta con contribuciones que aportan un enfoque diverso. La metodología lineal de análisis de videojuegos significada en las siete capas del método de Lars Konzack (2002) distingue siete capas distintas en el juego de ordenador: hardware, código de programa, funcionalidad, jugabilidad, significado, referencialidad y sociocultura. Cada una de estas capas debe analizarse individualmente, pero un análisis entero de cualquier juego de ordenador debe realizarse desde cualquier ángulo. De ese modo analizamos las perspectivas técnicas, estéticas y socioculturales. Por su parte, Aarseth (2007) señala tres dimensiones que caracterizan a cada juego en los entornos virtuales: la jugabilidad (las acciones, estrategias y motivaciones de los jugadores); la estructura del juego (las reglas del juego, incluidas las reglas de simulación); y el mundo del juego (contenido de ficción, diseño de topología/niveles, 94

121 texturas, etc.). Por otro lado, la metodología textual de Mía Consalvo y Nathan Dutton (2007) propone un protocolo de análisis del mensaje comunicado por el videojuego. Todas ellas son indagaciones certeras desde otros puntos de vista disciplinarios que tratan de sistematizar la atención metodológica hacia este producto lúdico. El fenómeno videojuego, al igual que el planeamiento urbano u otras materias que abarcan un compendio complejo de saberes, necesita integrar a menudo muchos y muy diferentes oficios para generar una propuesta con un alto índice eficacia en la figuración de esa amalgama heterogénea. El profesor de estudios de videojuegos Espen Aarseth aduce como razón primera de este carácter heterogéneo la intención de todo videojuego de convertirse en una simulación 94 de la realidad, anhelo que convierte su proceso proyectual en una creación de naturaleza generalista. La definición de una metodología que pretenda el diseño de un protocolo descriptor del fundamento arquitectónico del videojuego deberá contar con métodos parciales que exploren las áreas concretas que construyen el formato. Dichas áreas no dejan de tener cierta similitud con las categorías de los saberes de la arquitectura real. Tal vez el análisis del proceso apuntado por los desarrolladores de videojuegos ayude en la confección de la metodología. Los desarrolladores constituyen un estrato importante de la cadena de producción de la industria. La IGDA (International Game Developers Association) propone un curriculum académico a implementar en las universidades con las siguientes categorías: 1. Diseño sonoro, un área descuidada durante muchos años y que actualmente gana en importancia. Todavía no está equiparada al área visual pero es un campo a explorar y mejorar. 2. Diseño narrativa interactiva, escritura y guión-, es la profesión más deseada y la más creativa, aunque cada vez se va especializando más. Se encarga de la gestación del proyecto. 3. Producción, incluye a los tester o probadores de juegos. 4. Programación, los desarrolladores del código. 5. Artes Visuales, trabajo creativo que mezcla técnicas tradicionales y digitales. 6. Negocio y marketing. La clasificación que la IGDA hace del videojuego puede tomarse como base estructural sobre la cual desarrollar una metodología arquitectónica de análisis del videojuego. Materias técnicas como la acústica, el cálculo del comportamiento estructural de elementos figurativos, el trabajo de artes visuales o de diseño, o las disciplinas humanísticas vinculadas al análisis de imágenes como la retórica arquitectónica y la estética, la historia de la arquitectura o incluso el proceso proyectual creativo propio del arquitecto tienen cabida en los puntos de esta clasificación. Queda pues apuntada una vía de investigación que aunque excede del alcance de esta tesis, será seguro recorrida en otros foros por el autor. 94 Alan Turin, matemático inglés que intervino en la concepción teórica del computador -10 años antes de su invención práctica-, publicó en 1936 un artículo donde teorizaba la descripción de un autómata abstracto capaz de efectuar casi todos los cálculos inimaginables. En función de este principio de universalidad, un ordenador puede reproducir la mayoría de otros fenómenos. Sirva esta analogía para reflexionar sobre el videojuego universal. 95

122 Conquista de la dimensión dinámica en la escena digital del videojuego. Tras los pasos de Lara Croft. Así comienza el espacio, solamente con palabras, con signos trazados sobre la página blanca. Describir el espacio: nombrarlo, trazarlo,..etc. Georges Perec, Especies de espacios. El videojuego incorpora los adelantos tecnológicos de hardware y software, pero también se sirve de otros instrumentos del proyecto creativo que han permitido conquistar estadios cenestésicos y cinestésicos 95 más y más evolucionados. En un símil con la pintura, estaríamos refiriéndonos a mejoras en la técnica pictórica de origen químico, óptico, geométrico, etc.- o a nuevos planteamientos que, por ejemplo, revisen la manera del pintor de enfrentar el lienzo expresionismo, cubismo, etc.-. Sendas posibilidades no solo no son excluyentes sino que a menudo se complementan. La evolución en la representación del espacio virtual desde el afán figurativo 96 de simular la realidad no ha sido debida tanto a los avances técnicos que matizan el dibujo de la envolvente de esos lugares digitales como a la conquista de un mayor número de grados de libertad de movimiento en recorrer ese escenario simulado. La figuración del ciberespacio ha transgredido la cuarta pared. Los sistemas digitales geo-referenciados permiten una interacción hombremáquina de un modo que el espacio físico -con sus cualidades arquitectónicas- quede conectado in situ con la capa digital. Imagine el lector que se encuentra delante de la pantalla de una consola de videojuegos y por un momento desaparecen las texturas que visten las superficies por las que hacemos transcurrir a nuestros personajes avatares 97. El resultado de esta simplificación es la representación de una trama alámbrica sobre el fondo neutro de la pantalla 98. Esta forma de representación gráfica se empleó en muchos de los primeros 95 Véase definición de cenestesia y cinestesia en el Glosario. 96 Véase imagen figurativa en el Glosario. 97 Conviene recordar que el proceso de desmaterialización de la forma aconteció en la historia de la arquitectura cuando las vanguardias comenzaron a distanciarse de los movimientos románticos del s.xix, tratando de buscar una interpretación de la naturaleza en base a un código alejado de la cualidad figurativa que ésta ostenta. Actualmente, la retórica gráfica arquitectónica acumula fotomontajes o renders con motivos sombreados multiflorales, texturas de materiales constructivos, tipografías de líneas ondulantes o de punto de cruz, iconografías que recuerdan procesos y objetos artesanales, o evocadoras de oficios. Frente a la síntesis minimalista jaleada en años anteriores, cercanos al fin de la Revolución Digital, parece que cierta tendencia sugiere la puesta en valor de lo artesanal. 98 En The Matrix (Larry y Andy Wachowski 1999), Orfeo muestra a Neo el verdadero aspecto de la realidad líquida cuyo fin es conformar una escenografía de ficción. 96

123 videojuegos, cuando la técnica que permitía simular el movimiento en estos espacios era aún muy torpe. Battlezone 99 (Atari 1980) puede considerarse el primer videojuego de realidad virtual, muy popular durante años. El juego proponía gráficos vectoriales en lugar de tramas sobre un plano horizontal en blanco y negro CRT -el verde y el rojo se superponían-. Una desmaterialización análoga tiene lugar en el largometraje Dogville (Lars von Trier, 2003), en la cual la representación del guión se acompañó de una puesta en escena prácticamente liberada de escenografía. La acción tenía lugar en un pueblo del lejano oeste que se mostraba tan sólo con el trazado de los muros de sus casas en la calle (fig.2). Lars von Trier prescindió casi por completo del soporte escenográfico, apostando por una interpretación del guión casi desnuda acompañada por una retórica fundamentada en los actores y en el texto. Este ejercicio de desnudez se ha producido también en la disciplina arquitectónica. En el artículo The New Brutalism, Alison y Peter Smithson (1955), en una apología de la condición ética de la arquitectura, declararon su escaso interés en la materialidad de sus proyectos: ( ) nosotros no hacemos edificios, quiero decir hay una diferencia fundamental. Lo que nosotros hacemos es algo para hacer con ello, podrías llamarlo crudamente espacio, pero no es un edificio. Es algo que es parte de la ciudad. Nosotros no hacemos edificios...lo cual resulta extraño decir de un arquitecto. Los Smithson entendían el edificio como un contenedor de flujos que optimizaba las interacciones entre sus usuarios, en una suerte de nodo de intercambio de la información individual y colectiva. Por ello, el diseño de las circulaciones que habilitaban el uso del edificio suponía un aspecto de vital importancia en sus proyectos. Su testimonio recobra vigencia en relación a la situación contemporánea que alienta la dislocación de los límites 100 dicotómicos derivada de la emergencia del Entorno Aumentado. La vivienda ya no es un lugar limitado por un cerramiento constructivo infranqueable, sino una identidad abstracta que actúa de interfaz de todos los canales de comunicación real y virtual que dispone el individuo. La siguiente etapa de este proceso desmaterializador del escenario digital señala al simbolismo como estrategia retórica para representar la interfaz donde tiene lugar la acción. Muy utilizado en los primeros videojuegos, como en el caso del Pong 101 (1972), el empleo de píxeles 102 para dibujar imágenes que representaban objetos con una carga simbólica capaz de articular metáforas que relacionaban el juego con el mundo real. Sin el uso de estas metáforas ( amigo, peligro, fuego,...etc.) la práctica del juego podía ser ambigua y confusa para el jugador. Un ejemplo de aventura gráfica con gran apoyo de información textual fue Lords of Midnight, 99 El éxito abrumador del videojuego fue tal que su autor Ed Rotber recibió un encargo inesperado del ejército estadounidense para que elaborara una versión más realista que pudiera ser utilizada para entrenar soldados (Laing 2011). Véase fig.1, p Véase Cap. IV, p.338, La disolución del entorno dicotómico. 101 Pong, 1972, Atari. 102 Véase en el Glosario la definición de Píxel. 97

124 desarrollado en 1984 por Mike Singleton (fig.3) permitía al jugador dibujar su entorno próximo desde su propia perspectiva. Fig.1. Battlezone, Ed Rotberg para Atari. Fig.2. Dogville, Dirigida por Lars von Trier y protagonizada por Nicole Kidman. Fig.3. Lords of midnight, Mike Singleton. En este análisis gráfico del ámbito donde sucede la acción, la capacidad de la interfaz gráfica de usuario GUI para habilitar desplazamientos virtuales resulta determinante para comprender la evolución del videojuego. Los primitivos videojuegos basados en el uso exclusivo de la narración no habilitaban movimiento alguno. Tal es el caso de Dungeons&Dragons (1974). Más tarde se dio paso a juegos que proponían movimiento en dos dimensiones, en dos ejes. Pac Man (1980) y Asteroids (1979) hicieron desaparecer objetos en un lado de la pantalla para inmediatamente aparecer en el otro, logrando la impresión de que el espacio de juego era continuo. Trucos parecidos a éstos se emplearon en algunos juegos de plataformas para simular movimientos que la técnica todavía no podía integrar en el código. El punto de inflexión en la conquista del movimiento en el ciberespacio tuvo lugar al franquear la cuarta pared o pantalla, al conectar súbitamente la arquitectura de las dos realidades. Si llegamos a desestimar la dimensión gráfica para configurar el espacio digital, estaremos obligados a emplear el texto como único recurso para lograr la inmersión del jugador en el videojuego. El atributo narrativo de la arquitectura y la propia identificación de ésta con un lenguaje (Robert Venturi dixit) es un recurso empleado para comunicar un mensaje al usuario, tanto de la realidad física como en de la realidad alternativa. La adecuación sintáctica y semántica del texto fonotexto vs genotexto- a las intenciones del diseñador de videojuegos o del arquitecto será el fundamento de esas representaciones espaciales que propicien la acción. La posibilidad que ofrece la dimensión inmaterial digital, sin gravedad, en su convergencia con el entorno tradicional, abre las puertas a un proceso de colonización parásita. Penetrar, prolongar o disolver el lugar material arquitectónico y la amplitud espacial que éste propone mediante la intromisión de la capa digital son operaciones topológicas que el entorno digital ejecuta asiduamente. Estas nuevas condiciones geométricas del lugar tradicional pueden tomarse como uno de los campos de experimentación del Entorno Aumentado. La conjetura alternativa sobre otra realidad comienza a tomar forma. El catálogo de las ciudades imaginadas - Hiperbórea, Lemuria, Agarthe, etc.- se digitaliza para incorporar las propuestas visionarias de los holandeses MRVDV desarrolladas en los proyectos Skycar City y Space Fighter, the 103 La escena muestra una vista aérea del trazado del pueblo a partir de la cual se sucede un movimiento de la cámara en zoom hasta un primer plano de la casa de Thomas Edison. Fuente: < (Consultada el 20 de septiembre de 2013). 98

125 Evolutionary City 104. Sendas experiencias en el ámbito del desarrollo urbano de ficción bien pudieran haberse presentado en formato de videojuego. El proyecto arquitectónico a menudo se plantea desde campos hasta ahora ajenos a la disciplina arquitectónica. El videojuego es un formato cada vez más y mejor utilizado como herramienta proyectual. Cronología cinética del lugar digital en el videojuego. Una visión comparada con el espacio arquitectónico. Más y más rápido: mejores gráficos y acción más rápida; tan rápido trasciendes la barrera de la gravedad, tan vívido que es más real que la real. Charles Bernstein (2003: 155). Konzack toma esta elocuente afirmación de Charles Bernstein (2003: 155) para explicar el vínculo inexorable que existe entre la vanguardia tecnológica y el videojuego. El desarrollo del movimiento digital está ligado al avance de las nuevas tecnologías. El videojuego pasó por etapas similares al cine. La conquista del color y la conquista del sonido se produjeron en etapas tempranas, pero la conquista del movimiento interactivo ha recorrido un camino mucho más largo y se mantiene viva en la actualidad. La expresión gráfica de la representación del lugar digital y la interacción que se produce entre ésta y el jugador constituye una circunstancia abordada por técnicos pero también por expertos en la comprensión espacial como arquitectos, escultores y otros oficios implicados en la habitación del espacio. La experiencia histórica de las bellas artes y de la arquitectura constata que desde imágenes estáticas se puede incitar o incluso llegar a simular movimiento. Como ya se ha observado con anterioridad, en una analogía con la historia del arte podría afirmarse que la expresión de la representación del espacio digital del videojuego ha evolucionado desde los primeros grafos en las cavernas hasta la disolución total de la representación figurativa propinada por el cubismo, simbolismo, expresionismo abstracto u otras tendencias plásticas. La manera de mostrar al jugador el camino a seguir en la escena ha experimentado también importantes cambios. El uso inteligente del color, la disposición correcta del orden geométrico y del topológico, la jerarquía apropiada de los elementos que componen la imagen o la significación del punctum, constituyen técnicas audiovisuales y herramientas retóricas que el diseñador emplea para inducir conductas deseadas en el jugador. Muchos videojuegos que buscan la simulación de un escenario real se ven abocados a emplear iconografía impropia, lo que disminuye la capacidad de inmersión que el jugador experimenta. Tintoretto no recurría a señalar con flechas los lugares más importantes de sus lienzos de gran formato para asegurarse atraer la mirada del observador. La técnica de su pincel le permitía llamar la atención del espectador hacia donde le conviniera. A las figuras retóricas empleadas por el veneciano, cabría 104 MVRDV-UWM (2007) Skycar City, Barcelona, New York: Actar; MVRDV-DSD (2006) Space Fighter, the evolutionary city, Barcelona, New York: Actar. 99

126 añadir también el empleo del claroscuro para acentuar volúmenes o la consideración en la composición del lienzo la posición que ha de ocupar el espectador 105. El dominio el movimiento en el lugar ciberespacial supone la conquista del control que opera la interaccion hombremáquina. Desde la invención de la computadora, el ser humano ha ido inventando algoritmos que permiten introducir en la máquina la capacidad de movimiento que le es propia a nuestra especie. El análisis de esta capacidad dinámica se antoja imprescindible para explorar su capacidad de ubicar. A pesar de emplear recursos como la abstracción u otras técnicas audiovisuales, el fin último no es ni siquiera la representación del entorno físico, entendiendo el término re-presentación como el acto que supone dotar de nueva presencia a un tercero mediante recursos audiovisuales. La evolución de la tecnología conduce a los investigadores y a los desarrolladores de videojuegos hacia un propósito más complejo: la simulación. R.E. Shannon (1976) define simulación como el proceso de diseñar un modelo de un sistema real y llevar a término experiencias con él. Se trata por tanto del diseño de un modelo, un sistema que habilite procesos dinámicos e interactivos alejados del carácter estático que caracteriza a la representación gráfica. Sostiene Shannon que el representante está obligado a vincular la representación con un momento concreto de la existencia de lo representado. Por el contrario, en la simulación el tiempo es reversible y manipulable. Fig.4. Types of possible camera movements, Michael Nitche La correlación entre espacio y tiempo dimensiona y condiciona el tipo de movimiento efectuado en el ámbito digital. La evolución del nivel de interactividad propuesto en los escenarios de los videojuegos puede analizarse desde la capacidad de representación simulada del espacio digital o desde la cantidad y tipo de movimientos permitidos 106 (fig.4). Las tres dimensiones en el juego han ocasionado la aparición de dimensiones adicionales como el tiempo, el clima,...etc. Con la ayuda de Internet, el espacio que contaba una historia se ha convertido en un espacio que las acciones de otros jugadores pueden alterar, lo que dota al juego de un gran realismo. Se presenta 105 De manera similar a lo sucedido en la anamorfosis. 106 En mecánica newtoniana se define la cantidad de movimiento lineal como el producto de la masa por la velocidad. En el ciberespacio el átomo resulta sustituido por el bit. 100

127 a continuación una descripción de la evolución del lugar digital atendiendo a su capacidad de generar o asimilar el movimiento operado por el usuario. a. Espacio textual Joseph Wiezenbaum, profesor de informática del MIT, creó en 1966 un programa de procesado del lenguaje en el que se podía mantener una conversación con la computadora gracias a un dispositivo de teletipo conectado en tiempo real a una de las primeras redes informáticas. El resultado fue un personaje llamado ELIZA que da nombre al programa de computación y representa el interés generalizado de esa época en crear una inteligencia artificial. ELIZA era capaz de entablar una conversación coherente con el usuario a modo de terapia psicológica. La rutina del programa se fundamentaba en los principios desarrollados por el psicólogo Carl Rogers: empatizar con el individuo para que se sienta escuchado. Se empleaban tres tipos de respuestas: frases hechas, a partir de las palabras claves que detectaba en la intervención del usuario; frases de continuidad, en caso de no hallar palabras clave; y frases empáticas del tipo Háblame más de eso. Men are all alike. IN WHAT WAY? They re always bugging us about something or other. CAN YOU THINK OF A SPECIFIC EXAMPLE? Well, my boyfriend made me come here. YOUR BOYFRIEND MADE YOU COME HERE He says I m depressed much of the time. I AM SORRY TO HEAR YOU ARE DEPRESSED It s true. I am unhappy DO YOU THINK COMING HERE WILL HELP YOU NOT TO BE UNHAPPY? I need some help, that much seems certain. WHAT WOULD IT MEAN TO YOU IF YOU GOT SOME HELP? Perhaps I could learn to get along with my mother. TELL ME MORE ABOUT YOUR FAMILY My mother takes care of me Eliza, funcionó en el MAC del MIT a mediados de los sesenta. (En mayúsculas las respuestas de la computadora). Eliza y otras propuestas posteriores consiguieron una inmersión espacial en el dominio digital mediante el empleo del texto como único recurso retórico, sin dimensión gráfica alguna. Tras Eliza, surgieron experimentos similares que tomaban la computación como una incubadora de inteligencia artificial donde el jugador sólo tenía que leer el texto y conversar con la máquina. El siguiente paso implicó interpretar un texto interactivo, navegando con el teclado por mapas imaginarios, como en el caso de The Oregon Train (1971) o Déjà Vu (1985). Fueron muy populares los juegos de 'elige tu propia aventura', como el caso del Dungeons&Dragons (1974). Este género resultaba idóneo para el formato de videojuego, o más bien librojuego, pues incorporaba al texto una condición interactiva que dependía de la decisión del lector-jugador. La configuración espacial con ausencia de representación figurativa inducía a éste a evocar lugares 101

128 y paisajes imaginados. El simbolismo enseguida entró a formar parte de la retórica del juego. Las representaciones simbólicas recuerdan a las pinturas rupestres que el ser humano prehistórico pintó en la superficie de las cavernas. Se sabe por ejemplo que dibujaban animales con una extremidad añadida para representar el movimiento. Aquella amplitud cavernosa tomaba un cariz doméstico gracias al potencial figurativo del simbolismo. La topología de algunos géneros del videojuego, como el personal shooter, recrea escenarios cuya geometría involutiva de espacio gusano -acuñado por Abraham Moles- ayudan a sobrellevar la acción y la orientación del jugador. b. Espacio 2D b.1. Espacio 2D hermético. El primer estadio en la evolución de la grafía del espacio digital propuesto por el género del videojuego corresponde al espacio 2D o de dos dimensiones. Dentro de la bidimensionalidad cabe señalar como pionero el espacio 2D hermético o representación de un ámbito estático que se agota con el plano fijo de la escena que aparece en la pantalla. No se producía concatenación alguna de pantallas, ni se permitía ningún movimiento ni acción que transgrediera ese plano fijo. Las primeras representaciones gráficas de escenarios virtuales empleaban píxeles para simular objetos con gran simbolismo y metáforas que relacionaban el juego con el mundo real. Sin el uso de las metáforas amigo, peligro, fuego,...etc., jugar podía ser ambiguo y confuso. Pong (1972), Combat (1977) o Space Invaders (1978) planteaban escenas con una movilidad que no excedía de los límites de la pantalla. En ese momento, aún no se habían desarrollado mecanismos que simularan otros tipos de movimiento. La geografía del juego constituía una sucesión de pantallas sin otra conexión que el guión o el argumento del videojuego. La abstracción de los conceptos planteados en aquellos ámbitos bidimensionales, obligada por la precariedad técnica del momento, construyó una estética pionera. El pixelado de la imagen, heredero de esa época pretérita, resulta aplicado como estrategia estructural traslada al proyecto de arquitectura. La geometrización de la traza del proyecto desencadenó la emergencia de propuestas como por ejemplo La Plaza Desierto de Barakaldo del arquitecto Eduardo Arroyo, donde se dispuso una rejilla de píxeles para organizar la intervención en el paisaje. El pixelado como un lenguaje que pauta a su vez un código estético, y algunas veces operativo como matriz informacional, define la piel de no pocos edificios contemporáneos. b.2. Espacio enrollado (Wraparound space). El wraparound space, o espacio que se enrolla sobre sí mismo, introdujo elementos que procuraban la sensación de continuidad en el transcurso de las pantallas del espacio 2D hermético. La interfaz gráfica de estos juegos permitía hacer desaparecer objetos del límite de la pantalla solamente para aparecer en el lado opuesto, dando la impresión de que el juego era continuo. Este hecho permitía al subconsciente del jugador extrapolar y viajar a través del espacio invisible. Tal es el caso de Asteroids (1979) o Pac Man (1980), que presentaban una representación de la escena en alzado frontal y en planta respectivamente. Este truco para convertir en circular una trayectoria lineal ha sido empleado mucho antes en el espacio físico de la arquitectura. Una de las ocasiones más notables tuvo lugar en las iglesias de peregrinación del 102

129 Camino de Santiago, donde la necesidad de trazar una circulación eficaz que garantizara el acceso y la evacuación de los fieles llevó a romper la linealidad del fondo de saco de las plantas basilicales románicas mediante la inserción de una articulación circular o girola en la cabecera de la planta. b.3. Espacio apilado. La simulación de plataformas o apilamiento de espacios diferentes supuso otro avance a implementar en los primeros gráficos bidimensionales. Miner 2049er (1982) o Donkey Kong (1981) sistematizaban sus gráficos mediante una sección donde quedaba registrada la proyección de los forjados donde se apoyaban los personajes. La comunicación entre estos planos paralelos a menudo se resolvía con escaleras. El apilamiento de forjados, roto tan solo por elementos de circulación vertical, responde a un esquema básico de la arquitectura tradicional discontínua. Este hecho será superado a principios del sigl XX con la formulación del Raumplan por Adolf Loos. b.4. Espacio trampantojo. El tránsito de los gráficos que permitían el movimiento en dos dimensiones a otras propuestas que incorporaban el espacio perspectivo con una profundidad de campo habitable estuvo precedido por la simulación de las tres dimensiones mediante geometrías planas (falsas) que insinuaban representaciones tridimensionales, de modo similar a como opera la técnica del trampantojo en elementos arquitectónicos, por ejemplo en las fachadas. Q*Bert (1982) contenía entre sus gráficos una pirámide construida con módulos cúbicos que recreaba esa sensación de profundidad. Otros videojuegos como Little Computer People (1985) planteaban sus escenas en secciones fugadas. Si bien resolvían la profundidad con acoplamientos perspectivos ciertamente torpes en algunos de sus componentes figurativos, es cierto que conseguían ese plus de profundidad. b.5. Simulación de la perspectiva central. La simulación del espacio resuelto mediante la perspectiva cónica, con el punto de fuga situado en el eje vertical de simetría de la pantalla, fue muy utilizada en videojuegos como Battlezone (1980) para simular espacios exteriores. b.6. Espacios desarrollados en torno a un eje (Scroll space). La conquista de la continuidad ciberespacial tuvo un punto de inflexión en este tipo de escenarios, donde se daba la impresión de permitir un movimiento continuo en un espacio de dos dimensiones donde el jugador podía avanzar ininterrumpidamente a través de la sucesión de pantallas. El eje del movimiento podía ser vertical u horizontal. La perspectiva estaba centrada en el personaje. El scroll horizontal fue muy común en los juegos de arcade de los 70 y 80, donde el protagonista debía lograr el avance de izquierda a derecha superando las pruebas oportunas. Junto a Kung-Fu Master (1984) y Ghost n Goblings (1985), uno de los referentes de scroll horizontal es Super Mario Bros (1985), del japonés Shigeru Miyamoto, videojuego de 103

130 plataformas que marcó un auténtico hito en la industria. El scroll vertical fue menos común pero encontramos ejemplos muy conocidos como 1942 (1984) o Commando (1985). b.7. Espacio desarrollado en torno a dos ejes. Este tipo cinético aporta el movimiento en el eje 'x' e 'y' sobre un plano de dos dimensiones. Es el resultado de la combinación de un scroll horizontal y otro vertical. El uso de las sombras para dar sensación de profundidad es habitual en la recreación de estos lugares bidimensionales planos, como en los casos de Gaunlet (1985) y Sim City (1989), cuyos escenarios tapizados simulan la profundidad a partir del empleo del color y del contraste cromático. La vista aérea es la elegida habitualmente para esta representación perspetiva. b.8. Espacios adyacentes simultáneos. Esta solución de espacios adyacentes visualizados simultáneamente en una única habitación esgrimía situaciones que requerían de un esfuerzo grande por parte del jugador para creerse el escenario. Los jugadores tenían que imaginar que sus personajes eran invisibles a los enemigos localizados en otras habitaciones diferentes a la que él ocupaba. La conexión espacial era operativa para la acción del juego pero no muy lograda en términos de simulación de entornos. Ejemplo de ello son los escenarios propuestos en Berzek (1980). b.9. Espacio multicapa. La acción acontecía en una perspectiva isométrica simulada mediante un fondo denso y profundo. El efecto de profundidad, por ejemplo en Shinobi III (1993), se lograba mediante la gradación del movimiento de las capas del fondo. El solapamiento de figuras que ocupaban diferentes planos para dar la sensación de profundidad fue una estrategia habitual en la pintura anterior al Renacimiento, por ejemplo, la obra del italiano Paolo Uccello. b.10. Espacio tridimensional limitado: el uso de la perspectiva en la escena. Responde a los primeros ejemplos de integración perspectiva parcial en la escena de la acción. c. Espacio 3D c.1.espacio isométrico 3d. La construcción del movimiento en torno a tres ejes supuso un avance de calado similar al que significó el empleo del modulo tridimensional diseñado por el gran Filipo Brunelleschi para la configuración espacial del Hospital de los Inocentes. El videojuego Paperboy (1984) resultó ser muy popular al proponer ágilmente esta solución para sus gráficos, que se percibían desde una vista aérea del paisaje isométrico. c.2. Espacio 2.5d: un plano horizontal. Este tipo no contemplaba el movimiento en el eje 'x'. Doom (1993) fue el videojuego que puso en práctica las llamadas 2.5 dimensiones, donde el nivel del suelo variaba en altura y los 104

131 personajes eran mostrados de arriba abajo, aunque la mira del arma que ocupaba el primer plano se mantenía estrictamente horizontal. Si Wolfenstein 3D fue, por decirlo de alguna forma, el creador de este género, Doom asentó las bases para una nueva etapa tipológica en la conquista cinética del lugar digital. Además, encumbró a Id Software como referente de la industria. c.3. Espacio 3d completo: movimiento vertical/horizontal. Es en este tipo de escenario donde se consiguió la libertad plena de movimiento, en torno a los tres ejes de referencia. Quake (1996) significó la clave de tal avance, al ofrecer al jugador una secuencia de la acción que replicaba con garantías el tránsito del peatón a lo largo de los tres ejes. Como se ha visto, la configuración de una continuidad de lugares tuvo su predecesor arquitectónico en Adolf Loos. Rem Koolhas y otros miembros del expresionismo abstracto arquitectónico lograron revolucionar también esta movilidad introduciendo pliegues en la arquitectura que proyectaban, en detrimento del uso de comunicaciones verticales. La Terminal de Yokohama 107, obra de FOA (1995), constituye por su trascendencia un claro ejemplo de este tipo espacial continuo. El sistema de circulación del edificio se definió en el momento del concurso como 'una serie de loops en los que las fronteras entre lo dinámico y lo estático han desaparecido. Una variedad de rutas alternativas intensificarán la experiencia de cruzar el edificio. d. Espacio Aumentado d.1. Espacio aumentado. WII Sports de Nintendo habilitó el primer escenario de juego aumentado, logrado tras la ruptura de la cuarta pared. El controlador WII Remote fue la pieza esencial en la consecución de esta dimensión. A partir de este tipo de escenario se hace operativa la conexión entre el Entorno Físico y el Entorno Digital. d2. Espacio aumentado sin periféricos. Representa aquel espacio de juego donde el jugador opera el videojuego exclusivamente con el movimiento de su cuerpo, sin necesidad de llevar ningún dispositivo electrónico encima. Es el caso pionero de Dancing Stage, también conocido como Dance Dance Revolution o DDR, simulador de baile producido por la compañía japonesa Konami. Actualmente consolas como Kinect construyen espacio aumentado mediante el uso de un escáner 3D convirtiendo el lugar de juego, por ejemplo una habitación, en una interfaz operada por los movimientos del cuerpo del jugador sin necesidad de activar botón alguno. Kinect es un buen ejemplo de tecnología disruptiva. La apertura de su código y su posterior alteración por obra del colectivo hacker ha permitido desarrollos avanzados en campos ajenos al del videojuego Véase sección cinemática del proyecto en p Véase proyecto Openarch en p

132 a. ESPACIO TEXTUAL The Oregon Trail, MECC. Déjà Vu, ICOM Simulations. b.1. ESPACIO HERMÉTICO Pong, Atari. Combat, Atari. Space Invaders, Taito. b.2. ESPACIO ENROLLADO Asteroids, Atari. Pac-Man, Namco. b.3. ESPACIO APILADO Miner 2049er, Big Five Software. Donkey Kong, Nintendo. b.4. ESPACIO TRANPANTOJO Little Computer People, Activision. Q*Bert, (Intellivision part of the orginal game by Davis and Lee) Arcade. b.5. SIMULACIÓN DE PERSPECTIVA CENTRAL Battlezone, Atari. Stars Wars, Atari. b.6. ESPACIO DESARROLLADO EN TORNO A UN EJE Super Mario Bros, Nintendo. b.7. ESPACIO DESARROLLADO EN TORNO A DOS EJES Sim City, Maxis. Gauntlet, Atari. b.8. ESPACIOS ADYACENTES SIMULTÁNEOS Berzek, Stern Electronics. 106

133 b.9. ESPACIO MULTICAPA Shinobi III, SEGA. b.10. ESPACIO TRIDIMENSIONAL LIMITADO Klax, Atari. c.1. ESPACIO ISOMÉTRICO Fairlight,1985. Sinclair Spectrum. Crystal Castles, Atari. Paperboy, Atari. c.2. ESPACIO 2.5D Doom, ID Software. Wolfstein 3D, ID Software. c.3. ESPACIO 3D COMPLETO Quake, 1996.Id Software. d.1. ESPACIO AUMENTADO. WII Sport, Nintendo. d.2. ESPACIO AUMENTADO SIN PERIFÉRICOS. Dancing Stage, Konami. Fig.5.Cronología cinética del lugar digital del videojuego. En qué punto de la conquista del lugar digital nos encontramos en la actualidad? Dispositivos como Kinect recogen con precisión de centímetros el movimiento del cuerpo humano cuando éste no se desplaza. El problema que aún no se ha resuelto es el movimiento en dirección perpendicular a la pantalla, hacia la profundidad de la escena digital. Imaginemos una cueva alargada que pretendemos recorrer de inicio a fin. El movimiento natural del jugador para procurar este desplazamiento digital es el de correr o andar hacia la pantalla. Los sensores que 107

134 perciben el movimiento de la carrera están condicionados a que el jugador se sitúe en un punto fijo. Las piernas se mueven pero no debe haber desplazamiento real del cuerpo o chocaría con la pantalla. Para neutralizar el movimiento del jugador, el entorno debería generar un desplazamiento inversamente proporcional al que efectúa el propio jugador. Si se opta por la opción mecánica, la solución pasa por suspender al jugador en una esfera que permita el movimiento en los tres ejes. Una esfera que contenga tres diámetros con movimiento independiente unos de otros y que cada uno responda a uno de los tres ejes. Esta solución es realmente aparatosa y costosa si pensamos ubicarla en una vivienda convencional. En los simuladores de vehículos se impide el desplazamiento del cuerpo humano ya que dotan mecánicamente de movimiento a un habitáculo. La evolución de la interfaz en la industria del videojuego continuamente propone nuevas soluciones que aportan una mayor precisión al registro de movimientos y una mayor desmaterialización del hardware que conforma los dispositivos controladores. La narrativa en el videojuego: relato y repetición. El guión de Quake impreso en el libreto de instrucciones que acompaña al disco del juego es breve y extremadamente elemental. Invariablemente, en estos añadidos de atrezzo el texto se dirige directamente al lector-jugador, el cual se constituye en el protagonista de la acción del juego: Recibes la llamada de teléfono a las 4 am', tu formidable reputación ha hecho que se te convoque a una instalación militar secreta en la que se experimenta con un dispositivo de transporte instantáneo. El pernicioso ejército de un enemigo extraterrestre, cuyo nombre en clave es Quake y que proviene de otra dimensión, se está infiltrando en esta instalación. Se te encarga la tarea de encontrarlo y detenerlo. Pero mientras estás fuera realizando un reconocimiento, los escuadrones de la muerte de Quake aniquilan a todos tus hombres. Ahora estás tú solo contra ellos. Resulta obvio que la historia de fondo se ofrece como justificación para el material del propio juego: una ficción que plantea un guión ilustrador de la representación gráfica y de los acontecimientos con los que uno se encuentra en el juego. Al final de un período de juego, independientemente de lo que haya durado o de cómo haya terminado con el jugador eliminado o 'guardando' la partida, resulta posible relatar lo que ha ocurrido hasta el momento, cabe contar alguna clase de historia. En este sentido, un juego del género Quake y esto se aplica a la mayoría de los juegos- posee la capacidad de generar muchas historias de este tipo, muchos relatos retrospectivos, en su mayor parte similares aunque asimismo algunos diferentes, de lo que ocurrió en cada nueva partida. Los trabajos de Paul Ricoeur sobre los problemas de la configuración y la reconfiguración del tiempo por la narración, en particular su análisis de la distinción entre narración histórica y 108

135 narración de ficción (literaria), aportan luz sobre el papel de la narración en los nuevos géneros interactivos. El guión de un videojuego no tiene por qué condicionar la expresión gráfica. Habitualmente la narrativa pasa a un segundo plano, quedando prácticamente olvidada. Guiones simples, reiterativos, estándares repetidos hasta la saciedad pueden generar lugares digitales de gran calidad plástica. Este fenómeno es réplica de otro acontecido en la pintura. Las últimas cenas, las naturalezas muertas o el género del retrato han supuesto una tipificación de la obra y la constitución de unos estándares muy demandados por el gran público. Es evidente que la retórica narrativa mejora el videojuego: cuanto más se parece la narrativa del videojuego a la de las películas o a la de los libros, mejor es el videojuego (Konzack 2006). Cauces inmersivos desde el referente de lo arquitectónico. Poética de la inmersión en el Entorno Aumentado. Qué es la inmersión? Es ésta exclusiva de la realidad virtual o se produce también fuera del ámbito digital? Qué cauces inmersivos corresponden a lo arquitectónico? La immersĭo o inmersionis es la acción de introducir o introducirse algo en un fluido 109. Habitualmente se encuentra en la literatura la metáfora de la inmersión en una piscina para explicar el significado de la inmersión en un videojuego (Murray 1997). El origen latino del término corrobora el acierto de dicha metáfora. Ahora bien, el efecto que provoca una audición musical probablemente se acerca más al estado inmersivo. En una audición de las Variaciones Golderg de Johann Sebastian Bach, la atención primera del espectador recoge la percepción del tema principal o aria que se repite. Las sucesivas variaciones sincopadas que se incorporan a la melodía de manera armónica captan también una segunda cuota de atención del sujeto. A las variaciones subyace el tema como elemento organizador invariable. Un tercer paisaje sonoro abarca la relación polifónica entre las variaciones y el tema principal. Estas tres dimensiones melódicas provocan en el espectador la necesidad fenomenológica de integrar la percepción de las tres dimensiones para obtener una percepción de la pieza lo más íntegra posible. El desdoblamiento de la atención en varios focos de interés hace de la audición de esta pieza un momento realmente inmersivo para el auditorio. Frente a la distorsión uniforme de la realidad producida en la inmersión acuática, la inmersión polifónica compleja propone un paralelismo más cercano a la acción inmersiva acontecida en el videojuego. Esta última no es homogénea sino que se obtiene desde la integración sucesos de origen dispar, como el sonido o la visión. 109 Fuente RAE. 109

136 Las primeras investigaciones (Murray, óp.cit., 1997) en analizar los nuevos modos de expresión narrativa del ordenador argumentaban que el Entorno Digital es esencialmente procesal, participativo, espacial y enciclopédico. Las dos primeras propiedades se asocian con la interacción; las dos últimas con la inmersión en el ciberespacio, al trasformar éste en explorable y extensivo. Queda aquí enunciada una vía de indagación que si bien puede desarrollarse en el marco de una Poética inmersiva del Entorno Aumentado, excede del corpus limitado de esta tesis. La persuasión arquitectónica en el videojuego. Hacia una retórica topológica. La retórica como disciplina transversal a los distintos campos de conocimiento se nutre de procedimientos estratégicos y tácticos propios de cada materia, que en ocasiones, se pueden hacer extensivos a otros campos de conocimiento. La sistematización del lenguaje oral o visual- para persuadir proporciona analogías entre el lugar digital y el arquitectónico, ya sea en el campo proyectual de la representación o en el de la arquitectura construida. Las figuras retóricas empleadas en el diseño de videojuegos tratarán de dotarlos de una óptima jugabilidad, posibilitando una interacción intuitiva y sencilla al usuario. Esto es esencial para lograr una inmersión profunda del jugador, que debe asimilar y entender de manera inmediata el lugar digital donde se ubica. La aprehensión del escenario donde se suscita la acción lúdica evita que el jugador se pierda y aunque en ocasiones esto pueda estar pretendido por el diseñador, resulta complejo mantener el nivel de inmersión en el usuario. Qué cualidades debe integrar el lugar digital para que éste funcione de manera óptima desde el punto de vista de lo arquitectónico que confluye en dicho lugar? Tiene sentido plantearse una Retórica del Entorno Aumentado? Los aspectos retóricos del videojuego relacionados con el lugar digital participan del estudio de la narrativa y de la jugabilidad. Sendas áreas forman parte de la retórica estética propuesta por Konzack (2006). A pesar de que el estudio del lugar puede derivar fácilmente en apreciaciones de origen muy diverso, en principio, se dejan a un lado enfoques relacionados con la economía, la psicología, la pedagogía y el género, con el propósito de acotar la retórica exclusivamente al topos digital. Los lugares digitales que proponen los videojuegos han perdido las referencias de la geometría euclidiana en favor de la topología característica el Entorno Aumentado. Conocer las leyes topológicas del lugar supone conocer la estructura relacional de su naturaleza, y por tanto, alcanzar a saber cómo ha de ser diseñado para obtener el efecto que se pretende en la conducta del jugador. Sobre esta base cabría la reflexión acerca de los principios de una Retórica arquitectónica del videojuego y sus posibles implicaciones en la definición de entornos aumentados. 110

137 Capítulo III Revolución Digital. La impronta digital en lo arquitectónico, una cronología crítica. (EF) 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador 3.2. Presagios de la Revolución Digital Influencias transdisciplinares. Arquitectura y ficción Alteraciones cinéticas. Preludio de la simultaneidad y el dinamismo digital 3.3. Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética 3.4. Revolución Digital en la práctica arquitectónica, Integración conceptual Vía del lenguaje tecnológico Vía del lenguaje retórico Integración metodológica: proceso vs producto Integración operativa Computación y arquitectura mediática TIC. La arquitectura como estrategia de comunicación Arquitectura cibernética. La materialización del diagrama Interacción en la arquitectura sistémica del Estructuralismo Del desenlace arquitectónico al patrón generativo 3.5. Postulados y visiones pre-globales,

138 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador. Allí donde la tecnología alcanza su culminación, trasciende a arquitectura. Ludwig Mies van der Rohe, Mensaje al Illinois Institute of Technology (1950). La evolución de los sistemas de comunicación ha traído consigo la aparición de tipologías arquitectónicas específicas que albergan y permiten la transmisión de la información mediante dispositivos de muy diversa naturaleza. La vinculación de la capa digital al Entorno Físico precisa de la incorporación de esa capacidad comunicativa e informativa al edificio y a la ciudad -si es que hoy sigue vigente la distinción-. El catálogo histórico de construcciones demandadas por las tecnologías de la información y la comunicación (TIC) incluye desde infraestructuras castrenses como el palomar, empleado por los diferentes ejércitos que establecieron la incorporación militar de la colombofilia a principios del XIX y sobre todo en la Primera Guerra Mundial, hasta infraestructuras propias de la ciudad como las estructuras ligeras que dieron respuesta formal a los nuevos métodos de cálculo del ingeniero-arquitecto ruso Vladimir Shukkov. De la mecánica newtoniana a la electrónica digital, un prolífico compendio de instrumentos mediadores ha dejado su impronta en la arquitectura. La ubicación espacial de las TIC en la arquitectura construida ha deparado tipologías singulares y ha traído consigo la adherencia de nuevos espacios no masivos, ajenos a lo edificado, pero de gran trascendencia en el orden del territorio. Estos no-lugares o lugares que reniegan de la masividad construida a favor del espacio hertziano son parte esencial de la historia de la Humanidad, y muy en especial de la del siglo XX y XXI, aunque en muchas ocasiones pasen desapercibidos o sea difícil referirse a ellos dada su ingravidez. El espacio radiofónico, los corredores aéreos de comunicación, el espacio de control del tráfico aéreo y marítimo, las comunicaciones submarinas, las trayectorias orbitales de los satélites etc., componen geografías de origen TIC que modelan el paisaje y afectan los pueblos que lo habitan, a menudo, desde la ausencia impuesta de construcción. Esta búsqueda arqueológica se ocupa de la trascendencia arquitectónica de las TIC desde los orígenes a la contemporaneidad. Si bien no todos los avances tecnológicos en los campos de la información y la comunicación han afectado directamente a la construcción del edificio, la mayoría de los hallazgos relevantes sí han demandado de la arquitectura una adaptación específica a la nueva función tecnológica. Esta acepción arquitectónica del edificio TIC no ha sido documentada profusamente como sí lo han sido otras: arquitectura museística, religiosa, deportiva, del vino, etc.-. Entre la literatura consultada para la elaboración de este texto cabe 112

139 destacar la publicación editada por la Fundación Arte y Tecnología 1 Colección Histórico- Tecnológica de Telefónica, junto a la cual tanto la publicación de Hook, D, Norman, J & M, Williams (2002), Origins of Cyberspace: A Library on the History of Computing and Computer-Related Telecommunications como la de Norman (2005) From Gutenberg to the Internet: A Sourcebook on the History of Information Technology aportan gran valor al registro documental de la evolución de las TIC en su vínculo con la disciplina arquitectónica. La transmisión de información, la comunicación de pensamientos, el conocimiento de la estrategia del enemigo, el envío de mandatos soberanos, etc, son acciones vinculadas las TIC desde los orígenes del ser humano. La selección natural en la evolución de las especies está asociada a ellas y a tantas otras relacionadas con la posesión y el conocimiento de la información. Tanto la información acumulada en los genes como la asimilada durante la vida se encamina a un solo propósito: la supervivencia. La comunicación de información es inherente al ser humano; su evolución ha significado siempre la evolución de la especie humana. Los sonidos vocales amplificados por el cuerno de un mamífero o el exoesqueleto de un caracol marino o los percutidos sobre un tronco hueco, el tam tam, entre una larga colección de artificios mecánicos, fueron empleados en tiempos pretéritos para poder establecer comunicación. Entre todos ellos destaca el dominio del fuego, que significó la aparición de un nuevo sistema de comunicación que se mantendría hasta bien avanzado el segundo milenio. En el siglo IV a.c., el historiador griego Polibio hacía referencia en sus escritos a las señales de humo que Eneo el Táctico hacía mediante una clepsidra 2. Durante la Edad Media las fortificaciones de castillos moros y cristianos fueron testigos del uso de señales de humo para trasmitir mensajes codificados. La ubicación de estos baluartes se disponía siempre en un enclave dominante. El alto de una loma, un risco, una colina, satisfacían los requerimientos militares defensivos a la vez que procuraba intesificar la cobertura y eficacia de los dispositivos empleados para una correcta transmisión de ahumadas. Por lo que cuentan las crónicas reales (Villegas 1996), el método de las ahumadas fue utilizado en España y Francia hasta bien entrada la Edad Moderna: 1 Publicación a cargo de Rafael Romero (1994). 2 Ya en la Edad Media, en el año 1405, se comunicaba a Enrique III de Castilla sito en Castilla- el nacimiento de su hijo Juan en la ciudad de Toro (Zamora) situada a unos 200 km de distancia, por medio de ahumadas o señales de humo que se hacían desde montículos, naturales o artificiales, situados sucesivamente (García de Cortázar, 1980). De la velocidad de transmisión de las ahumadas se sabe que entre Valladolid y Toledo, teniendo preparadas buenas resinas y pajas para las hogueras y una buena antorcha para el encendido, un mensaje tardaba dos horas en llegar, lo cual era un gran adelanto frente al método más lento de mensajeros a caballo. Estos sistemas no cambiaron mucho a lo largo de varios siglos, y así p.ej., la presencia de la Armada Invencible española, divisada en Plymouth (Inglaterra), fue señalada por medio de fuegos a Londres, donde la noticia llegó en media hora. (Fernández de Villegas, óp. Cit., 1996). 113

140 Era una época en la que las comunicaciones eran lentas y dependían del estado de los caminos, de la fuerza y la velocidad de los caballos. Este método consiste en transmitir informaciones mediante el uso de señales de humo que se hacían desde montículos, naturales o artificiales, situados sucesivamente, a distancias de no más de 12 Km, y divisables unos de otros. Las noticias se iban sucediendo de una a otra ahumada hasta llegar a su destino, y su mejor cualidad era la velocidad de transmisión, y eso que aún no se contaba con la ayuda de catalejos. Por el sistema de las ahumadas se constituyó una importante red de comunicaciones en España, que enlazaba las principales ciudades del reino. Parece ser, a tenor de las investigaciones históricas, que hubieron unos cinco itinerarios generales que formaban una red que iba desde León hasta Sevilla, pasando por Valladolid y Zaragoza. El centro de comunicaciones estaba en Medina del Campo (Valladolid). Dos milenios después de la Clepsidra de Tácito, concretamente el 19 de julio de 1794, la Convención Francesa recibió el primer telegrama de la historia. La noticia fue transmitida desde la ciudad de Lille hasta París a través de una línea de telegrafía óptica de 230 kilómetros, montada sobre 22 torres, la última de las cuales estaba ubicada en la cúpula del Louvre (Mazoyer 1902). El sistema de telegrafía óptica, deudor del código de señales en la navegación marítima, fue ideado por el francés Claudde Chappé en 1792 (fig.1). Tanto este sistema como el concebido por Murray en 1794, o el inventado por el español Agustín de Bettancourt y el relojero suizo Bregget, se basaban en un mecanismo articulado de madera o de metal, llamado semáforo (fig.2), instalado en una torre que permitía articular configuraciones diferentes de signos en base a un libro de códigos cuyo significado solo conocía el comandante de la línea. El semáforo de Chappé permitía 196 posiciones diferentes. Fig.1. Código alfabético de Chappé. Fig.2. Torre de telégrafo óptico de Chappé, Sección por el mecanismo desarrollado para Chappé por el relojero suizo-francés Abraham Louis Bréguet. Fig.3. Mapa de la red francesa de telégrafos ópticos (500 estaciones /5.500 kilómetros), en funcionamiento hasta

141 Los operadores del telégrafo óptico trabajaban de sol a sol apostados en el interior de las torres, con el rigor climático que esa posición elevada impone. Un rígido protocolo regulaba el proceso. De manera similar a como se ejecutaban las señales náuticas con banderas en la navegación marítima, los telegrafistas quedaban encargados de divisar el código de la torre precedente mediante un catalejo u otro aparato óptico. Las torres solían disponerse cada cincoveinte kilómetros aproximadamente, pero cuando se situaban en ángulo, la visibilidad era mínima. La climatología, la noche y otros factores mermaban la capacidad de comunicación de estos sistemas. El paisaje se pobló paulatinamente de construcciones que habilitaron las primeras líneas de comunicación mediante el telégrafo óptico 3 (fig.3). En la actualidad todavía se mantienen en pie numerosas torres, aunque el tiempo ha desvirtuado su estado original. A ojos del viajero inexperto muchas pueden parecer restos de baluartes defensivos y no ruinas de la Internet del siglo XIX. De igual modo que sucede en la Red, también operaban entonces hackers que subvertían ilegalmente el sistema el telégrafo óptico fue de uso exclusivo por la autoridad civil y militar-. Tal es el caso del Conde de Montecristo en el texto de Alejandro Dumas: el conde soborna a un telegrafista para transmitir un mensaje falso que haría perder una importante suma de dinero a su enemigo el banquero Danglars. Fig.4. Posiciones de los indicadores del telégrafo óptico de Mathé. Ilustración del propio Mathé. Fuente: Del semáforo al satélite. Fig.5. Torre del sistema de telegrafía óptica de Mathé. Fuente: Del semáforo al satélite. Fig.6. Telégrafo óptico de Murray y varias de las posibles combinaciones. Fuente: Del semáforo al satélite. La arquitectura civil de este sistema telegráfico es un claro ejemplo de cómo la arquitectura asume la capacidad mediática de comunicación de información. El objetivo era transmitir un mensaje, igual que lo hacen los faros de la costa o las fachadas mediáticas. La evolución de esta tipología edificatoria ha deparado varios modelos de transmisión, siempre construidos sobre un edificio pódium. El sistema Mathé o el semáforo del telégrafo óptico de Murray (Fig.6) destacaron especialmente entre otros. Este último anticipa una pantalla de seis píxeles, del mismo modo que el raya-punto-raya de Morse antecede al código binario computacional inventado por Leibnitz. Estos ingenios técnicos debían salvaguardar la integridad del sistema de comunicaciones y dar cobijo a los telegrafistas. Como tantas veces en la historia, se repite la 3 La velocidad de estos instrumentos era de un símbolo cada veinte segundos (unos dos bits por segundo). 115

142 asociación simbiótica de espacio doméstico y espacio de trabajo, característico en la Edad Media de los artesanos, y muy frecuente en el tejido urbano anterior al ensanche de las ciudades; aún más frecuente en la ciudad contemporánea del Entorno Aumentado, donde la deslocalización del lugar trabajo y de la casa 4 produce continuas hibridaciones programáticas. Entender lo arquitectónico como medio transmisor del mensaje codificado o no- y a la vez canal de comunicación supone aumentar la interaccion del edificio con el contexto, a menudo la ciudad, añadiendo una capacidad instrumental adicional 5 a lo construido. Tal circunstancia tiene lugar en el reloj solar instalado en la fachada del palacio renacentista, en el reloj analógico de la torre del ayuntamiento castellano, en los códigos QR que encriptan la información de la fachada mediática del edificio de oficinas N 6 Building (fig.8), en la Torre de los Vientos de Toyo Ito o en la visualización de datos que propone la Estación Meteorológica Oskar von Miller Turm (fig.7), de reciente construcción en Munich a cargo de Deubzer König + Rimmel Arkitecten. Todos ellos, herederos de los baluartes telegráficos del XIX, proponen una arquitectura cambiante capaz de representar flujos dinámicos de información como los que subyacen explícita o implícitamente al dominio digital propio del Entorno Aumentado. Fig.7. Estación Meteorológica Oskar von Miller Turm, Munich. Deubzer König + Rimmel Arkitecten. Fig.8. Fachada del edificio N y usuario operando el scanner QR desde su terminal móvil Tokio. 4 En La disolución del entorno dicotómico, cap. IV, se analizará la influencia de la Revolución Digital en los límites entre el espacio doméstico y en el espacio de trabajo. 5 Véase De la fachada mediática a la membrana aumentada, Cap. IV. 6 El edificio conocido como N Building, localizado cerca de la estación Tachikawa en Tokio, Japón, incorpora a su fachada con un código QR que puede leerse utilizando la cámara del celular. En su versión inicial el código QR del edificio únicamente codificaba la URL de su página web, pero ahora hace uso de la realidad aumentada para mostrar información digital superpuesta a la imagen real del edificio como los tweets escritos por sus inquilinos, información sobre las tiendas que hay en su interior, ofertas y promociones, etc. Fuente: < 116

143 A bordo del vapor Sully de regreso a Nueva York, ciudad donde ejercía de retratista, Samuel Morse inventó en 1832 el sistema de telegrafía que lleva su nombre. A principios de 1838, Samuel Morse haría una demostración del telégrafo eléctrico, un sistema de comunicación mucho más eficaz que daría lugar a lo que se ha denominado como la Internet Victoriana. Esto supuso la paralización de los proyectos de nuevas líneas de telegrafía óptica, así como su obsolescencia y desaparición en toda Europa una década después. El punteo del telégrafo se tradujo con gran simplicidad en puntos y rayas, sistema binario como el digital de ceros y unos. Casi a la par que los trazados del ferrocarril 7, el tendido del cable aéreo propio de la comunicación telegráfica cambió el paisaje urbano y suburbano de muchos lugares. Las estaciones de telegrafía se disponían a menudo junto a las estaciones de ferrocarril, configurando una suerte de nodo tecnológico. Aquel paisaje, hasta entonces únicamente cosido por caminos, se preparaba así para asumir los efectos de la primera y segunda etapa de la Revolución Industrial. Personajes como el minucioso telegrafista, con gafitas redondas y delantal, o la ágil telefonista 8 pasarán a formar parte de los referentes tópicos del western de acción y de nuestro imaginario colectivo. William Mitchell (1999) recuerda en e-topía la precariedad de la tecnología telegráfica y lo poco económico y lento que resultaba transmitir puntos y líneas en un solo tono, sobre un alambre de hierro: sus limitaciones nos han dejado la palabra telegráfico para describir el estilo lacónico y abreviado del discurso textual que engendraba. La gama de frecuencias necesaria para la retransmisión del habla requería un mayor ancho de banda. Años más tarde, el sistema telefónico utilizaría hilos de cobre para conseguirlo. En un intento de mejorar un telégrafo armónico de modo que transmitiera mensajes múltiples por un único hilo y pudiera 7 La primera línea interurbana de ferrocarril se construyó entre Manchester y Liverpool en Nótese la cuestión de género asociada a los nuevos cargos ligados al desarrollo de las comunicaciones: frente al telegrafista, la telefonista-patinadora. Pérez, Raya & Santos (2011) recuerdan en un excelente post que la tarea de programar el ENIAC fue asignada a seis mujeres expertas computers de la Moore School of Electrical Engineering. Debido al carácter secreto de los cálculos, primero describían las instrucciones para resolver un determinado problema sobre los planos de la máquina, y después accedían a la sala donde estaba instalado el ENIAC para configurarlo. Esta tarea podía requerir días, pero una vez realizada, los cálculos para describir una trayectoria tardaban tan sólo 10 segundos. Las chicas del ENIAC desarrollaron las bases de la programación de la computadora: crearon la primera biblioteca de rutinas y las primeras aplicaciones de software. Olvidadas por muchos años, fueron incluidas en 1997en el Women in Technology International Hall of Fam. Sin duda, el referente de las chicas del ENIAC fue la hija de Lord Byron, Ada Lovelace recordada por ser la primera programadora de la historia analista, como se definió ella misma-. Destacó por sus notas sobre la máquina analítica de Charles Babbage que no firmó con su rúbrica por miedo a la censura machista- y desarrolló instrucciones para hacer cálculos en una versión inicial del computador. (Más información en The Bride of Science: Romance, Reason, and Byron's Daughter (Woolley 2002). Sirva esta nota como homenaje a aquella generación pionera. 117

144 ser utilizado por sordomudos 9, Alexander Grahamm Bell ( ) percibió una vibración muy parecida al sonido de una armónica. Esta circunstancia derivó en el invento del teléfono. Desde entonces Alexander Grahamm Bell forma parte de la historia de las telecomunicaciones, y como se verá a continuación, de la arquitectura del siglo XX. Grahamm Bell destacó también en otras materias. Sus estudios sobre las estructuras tridimensionales basadas en la aplicación geométrica del tetraedro, e integrando en la construcción de sus prototipos el concepto de tensegridad 10 acuñado años más tarde por Buckminster Fuller, produjeron resultados absolutamente extraordinarios. Bell desarrolló en 1907 estos principios en la construcción de una torre de observación en la isla del Cabo Bretón, Nueva Escocia (Fig.7). Esta línea de investigación será recorrida posteriormente por Shukhov o Fuller. De igual modo, antecesora de la Malla Espacial de Friedman y de las estructuras de Schulza-Fielitz o Watchman, supondría años más tarde un marco arquitectónico (hard-ware) sobre el que incorporar las primeras aplicaciones computacionales (soft-ware). Por ello Christoph Alexander, Cedric Price o el grupo Archigram tienen en Alexander Grahamm Bell a uno de sus auténticos referentes. La instantánea de la figura nº 8 registra el momento en que uno de sus modelos sale volando por un golpe de viento. Este acontecimiento resultaría inspirador para Bell. Acto seguido comenzaría a desarrollar prototipos voladores con esta técnica que tenía en el tetraedro su patrón base, llegando a construir varios modelos de aeroplano (Fig.9). Fig.7.Tetrahedral tower, Alexander Graham Bell. Cape Breton Island. Fig.8. Bell's Frost King Tetrahedral Kite, Alexander Graham Bell. Fig.9. Tetrahedral ring,1907. Alexander Graham Bell. La invención del teléfono fue tomada enseguida como un gran avance de la civilación 11, en los Estados Unidos y en los países más desarrollados europeos de la época la extensión de está tecnología se produjo con gran aceleración. Supuso la aparición de nuevas necesidades que afectaban a la disciplina arquitectónica. Las compañías requerían una infraestructura que alojara máquinas y empleados. El nuevo avance tecnológico se enarbolaba como estandarte de las compañías telefónicas y de otras administraciones provinciales y nacionales. 9 Incluyendo en este colectivo al gran amor de su vida. 10 Del inglés, tensigrity. 11 Véase fig

145 Empleando un modelo patentado cinco décadas atrás por Grahamm Bell, el monarca Alfonso XII mantuvo el 1 de diciembre de 1924 la primera conversación telefónica con Miguel Primo de Rivera, de viaje en Tetuán. El reportero destacó que ambos se entendieron perfectamente 12. Con Stalin en el poder, Hitler redactando en prisión Mein Kampf y André Bretón presentando su Manifiesto Surrealista, España vive la dictadura de Primo de Rivera inmersa en una coyuntura cultural y tecnológica optimista. Ello unido a la mejora de las condiciones de los trabajadores emigrados del campo y al crecimiento económico genera un cierto sentimiento de modernidad. Así lo recoge Cañas (2005) en su artículo referido a esos años: ( ) la prensa, y seguramente también la ciudadanía, recibía como bellos iconos del progreso la instalación de postes, hilos y crucetas que anunciaban la revolución del mundo de la comunicación y, por tanto, de una sociedad que, en su conjunto, vivió transformaciones que fueron el preludio de la nuestra. En los años veinte, la radio, el cine o el fútbol hicieron su entrada en las costumbres, convirtiéndose en distracciones generalizadas y en símbolos de modernidad, explica Eduardo González Calleja en su estudio La España de Primo de Rivera 13. Las fotos de la CTNE de sus telefonistas, bien atendiendo las centralitas, bien descansando en medio de su jornada laboral, muestran ese inicio de transformación social de los años veinte que supuso también la entrada masiva de las mujeres en el mundo laboral, ocupando, como destaca Sánchez Ron, tareas peor remuneradas, pero estables y pagadas, mientras el pantalón se abría paso como una prenda más del atuendo femenino. A los cuatro años de finalizar los estudios en la Escuela de Arquitectura de Madrid, el joven Antonio Palacios y su compañero Joaquín Otamendi se presentaron al concurso público dispuesto por Real Decreto para la construcción de la nueva Casa de Correos, un híbrido cuya intención era integrar el servicio de comunicación postal, telegráfica y telefónica. Palacios y Otamendi habían perdido recientemente el concurso de la nueva sede del Casino de Madrid, pero su empeño tuvo en esta ocasión un extraordinario premio. Pese a las dudas suscitadas por su juventud, el trece de noviembre de 1904 resultaron adjudicatarios del proyecto (Fig.10). El Palacio de Comunicaciones, en origen Casa de Correos y Telégrafos, se inauguró oficialmente el 23 de enero de Nacía uno de los hitos de la arquitectura madrileña 14. En una época de 12 Escribe Cañas (El País, 30 de octubre de 2005) en su artículo España Dígame que el militar y aristócrata Antoni Magaz, entonces Ministro de la Marina, vaticinó con evidente falta de tino que en el futuro este tipo de conversaciones seguirían haciéndose con el sistema de conferencia telegráfica para que quedasen registradas por escrito. 13 La Modernización Autoritaria, (Alianza Editorial). 14 Según relata García Mosteiro (2004: 29) se dice que León Trotsky, en su breve estancia en Madrid visitó con frecuencia el Museo del Prado. Al descubrir el Palacio de Comunicaciones se refirió a él como Catedral de Nuestra Señora de las Comunicaciones. 119

146 actividad afanosa en la construcción, la ciudad de Madrid incorporó a su catálogo arquitectónico de edificios emblemáticos los construidos por Palacios, que fueron muchos 15. Pero la operatividad del flamante Palacio de Comunicaciones 16 no contó con la acelerada hiperactividad de las TIC: los ocho locutorios ubicados en el vestíbulo principal se quedaron escasos ante la creciente demanda. La necesidad de un nuevo edificio que respondiera exclusivamente al nuevo medio de comunicación quedaba ya anticipada a principios de los felices años veinte. Fig.10. Maqueta en escayola del proyecto para la Casa de Correos y Telégrafos, Palacios y Otamendi. Fig.11. Thrills in Laying Deep-Sea Cable Across the Atlantic, Como sucedió con su antecesor, el telégrafo, la infraestructura que propiciaba la comunicación (telefónica) implicó cambios en el paisaje (urbano y rural). En los años veinte los caminos y carreteras nacionales quedaron flanqueados por miles de postes de madera con hilos que subvirtieron la barrera espacio-temporal de la geografía física. La tarea de cablear España fue documentada gracias a una acción corporativa publicitaria de la CTNE; se decidió contratar a un grupo de fotógrafos profesionales para mostrar la hazaña. Las imágenes de Alfonso, Vicente Barberá, Ramón Claret o Gaspar describen la actividad de celadores-conductores, peonesempalmadores trepando a los postes y mozos abriendo zanjas. Los fotógrafos contratados por Telefónica muestran, como indica Rafael Levenfeld, los no lugares, construyendo una visión no oficial de aquella época alejada de monumentalismos e inauguraciones En palabras de Ricardo Aroca: Palacios es a Madrid lo que Gaudí a Barcelona. 16 Sirva como ejemplo la descripción que hace Pérez Rojas (1987: 99) del recorrido de las cartas: Los buzones están situados en la fachada del Paseo del Prado, desde donde las cartas caían directamente a la mesa de sellar, continuando en línea recta todo el proceso siguiente hasta el patio de coches, con entrada por el pasaje de Alarcón. La misma fluidez presenta el correo de llegada desde el otro muelle del patio hasta la cartería. 17 La intrahistoria de Miguel de Unamuno. 120

147 La cabina roja telefónica K2 tomó identidad propia en Londres a partir de que en 1924 resultara premiada la entrada de Sir Giles Gilbert Scott en el concurso convocado por el Royal Institute of British Architects, convirtiéndose enseguida en uno de los iconos de la ciudad. Este cubículo urbano 18 que constituía un ámbito acústico privado en medio de la gran ciudad, se encuentra hoy en vías de extinción. La causa, al menos en España, se debe a la competencia de la telefonía móvil y a la aparición de un lugar vinculado al desarrollo de Internet: el locutorio. Heredero del locutorio telefónico de la primera mitad del siglo XX, el locutorio 19 de telefonía fija hacinado e insalubre de principios del siglo XXI resurge como unos de los lugares predilectos para realizar conferencias telefónicas internacionales, por sus tarifas económicas. Complementa otra tipología propia de las TIC, el cibercafé. La ausencia de conectividad a Internet ha sido remediada tradicionalmente por estos establecimientos, sobre todo en los orígenes de la Red. Lugares pioneros como la cadena Starbucks enseguida incluyeron la presencia cibernética en sus salones de café, convirtiéndose en lugares muy frecuentados por electronómadas y teletrabajadores 20. Fig.12. Escuela de celadores de Barcelona, Autor: Ramón Claret Artigás. Fig.13. Edificio de la Telefónica, Fuente: Fundación Telefónica. Fig.14. It keeps faith with your needs 21, anuncio de la American Telephone and Telegraph Company. Julio, La cabina fue también protagonista de la película de idéntico nombre dirigida por Antonio Mercero en 1972, coescrita por este último junto con José Luis Garci y protagonizada por José Luis López Vázquez. 19 Véase Dispersion en Casa de America, instalación de Diego Barajas y Camilo García (2005) que recrea el ambiente de los locutorios de Holanda con imágenes y sonidos de todo el mundo. Disponible en: < (Consultado el 5 de mayo de 2012). 20 Véase Perfil antropológico de la vivienda aumentada. Del morador al electronómada [ , +1998], Cap.IV. 21 Transcripción literal: You have found a constantly growing use for the telephone. You have learned its value in business. You have found it helpful in keeping contact with family and friends. Its increasing use 121

148 El desarrollo de la telefonía en España y Latinoamérica ha estado vinculado a la Compañía Telefónica Nacional de España (CTNE). El auge de esta tecnología 22 derivó en seguida en la decisión de construir su sede nacional en una localización tan emblemática como la recién estrenada GranVía madrileña. Entre 1926 y 1929 el proyecto de Ignacio de Cárdenas, basado en un estudio previo realizado por el arquitecto de la I.T.T (Internacional Telephone and Telegraph Coporation, compañía nodriza norteamericana) Lewis S. Weeks en Nueva York, se convirtió en referente del rascacielos europeo. De ahí proviene la inspiración americana del edificio, si bien, salpicada por Cárdenas en el proyecto definitivo, especialmente en el tratamiento exterior con añadidos barrocos. La estructura metálica roblonada fue calculada en base a los estándares neoyorquinos de los años veinte 23. Además de contar con los vestíbulos públicos donde se exhibía la compañía, albergaba un extenso programa de oficinas y también ubicaba la central automática de telefonía con capacidad inicial para abonados. La automatización de la conexión telefónica entre dos abonados supuso un avance tecnológico sin precedentes. La dimensión de los equipos de conmutación automática instalados en sus primeras has given the telephone its humanly important place in modern life and requires the expenditure of hundreds of millions annually for extensions and improvements. In 1929 the Bell System s additions, betterments and replacements, with new manufacturing facilities, meant an expenditure of 633 million dollars. During 1930 this total will be more than 700 millions. Definite improvements in your service result from a program of this size and kind. They start with the average time required to put in your telephone which in five years has been cut nearly in half. They range through the other branches of your service, even to calls for distant points so that all but a very few of them are now completed while you remain at the telephone.in order to give the most effective, as well as the most economical service, the operation of the Bell System is carried on by 24 Associated Companies, each attuned to the part of the country it serves. The Bell Laboratories are constantly engaged in telephone research. The Western Electric Company is manufacturing the precision equipment needed by the System. The staff of the American Telephone and Telegraph Company is developing better methods for the use of the operating companies. It is the aim of the Bell System continually to furnish a better telephone service for the nation. 22 El coste de un telegrama transatlántico era similar al salario de un obrero español. La diferencia de precio a favor de la conferencia telefónica significó la estandarización de esta tecnología. En 1931, a tan solo siete años de la fundación de la CTNE, el número de teléfonos por habitante estaba rondando la media europea. 23 En la publicación El edificio de la Telefónica, su autor Fernández (1984) se refiere a la torre como un americano en Madrid, haciendo alusión a su relación con los rascacielos norteamericanos coetáneos de New York y Chicago y a las concesiones barrocas de cornisas, coronación y retranqueos en fachada. 122

149 plantas (Rotary 7-A) comprometió la altura final del edificio (89.30 metros), que superaba ampliamente los treinta y cinco metros permitidos por la normativa municipal. 24 La emisión de ondas por los dispositivos de radio o televisión supuso desde el principio un condicionante a tener en cuenta en la tipología de edicifio TIC, por la ubicación de las antenas. Para su óptima difusión se precisaba de edificios de gran altura y no necesariamente habitados, pues lo importante era lograr un ángulo muy abierto para la correcta transmisión. En este sentido uno de los edificios paradigmáticos en el género -en esta ocasión el de las antenas de radio- es la Torre Shabolovka (Fig.15), construida en 1922, en Moscú, por el ingeniero Vladimir Shukhov. La esbeltez y la ligereza estructural confieren a esta pieza un lugar especial en la historia de la arquitectura. Fig.15.Torre Shabolovka, Moscú. Vladimir Shukhov. Al aumentar la distancia de alcance de la señal de las antenas, las antiguas torres de comunicaciones fueron dando paso con los años a las torres de telecomunicaciones que ya no emitían señal de radio (como la antena de la RKO) sino que repetían la señal recibida de los satélites. Las capitales de los países desarrollados fueron incluyendo paulatinamente este símbolo icónico en su paisaje urbano. Las torres de telecomunicaciones de Berlin y Toronto (figs.17 y 18), por su altura, y la Torre de Telecomunicaciones de Collserola, en Barcelona (fig.19), por su diseño, constituyen ejemplos destacados. Otras tipologías vinculadas al desarrollo de las tecnologías de la información y la comunicación han destacado en la historia de la arquitectura. Los observatorios astronómicos construidos por Villanueva en el Retiro de Madrid o la Torre Einstein proyectada por Eric Mendelshon en Potsdam constituyen ejemplos relevantes. La industria aereonaval ha necesitado por su parte de estructuras de grandes luces para dar servicio a las aeronaves, los hangares de Konrad Wachsman o la Terminal de la TWA en el aeropuerto John Fitgeral Kennedy de Nueva York de 24 La compañía aludió a su carácter monumental y artístico, así como contenedor de un servicio público cuyo beneficiario es el estado para obtener la preceptiva licencia administrativa. Casi un siglo después, la compañía promoverá la construcción de otro hito en la ciudad de Madrid. El Distrito C, firmado por Rafael de La-Hoz Castanys, constituye una sede-campus de fuerte identidad arquitectónica. 123

150 Erio Saarinen prevalecen como referentes arquitectónicos de esta tipología. Por su parte, la arquitectura aeroespacial hubo de inventar torres de lanzamientos, estaciones espaciales y envolventes especiales para las aeronaves. Los prototipos de los años cuarenta y cincuenta, y sobre todo, la producción espacial surgida a tenor de la carrera espacial causarían estupor e influencia en la arquitectura aerodinámica estadounidense y británica de la década de los cincuenta, y en las arquitecturas portátiles de kits y de ensamblaje en los sesenta. Fig.16. Skylon, Frank Newby (Felix Samuely Ltd.), Festival of Britain, Fig.17. Fernsehturm, Berlin. Fig.18 CN Tower, Toronto. Fig.19. Torre de Telecomunicaciones de Collserolla, Barcelona. Fig.20, 21 y 22. Estructuras metálicas para soporte de antenas. La acogida arquitectónica de la computadora estuvo marcada desde un inicio por las exigentes condiciones de seguridad. Para este fín, esta tecnología solía instalarse en edificios militares o en enclaves adscritos a la universidad. Los requisitos que precisaba su instalación eran dimensionales y de ventilación. El edificio 328 que alojó en Philadelphia al ENIAC (Electronic Numerical Integrator and Computer), desde su construcción en 1946, no destacaba por nada en especial (fig.23). Tampoco lo hicieron los innumerables sótanos que albergaron muchos de los primeros centros de cálculo. Todos ellos requerían una gran superficie con unas condiciones de ventilación que permitieran disipar el calor que emitían los aparatos 25. Fig.23.ENIAC (Electronic Numerical Integrator And Computer) in Philadelphia, Pennsylvania. Glen Beck (al fondo) y Betty Snyder (en primer plano) programando el ENIAC en BRL Building Este generación de calor lleva al estudio Partenon ha proponer un híbrido termodinámico en base a la simbiosis establecida entre el centro de cálculo y el invernadero, aprovechando así las sinergias energéticas que se establecen entre sendas actividades. 124

151 Fig.24. El Centro de Cálculo de la Universidad de Madrid ( ). Autor: Miguel Fisac. Especial relevancia arquitectónica cobran las propuestas de Miguel Fisac para el Centro de Cálculo de la Universidad de Madrid (1966) (fig.24) y para el Edificio IBM en el Paseo de Recoletos madrileño ( ). En el caso del Edificio IBM (fig.27), las directrices de la compañía de computadoras instaron al arquitecto a evitar el sol del poniente para lograr un confort lumínico idóneo que permitiera el trabajo con fuerte iluminación artificial. A pesar del vidrio Pittburgh-14 antirreflectante y anti-infrarrojo dispuesto en un origen en el proyecto, Fisac acabó diseñando ventajosamente la conocida y singular envolvente de piezas ligeras y huecas de hormigón prefabricado de 2cm de espesor. Frente a la opacidad del Edificio IBM, el Centro de Cálculo de la Ciudad Universitaria (fig.24) dispone la sala de máquinas en una planta baja vítrea que confía en un aclimatamiento artificial. Estos últimos ejemplos constituyen intervenciones introvertidas donde la influencia de las TIC no trasciende más allá del edificio. La consideración de adecuación material de la arquitectura en función de las características de las TIC que aloje tiene una casuística de enorme repercusión. Los requisitos técnicos necesarios para lograr una conexión óptima mediante ondas de radio o para conseguir un espacio WIFI definido pueden llevar al arquitecto a minorar el porcentaje de metal empleado en la estructura y en el cerramiento de un edificio. Fig.25.National Radio Quiet Zone, West Virginia, EEUU. Fig.26.The Robert C. Byrd Green Bank Telescope, National Radio Astronomy Observatory. Fig.27.Edificio IBM, Madrid. Miguel Fisac. Otros espacios aumentados por las TIC pueden pasar desapercibidos al ciudadano por la ausencia total o parcial de rastro construido 26. El espacio de control del tráfico aéreo y marítimo 26 Para profundizar véase Las cosas no salieron como esperábamos de Jose Luis de Vicente. Fuente: < (Consultada el 3 de noviembre de 2013). 125

152 del Estrecho de Gibraltar dispone de unas antenas que definen una auténtica frontera virtual entre Europa y África. La demarcación que vigilan es enorme, pero su presencia casi invisible al ojo humano. Este tipo de lugar también puede aparecer por omisión de las condiciones cotidianas tecnológicas. Tal es el caso de la National Radio Quiet Zone, donde es efectiva la prohibición de transmisiones de señales de radio en un ámbito de km 2, en West Virginia (fig.25). La razón de existencia de esta zona en silencio es la de no perturbar las condiciones de observación y escucha de las antenas y recibidores de la US Navy, en concreto del Telescopio Robert C. Byrd Green Bank del National Radio Astronomy Observatory (fig.26). En 1970 se habilitó en Conil un espacio singular en relación a las comunicaciones submarinas (fig.29), un nudo de comunicación submarina que articula las líneas de comunicación de Europa, Asia y América. Esta enorme presencia de las TIC no se manifiesta físicamente en la superficie terrestre, pero Conill asume una gran relevancia en la cartografía subacuática de las TIC. Fig.28. Cobertura de Radio Liberty y vista de la instalación, Pals, Gerona. Fig.29. Cartografía del cable submarino TAT-5. Esta colección de no-lugares originados por las TIC cuenta con ejemplos que han ido trascendiendo a la luz pública con el paso del tiempo o que también a veces han ido desapareciendo cuando la razón de su construcción se ha vuelto obsoleta. Este es el caso de Radio Liberty. La idea de construir una emisora que introdujese las ondas de radio del bloque capitalista en la Unión Soviética, en plena Guerra Fría, requería una infraestructura con unas condiciones muy especiales. En el año 1955, tras exhaustivos estudios en diversos países y localidades realizados por el American Committee for Liberation (AMCOMLIB) se escogió la Playa de Pals, localizada en Girona, por sus características topográficas, que aumentaban la energía emitida de las ondas 126

153 radiadas 27. Estas antenas emitieron mensajes y propaganda anticomunista, alterando las fronteras físicas de la Guerra Fría (fig.28) y configurando un espacio radiofónico sin igual. La caída del Muro de Berlín y la llegada de Mihaíl Gorbachov a la presidencia de la Unión Soviética de 1989 a 1991, junto con el cese de las interferencias hostiles y la libertad de información, se cuestionó la utilidad de estas emisoras. En 2006, Radio Liberty fue cerrada y desmantelada. 27 La CIA destinó un presupuesto anual al proyecto de más de 83 millones de dólares; además se requería infraestructura pues no había caminos y la instalación de 6 transmisores con 250 mil watts de potencia haciendo un total de 1 millón 500 mil watts de potencia, transmitía en 28 idiomas las 24 horas del día los 365 días del año. Disponible en: < (Consultada el 3 de septiembre de 2013). 127

154 3.2. Presagios de la Revolución Digital Influencias transdisciplinares: arquitectura y ficción. O wonder! How many goodly creatures are there here! How beauteous mankind is! O brave new world, That has such people isn't. William Shakespeare, The Tempest, Act V, Escena I, ll , La construcción del futuro tecnológico es producto de una condición dual: los avances producidos en el campo de la ciencia, logrados en gran parte con metodologías basadas en la razón lógica, y los avances producidos en el ámbito de la ficción con altos contenidos imaginativos. Sendos acontecimientos se retroalimentan y necesitan. Esta salvedad también forma parte del proceso proyectual arquitectónico y de cualquier proyecto creativo ex novo. El proyectista que se enfrenta a la tarea de proyectar lo hace simultáneamente por la vía de la razón y por la vía de la imaginación. En su Manual para la Crítica de Arquitectura, Antonio Miranda (1999) se refiere a la paradoja escondida en la que la racionalidad más estricta -robótica- y la visceralidad más radical -bufonesca- son extremos que se tocan para dar origen a lo verdadero -lo poético- en arquitectura. El propio Albert Einstein ya afirmó que la imaginación es más importante que el conocimiento: el conocimiento es limitado, la imaginación rodea al mundo. La búsqueda de los orígenes del Entorno Aumenado lleva a sondear aquellas propuestas visionarias, ficticias, que aportaron en el siglo que vio la luz de la dimensión digital, una visión de futuro anticipatoria del Entorno Aumentado, y cuya influencia contrastada resultó vital en el avance hacia la contemporaneidad. Propuestas que en mayor o menor medida avanzaron la coexistencia del dominio digital y la realidad física tradicional, en relación a su capacidad de implementar ratios adicionales de información que intensificaran su naturaleza. Propuestas que influyeron en el ámbito de lo arquitectónico y que supusieron, a menudo, auténticos ingenios para burlar la cualidad estática y lineal de la percepción del ojo humano y del Paradigma Mecanicista 28. La investigación también pretende localizar y evaluar los orígenes de algunas técnicas actuales que hoy forman parte de la realidad alternativa del Entorno Aumentado y de la Sociedad de la Información (Castells 2002), así como tratar de dibujar en el caso de que exista su vínculo con 28 El término mecanización indica el grado de implantación de las máquinas en la vida del hombre. Así en este sentido es estudiada por Giedion (1978). En relación a este título, cabe señalar la aportación oportuna del compendio de textos seleccionado por Javier García-Germán (2011) en La digitalización toma el mando. 128

155 la ficción. Como hace notar Strate (2012), las decisiones acerca de la adopción de innovaciones no suelen ser producto de deliberación democrática, ni siquiera son decisiones que tomen ciertas clases dominantes, que sencillamente tengan fe en la tecnología, sino que constituyen, como asegura Postman (1992), una rendición de la cultura a la tecnología. La perspectiva histórica que propone este capítulo trata dar un sentido relacional al mapa contemporáneo de las tecnologías vigentes de la información y la comunicación, de modo que pueda obtenerse un estado del arte más preciso que sirva de fundamento al análisis del Entorno Aumentado. Afirma Sterling B. que es enteramente posible hablar de arquitectura ficción a la par que ciencia ficción. El propio Toyo Ito en Arquitectura en una ciudad simulada (1991) realiza la siguiente reflexión: Debemos crear una arquitectura como una entidad duradera y permanente, pero a ello hay que añadirle un aire ficticio y provisional. ( ). Lo mismo pasa con los materiales en arquitectura, para nosotros ya han desaparecido del todo las fronteras entre lo real y lo irreal. ( ) Considero que el destino de la arquitectura desde ahora en adelante dependerá de cómo descubrir la estructura de la ficción. La propuesta paradógica de Toyo Ito al referirse a una arquitectura permanente pero provisional se comprende bien treinta años después. Hoy se hace difícil pensar en una arquitectura duradera que no asuma el dictado del cambio, fundamentalmente del cambio inferido por las TIC. En este sentido, gran parte de la trayectoria de Archigram dió luz a multitud de proyectos que se alejaban infinito de la ortodoxia profesional de los sesenta, y se acercaban a la propia del siglo XXI. A pesar de que sus miembros se encargaron de proclamar la veracidad constructiva de sus propuestas, no cabe duda de que superaban en imaginación la perspectiva de casi todos los profesionales coetáneos. Plug-in City, Living Pod, Instant City o Walking City se han anticipado a proyectos como el Centro Nacional de Arte y Cultura Georges Pompidou 29 (1977) de Renzo Piano y Richard Rogers o la Kunsthaus de Graz (2003) del propio Peter Cook y Colin Fournier - en colaboración con Realities United, encargados del diseño de la envolvente mediática-. En la cuarta publicación de Archigram, Amazing Archigram 4: Zoom (1964), el grupo londinense tomó como referencia la revista de género Amazing Stories or Astounding Science Fiction y adoptó el formato dinámico del cómic para la divulgación de sus proyectos 30 (fig.2 y 2b). 29 Véase otras propuestas que concurrieron al concurso del Pompidou de 1972 en p Retórica empleada también por Rem Koolhas o Big. 129

156 Fig.1.ROCKET TO THE MOON? Mechanix Illustrated, Sep., Fig.2 (a y b). Situation Architecture, Archigram 4, página 1 y 4, Warren Chalk. El repertorio de imágenes empleado en la representación del espacio futuro ha sido fuente inspiradora de propuestas arquitectónicas y otras artes. Steiner (2009: 151) reflexiona sobre la ciencia ficción: ( ) asimila las disciplinas emergentes y los desarrollos tecnológicos más avanzados en el espectro cultural; identifica actitudes sociales hacia el cambio y ubica las nuevas ideas en contextos tradicionales; y, de modo significativo para una disciplina preeminentemente visual, proporciona una imagen memorizable allí donde no había ninguna. La conexión sinérgica interdisciplinar que fluye entre el cine, la arquitectura, la literatura, la industria del videojuego y otras disciplinas procedentes del diseño, como el cómic (fig.2), deviene en un claro enriquecimiento del imaginario colectivo. El intercambio de referentes y vías de investigación es continuo y enriquecedor. Asimismo, la evolución que han experimentado las herramientas de representación gráfica arquitectónica, proponiendo interfaces cada vez más brillantes e intuitivas, así como la estandarización 31 a nivel de usuario de los procesos de producción de contenidos digitales, hacen realmente prolífica la producción de arquitectura ficción 32. La Sociedad Informacional incorpora con voracidad los avances tecnológicos con la intención de mejorar la producción en el ámbito laboral, doméstico, de ocio, etc. A menudo, la primera cualidad profesional exigida, como puntualiza Ellul (1964), es la eficiencia. Alcanzar los objetivos o ser rentable para la empresa en la medida que dictan los departamentos de 31 Diagramar, modelar, renderizar, maquetar y editar digitalmente proyectos es hoy más sencillo que nunca. La auto-producción de los estudiantes de arquitectura acaba en las redes sociales. 32 Es fácil imaginar el alcance que podría haber tomado la producción visionaria de Antonio Sant Elia o Giambattista Piranesi si hubieran tenido acceso a las técnicas de producción actuales. 130

157 dirección y/o recursos humanos, inducen en el profesional altas dosis de stress que mal gestionadas provocan graves distorsiones en la salud. En este sentido, los efectos de la incorporación maquinista -en este texto, electrónica/digital vinculada a las TIC- a la sociedad, y sus consecuencias beneficiosas o adversas y alienantes para la especie humana podrían ser puestos en entredicho en una reflexión sobre el significado del progreso científico. De cualquier modo, existe un movimiento crítico de desconfianza y rechazo de ciertas prácticas que se aplica también a la Revolución Digital y a las consecuencias aparejadas que ésta ha provocado. Esta crítica contemporánea recuerda a otra que también desconfiaba de los efectos de otra revolución, la Primera Revolución Industrial originada en Gran Bretaña. En la segunda mitad del siglo XIX, un grupo de artistas e intelectuales británicos liderado por William Morris y John Ruskin encontraron solución a este conflicto tratando de preservar una herencia cultural que veían amenazada por la producción industrial. Este posicionamiento significó el advenimiento de las Arts and Crafts británicas y, posteriormente, el desapego general del Reino Unido hacia los preceptos del Movimiento Moderno -en relación trascendencia que tuvo en otros países-. William Morris (2011a) defendía entonces el empleo de la tecnología industrial al servicio del hombre: Por tanto, cualquier labor que permita al hombre expresar su creatividad individual, pero sujeta siempre a una tradición, a una cultura, es por ello objeto de ser considerada artística. A efectos de la disyuntiva realidad vs ficción que nos atañe, William Morris 33 escribió dos novelas que refrendaban su punto de vista intelectual. En particular, dos textos donde él mismo era el protagonista: El sueño de John Ball (2007) y Noticias de Ninguna Parte (2011b), publicadas en 1888 y 1890 respectivamente (fig.3). La segunda expone un viaje a una ciudad utópica del futuro, donde una sociedad feliz y justa habita arquitecturas materializadas con orgullo y placer por sus habitantes, que han depositado en ellas sus esperanzas y desvelos. Morris (2011b) no rechaza la industria pero si el mal uso de las máquinas 34 : 33 Nótese la intención de traer aquí el movimiento Arts & Crafts como reacción surgida en una situación ciertamente similar a la que acontece hoy con respecto a la Revolucion Digital. Resulta también de interés el vínculo de J.R.Tolkien, autor de la conocida El señor de los anillos, con William Morris y las Arts&Crafts, en tanto que sus escritos de ficción han prorogado hasta nuestros días la filosofía aquellos. (García 2012). 34 En su investigación sobre esta novela, Marcelo (2009) afirma que el romance utópico de Morris es un contrapunto de la novela de Edgard Bellemy Reviendo el futuro de 1888, en la cual éste exalta los principios de la industrialización, la mecanización y la centralización muy en boga en ese periodo histórico. Al contrario, para Morris ellos representan anti-valores, en oposición al verdadero espíritu socialista y libertario que lo animaban a él y a sus camaradas de la Liga Socialista. En la utopía cockney 131

158 todo trabajo que realizado a mano es enojoso lo realizamos con maquinas muy perfeccionadas, y se hace sin maquinas el que puede ser agradablemente realizado a mano, 35 Tras la Primera Revolución Industrial, el siglo XX registra en su primer cuarto los dictados estadounidenses del taylorismo y el fordismo -versión más sofisticada de aquel-. El desarrollo del capitalismo en una segunda fase de la Revolución Industrial o Segunda Revolución Industrial depara la aplicación de las nuevas doctrinas a la disciplina arquitectónica 36 : la racionalización del trabajo en la construcción, la rentabilidad aplicada a los costes y salarios, entre otras consecuencias. Por otro lado, el creciente consumo de tecnología encaminado a alcanzar un estándar de vida más cómodo retrata al sobrestimulado ciudadano norteamericano como víctima de la publicidad masiva. Testimonio de ello es el largometraje dirigido por Buster Keaton The Electric House (fig.4), una parodia de las consecuencias a las que puede conducir la obsesión por una mecanización aplicada a todos y cada uno de los instantes y situaciones de la vida cotidiana (García JM., 2012: 43). Brown, Lauder y Ashton (2011) acuñan el término taylorismo digital en relación a la organización global del definido como trabajo de conocimiento propio de la Revolución Digital o Tercera Revolución Industrial, tradicionalmente realizado por las clases medias profesionales y técnicos- que es reducido al mismo proceso de organización científica que en su día sufrieron los oficios artesanales taylorismo-. La digitalización de los procesos de decisión, la deslocalización y competencia salarial mundial, y la reducción del trabajo y su deslocalización caracterizan esta organización 37. de Bellamy, se llevan al extremo las tendencias mencionadas (industrialización y centralización) al tiempo que los ciudadanos se parecen más a soldados orientados para la producción industrial masiva o seres autómatas al estilo de Un Mundo Feliz (Huxley). 35 García (2012) identifica a Oscar Wilde con la afirmación de William Morris: Pensáis, acaso, que nos oponemos a la maquinaria? Pues os diré que la reverenciamos cuando cumple con su trabajo propio, cuando releva al hombre en tareas innobles o desalmadas, pero no cuando pretende hacer aquello que solo resulta valioso al der producido por las manos y el corazón del hombre. 36 Resulta constatable, si se hojean las publicaciones aludidas, que los métodos de organización del trabajo aplicados en USA, en concreto en la producción de las fabricas Ford, los adoptó (Martin Wagner, en su condición de gestor, consejero responsable del área de urbanismo de Berlin) y aplicó como guía de su actividad y le influyeron poderosamente en la labor que tuvo ocasión de desarrollar hasta Véase en Cap.IV Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo las precisiones de Mumford (1934) en su obra Técnica y civilización sobre la historia de la técnica humana. La tesis de Carlos Naya (1996) Arquitectura y técnica, profundiza sobre este tema. 132

159 Fig.3.Frontispicio de Noticias de ninguna parte, William Moris. En la ilustración aparece Kelmscott Manor, casa de campo de William Morris desde 1871 hasta su muerte en Fig.4.The electric house, Cortometraje mudo escrito y dirigido por Buster Keaton y Edward E. Cline. Fig.5.Metrópolis, Dirigida por Fritz Lang. Escena en la que el robot de Rotwang comienza a transformarse en María. La producción contemporánea de arquitectura experimental no construida tiene a menudo altas dosis de ficción tómese en el sentido virtuoso y no peyorativo- y a menudo resulta espejo del porvenir profesional. Indistintamente, acontece en soportes diversos, destacando por su difusión y alcance el cine y el videojuego. La simulación de escenarios de otras épocas pasadas o futuras, resulta práctica habitual en esos géneros, a la vez que ocupa a un buen número de arquitectos y artistas gráficos. El cine, tan próximo en muchos aspectos a la disciplina arquitectónica - estética, estructura narrativa, articulación del espacio escenográfico, etc- ha propuesto escenarios de arquitectura ficción que ya forman parte del imaginario colectivo. La cinematografía señala El viaje a la Luna (1902) de George Méliès como la primera película de ciencia ficción. A pesar de que el género fuera concebido en esta obra pionera, es en Metrópolis (fig.5) donde emerge en toda su integridad. Esta capacidad de vislumbrar la evolución tecnológica tiene lugar en la arquitectura distópica de Los Angeles en Blade Runner (Ridley Scott, 1986), de Metrópolis (Fritz Lang, 1927) o de Gothan City en Batman. Todas ellas incorporan en sus planos simulaciones de mundos futuros donde la tecnología domina a la condición humana. La desmaterializada tecno-arquitectura de Matrix (Hermanos Wachowski, 1999) propone una visión impactante (fig.8) y también distópica sobre el entorno aumentado. En esta ocasión, la dimensión digital se superpone a la realidad física dando lugar a un mundo alternativo de arquitecturas construidas con bits. Los electrodomésticos de última generación que aparecen en Mi tío (Jacques Tatti, 1958) convierten la vivienda moderna en una pantomima tecnológica. De igual modo, Jacques Tatti advierte en Playtime (1967) de los excesos ocasionados por la superautomatización alienante para el individuo. La arquitectura de ficción de los Supersónicos, vinculada al fenómeno ovni de los cincuenta, incorpora dispositivos tecnológicos aún por inventar. Un momento a destacar en la historia del cine de ficción vinculado a la computación es la escena de persecución de Westworld (fig.6). Dirigida por Michael Crichton en 1973, el fotograma corresponde a la 133

160 primera vez que se usa una imagen generada por ordenador (CG) en una película; hecho absolutamente innovador para la época, constituye el primer pixelado en la gran pantalla 38. La historia de la arquitectura-ficción ha reservado un lugar especial a la película dirigida por Steven Lisberger Tron (fig.7). Producida en 1982 por los estudios Walt Disney, alcanzó el status de película de culto del ciberpunk por ser una de las primeras cintas en emplear gráficos generados por ordenador -unos treinta minutos-. Además, la coincidencia del artista conceptual Syd Mead trabajó también en Blade Runner y Alien- y el dibujante francés Jean Giraud (Moebius) aseguró un tratamiento estético pionero que describía un mundo alternativo digital 39. El estrepitoso fracaso comercial de la película indujo a muchos estudios a desechar este tipo de imágenes, retrasando la incursión de la computadora en el cine. Fig.6. Fotograma de Westworld, Dirigida por Michael Crichton. Fig.7. Tron, Carrera de motos. Dirigida por Steven Lisberger. Fig.8. Lluvia digital, Matrix, Dirigida por los hermanos Wachowski. Los gráficos tridimensionales 3D han alcanzado en la contemporaneidad un nivel de fotorrealismo tal que es difícil identificar en pantalla la realidad física grabada de la ficción digital. En el caso de la película Titanic, dirigida y escrita por James Cameron (1997); muchos extras fueron implantados virtualmente en las escenas, operación repetida en El Cuervo. Tras el fallecimiento del actor Brandon Lee en pleno rodaje de El Cuervo, su personaje fue sustituido por una réplica digital para poder finalizar la película. Por otro lado, la arquitectura-ficción dispone de otro ámbito de experimentación prolífico en la industria del videojuego. La abundancia de escenarios digitales en mundos virtuales como Call of Duty, Second Life o Minecraft alimenta sinergias figurativas continuas y diversas en el proceso de proyecto de los estudiantes de arquitectura de todo el mundo. La aparición de la arquitectura aumentada, por ejemplo en forma de hologramas, plantea un escenario fotorrealista 38 El pixelado de la imagen responde al original. 39 La película narra las contingencias de un joven programador que se introduce, mediante un proceso de escaneado láser, en los circuitos de una computadora. En el sistema sobreviene un litigio que implica a los programas, personificados por sus usuarios, para acabar con el poder totalitario del control central. Es la primera vez en la historia que un personaje humano intercede en la realidad virtual. 134

161 donde la ficción y la realidad difícilmente se distinguen. Como asegura Banham 40, al final olvidaremos que hubo una diferencia. Influidas por el totalitarismo estalinista de la Union Soviética, Un Mundo Feliz, y Fahrenheit 45 describen visiones pesimistas emblemáticas que constituyen obras maestras del género de la ciencia ficción del siglo XX. Los ciudadanos de estas utopías negativas viven oprimidos bajo el control del Estado opresor que desautoriza los derechos humanos elementales. Aldous Huxley publicó en 1932 Un Mundo Feliz (del inglés Brave New World), cuyo título hacía referencia a un verso de William Shakespeare en The Tempest, Act V, Escena I, ll 42. Huxley presagió los avances científicos en la tecnología reproductiva, neurocirugía, cultivos humanos e hipnopedia; circunstancias que sumadas a otros avances producen una sociedad artificialmente feliz que vive vigilada por el ojo del Estado (fig.10). Fig , cartel de la adaptación cinematográfica del director Michael Anderson, Fig.10.Un mundo feliz, 1932, Aldous Huxley. Portada de la primera edición. Autor: Leslie Holland. Fig.11.Control.Burble.Remote. Usman Haque, Premier en Barcelona, Febrero de El escritor y periodista británico George Orwell redactó el grueso de 1984 en plena Segunda Guerra Mundial, en su estancia en la isla de Jura, Escocia. Describió una sociedad en la que el Partido Unico sometía a los ciudadanos a un poder absoluto cuyas consignas eran: La libertad es la esclavitud, la guerra es la paz, la ignorancia es la fuerza. Los ideales del Partido estaban representados en el Gran Hermano omnipresente (fig.9), omnipotente y omnisciente que todo lo ve. 40 OTTS, Enn (2011) Decoding Theoryspeak: An Illustrated Guide to Architectural Theory, New York: Routledge. 41 A causa de a aparentes motivos comerciales, el título original The Last Man in Europe (El último hombre en Europa), fue remplazado a instancia de los editores británicos y estadounidenses por el de Mil novecientos ochenta y cuatro. 42 Véase cita introductoria del apartado. 135

162 La tercera obra que integra este análisis de presagios literarios es Fahrenheit 451, escrita por el estadounidense Ray Bradbury en Ni la publicación, ni la adaptación cinematográfica del paladín de la Nouvelle Vague François Truffaut han perdido un ápice de su fuerza original. En esta ocasión, el argumento respondía a la denuncia de un totalitarismo analfabetizador que persigue y castiga a los lectores. Tanto la obra de Huxley, como la de Orwell y Bradbury son referentes distópicos de la sociedad de la información. Representan, hoy por hoy, un discurso contemporáneo que describe el miedo frente al control del individuo por el Estado u otros entes de ese orden-. Bradbury (1991: 18) se refiere la influencia de la ciencia ficción en otras disciplinas: (Cience Fiction) is the history of towns and cities yet unbuilt, ghosting our imaginations and lifting us to rise up and find hammers and nails to build our dreams before they blow away. I dare suggest some architects who, if you asked, would say the same: that a Frank R.Paul cover painting on an October 1929 issue of Amazing Stories caused them to buy pens, pencils, rulers, and drawing boards to paper up a concept and create a living world. If you bombarded an audience with three minutes worth of covers from the old science fiction magazines, each screened for just two or three seconds, the effect would be stunning. For city after city, wall after wall, avenue, would strike the retina and stimulate the brain Science fiction remains the architecture of our dreams, and science fiction illustration will continue to inspire our next generation of dreamers dibujó una escena apocalíptica en la que las tecnologías de la información y la comunicación se constituyen en herramientas de manipulación social. En cierta medida anticipando los efectos que según ciertos sectores podría llegar a tener la globalización con la aparición de Internet, la telefonía móvil, la moneda virtual, etc., en términos generales: la virtualización digital de la realidad física. La tecnología permite la conexión individual permanente con el resto del planeta, pero también dificulta cada vez más la libertad individual de desconectar de la red y descansar en el oasis tecnológico. En este sentido, cabe destacar la serie de proyectos Burble del arquitecto Usman Haque 43. La figura 11 representa el vuelo de una nube de globos sobre Barcelona interactuando con los campos electromagnéticos que conforman el espacio hertziano (Haque 2010), aquel por el que navegan las ondas de radio, telefonía móvil, televisión, etc. En la nube, una red de sensores de 30 metros de diámetro sensores y leds, junto con algunos teléfonos móviles- va cambiando de color mostrando las diferentes texturas del espacio ocupado por la radiación de la telefonía móvil de los asistentes. 43 En una entrevista reciente, Haque (óp.cit., 2010) afirma dedicarse a la parte blanda de la arquitectura. Le interesa cómo nos vivimos unos a otros y cómo vivimos el espacio que nos rodea. Alison y Peter Smithson ratificarían la afirmación. 136

163 Haque realiza una reflexión política sobre las estructuras de participación, sobre el papel de los dispositivos de control remoto 44, visualizando su condición privada y transformando en pública su condición individual mediante la orquestación de una performance interactiva. El espacio oculto de las comunicaciones se delata, como también lo hacen sus efectos nocivos sobre el cuerpo humano. El público se convierte en el intérprete del espectáculo y la relación de personas a sus mandos a distancia y el uno al otro es externalizada, comunal y urbana anticipó al concepto de ciudad ubicua 45. El diseño actual de las Smart Cities o Ciudades Inteligentes habilita para el ciudadano y para la administración- una red de conexiones con el dominio digital, con posibilidad de actualización en tiempo real. El objetivo de la ciudad ubicua consiste en incorporar la realidad alternativa de la computación en el Entorno Físico, de manera que esta resulte invisible para los usuarios; una integración total de la realidad alternativa y la física: el Entorno Aumentado. La ciudad ubicua esconde los dispositivos al ciudadano que opera directamente las aplicaciones digitales y no tiene acceso al código generador de éstos. Hoy por hoy, existe un enfrentamiento entre los partidarios de la ciudad ubicua, diseñada por la administración local, gubernamental o intergubernamental y los defensores de una integración digital accesible y operable incluso transformable- por el ciudadano, cuyo mayor exponente es el entorno hacker. A pesar de no hacer referencia explícita a la neurocirugía o la manipulación genética, dada la fecha en la que se escribió la novela, Huxley advertía en Un mundo feliz de los peligros de la clonación humana y la reproducción asistida. Hoy en día, la reproducción asistida es una técnica extendida y la clonación humana, tras lograr la clonación de otras especies animales, ve frenada su desarrollo por instancias éticas. No resulta descabellada la idea de pensar en la reproducción asistida del proyecto de arquitectura -la clonación ya cuenta con siglos de existencia-. Manuel de Landa (2002) se refiere a este particular identificando las estructuras arquitectónicas evolucionadas con el algoritmo genético y la idea de criar edificios dentro de un ordenador. Suyo es el concepto de proyecto huevo. El proyectista no tendrá que desarrollar el proyecto al completo sino que programará un desarrollo incubado que será activado por un usuario y, entonces, terminará de conformar el proyecto. La II Guerra Mundial supuso un punto de inflexión en la cronología de presagios de la Revolución Digital. El descubrimiento de la energía atómica y su aplicación en el desarrollo de armamento nuclear, así como el nacimiento de la carrera espacial alimento una escalada 44 Los mandos a distancia son más familiares para nosotros como instrumentos de confinamiento: requieren que adoptemos las relaciones estrictas, confinados en sus hogares y orientados al consumo para nuestros dispositivos tecnológicos, electrodomésticos y gadgets. Son objetos individualistas, nacionales y atomizados que controlan más de lo que nos controlarlos. En Control.Burble.Remote, esta relación se volvió del revés. El público se convierte en el intérprete del espectáculo y la relación de personas a sus mandos a distancia y el uno al otro es externalizada, comunal y urbano. (Haque, íbid., 2010) 45 Véase en Cap. IV, La ciudad aumentada. Domesticación de la ciudad. 137

164 tecnológica cuyo escenario fue la Guerra Fría. Las visiones apocalípticas de holocaustos nucleares y la ficción de hallar un lugar-refugio en otro planeta libre de amenazas, fueron el caldo de cultivo de innumerables sueños utópicos. Como consecuencia de ello, el género de ciencia ficción adquirió gran popularidad. La década de los 50 trajo la edad dorada del cine de ciencia-ficción (fig.17). En esos años los flying discs o platillos volantes colonizaron no solo las primeras planas de muchos tabloides si no todas las propuestas cinematográficas de ciencia ficción y algún que otro proyecto de arquitectura. El autogiro de Frank Lloyd Wright para su proyecto de Broadacre City, la casa Malin de John Lautner (Chemosphere 1960) o las Dymaxion Houses de Richard Buckminster Fuller forman parte de la iconografía. Spacewars, el primer juego de ordenador creado por Steve Russell vió la luz en Inició el camino de la representación del lugar digital vinculado a lo lúdico, una senda que hará evolucionar el dominio digital en un ámbito ajeno al militar y al entorno académico, aunque con sinergias claras entre ambos. Desde su origen, la industria del videojuego formaliza auténticas predicciones de la Revolución Digital, convirtiéndose en un ámbito prolífico y propicio para exploraciones vinculadas a los efectos del avance científico en la convergencia digital. Arthur C. Clarke ( ), escritor y científico británico autor de obras de divulgación científica y de ciencia ficción como 2001: Una odisea del espacio, escrita en 1968, formuló tres leyes relacionadas con el avance científico: 1. Cuando un anciano y distinguido científico afirma que algo es posible, es casi seguro que está en lo correcto. Cuando afirma que algo es imposible, muy probablemente está equivocado. 2. La única manera de descubrir los límites de lo posible es aventurarse un poco más allá, hacia lo imposible. 3. Toda tecnología lo suficientemente avanzada es indistinguible de la magia. Estos postulados hacen honor a su trayectoria, una de las más preclaras en el campo de la divulgación científica y de la ciencia ficción, junto a Isaac Asimov y Robert Heinlein. En 1959, Frank Lloyd Wright (Trejo 2006: 1) afirmaba que para entender los hechos sociales es preciso renovar la capacidad de asombro. Comparando la capacidad de asombro de un ciudadano del primer mundo 46 contemporáneo, un individuo que según el arquitecto de 46 Recordemos que el Primer Mundo está abriendo una brecha digital con el resto que crece de manera exponencial. El término procede del inglés digital divide, utilizado durante la Administración Clinton para referirse a la fractura que podía producirse en los Estados Unidos entre "conectados" y "no conectados". Según Internet World Stats, en el 2010, 16 de los 1966 millones de internautas conectados, casi el 63%, vive en los países industrializados, donde reside el 15% de la población mundial. 138

165 formación pero más conocido como fundador y director del MIT MediaLab, Nicholas Negroponte, ha sido testigo del final de la Revolución Digital, con la del mismo ciudadano medio siglo anterior, estaremos de acuerdo en que esta capacidad de asombro ha disminuido considerablemente; se ha entumecido. En la década de los sesenta-setenta el imaginario colectivo de la ciencia ficción bullía de manera intensa bien es cierto que también lo hacía por otras causas como los reajustes político-sociales. Las misiones del programa Apolo de la NASA, la existencia de vida extraterrestre, la inteligencia artificial, etc, llenaban cientos y cientos de páginas. Hoy suscitan mayor asombro las nuevas aplicaciones de la próxima versión del iphone que el descubrimiento de rastro de agua en Marte. Fig.12.The Whole Earth Catalogue, Portada de la revista con foto de la NASA, La Tierra vista desde la Luna. Fig : A Space Odyssey, Director: Stanley Kubrick. Fig.14. HAL 9000, Ojo-cámara de color rojo. Odisea en el espacio. Director: Stanley Kubrick. La intromisión de la crisis ambiental en la esfera política a finales de los sesenta, principios de los setenta ya se había proclamado en la académica años antes- precipitó la aparición de conceptos panhumanos como Una sola Tierra 47 o Un Futuro común. Una conciencia ecológica nueva deriva hacia nuevas formas de compromiso y denuncia social frente a las generaciones futuras. En el marco de los origenes del desarrollo sostenible The Whole Earth Catalog, referente de la contracultura norteamericana, es publicado por Stewart Brand entre 1968 y 1972, y a partir de entonces de manera esporádica hasta Aunque los catálogos WEC enumeran todo tipo de productos para la venta -ropa, libros, herramientas, máquinas, semillas - cosas útiles para un estilo de vida creativo o auto-sostenible-, los catálogos Whole Earth no venden ninguno de los productos, en cambio, los proveedores y sus precios se enumeran junto con los artículos. Steve Jobs (2005) mencionó The Whole Earth Catalogue en su celebrado discurso inaugural del año académico 2005, en la Universidad de Stanford: 47 El informe encargado por el MIT al Club de Roma creado en Limits to Growth, marcó en 1972 un momento de inflexión. El proceso creciente de mundialización de las actividades humanas hacía necesaria una nueva perspectiva sobre el planeta Tierra y su condición finita. 139

166 Cuando yo era joven, había una publicación asombrosa llamada The Whole Earth Catalog, era una de las biblias de mi generación... Era como una especie de Google en formato de papel, 35 años antes de que llegara Google. Era idealista y rebosaba de herramientas claras y grandes conceptos. Esta colección de propuestas presentada a modo de repositorio para llevar una vida alternativa a la que se proponía desde las administraciones de los países industrializados se alejaba de los modelos de crecimiento basados en la dupla progreso y riqueza. Una nueva Enciclopedie activista con formato Google en papel, como indica Jobs en la cita. La portada quedaba definida por la primera imagen de la Tierra tomada desde la Luna por la NASA (fig.12). Del mismo modo el amanecer del hombre, que daba nombre a la primera parte de la película de Stanley Kubrick 2001: Odisea en el espacio, proponía una secuencia inicial en la que puede verse la imagen de la Tierra saliendo sobre la Luna, a la vez que el Sol salía ascendía sobre la Tierra (fig.13). Basándose en una novela corta del escritor Arthur C. Clarke (2003) titulada El centinela, esta película de culto del género de la ciencia ficción marcó un hito por su comunicación audiovisual, misticismo y realismo científico, siendo este último atributo una novedad en la historia del cine. Resulta cuando menos curioso la tecnología que Kubrick imaginaba para un futuro que aun tardaría en llegar treinta años. Como asegura Waelder (2005), la figura del ordenador HAL 9000 (fig.14), un superordenador dotado de inteligencia artificial dista mucho de la generación de ordenadores de principios del siglo XXI. Su tamaño voluminoso lo delata como máquina primitiva, signo indiscutible de una época anterior a la aparición del Personal Computer. La disminución del tamaño de la tecnología electrónica es uno de los rasgos característicos de la industria del silicio. La computadora de a bordo HAL , Computador Algorítmico Heurísticamente Programado (Heuristically Programmed Algorithmic Computer) tenía la misión de supervisar la operatividad de la nave espacial Discovery, Hal 9000 poseía una Inteligencia Artificial 49 que finalmente perdería la razón. Banham (1968) en su ensayo The Triumph of Software publicado en New Society en 1968, reflexiona a cerca de la creciente sensibilidad relacionada con el software y los entornos responsivos (del inglés responsive) en contraposición a la sensibilidad que alimenta el hardware, ejemplificado en la película de Kubrick. Escribió sobre el ambiente curvo, plegable, continuo, 48 Después de que HAL parezca haberse confundido en un fallo de la antena de la nave espacial, los astronautas David Bowman y Frank Poole consideran desconectar sus circuitos cognoscitivos. Ellos creen que HAL no puede oírlos, pero no sabían que HAL es capaz de leer los labios. Enfrentándose a una perspectiva de desconexión, HAL procede a matar a Frank Poole mientras está reparando la nave, también mata a los otros miembros de la tripulación que estaban en animación suspendida. Dándose cuenta de lo sucedido, el astronauta David Bowman decide apagar a HAL. En la película 2001, HAL es representado no sólo con capacidades de reconocimiento de voz, reconocimiento facial y procesamiento de lenguaje, sino también con lectura de labios, apreciación del arte, interpretación de emociones, expresión de emociones y razonamiento. (Fuente: Wikipedia). 49 Véase definición en el Glosario. 140

167 respirable, las superficies adaptables de la película Barbarella, yuxtaponiéndolo con todo aquel plástico negro y metal pulido, y knobs e interruptores, todo ese si hardware! de De nuevo una película marcará los designios en la década de los ochenta de la ciencia ficción. Ridley Scott dirigió Blade Runner en 1982 basada en la novela Sueñan los androides con ovejas eléctricas? del escritor Phillip K. Dick 51. La abstracción purista de 2001 Odisea en el espacio y 754 Fahrenheit dió paso a la humanización de la tecnología o tecnologización del ser humano, convertido en cibor. Las naves espaciales dejaron de ser pulcras estructuras exponentes de una civilización superior. La acción se traslada a entornos urbanos degradados, donde la naturaleza artificial ha eliminado cualquier huella de la naturaleza nostálgica de paraíso y la tecnología se encuentra en cualquier ámbito de la cotidianeidad. La escala tecnológica se vuelve humana y ergonómica al individualizarse y ocupar el espacio doméstico. Fig.15. Terminator, 1984, dirigida por James Cameron.Visión del cíborg Terminator T-800 modelo Cyberdyne 101. Fig.16. Neuromancer, Videojuego adapatado de la novela de Gibson, producido por Interplay Productions. Fig.17. Neuromancer, William Gibson. Portada de James Warhola. En ese mismo año de 1982 se lanzó al mercado el personal computer, con los modelos Commodore 64 y el ZX Spectrum de Sinclair. El ordenador ya no era un ser ominoso y las cuestiones acerca del futuro se desplazaron hacia el planteamiento de la condición de las personas en una sociedad en la que la tecnología había hecho posible la vida y la inteligencia artificial (Waelder 2005). Esta nueva imagen del futuro en la que el género de la ciencia ficción se conoce como ciberpunk describe una sociedad super-urbana en la cual el vínculo entre el ser humano y la máquina se diluye, circunstancia que supuso la revisión del concepto de interfaz, para que se permitiera al individuo operar la tecnología de un modo más natural ; la visualización del código de programación se vuelve más gráfica y menos simbólica. La tecnología que en las décadas anteriores había aparecido en el entorno académico y militar 50 Fuente: < (Consultada el 1 de octubre de 2012). 51 Para ampliar información: Architecture and Science-fiction Film: Philip K. Dick and the Spectacle of Home. 141

168 trascendió a la sociedad civil. La expansión empleó como catalizador el ordenador personal. Finalmente, en 1984 Apple comercializó el primer ordenador personal que dispone de interfaz gráfica operada por medio de un ratón, a la vez que William Gibson publicaba Neuromancer, un auténtico referente en la ciencia ficción (figs.16 y 17) donde Gibson dibujó una visión de futuro en la que la relación hombre-máquina se vuelve cotidiano y generador de una nueva cultura digital. El término de ciberespacio 52 aparece por primera vez en un cuento Gibson (1981) que forma parte del volumen Quemando Cromo 53. El ciberespacio de Gibson, es una alucinación consensual experimentada diariamente por billones de legítimos operadores en todas las naciones, una representación gráfica de la información abstraída de los bancos de todos los ordenadores (computadoras) del sistema humano. Una complejidad inimaginable. A esta complejidad, matriz o ciberespacio, pueden ingresar los vaqueros de consola mediante implantes o electrodos, de modo que proyectan sus existencias dentro del ciberespacio. En la ficción de Neuromante 54 (Gibson 1984), el ciberespacio tiene su origen en las primitivas galerías de juego, en los primeros programas gráficos y en la experimentación militar con conexiones craneales. A diferencia de la conexión actual con la virtualidad de Internet, Gibson propone una interacción inmediata y total con un dominio digital que contiene además un espacio perspectivo. Fig.18. Kronos, 1957, Dirigida por Kurt Neumann. Fotograma de la nave extraterrestre. Fig.19.The Walking City, Archigram, Proyecto de Ron Herron. Fig.20.Versión definitiva del AT-AT para el Imperio Contrataca, Dibujo de Joe Johnston. La proliferación de arquitecturas de la ciencia ficción en el entorno de Archigram 55 y otros metabolistas -herederos de SantElia y otros futuristas italianos- como Gernot Nalbach, supera con mucho la capacidad de asombro de las propuestas fictíceas contemporáneas. La Ciudad Pneumática propuesta por el arquitecto austríaco Gernot Nalbach cuenta con una estructura móvil de la cual cuelgan esferas neumáticas habitables. Según Rodríguez (óp.cit., 2011) esta 52 Véase definición en el Glosario. 53 Del inglés Burning Chrome. 54 Considereda como la referencia por excelencia del movimiento ciberpunk. 55 Cf. figs. 19 y

169 Pneumo City (fig.22) servirá de referente un par de años después para Coop Himmelblau en su proyecto CLOUD I y deriva de otros experimentos realizados por el propio Nalbach como su Low Cost House. La construcción de una ciudad celeste o una ciudad que flote sobre las nubes es un arquetipo prolífico en la historia de la arquitectura de ficción. La colonia minera Cloud City existe como metrópolis flotante en el planeta Bespin del universo Star Wars. El propio Marinetti alude en el Manifiesto Futurista a las fábricas colgadas en las nubes por los hilos de sus humaredas. Uno de los proyectos más prometedores aunque no construido finalmente- de las Olimpiadas celebradas en Londres en 2012, fue el proyecto The cloud (fig.23) diseñado por un nutrido grupo de arquitectos, ingenieros, artistas y técnicos entre los que se encuentran el MIT, Google, Umberto Eco o el artista digital Antoni Muntadas. The cloud consistía en un ambicioso sistema de visualización de datos, traslación de las estructura de datos en red o cloud computing. La sociedad de la información nutre al individuo de referentes tecnológicos reales con tal profusión que la capacidad de asombro tecnológico parece haber mermado considerablemente respecto a años atrás. Hoy por hoy, cuesta imaginar una tecnología que realmente fuera inviable o una arquitectura que no pudiera ser construida por con los avances técnicos ulteriores. Fig.21.Cloud City. Star Wars. Fig.22.Pneumo City. Gernot Galbach Fig.23.The Cloud. London 2012 Olympic Games. Con frecuencia el tamaño de la infomasa supera la capacidad de asimilar información de cualquier individuo. Es información lo que sobra, mientras la capacidad de análisis se torna cualidad indispensable. La imaginación sociológica (W. Mills 1959), aquella cualidad mental que contribuye a un mejor uso y análisis de la información y a desarrollar una razón para conseguir recapitulaciones lúcidas de lo que ocurre en el mundo y de lo que quizás está ocurriendo dentro de nosotros mismos, se posiciona como necesaria para devolver al individuo la perspectiva social que tenía en el siglo pasado. 143

170 Alteraciones cinéticas. Preludio de la simultaneidad y el dinamismo digital. La arquitectura avanzada 56 es, en efecto, decididamente dinámica. Propone el desarrollo de procesos más que la definición y acotamiento de sucesos. Opera por tanto con geometrías y organizaciones dinámicas, más cerca de órdenes diferenciales fractales que de órdenes absolutos euclidianos. De topologías elásticas y adaptables más que de retículas rígidas y universales. De lógicas digitales más que de modelos analógicos. Diccionario Metápolis de Arquitectura Avanzada, La percepción del ser humano obedece a un tempo implícito en la fisiología de los órganos sensoriales. Vulnerar esa condición supone acercarse a la realidad contraviniendo la genética de la especie e iniciando la exploración de un nuevo mundo que espera de ser descubierto 57. Así lo entendió en el s.xvii el jesuita Kircher en su obra Ars Magna Lucis et Umbrae, Huygens en la construcción de la primera linterna mágica o Muybridge cuando, apuesta de por medio 58, se propuso en 1873 averiguar si un caballo galopando mantenía siempre alguno de sus cascos en el suelo. Hoy en día la percepción del movimiento de las cosas no supone ningún reto. Los avances tecnológicos han logrado congelar el movimiento continuo más rápido de la naturaleza y editarlo digitalmente para su manipulación: explosión de una gota de agua al impactar con el suelo, impacto de un proyectil, aleteo de un insecto, etc. Esta subversión no solo queda circunscrita a la capacidad de observación de nuestro entorno. El Entorno Aumentado supone la traslación de esta capacidad a la cotidianeidad. La revisión y manipulación del tempo predispone a la comprensión de los procesos desde un punto de vista no lineal. Así lo concibieron en 1957 Charles y Ray Eames, al comparar la escala humana y la del universo mediante una secuencia de zoom sucesivo operada según una escala logarítmica de base diez en su corto documental Powers of ten, y anteriormente, en 1945, Vannevar Bush al 56 Que avanza, que marcha. Arquitectos caminantes frente a arquitectos contemplativos. Proposiciones frente a posiciones. Federico Soriano en Diccionario Metápolis de Arquitectura Avanzada (Guallart et alt. 1999: 74). 57 Esta reflexión sobre la cultura de la imagen culmina con la interacción del usuario en la era digital. Transcurre en torno a la fotografía, cinematografía, radio y televisión e internet, y bien puede comenzar en el inicio del libro séptimo de La República de Platón (Bereguer 1991: 3): Imagina una cueva que tenga una abertura que de paso a la luz. Las imágenes y sombras que se proyectan en esa caverna, argumentaba Platón, absorben los sentidos de los espectadores e incluso les hace confundir la realidad. 58 El millonario Leland Standford, ex gobernador del estado y presidente de la Central Pacific Railway, quiso salir de duda. Apostó dólares con unos amigos y contrató al mejor fotógrafo de San Francisco en aquel entonces, el inglés Edward Muybridge, para que resolviese la disputa mediante la fotografía, que sería considerada la única prueba indiscutible. Fuente: Wikipedia. 144

171 presentar el concepto de hipertexto sin emplear la estructura narrativa lineal tradicional- en su artículo As we may think. Esta condición dinámica de la imagen tiene sus orígenes en dos fotógrafos cuyo trabajo resultó pionero y anterior a las vanguardias. El británico Eadweard Muybridge, seudónimo de Edward James Muggeridge, emigrado a los Estados Unidos en 1851, experimentó sobre cronofotografía obteniendo unos resultados que sentaron las bases para la invención posterior del cinematógrafo. Paralelamente en Francia, Étienne Jules Marey, fotógrafo y especialista fisiólogo, se hacía eco de los avances de Muybridge para implementarlos en su investigación sobre el movimiento. Muybridge afrontó la apuesta disponiendo a lo largo de una pista de unos 24 metros, veinticuatro cámaras fotográficas en serie paralelas a la trayectoria del caballo (fig.1). El caballo iba rompiendo los cables accionando sucesivamente una cámara tras otra. Este experimento resultó exitoso gracias a los obturadores que él mismo había fabricado y que procuraban una velocidad de hasta 1/500 segundos. Así fue como en 1887 Muybridge consiguió registrar fotograma a fotograma el galope de un caballo. Marey estableció las bases del cine actual -incluyendo el cine de animación- al inventar en 1888 el fusil fotográfico (fig.2), un artefacto que replicaba la estructura de un fusil de la época, pero no disparaba balas si no que registraba hasta doce fotogramas a la extraordinaria velocidad de 1/700s. Su trabajo fue ampliamente publicado y supuso un referente para Thomas Edison y Louis Lumière, entre otros. Fig.1.Caballo en movimiento, Eadweard Muybridge, Kentucky. Fig.2.Fusil fotográfico, Étienne Jules Marey. Fig.3.Cronofotografía de un esgrimista, Étienne Jules Marey. Fuente: Hulton Archive/Getty Images. Más de un siglo después, en 1995, el artista chino Ai Weiwei realizó la acción Tirando al suelo una urna de la dinastía Han (fig.4); una serie de tres fotografías en blanco y negro que registran una secuencia en la que deja caer y rompe un jarrón de la dinastía Han, (202 antes de Cristo después de Cristo). Tendría la acción de Weiwei el mismo efecto si constara únicamente de una imagen, a la manera de la Cronofotografía de un esgrimista de Marey (fig.3)? 145

172 Fig.4.Tirando al suelo una urna de la dinastía Han, Serie de tres fotografías de una acción de Ai Weiwei. (El País, 16 de mayo de 2009). Weiwei no recurre al hiperrealismo de una cámara de video para mostrarnos la grabación del detalle de la ruptura sino que echa mano de la cámara fija. Frente al trabajo de Muybridge cuya obra influyó decisivamente en artistas como Sol Lewitt- y Marei, no parece que para Weiwei sea tan importante mostrar el movimiento de la ruptura del jarrón como mostrar el antes, durante y después. La figura hierática del autor frente al drama de la imagen pretende reivindicar, en palabras del propio Weiwei, una liberación espiritual, destinada a desembarazarnos nosotros mismos de la lucha clásica de identidad cultural e interpretaciones históricas. Es un gesto y una declaración para dignificar las acciones personales ( ) A veces, necesitas una declaración para identificarte tú mismo, pero también para cuestionar la autoridad, cuestionar tu propia posición en algunos asuntos. A pesar de la cualidad dinámica implícita en el movimiento de los objetos registrados en las fotografías de Muybridge y Marey -Caballo en movimiento y la Cronografía de un esgrimista-, estas responden a un patrón de comunicación lineal. Shannon & Weaver (1948) no hablarían de un receptor si no de un destino, como depositario del efecto que estos ejemplos pretenden comunicar. Este carácter lineal resulta asociado al primer nivel de pensamiento en la comunicación, su estadio más básico. Por el contrario, al observar la fotografía de Weiwei, el gran ensayista de la comunicación Harold Lasswell trataría de obtener una respuesta a su famosa pregunta, conocida como paradigma de Lasswell, Quién dice qué a quién a través de qué canal con qué efecto?. La mirada impertérrita del autor, el mensaje que quiere transmitir y la estructura tríptica que refuerza la condición dinámica temporal son cómplices de nuestro extrañamiento. Probablemente Lasswell desestimaría la condición lineal de los fotógrafos del XIX para esta imagen, al hacer notar la presencia necesaria del receptor. La condición dinámica en la comunicación corresponde a una segunda etapa más evolucionada que la lineal. El paradigma de Lasswell, divulgado por el autor en 1948, sigue en plena vigencia en una sociedad donde Internet y la comunicación a través ciberespacio dominan el proceso comunicativo. El dinamismo queda asumido por las tecnologías de nuestro tiempo en sus múltiples aplicaciones. La visualización de contenidos en el soporte digital se produce a menudo desde interfaces que permiten la simultaneidad y el dinamismo. Sin embargo, no es la 146

173 dinámica la forma más completa del proceso comunicativo. Frente a ella, la comunicación dinámica retroalimentada como principio de la comunicación efectiva. Como afirma Nosnik (1996) la retroalimentación 59 constituye una especie de corazón ideológico (el término es de Collins y Porras, 1994) de nuestra comunidad profesional, una impronta de nuestro tiempo: ( ), la retroalimentación, o los intentos del receptor por alcanzar con ella al emisor, es el ingrediente que separa de manera dramática nuestro pensamiento "dinámico" del (anterior) lineal en comunicación. La segunda etapa de nuestro pensamiento en comunicación no solo es el reconocimiento de la existencia de un receptor (o varios, para el caso) al otro lado del proceso, ni siquiera es suficiente ( ) reconocer sus capacidades ( ) y su estado gregario irrenunciable ( ). La concepción dinámica se tipifica, y significa un adelanto conceptual de primera importancia en nuestro quehacer, al incorporar a la retroalimentación como prerrequisito de la comunicación (efectiva). Si no hay retroalimentación, no existe la comunicación. Sin embargo, el propio Nosnik advierte de la imposibilidad material de lograr con eficacia la retroalimentación. Este hecho que se produce a menudo y que da al traste con la obtención de feedback puede superarse mediante una nueva forma de concebir el proceso comunicativo. En esta tercera y nueva etapa de la comunicación, Nosnik (1996) señala al receptor y su retroalimentación -o la evaluación que hace la fuente del impacto que tuvo ésta sobre su receptor- como los iniciadores del proceso. Es decir: el proceso de la comunicación comienza, en un segundo nivel o momento, con la retroalimentación del receptor a su fuente y esta última, junto con el primero, trabajando para que dicha retroalimentación se convierta en un cambio progresivo, innovación o mejora que transforme el sistema (sea cual fuere éste) para beneficio de ambos. La publicación del Manifiesto Futurista en la primera plana de unos de los diarios de mayor tirada del planeta -Le Figaro en su edición del 28 de febrero de supuso el comienzo de un movimiento alineado en la vanguardia cultural. Marinetti enseguida lideró un grupo de artistas italianos burgueses cuya intención, entre otras, fue hacer apología de la tecnología, de la máquina. Su obsesión por romper con lo establecido le llevó a ensalzar la guerra como única higiene del mundo. 59 Véase proyecto Dream Hammar de Ecosistema urbano en Cap. IV, p.288 y en Cap.II, p

174 Camaradas! Os declaramos que el triunfante progreso de las ciencias ha determinado cambios tan profundos en la humanidad que ha quedado abierto un abismo entre los dóciles esclavos del pasado y nosotros, los libres, los que confiamos en la grandeza luminosa del futuro. 60 Fig.5.Retrato futurista de Marinetti. Tato Veronesi, Fig.7 (a y b). Rayos X de la mano de Berta Röntgen, diciembre de Rayos X de la mano de Albert Von Kolliker, enero de Autor: Albert von Kölliker. Esta ansia por el cambio indujo a los futuristas a ensalzar el automóvil, frente a la bicicleta, como paradigma de la modernidad que asume la velocidad, la espontaneidad y la simultaneidad de manera inequívoca. A diferencia de otras posturas visionarias que acontecieron en el siglo XX, el movimiento futurista no necesitó dibujar una ficción. La visión fraccionada y poliédrica del retrato futurista de Marinetti es precursora del zoom in-out que se puede operar sobre una imagen digital deslizando el índice por la rueda del ratón. Heredero de las Señoritas de Avignon que Pablo Picasso pintó en 1907, los futuristas se anticiparon a las posibilidades de visualización dinámica que ofrecen las tres dimensiones. Sin embargo, ellos pusieron el énfasis en la acción veloz, muy veloz- y en la sensación, pero no en la información que esa visión dinámica añadía al estatismo perspectivo. Una nueva visión de la realidad y de la condición humana producto de los avances científicos y tecnológicos indujo la puesta en valor de la circunstancia dinámica por parte de pintores, escultores y demás artistas plásticos. Desde Marx hasta los futuristas, estos observadores de la modernidad consideraron la naturaleza del mundo moderno basada en el dinamismo (Sadler 2006). Así se transcribe en sendos manifiestos futuristas pertenecientes a la segunda generación de esta vanguardia. Làszló Moholy-Nagy postuló en Vision in Motion (1947) una determinación necesaria hacia el estudio de la dinámica de la modernidad o Technology-in-flux. Lo transcribió al Syllabus de Proyectos como una búsqueda consciente de relaciones artísticas, científicas, técnicas, incluso sociales en una especie de flash que conecta elementos que no se asocian de manera obvia, 60 Boccioni, et al. (1999) Manifiesto de los primeros futuristas (1910), en González, Calvo y Marchán (eds.), Escritos de arte de vanguardia 1900/1945, Madrid: Editorial Istmo, p. 143 (Fundamentos, 147). 148

175 creyendo que si la misma metodogía era usada en de manera general en todos los campos tendríamos la clave de nuestro tiempo, resultando todo relacionado. La simultaneidad y compenetración de tiempos y lugares distintos cinematografiados que postulaba el punto tercero de la Cinematografía futurista 61 proponía 2 o 3 visiones diferentes una junto a otra. El manifiesto se hace eco solamente del automóvil o del avión, pero entre líneas subyace la enorme influencia que tuvo la publicación en 1905 de la Teoría de la Relatividad de Albert Einstein. La representación de la modernidad sólo podía realizarse mediante la simultaneidad 62. Tanto este concepto como el de dinamismo hacen referencia a un tiempo circular, alejado de planteamientos lineales de índole platónico o hegeliano. Esta cualidad circular es la propia de nuestra contemporaneidad y la que prescribió el Barroco, en la figura de Leibniz. El paradigma digital ha modificado la noción de tiempo, solapando, o mejor, simultaneando múltiples planos de la condición humana. Abundando en el concepto de dinamismo, pero desde otro punto de vista más relacionado con la fenomenología de la percepción, hay que hacer notar la influencia de la velocidad en muchos arquitectos de los años veinte. Resulta evidente en proyectos imaginarios ( ) de Erich Mendelshon y en obras como los Almacenes Schoken de Stuttgart ( ), donde además el arquitecto dispone de la transparencia del vidrio para transformar el edificio en una gran luminaria reclamo nocturno de los transeúntes. Desde el punto de vista científico, la cinética se define como la energía que un cuerpo posee en virtud de su movimiento. Con frecuencia, el arte cinético, que alcanzó su apogeo de mediados de la década de los sesenta a mitad de los setenta, genera movimiento a través de máquinas que son activadas por el propio espectador. Gere (2007) apunta que el arte cinético se solapa temporalmente con el arte óptico, Op Art de los sesenta, con artistas como Victor Vasarely, Julio Le Parc y Nicolas Schöffer, sirviéndose de dibujos para crear ilusiones ópticas de objetos en movimiento, vibraciones o distorsiones. El término apareció por primera vez impreso en octubre de 1964 en la revista Time, pero las obras que podrían clasificarse como Op Art llevaban creándose desde mucho antes. En gran parte de las instalaciones digitales actuales es posible encontrar huellas del arte cinético y el Op Art, que experimentaba con máquinas generadoras de luz y movimiento. La Aeropittura futurista supuso una mirada diferencial de la realidad. Contenía todos los ingredientes dinámicos de esta vanguardia italiana. Tullio Crali ( ), autor de Incuneandosi nell'abitato (In tuffo sulla città) (fig.10), representó en este lienzo uno de los primeros soportes que más adelante aumentarían la percepción de la realidad con datos digitales: el HUD (figs. 11 y 12). El Head-Up Display o HUD incorpora en la cabina del piloto una pantalla dispositivo que permite sumar a la visión humana información digital con datos 61 Marinetti, F.T. et al. (1916) L Italia futurista, Milán. 62 Años después, la simultaneidad se volverá indispensable en el trabajo de grupos como Archigram. 149

176 relevantes para el vuelo. Resulta más que coherente como Cralli hace coincidir las líneas de fuga de los grandes rascacielos representados en esta perspectiva urbana con el chasis de la cabina del avión. Por otro lado, el higienismo como reacción a los despropósitos insalubres ocasionados por Revolución Industrial, así como la traslación a la disciplina arquitectónica de los nuevos materiales surgidos en el campo de la ingeniería -desarrollo de los sistemas constructivos basados en el hormigón armado y en los metales laminados- son dos pilares decisivos para la construcción de la nueva arquitectura del Movimiento Moderno y asumir el paradigma de la máquina. Si bien estos acontecimientos no suponen ningún anticipo destacable a la Revolución Digital, otros como el descubrimiento de los Rayos X influyeron decisivamente en el entendimiento de una nueva arquitectura cuyo interés no residía ya en lo evidente al ojo humano. Las publicaciones de Beatriz Colomina La domesticidad en guerra o Privacidad y Publicidad. La arquitectura moderna como medio de comunicación de masas exploran la relación existente entre arquitectura y comunicación, pero también proponen una revisión de la modernidad reivindicado avances científicos, como el descubrimiento de los Rayos X, como desencadenante y referente de arquitectos como Mies Van der Rohe. El 22 de diciembre de 1895, Wilhelm Conrad Röntgen manipulaba una placa fotográfica de cristal mientras la mano de su mujer quedaba expuesta durante quince minutos a los rayos que él mismo llamaría x, por desconocimiento de sus propiedades y utilidad. Los huesos de la mano de Berta y el anillo que portaba, dieron la vuelta al mundo y él obtuvo el premio nobel cinco años más tarde por este descubrimiento. No es de extrañar que este poderoso icono se convirtiera de inmediato en un referente arquitectónico. A partir de entonces se instauró en la cultura del proyecto la metáfora antropomorfa de piel y huesos, como el propio Mies describió su obra, en concreto su Rascacielos de cristal de 1925 (Colomina 2008). La superposición de planos de información si supone un anticipo a cierta manera dinámica de ordenar la información, inherente al dominio digital. Fig.8. Rascacielos de la Friedrichstrasse, Berlin. Mies van der Rohe. Fig.9. Glass Pavilion, planta y fotografía del Toledo Museum of Art, Toledo, Ohio. SANAA. La exteriorización del esqueleto arquitectónico se traslada directamente a propuestas como la apuntada por Mies van der Rohe en el Rascacielos de Cristal de 1922 (fig.8). El propio Mies 150

177 presenta el proyecto en el articulo The pure form is the natural 63 de la revista G, apoyándose en una imagen de una radiografía de un cráneo. Frente a la transparencia, la cualidad especular de la envolvente. El entendimiento de la piel transparente como soporte de reflejos cambiantes, recuerda mejor al atributo dinámico característico del soporte digital radicalizado en el entorno aumentado-. Lo que realmente cautiva a estos arquitectos del vidrio no son sus transparencias sino los reflejos que en él se producen, como diría Philip Johnson un papel pintado que cambia y supone una fachada diferente a lo largo del día. Esto constituye una manera de añadir una capa de información extra al edificio, de la misma manera que el penado asume su condición imborrable y la socializa algún rastro de su biografía en un tatuaje carcelario. Fig.10. Incuneandosi nell'abitato (In tuffo sulla città), Tullio Crali. Fig.11 y 12. Mirage Head-Up Display, HUD, y zoom de la imagen. La arquitectura de reflejos como la que exhibe este pabellón de SANAA (fig.9) lleva a un grado más la incorporación de la imagen reflejada, al replicar en el interior la piel vítrea exterior, produciéndose una suerte de interiorización doble del exterior. La cualidad especular de la fachada convierte lo construido en una mimesis del colindante, a menudo cercano a retóricas vegetales. 63 Mies van der Rohe (1926), The pure form is the natural, revista G, nº 5-6, Abril. 151

178 3.3. Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética. La llegada del Entorno Digital coincide con el contexto de la cibernética 64, planteada en 1948 en la Teoría Cibernética de Norbert Wiener. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Es aplicable a los sistemas físicos o a otros como por ejemplo los sociales o los económicos. Nos situamos por tanto ante una materia transdisciplinaria. Para analizar las vías de implementación del Entorno Digital en lo arquitectónico resulta imprescindible conocer la influencia de la cibernética en las artes, pues esta relación deparó a su vez la transmisión de conocimientos hacia la arquitectura. La cultura cibernética surgió en torno a un conjunto de teóricos y artistas que abordaron experimentalmente este campo. La investigación propone una cartografía de los acontecimientos colectivos más relevantes de la primera época cibernética, desde los orígenes pre-cibernéticos a la década de los setenta donde la computación es mayoritariamente aceptada en la disciplina arquitectónica y surge la segunda generación cibernéutica, representada por Gordon Pask, cuya mirada hacia la relación objeto/sujeto tendrá una naturaleza bidireccional conversacional 65. Entre la literatura examinada cabe destacar el catálogo correspondiente a la exposición celebrada en 2007, en la Fundación La Laboral, Feedback. Arte que responde a instrucciones, a inputs, o a su entorno, documento que describe la influencia cibernética en el arte. La incorporación del concepto de retroalimentación o feedback a la obra de arte tuvo una gran incidencia en la apertura de la disciplina arquitectónica a la computación. La computadora, tomada en la década de los sesenta como herramienta experimental en el campo artístico, arquitectónico, lingüístico y otros, fue objeto de continua experimentación transdisciplinar. La obra de los artistas que trabajaban con esta materia relacionada con el Entorno Digital era mostrada en exposiciones cuya transcendencia y repercusión fue capital. Sostiene Gere (2007: 1) que por feedback entendemos el proceso por el cual la totalidad o parte del output de un sistema vuelve o se retoma en forma de input. Si el feedback es negativo, el output será menor; mientras que si es positivo, el output aumentará. El principio de feedback, explotado por la ingeniería electrónica y la mecánica y utilizado también dentro del ámbito de la gestión y de la economía, es un fenómeno asimismo observable en sistemas biológicos y naturales. Se trata de un término fundamental acuñado por Norbert Wiener (1948) en 64 Según Wikipedia, el término cibernética viene del griego Κυβερνήτης (kubernites, que se refiere al timonel, el cual gobierna la embarcación). La palabra "cybernétique" también fue utilizado en 1834 por el físico André-Marie Ampère ( ) para referirse a las ciencias de gobierno en su sistema de clasificación de los conocimientos humanos. 65 PASK, Gordon (1969) The architectural relevance of cybernetics, Architectural Design, September,

179 Cybernetics or the Control and Communication in the Animal and the Machine en plena posguerra, como explica el subtítulo del libro del pionero de la cibernética Norbert Wiener: ( ) o el control y la comunicación en animales y máquinas. Un ejemplo de feedback negativo -muy anterior al registro del término- lo encontramos en el Governor o mecanismo de control inventado por James Watt en la década de 1780 para optimizar la potencia de la máquina de vapor: un regulador que giraba centrífugamente por acción de la presión del vapor. Cuanto mayor era la presión, más rápido giraba el mecanismo, acabando por elevarlo y abrir una válvula momentáneamente para liberar la presión sobrante, consiguiendo así regular la presión y disminuir la velocidad del mecanismo. Coincidente casi exactamente con la publicación de La riqueza de las naciones (1776) de Adam Smith, la invención de ese dispositivo de control puede considerarse un símbolo profético del incipiente capitalismo autorregulador estudiado por Smith. Los orígenes del feedback se remontan a las vanguardias históricas anteriores a la teoría cibernética. Algunas acciones de artistas dadaístas animaban al espectador a participar en la obra, como en el caso del gesto provocador de Max Ernst durante la segunda exposición Dadá celebrada en Colonia en 1920, al colocar un hacha junto a uno de sus cuadros. Los rotorrelieves de Duchamp y el Modulador Luz-Espacio de Moholy-Nagy (1928) podrían considerarse obras pioneras de lo que más tarde se denominaría arte cinético, junto con Standing Wave de Naum Gabo ( ), los móviles de Alexander Calder y la obra del escultor suizo Jean Tinguely quien tras la Segunda Guerra Mundial continuó creando espectaculares móviles y obras en ocasiones concebidas para su autodestrucción (Gere 2007: 65). Moholy-Nagy también se erigió como autor de la primera obra telemática con el diseño de una serie de intervenciones en papel milimetrado, cuyo producto final fué encargado posteriormente por teléfono a una fábrica de esmaltes. Cage y su entorno desarrollaron sus obras también en un contexto articulado, al menos en parte, en base a discursos como la cibernética, la teoría de la información y la teoría general de sistemas; unos discursos que aunque surgidos de inquietudes y necesidades diversas, produjeron un sólido pensamiento colectivo sobre el mundo como ente interconectado y autorregulador. Por otro lado, el teórico alemán de estética y semiótica Max Bense fue posiblemente el primero que intentó aplicar las ideas de la cibernética y la información al arte 66. Entre los pioneros del arte informático influidos por Bense se encontraban Frieder Nake, George Nees -comisario de algunas exposiciones en Stuttgart junto a Bense- y Manfred Mohr Existe un gran paralelismo entre Bense, en Alemania, y Abraham Moles, en Francia, quien en 1958 publicó Teoría de la información y percepción estética. (Gere, óp., cit., 67). 67 Ibíd., p

180 En cierto modo, no fue necesario inducir a la vanguardia francesa a caminar hacia conceptos que trataban la información, los sistemas y la cibernética, ya que Francia había sido desde antes de la guerra el centro neurálgico del arte cinético, un movimiento que avanzó muchas de las preocupaciones de la cibernética. Durante la posguerra, en la década de los cincuenta, artistas como Nicolas Schöffer y miembros del Grupo de Investigación de Arte Visual (GRAV, Groupe de Recherche d Art Visuel) y el grupo Nouvelle Tendence empezaron a crear obras cibernéticas, mientras que los miembros del grupo literario Taller de Literatura Potencial (OULIPO, Ouvroir de Littérature Potentielle) fundado en 1960, recurrían a técnicas matemáticas e informacionales. Concretamente, Schöffer fue uno de los primeros artistas en invocar explícitamente y en intentar poner en práctica en sus obras las ideas de la cibernética, feedback incluido. Muestra de ello es su serie Escultura Espaciodinámica, iniciada en la década de los cincuenta, y sus esculturas cibernéticas CYSP 0 (1956) y CYSP 1 (1956), además de sus arquitectónicas torres de luz cibernéticas. En Gran Bretaña, la principal vía de entrada de las ideas de la cibernética fue el Independent Group (IG), un amplio grupo de artistas, arquitectos, diseñadores y teóricos que a principios de la década de los cincuenta se reunió en torno al por entonces recientemente fundado Institute of Contemporary Art de Londres (ICA). Un cúmulo de intereses que se canalizó a través de diversas exposiciones, charlas y seminarios organizados en el ICA y en las secciones de estos artistas en la famosa exposición This is Tomorrow celebrada en 1957 en la Galería Whitechapel. Jasia Reichardt, durante su cargo como subdirectora del ICA organizó una de las exposiciones más conocidas del arte por ordenador: Cybernetic Serendipity 68 (1968), considerada un hito seminal en el arte de los nuevos media de aquel primer periodo heroico (fig.1) con artistas, poetas y cibernéticos como Gordon Pask 69, Bridget Riley, Edward Ihnatowicz, Charles Csuri y Wen Ying Tsai. Javier Seguí 70 (2012b:177) recuerda que el éxito de la exposición indujo a la elaboración de nuevos trabajos y experiencias que han llegado a encuadrarse en la denominación Computer art. La exposición inspiró a toda una generación de artistas dentro y fuera de Gran Bretaña, y desembocó en la formación en 1969 de la Computer Arts Society, responsable de la celebración de una serie de exposiciones y acontecimientos que incluían el uso de ordenadores en una forma altamente innovadora y creativa para la época. La influencia 68 En agosto de 1968, coincidiendo con Cybernetic Serendipity, tuvo lugar en Zagreb (entonces en Yugoslavia y actual capital de Croacia) el simposio Computers and Visual Research que, a diferencia de Cybernetic Serendipity, analizaba los aspectos socio-culturales del arte por ordenador. 69 An approach to cybernetics, de Gordon Pask (1961), llamó en seguida la atención de Cedric Price, con el que colaboraría en varios proyectos. El proyecto de Pask Colloquy of mobiles para Cybernetic Serendipity, que encarnaba los fundamentos de la segunda generación cibernética (fig.2), reproducía una conversación teórica entre robots masculinos y femeninos. 70 Dscribe en Arte e informática el proceso de integración de sendas disciplinas acontecido en el Centro de Cálculo de la Universidad Madrid ( ). 154

181 combinada de Cybernetic Serendipity y de la CAS propició la aparición de una cultura en Inglaterra, y especialmente en las escuelas de arte, que favoreció el florecimiento del arte realizado mediante nuevas tecnologías e ideas relacionadas. El británico Gordon Pask ( ), científico, diseñador, investigador, académico, escritor, y padre de la segunda generación cibernáutica, ejerció una influencia enorme en figuras tan relevantes de la arquitectura de la segunda mitad del siglo XX como Cedric Price, John Frazer (Architectural Association) o Nicholas Negroponte. Usman Haque (2007: 54) describía así la influyente trayectoria del cibernauta en The Architectural Relevance of Gordon Pask: There has recently been a ground swell of interest in Pask s work by architects, artists and designers, though his association with architects stretched back to the 1960s, through to the early 1990s, with collaborations undertaken in particular at the Architecture Association, London, and with the Architecture Machine Group at MIT (later to become the Media Lab). Es paradógico que Estados Unidos, cuna de la teoría cibernética y de numerosas invenciones tecnológicas relacionadas con la computación, se incorporara tan tarde, en 1965, a la corriente cibernética artística. En ese año, se celebró en la Howard Wise Gallery de Nueva York la primera exposición de arte por ordenador de los EE.UU 71. En 1967, el Museo de Arte Moderno (MoMA) de Nueva York organizaba la conocida exposición The Machine as seen at the End of the Mechanical Age que coincidió con Some More Beginnings, una exposición sobre arte y tecnología presentada por el E.A.T. en el Brooklyn Museum. Fig.1.Catálogo de Cybernetic Serendipity, Londres. Institute of Contemporary Arts ICA. Fig.2. Colloquy of Mobiles, ICA, London, Gordon Pask. Fig.3.Random walk, Manfred Mohr. Es a partir de los años sesenta cuando la tecnología comienza a formar parte del mundo del arte, en el sentido de sistema tecnológico. Las reflexiones complejas sistémicas acerca de la tecnología, la sociología y la estética derivan en la aparición de procesos y metodologías 71 La primera exposición del mundo sobre arte por ordenador había sido la organizada a principios de ese mismo año en Stuttgart por George Nees, Frieder Nake con la colaboración de Michael Noll. 155

182 abiertas y generativas. En torno a movimientos como Fluxus y el Conceptualismo 72, los artistas analizan sistemas basados en instrucciones para crear obras de arte de índole política y culturalmente reactivas. La automatización en mayor o menor medida de los procesos que implica la estructura urbana en las ciudades de Archigram se opone a los dictados del planeamiento urbano concebido como proceso único en sí mismo. A principios de los años sesenta, el movimiento Fluxus y el arte conceptual exploraban la desvinculación del artistaautor con la obra, como por ejemplo hacía Sol LeWitt en sus dibujos murales. La búsqueda a veces aleatoria- de procesos que enfatizan las variaciones de instrucciones formales abordaba líneas de investigación basadas en el concepto, el suceso y en la interacción del espectador. Las instrucciones que recibe una computadora codificadas en un lenguaje de programación influyen en las prácticas artísticas desde comienzos de la década de los sesenta. A menudo han derivado en procesos computacionales donde se conectaban los primeros plotters a las pantallas. Tal es el caso de Manfred Mohr y las imágenes creadas como consecuencia de complejos algoritmos que incluían decisiones aleatorias. Fascinado por la idea de una estética programada y con acceso a las potentes máquinas del Instituto Meteorológico de Parín, Mohr aprendió el lenguaje de programación Fortrand IV. Por medio del ordenador CDC 6400 y el ploter Benson 1286 desarrolló su investigación artística, considerándosele en ese campo un pionero. El 11 de mayo de 1971 su obra se expone en el Museo de Arte Moderno de París, en la muestra Computer Graphics - Une Esthétique Programmée. Javier Seguí 73 transcribe en Arte e informática parte del texto del catálogo de la última exposición Art of Space era: El arte generado con computador y el arte asistido por ordenador están todavía en su infancia. Por ahora no se puede tomar una postura crítica radical ya que, por el momento, no se puede hablar más que de experimentos. ( ) Después de un período de gran excitación y optimismo, las dificultades técnicas han sobrepasado a algunos de los artistas que iniciaron el movimiento y han abandonado el campo. Hoy no son muchos los que continúan a la búsqueda de valores puramente estéticos. 72 Gere, óp. cit., Óp. cit., p

183 3.4. Revolución Digital en la práctica arquitectónica, Cualquier hecho digno de señalarse durante estos años estará necesariamente ligado a algún aspecto de las transformacines experimentadas por la ciencia y la tecnología, transformaciones que han ejercido gran influencia sobre la vida del hombre y han abierto nuevas posibilidades de opción en el ordenamiento de nuestro destino colectivo. Reyner Banham, La Era de la Máquina, Introducción a la 1ª edición inglesa, Reyner Banham (1960a) situó la Segunda Era de la Máquina (de la información) en la segunda mitad del siglo XX 74, junto a la aparición de la retropropulsión y los detergentes pero también del transistor y la computadora personal. Sin duda, muchos interpretaron el colapso reincidente de la II Guerra Mundial como el fracaso de una sociedad racional que basó su crecimiento en el desarrollo de la máquina, lo que supuso el resurgimiento en la posguerra del interés por las ciencias sociales, incluyendo la lingüística. Las cartillas de racionamiento y los planes de reconstrucción de una Europa hecha añicos fueron el caldo de cultivo de estas disciplinas que ponían en solfa cuestiones básicas del ser humano y la sociedad. En la década de los cincuenta, la arquitectura igual que el resto de disciplinas también perdió brevemente el interés por la máquina en favor de las ciencias sociales. Sin embargo, la metáfora de la máquina nunca llegó a extinguirse, aunque habría que esperar veinte años para asistir al resurgimiento de la popularidad maquinista, después de la Expo de 1970 en Osaka. A lo largo de los años setenta y ochenta la estética maquinista cristalizó en edificios como el Centro Georges Pompidou de París (1977), la Lloyd s de Londres (1986), y el Banco de Hong Kong y Shanghai (1986). Banham apuntaba al siglo XXI como la Tercera Era de la Máquina. De nuevo la máquina resurgiría renovada y compleja: la bio-máquina replica organismos vivos. Junto con el paradigma digital, la ecología ha ido incorporándose a las sociedades del mundo desarrollado. Así, la arquitectura ha visto enriquecida su condición con la asimilación de contenidos y estrategias ecológicas. El concepto de desarrollo sostenible y el conocimiento de la amenaza de cambio climático se oponen al imperativo de crecimiento económico sobre-acelerado de las grandes potencias en los setenta y ochenta. El desarrollo mecánico de la tecnología ha dejado paso a la biotecnología. La incorporación definitiva del dominio digital, en su desarrollo del diseño con algoritmos digitales, llevó en los noventa a incorporar la ecología a la arquitectura en una suerte de biomímesis. Como Deleuze y 74 La primera Era de la Máquina sucede en la primera mitad del siglo XX, inaugura lo que esperaba ser una serie de Eras de la Máquina. El Movimiento Moderno no escapó a la fascinación de la máquina (Banham 1960a), su metáfora esencial. 157

184 Guattari describieron: con gusto earthy (con gusto terrestre). Banham afirmaba: Nuestras máquinas de cada día se han vuelto más listas, más pequeñas, más portátiles, globales y más personales. Nuestra arquitectura, de hecho, las seguirá. En la década de los sesenta, los arquitectos incorporaron a la profesión conceptos de la teoría cibernética y de inteligencia artifical, pero también importaron modelos conceptuales procedentes de las ciencias cognitivas, la psicología de la Gestalt y la lingüística. Tras la conquista del estado del bienestar en Gran Bretaña, emerge en los años sesenta el concepto de ocio masivo, circunstancia capital para la aparición de proyectos como el Fun Palace de Cedric Price y Joan Littlewood. La introducción en la disciplina arquitectónica de metodologías de trabajo empleadas en el campo de la computación, así como la asimilación de los protocolos propios de los programas de procesado de información -el producto informático propiamente dicho- suscitaron en los arquitectos un gran interés por revisar el proceso de diseño desde otros puntos de vista, en detrimento de la comprensión del proceso proyectual como la causa propicia de un resultado o diseño objetual. En este sentido, la incorporación de la computación descentralizó el papel exclusivo que el arquitecto había jugado en el proceso edificatorio del Movimiento Moderno. La computación aplicada al proceso de proyecto articulaba soluciones arquitectónicas que excedían con mucho al papel autista del arquitecto como único referente proyectual. El ordenador no se valoraba entonces como medio de comunicación en potencia sino como una inteligencia artificial capaz de sustituir al pensamiento humano. La incorporación al proceso de proyecto de otros técnicos, expertos en computación, en inteligencia artificial y en cibernética trajo a la profesión aires nuevos, a la vez que una capacidad técnica hasta entonces inabarcable para el arquitecto. Christopher Alexander, Cedric Price o el mismo Nicholas Negroponte, conocieron y colaboraron -no entre ellos- con figuras claves del ámbito de la computación. Encontraron en el proceso digital un referente en si mismo para sus proyectos. Estructuralmente abiertos, cambiantes con el tiempo y adaptables a nuevas circunstancias, los proyectos de los sesenta podrían, por fin, articularse en un marco dinámico que asimilara la incorporación continua de los nuevos datos, feedback cibernético. Negroponte y Price cuestionaron desde un principio el rol tradicional del arquitecto, llegando a definirse como anti-arquitectos. Alexander por su parte se opuso al genio del arquitecto como mal endémico de la profesión 75. Los arquitectos contaminados por la computación negaron el proceso de proyecto lineal y lógico (crono-lógico) del Movimiento Moderno, transformándolo en un sistema de procesado 75 Véanse: Stanley Mathews (2003: 73), An Architecture for the New Britain: The Social Vision of Cedric Price's Fun Palace and Potteries Thinkbelt, Columbia University; Nicholas Negroponte (1975: 1) Soft Architecture Machines, Cambridge, Mass.,: The MIT Press; Serge Chermayeff and Christopher Alexander (1963: 116) Community and Privacy; toward a New Architecture of Humanism, 1st ed., Garden City, N.Y.,: Doubleday. 158

185 de información vinculado a datos arquitectónicos. El concepto de sistema y de proceso también recibió claras influencias de las ciencias sociales y del auge de la semántica, semiótica y otras ciencias linguísticas. El proyecto debía habilitar conexiones múltiples, en términos sociales (Smithsons). Esta nueva relación entre el proyectista y el usuario final irá incorporando sucesivamente un grado de interacción mayor. La noción de sistema generativo implícita en aquellos proyectos se irá desarrollando y creciendo con el avance de la Revolución Digital. Concluida ésta y en pleno proceso de construcción del Entorno Aumentado, el incremento de la capacidad de interacción que supuso el soporte Internet sumado a los avaces en los programas de diseño asistido por ordenador, han implicado y favorecido la aparición de múltiples sistemas generativos de diseño. En vez de representar gráficamente el proyecto de arquitectura con técnicas de dibujo, se proyecta con modelos vivos. La Segunda Guerra Mundial supuso un marco de investigación que muchos arquitectos aprovecharon para desarrollar nuevos prototipos y nuevas técnicas constructivas. Ron Herron, conoció la prefabricación de los productos de la Royal Air Force durante su servicio militar. Reynner Banham ejerció de aprendiz en la Bristol Aeroplane Company, compañía que producía viviendas AIROH (Aircraft Industry Research Organization on Housing) de aleación ligera. Charles Eames diseñó prototipos industriales muebles, tablillas de contrachapado para rigidizar las piernas heridas - para la marina estadounidense. Jean Prouvé desarrollo sistemas prefabricados de alojamiento en Francia, mientras que Buckminster Fuller haría lo propio en los Estados Unidos para la Beech Aircraft Corporation con la Wichita House. La experiencia en los tiempos de guerra indujo en muchos arquitectos la veneración por la producción en línea de sistemas kit de ensamblaje de piezas Integración conceptual Vía del Lenguaje tecnológico. Arquitectura: saber construir. No sólo unos edificios: el campo de acción es más vasto. Se habla de arquitectura de una novela, de una sinfonía, pero también del cuerpo humano o del derecho romano. El uso del término arquitectura es común también en el ámbito de la informática. Arquitectura también significa ausencia de reglas preestablecidas es ella misma la que conduce a la creación de reglas. Arquitectura implica una construccióna articulada, una construcción suficiente en sí misma. Yonna Friedman, L ordre compliqué. La integración del dominio digital en lo arquitectónico se produjo en primer lugar en el plano conceptual, siendo el lenguaje el vehículo mediante el cual los conceptos gestados en el seno de la ciencia computacional se inocularon en la disciplina arquitectónica. La asimilación arquitectónica de conceptos tecnológicos provenientes del campo de la computación conllevó el trasvase obligado del léxico tecnológico (tecnicismos) cuyos conceptos estructurarían un 159

186 discurso arquitectónico nuevo. Su proliferación, más o menos afortunada, reproduce aspectos del concepto original relacionados con la sintaxis, la semántica o la pragmática 76. Se dió la paradoja de que la utilización de terminología computacional en el entorno arquitectónico no necesariamente implicaba el conocimiento y uso de la computadora por los arquitectos que empleaban esas voces. Esta circunstancia se originó, en primer lugar, en el grado cero arquitectónico correspondiente a la fase preliminar del proyecto. A menudo, supuso el desencadenante o punctum proyectual que marca la pauta de la estrategia proyectual 77. La primicia del tecnicismo contrapuso fácilmente su semántica a otros argumentos existentes, aunque no necesariamente se impuso la semántica a las otras cualidades estructurales del lenguaje. El contagio de las nuevas voces no fue tan acelerado como sucede actualmente. La diversidad y cantidad de las publicaciones arquitectónicas de los sesenta eran muy inferiores a las actuales. Arquitectura interfaz, on-line, network, brainstorming process, on-site, open source, etc., son una muestra del catálogo contemporáneo que se renueva año a año con la actividad de cientos de blogs y revistas especializadas conectados por la Red. Las propiedades combinatorias de la sintaxis del nuevo término técnico solucionaron con frecuencia este mestizaje de tecnología y arquitectura. La adaptación del tecnicismo podía implicar el cercenar parte de su estructura original para sustituirla por un prefijo o sufijo vinculado al entorno arquitectónico, como por ejemplo ciber-arquitectura. Asimismo, el uso pragmático del léxico derivaba en interpretaciones vinculadas a situaciones concretas. La utilización de tecnicismos por parte de arquitectos o críticos referidos al proyecto de arquitectura o cualquier otra parte de la disciplina, transformaba el significado original. Afirma Rouillard (2012: 29) que la primera vez que se introdujeron las TIC en al análisis urbano o en proyectos de planeamiento, correspondió a la fase de ideación del proyecto apuntada anteriormente. El concepto conexión que subyace en los proyectos del Team X 78, compartido después por otros situacionistas, estuvo y está vinculado a las TIC. Este trasvase disciplinario derivó en el advenimiento de un vocabulario nutrido de tecnicismos que acuñaban los nuevos conceptos según iban siendo inventados por los ingenieros de la computación. La conexión entre las partes urbanas, anteriormente segregadas en la Villa Radieuse, sería puesta en entredicho por el Team X en beneficio de un tejido urbano más rico, complejo e inductor de interacciones ciudadanas; un tejido alejado del determinismo moderno, capaz de asumir la 76 Noam Chomsky (1965) publicó su gramática generativa, que proporcionaba un conjunto de reglas o principios que predecían correctamente las combinaciones aparecidas en oraciones gramaticalmente correctas para una determinada lengua. Las ideas básicas de los modelos incluidos en esta corriente tenían su origen en la teoría estándar formulada por Chomsky. 77 Se proyecta contra algo del presente, Javier Seguí (1996:32). 78 En oposición a la segregación estática de usos en la ciudad CIAM. 160

187 oportunidad de nuevas situaciones vinculadas a la aleatoriedad y al cambio. Estas propiedades alentaban a pensar en estructuras sistémicas complejas semejantes a las empleadas en computación, en tanto que podían admitir la programación de un marco de aleatoriedad y dinamismo. El vocabulario surgido en torno al concepto conexión (circulación, fluido, asociación, cluster, nodo, red, etc.) tuvo su continuidad en el tiempo, llegando así hasta nuestros días, en que los proyectos valoran los procesos colaborativos en tanto que conectores de aspectos múltiples relacionados con los agentes que intervienen en el encargo arquitectónico. El uso del concepto de conexión que habilitaron los Smithson 79 en sus proyectos es heredado por estudios que abordan el edificio o el planeamiento como un continuum fluido. En este sentido, el uso de la computadora como herramienta de proyecto posibilita la intervención de otros agentes, asi como la actualización constante del flujo de información, de modo que la estructura urbana gana en adaptabilidad y conectividad al medio. La década de los sesenta fue testigo de la aparición de las grandes megaestructuras como planteamientos que asumían los nuevos retos político-sociales de ese periodo convulso. La utopía quedaba planteada por Archigram o Superestudio en proyectos como Plug-in City ( ) o Walking City (1962). A principios de la década, la computación empezó a ser comprendida, de alguna manera, como algo más que una ayuda en el proceso de proyecto técnico (íbid., 19), quedando de manifiesto el potencial de la ciencia de la computación para el desarrollo de sistemas arquitectónicos. El descubrimiento de la tecnología de la computación por la disciplina arquitectónica tiene sus orígenes en una fase anterior a este contagio linguístico. Esta fase anticipatoria preliminar comienza con el fin de la Segunda Guerra Mundial. Los avances acontecidos en la ciencia de la computación antes y durante la contienda comenzaron poco a poco a ser visibles al término de ésta. La civilización de la tecnología militar tuvo dos canales de comunicación fundamentales: la divulgación científica en los medios y la ciencia-ficción en la literatura y el cine. Las propuestas del Team X responden al enfoque arquitectónico de una nueva generación de arquitectos que reniega de la generación anterior. Alison & Peter Smithson (nacida el 1928; nacido el 1923), Bakema (1914), Candilis (1913), Van Eyck (1918), Woods (1923) o De Carlo (1919) forman parte de una generación de arquitectos 80 cuyos años de juventud transcurrieron durante el conflicto. Casi todos comenzaron su etapa profesional al terminar el conflicto. En esos primeros años de posguerra, la prensa publicaba los avances científicos en computación y robótica; enseguida daría comienzo la Guerra Fría tecnológica. Pero la generación del Team X 79 Rouillard, íbid., 29 se refiere a los proyectos de los Smithson como proto-tic, no tienen nada que ver con la tecnología de la computación, pero contienen muchas de las aspiraciones de proyectos que emanan de las nuevas tecnologías. 80 En 1956, en el CIAM X celebrado en Dubrovnik, estos arquitectos tenían una media de 36 años. 161

188 también desarrolló su primera etapa profesional en la década de oro de la ciencia-ficción cinematográfica (los años cincuenta). Rouillard (ibíd.: 19) señala cómo estos referentes en particular ayudaron a desarrollar el potencial de una inexplorada y menos aun usada tecnología de la computación. Las sinergias que se producen entre la arquitectura y la ciencia-ficción se traducen en la habilitación por parte de esta última de la conexión del entorno arquitectónico con la tecnología electrónica. Reynner Banham consideraba (Rouillard 2007) The caves of steel (Asimov 1953) como uno de los textos sagrados de los arquitectos. La transversalidad (de nuevo = conexión) entre disciplinas se pone de manifiesto en la complejidad y significativa estratificación que Alison y Peter Smithson aplicaban a su colección de anuncios: Literatura dublinesa, Time, Cibernética, Filosofía China y Cosmetica 81. La instalación Parallel of life and art, celebrada en 1953 en colaboración con Nigel Henderson y Eduardo Paolozzi, inducía al visitante a participar en cuatro juegos de asociaciones semánticas. Más adelante los Smithson se referirían a ello como juegos de contrapunto o juego de palabras y referencias cruzadas 82. La colección de imágenes se agruparía según el siguiente orden: Anatomía, Arquitectura, Arte, Caligrafía, Fecha 1901, Paisaje, Movimiento, Naturaleza, Primitivo, Escala humana, Estructura Stress, Fútbol, Ciencia Ficción, Medicina, Geología, Metal y Cerámica (Van den Heuvel 2004). Tres años más tarde, en 1956, Henderson, Paolozzi y los Smithson presentaron su instalación Patio & Pavilion en la exposición This is tomorrow celebrada en la Whitechapel Art Gallery de Londres, donde coincidieron con otros once grupos de pintores, arquitectos y escultores. Uno de esos grupos combinaba en su propuesta imágenes de Hollywood y películas de ciencia-ficción con ilusiones ópticas de Duchamp y la Bauhaus. La exposición anual que cada año esponsorizaba el Daily Mail trataba de dar una respuesta al futuro a medio plazo de la vivienda, en referencia a la integración de las tecnologías de última generación en el ámbito doméstico 83. Los Smithson participaron en la edición de 1956 con su prototipo La casa del futuro. Si bien la propuesta contaba con lo último en electrodomésticos y tecnologías electrónicas, incluyendo dispositivos visionarios 84 aportados por los patrocinadores, no hay rastro alguno de la tecnología computacional. El proyecto debía prever cómo sería una 81 Gropius escribió un libro sobre silos de grano. Le Corbusier, otro sobre aviones. Y Charlotte Perriand traía un nuevo objeto a la oficina cada mañana; pero hoy coleccionamos anuncios. Smithson, Alison y Peter (1956) But today we collect ads, Ark nº Compárese con Ars Magna de Llull. 83 Por qué 25 años? Porque encontramos un consenso de opinión entre los expertos que consultamos a cerca de que ése era el periodo en el que podrían producirse tantos cambios revolucionarios como en los últimos cien años; cambios no solo en nuestra forma de vida, sino también en el diseño y las técnicas de construcción de casas en las que viviremos Smithson, Alison y Peter (1956) House of the future, p Véase, en Cap. IV, La vivienda aumentada. Ciudadanización de la domus. 162

189 vivienda suburbana en veinticinco años. Aunque en 1981 la integración del ordenador personal en la vivienda británica comenzó a implantarse de modo irreversible junto con algunas consolas de videojuegos, es evidente que Alison y Peter Smithson no adivinaron la progresiva merma de tamaño que experimentarían las computadoras de los cincuenta, y que permitiría su integración posterior en cualquier vivienda, por pequeña que fuera. Las oficinas de arquitectura de la década de los cincuenta carecían por completo de tecnología informática; es más, la gran mayoría desconocía el alcance de la nueva tecnología informática. Ahora bien, desde principios de la década queda constancia por parte de algunos arquitectos, que pronto fundarían el Team X, del uso de léxico tomado del entorno de la computación. A finales de los años cincuenta, las sinergias surgidas entre computación y arquitectura era manifiestamente conocida al menos a nivel léxico por arquitectos jóvenes como los que fundaron Team X. El nuevo lenguaje que nacía con la ciencia de la computación se nutría de una terminología técnica que no solo de sustantivaba componentes nuevos de software y hardware sino que producía un vocabulario explícito vinculado a las nuevas arquitecturas computacionales. Conceptos diversos para explicar acciones que sucedían tanto en el interior de la máquina como en el exterior que definía la interfaz hombre-máquina: protocolos, sistemas, conexiones, etc. Las relaciones sintagmáticas que construyen términos empleados en la disciplina arquitectónica tomados de la tecnología computacional no se ajustan a menudo al significado original técnico. Mientras que el funcionalismo y el estilo internacional depuraban los propósitos higienistas que el Movimiento Moderno trató de contraponer a los efectos insalubres de la Revolución Industrial, el Team X asumía campos de investigación nuevos de origen ajeno a la construcción de edificios. Las características de la arquitectura computacional 85 deparaban una organización de la máquina en base a la instalación de dispositivos electrónicos en una estructura base que habilitaba las conexiones necesarias. La conexión fluida de información, por un lado y aporte energético por otro, dibujaba el diagrama de funcionamiento cibernético. La información es enviada por la computadora a través de los periféricos. Este concepto arquitectónico (tan arquitectónico) traspasó los límites de la disciplina que lo engendró pasando a formar parte de otras disciplinas como la economía, las ciencias sociales o la arquitectura. El Team X asumió los conceptos de la arquitectura computacional y los incorporó en la construcción de una nueva topología que regulara el proyecto arquitectónico como si de una computadora se tratara. Estos efectos atañen a la configuración del edificio, pero también al espacio que fluye en su interior, dando por entendido el edificio como una carcasa que conforma cauces por donde fluye información en forma de usuarios, mercancías, energía, etc. Pero también se refieren a la 85 Así es como la rama de conocimiento de la ciencia de la computación que se ocupa del diseño conceptual y la estructura operacional fundamental de un sistema de computadora. 163

190 cualidad estética de las propuestas del Team X. La estética mecanicista 86 de la Revolución Industrial asumida por el Movimiento Moderno fue reemplazada por otras estéticas vinculadas a la tecnología, como por ejemplo la computacional. En muchos casos esto se tradujo en el cambio de referentes formales que representan el abandono del contenedor como estructura que integra y aloja las partes, en favor del sistema de conexión Plug & play 87 donde las partes se muestran como dispositivos autónomos conectados o enchufados entre sí. Los perfiles laminados, el vidrio, los acabados de la envolvente que favorecen la percepción pulcra platónica, sin que se perciban los ensamblajes ni las juntas, dejarán paso al plástico 88, a la arquitectura de válvulas y conexiones axiales. Ciudad relacional vs ciudad segregada El énfasis en fluir más que en otras formas arquitectónicas, el interés en la relación entre el objeto, por ejemplo arquitectura, y su entorno, más que en el objeto en sí mismo (Rouillard óp.cit., 2012) fue uno de los fundamentos de la nueva arquitectura. El mismo enfoque lo aplicarían a la escala urbana. La segregación de usos dispuesta en el modelo de ciudad del Movimiento Moderno en Ville Radieuse por ejemplo - y la respuesta escueta de éste a la especificidad de las condiciones relacionales entre ciudadanos, supuso el rechazo del Team X a este modelo urbano. Como reacción a la segregación funcionalista de los CIAM (travailler, habiter, cultiver le corps et le espirit y circuler), La Malla de Alison y Peter Smithson presentada al CIAM IX celebrado en Aix-en Provence (Francia) en 1953, proponía una reinvención de la jerarquía urbana Urban Re-identification Grid en base a los siguientes elementos asociativos: la casa, la calle, el distrito y la ciudad. La propuesta de ciudad relacional anticipó la conectividad de la ciudad contemporánea que habilitan las redes informacionales como Internet. El concepto de conexiones interpersonales múltiples en un sistema estable que permite variaciones temporales en su configuración fue el hilo conductor del discurso de muchos 86 Nuestra generación heredó el periodo heroico y la acogida al periodo maquinista del movimiento moderno, y tuvo que ampliarlos a nuevos modos. Se tuvo que inspeccionar la verdadera cara de la cultura de la máquina, que no es la que vio la generación que la originó, como un acto de imaginación e invención. Esa cultura de la máquina parece ahora que reclama un esfuerzo de conexión para extenderse tanto al ámbito real como al ideal. Acoger la máquina (To embrace the machine), 25 de enero de (Smithson 1994). 87 Véase definición en el glosario. 88 En House of the future el edificio es entero de plástico y está lleno de objetos de plástico. Las sillas diseñadas por los Smithson y fabricadas por Thermoplastics Ltd. 164

191 arquitectos de la época. Así lo representó Peter Smithson en el ideograma Play Brubeck 89 (fig.2). La interacción del ciudadano con la urbe, la comprensión de las circulaciones y conexiones como si se tratara de flujos cuyas características pueden ser perfectamente analizados en un laboratorio y la disposición inteligente del programa teniendo en cuenta los efectos que provocan en el contexto, son apuestas arquitectónicas de esta generación de arquitectos. Fig.1. Mapa de Paul-Henry Chombart de Lauwe, Paris. Fig.2. Play Brubeck, Peter Smithson. Fig.3.Nueva York, Foursquare checkins. Zachary Seward. Rouillard 90 compara el ideograma con el que desarrolló en 1952 el sociólogo francés Paul- Henry Chombart de Lauwesdonde que registraba todos los movimientos de una estudiante de ciencias políticas en París (fig.1). Tres vértices (su casa, la universidad y la casa de su profesor de piano) dibujan un triángulo. En sendos diagramas, el trazado de las conexiones y los nodos configuran un sistema de trayectorias que habilita una estructura prefijada por las cualidades de esos nodos, lugares en la ciudad en el caso francés o individuos en el caso inglés. En el Entorno Aumentado la conectividad ciudadana ha alcanzado la interacción en tiempo real. Tal es el caso del programa Foursquare 91 que visualiza los datos referentes a la localización del usuario en la ciudad. Como ejemplo, el mapa de Nueva York de Zachary Seward (fig.3), donde sus check-in on line configuran una geometría personal de la ciudad. 89 Publicado con el siguiente texto original: Ideogram of net of human relations. P.D.S. A constellation with different values of different parts in an immensely complicated web crossing and recrossing. Brubeck! a pattern can emerge. (Smithson 1968). 90 Ibíd., p Foursquare es una aplicación digital que pertenece a los locative media o dispositivos que localizan la posición del usuario (de una terminal de telefonía móvil). Se trata de poder obtener un mapa de los lugares donde ese individuo ha estado en función del parámetro que este quiera medir: ocio, deporte, etc. Fuente: <Mapping cyberspace, Martin Dodge: (Consultada el 10 de junio de 2013). 165

192 Fig.4. Maqueta de la Freie Universität de Berlín, Candilis, Josick y Wood. Fig.5. No-return diagram, Yokohama Port Terminal, Foreign Office Architects. Fuente: Adam Rohaly. La materialización del diagrama de flujos ha dejado muy diversos ejemplos en cuanto a las cualidades topológicas propuestas. El mat-building o edificio alfombra, cuyo ejemplo construido más destacable es la Freie Universität de Berlín de Candilis, Josick y Wood de 1973, propone una condición bidimensional para resolver una arquitectura relacional que evolucionará a su vez (Yuhan Zhu 2009) con la adición de una tercera extensión, adaptando las 2D a 3D. Tal es el caso de la Terminal Portuaria de Yokohama de FOA (fig.5) o de otras propuestas que a diferencia de ésta emplean geometrías de crecimiento fractal. El celebrado espacio gusano de la terminal proyectada por FOA, que tanto recuerda al espacio de un videojuego, fue representado mediante una sección cinemática, o serie de cortes trasversales sucesivos 92. Esta técnica de representación en cierto modo introducía la variable del tiempo en la retórica gráfica del proyecto. Fig.6. Scaner craneal. Fuente: FOA. Fig.7. Internet cartography, Japan cities, El Entorno Aumentado propone cartografías que integran el espacio del Entorno Digital y el lugar del Entorno Físico 93. Esto supone que la capacidad del tejido generativo generativo 2D o 92 Cf. Fig.6, también utilizada por FOA. 93 Véase catálogo cartográfico (Dodge & Kitchin 2000) y en < (Consultada el 28 de agosto de 2013). 166

193 3D de los ejemplos vistos multiplica su capacidad informacional, siendo precisa una conectividad mayor entre los dominios que confluyen (fig.6). Un lugar aumentado podrá disponer de cartografías que describan su espacio virtual digital 94, cartografías tradicionales relacionadas con su geografía física y cartografías aumentadas que describan la coexistencia de sendas informaciones en base al diagrama (fig.6) propuesto por Batty (1997:341) Vía del lenguaje retórico. La temprana transfusión de conceptos propios de las ciencias de la computación a la disciplina arquitectónica fue complementada con la influencia de la estética de computacional y de las TIC. La producción de tecnologías electrónicas se comercializaba con un marketing que trataba de sugerir modernidad y ciencia. La transferencia estética sucedió de modo transdisciplinar y por supuesto afectó a la producción arquitectónica. La sistematización y estandarización de símbolos, lenguajes y procedimientos procedentes de la estética computacional tuvo una finalidad persuasiva y comunicativa que acercaba lo arquitectónico al entorno de la computación y de las TIC. Las estructuras plug in ( enchufadas ), la aleatoriedad del randomness o la influencia de las nuevas tipografías digitales empleadas en los monitores de la computadoras o en las pantallas de otros dispositivos electrónicos, propiciaron en los sesenta una eclosión de la estética digital. Como respuesta al programa espacial soviético y al lanzamiento del primer satélite artificial Sputnik I el 4 de octubre de 1957, la administración de Eisenhower acordó la fundación de una nueva agencia federal que coordinara la actividad espacial civil. En 1958, unos ocho mil empleados trabajaban en la NASA: la Carrera Espacial estaba servida. Emprendida en el comienzo de la Guerra Fría, incorporó multitud de ejemplos al imaginario colectivo de los arquitectos de la década de los sesenta. La ingeniería aeronáutica producía gran cantidad de prototipos cuya construcción era analizada minuciosamente por la vanguardia arquitectónica. Fig.8.Airstream y portada de Life. Fuente:< Fig.9. Auto Union Wanderer Streamline Special. Carrera de larga distancia Lieja-Roma-Lieja, Un cambio radical tuvo lugar en el sistema constructivo de aeronaves. Los diseños comenzaron a alejarse del volumen compacto de superficies lisas de aluminio que había servido de referente en el diseño industrial streamline para mejorar el coeficiente aerodinámico y así ahorrar combustible. Anteriores diseños como la caravana Airstream de Hawley Bowlus (primer prototipo The Clipper, 1936), el Wanderer Streamline Special (1939) o la Wichita House de 94 Véase fig.7, mapa conceptual de las ciudades japonesas y su conexión a Internet. 167

194 Buckminster Fuller, referentes de aquella estética que con profundos fundamentos aerodinámicos influyó decisivamente en el diseño de transportes y de arquitecturas capsulares, dejaron de influir en la vanguardia del diseño. Frente a la prioridad aerodinámica, la estética plug in propuso otro orden topológico fundamentado en el concepto de ensamblaje. La preferencia por el objeto integral monovolumen, con una única y prístina envolvente, cesó en favor de la agrupación de elementos acoplados a una estructura base. Tipografías digitales La historia de la arquitectura deja un preciado rastro en las tipografías. Los arquitectos que han innovado la profesión a menudo escogieron el estilo de los caracteres que complementaban la información gráfica con la misma dosis de rigor que aplicaban a sus proyectos. Así, la tipografía que rotulaba los planos de Le Corbusier (fig.11), recuperada en los planos de Alison y Peter Smithson (fig.12), recordaba a los caracteres pintados a pistola sobre troquel en el verde caqui de los transportes blindados de la Segunda Guerra Mundial. La estética de la máquina dejaba también su impronta en este campo, mientras otros exploraban posiciones más cercanas a la naturaleza orgánica; no por casualidad, se rotulaba a mano en el estudio de Frank Lloyd Wright. Fig.9 y 10.Cartel anuncio de la conferencia en Folkstone y detalle, New Metrople Arts Centre. Archigram. Fig.11.Rotulación del Plan director de Bogotá, Le Corbusier. Fig.12.Rotulación del concurso Golden Lane, Alison y Peter Smithson. A principios de la década de los sesenta, los proyectos de Archigram heredaban a su vez los tipos de los Smithson. Pero de modo asíncrono a cómo evolucionaban sus proyectos, la información grafiada en los planos se iba nutriendo de terminología procedente de otros campos, como la computación, incorporando así la estética digital en sus textos. A este respecto, el panfleto que anunciaba la Conferencia Folkstone, coordinada por Archigram el de junio de 1966 en el New Metropole Arts Centre, resulta una pueba de análisis pertinente a esta impronta de la estética digital. La figura 9 muestra una composición narrativa en base a multitud de tipografías combinadas en diversos tamaños. La información del anuncio presentaba a todo un elenco de primeras figuras de la arquitectura de vanguardia de la época. Los tipos mecanografiados se mezclaban con caracteres propios de la estética pop. La conferencia debía resultar un Foro Internacional para el Diálogo de la Arquitectura Experimental, cuyo acrónimo en inglés era IDEA. En la esquina inferior derecha del cartel puede leerse una llamada de atención indicando el símbolo de IDEA (fig.11). Como se puede observar, la tipografía empleada en el acrónimo es completamente diferente al resto. Corresponde a una tipografía que 168

195 replica un tipo digital propio del monitor de una computadora. Archigram, autor del diseño, adviertió su condición simbólica girándo la palabra. Los formatos tipográficos digitales, también llamados fuentes, instalados en un directorio del sistema operativo de la computadora resultan independientes del programa que se opere. Hoy en día casi todos los programas procesados en una interfaz gráfica de usuario admiten el uso de una tipografía digital muy variada. Como es de suponer, esto no siempre fue así. Las características de las tipografías empleadas en la computación debían satisfacer simultáneamente exigencias como la condición escalable de sus tipos, la compatibilidad con los diferentes sistemas operativos o la similitud máxima entre la impresión de los caracteres en papel y la vista en la pantalla. Las primeras computadoras heredaron las tipografías de las máquinas de escribir, las fuentes monoespacio, llamadas así porque la máquina habilitaba un único espacio común a todos los caracteres (dígitos). Este es el caso por ejemplo de la tipografía Courier. Los caracteres de palo sufrieron la pertinente transformación. En ocasiones, vieron deformada su silueta asumiendo curvas procedentes de logos digitales. Años más tarde aparecieron ordenadores que funcionaban con tarjetas perforadas que permitían introducir programas en el computador. Durante los años 60, la forma más común de interactuar con un computador era mediante un Teletipo, que se conectaba directamente a éste e imprimía todos los datos de una sesión informática. Fue la forma más barata de visualizar los resultados, hasta que en la década de los 70 empezaron a aparecer los primeros monitores de CRT (Tubo de rayos catódicos). Seguían el estándar MDA (Monochrome Display Adapter) y eran monitores monocromáticos (de un solo color) de IBM. El cromatismo característico de los monitores y los tipos que empleaban influyeron notablemente en la estética publicitaria de la época. El trabajo pionero en cristales líquidos realizado en la década de 1960 por el Royal Radar Establishment de Reino Unido, supuso el descubrimiento de la cyanobiphenyl de los cristales líquidos, que tenía unas propiedades concretas de estabilidad y temperatura para su aplicación en los LCD (del inglés liquid crystal display). Este sería el punto de partida para el desarrollo de pantallas LCD y la correspondiente extensión de las tipografías segmentadas de las calculadoras, tan influyente en la estética de bits de tantos proyectos de arquitectura Integración metodológica: proceso vs producto. La computación responde a un sistemático procesado lógico de la información. Esta condición comenzó a ganar influencia en cultura del proceso proyectual arquitectónico durante la década de los sesenta. Las metodologías computacionales respondían a la construcción de una estructura organizativa de la información válida para ser operada por inputs, o parámetros, concretos y diversos. En cierto modo esto sucedía de modo análogo a como Palladio adaptaba las leyes genéricas que regulaban los proyectos de sus villas a la circunstancia geográfica particular de cada localización. Si bien la asimilación de esta lógica se produjo en un principio a nivel universitario en el marco de laboratorios experimentales, el planteamiento genérico abstracto enseguida caló en arquitectos como Price, Negroponte o Alexander. Este tipo de integración no es operativa, no se manifiesta específicamente en un desenlace arquitectónico 169

196 edificado, pero si supone un recurso o una actitud ante el proceso proyectual. En una fase posterior operativa, el proyecto asumirá estructuras organizativas que en sí mismas constituyan la propuesta. El proyecto de arquitectura se presupone un formato jerárquico de información que revela una conjetura arquitectónica. En este sentido informacional, la lógica matemática de la computadora aportó un cambio importante en la metodología: la valoración del proceso, como sistema abierto, frente al producto final. Este enfoque partía pues de la preponderancia del proyecto interpretado como un sistema que admite cambios y puede producir un múltiplo de soluciones, frente al proyecto específico adaptado a una casuística única. Fig.1.Escritorio Luis XV. Fig.2.Waterlily Fish Desk, A.y P.Smithson. Fig.3.Memex, 1945.Vannevar Bush. Fig.4.Escritorio,Windows XP. Históricamente, los avances técnicos referidos a las herramientas y a los procesos de trabajo han supuesto cambios en la organización del espacio de trabajo y en el tratamiento de la información. El Taylorismo 95 fue tomado como modelo organizador del espacio laboral hasta la Segunda Guerra Mundial. La evolución en la organización de la información hacia procesos sistemáticos tiene su origen en el aumento de la producción impuesto por la mecanización taylorista propia de la Revolución Industrial. Aparecieron entonces un conjunto de medios y métodos logísticos necesarios para llevar a cabo la organización de la empresa o de un servicio. La acumulación hacinada de papel en las mesas de trabajo indujo la proliferación de nuevos sistemas de almacenamiento. La estructura de la información se organizaba casi siempre entorno a un índice alfabético, pero Vannevar Bush ideó un sistema de selección de la información por asociación, más parecido a cómo funciona la mente humana. Circunstancia que anticipó, en modo analógico, los avances contemporáneos en las interfaces que operan el Entorno Aumentado, 95 Abalos y Herreros (2000: 181) se refieren a la oficina taylorizada como un edificio esencialmente compacto, organizado verticalmente en forma de anillos en torno a un nucleo interior, capaz de alcanzar los trescientos metros de altura, con crujías útiles aun análogas a las del Marquete Building ( ). Aloja una actividad descompuesta en puestos de trabajo y alineados con cierta rigidez, estables en el tiempo, todavía dependientes en buena medida de la luz natural, si bien la oficina ya está iluminada por luminarias incandescentes, ect. 170

197 Este ingeniero y científico estadounidense, conocido por su participación en el desarrollo de la bomba atómica, concibió en 1945 Memex para liberar los escritorios de apilamientos incómodos realmente nunca llegó a construirse el prototipo-. Memex (Memory Index) trata de un dispositivo para almacenar todo tipo de documentos, precursor del hipertexto 96 y de la World Wide Web. Como puede verse en la fig.3 constaba de una mesa con un teclado; accionando una serie de palancas motorizadas se podía consultar datos conservados en microfilms que a la postre serían proyectados en unas pantallas translúcidas. El usuario podía también hacer anotaciones e incluir comentarios en los márgenes de los documentos. Según constataba el propio Vannevar (1945): Un memex es un dispositivo en el que una persona guarda sus libros, archivos y comunicaciones, dotados de mecanismos que permiten la consulta con gran rapidez y flexibilidad. Es un accesorio o suplemento íntimo y ampliado de su memoria. 97 Recordemos que la primera generación de ordenadores está comprendida entre 1946 y 1947, correspondiendo la primera fecha a la construcción de la computadora ENIAC 98 por John Mauchly y John Presper Eckert, y la última a la primera impresora de matriz por puntos, desarrollada por Centonics Corporation. Entre tanto, el año de 1949 es considerado como el nacimiento de la computación moderna; se ejecutó el primer programa almacenado en un ordenador EDSAC. Memex se considera una estructura pionera en la organización de la información, un primer paso hacia la desmaterialización del soporte informacional físico (fig.4) y una manera revolucionaria de ordenar y gestionar la documentación. Nótese el comentario de Peter & Alison Smithson (fig.2) sobre el diseño del escritorio Waterlily Fish:...El pensamiento independiente liberó el programa de hace años para un escritorio: una caja para papel; una caja para sobres y postales, una caja para el diccionario ideológico y la guía de direcciones, cajones que al girarlos ofrecen cuatro extremos para los bolígrafos, los clips, etc., y como ayuda para pensar qué escribir, una base para pedalear con los pies: el escritorio nenúfar-pez. El comienzo del proceso de sistematización de protocolos relacionados con el proyecto arquitectónico realizado con medios computacionales nace de modo efectivo en la década de los sesenta. Desde el campo experimental que ofrece la academia, y también desde posiciones 96 Cuatro décadas más tarde aparecería el ordenador personal (Personal Computer), sin duda heredero del dispositivo de Vannevar. El concepto expuesto por Vannevar influiría decisivamente en el trabajo de Douglas Engelbart, inventor del ratón y precursor de la interfaz de usuario y el hipertexto. 97 BUSH, V. (1945) As we may think, Atlantic Monthly, Julio, nº 176, Inicialmente se proyectó para calcular trayectorias de tiro de la artillería de la armada estadounidense. Cuando ENIAC se presentó a la prensa en 1946 era la máquina electromecánica más rápida del mundo. 171

198 artísticas, surgen iniciativas que van aportando su granito de arena en la carrera por la sistematización. Javier Seguí (2012a: 143) describe primorosamente este emocionante acontecimiento en tres artículos que forman parte del catálogo de la exposición celebrada en 2012 en la Universidad Complutense de Madrid, a propósito del episodio extraordinario que fue el Centro de Cálculo de la Universidad de Madrid ( ): ( ) Me empezó a interesar el ordenador. Me interesaba que la aparición del ordenador estaba dando lugar a una forma de pensar y de hacer las cosas de forma distinta a como se hacían hasta entonces. ( ). La experimentación con la nueva máquina, la que transformaría la naturaleza mecánica del individuo del siglo XX en un hiper-naturalizado individuo del siglo XXI, comenzaba con todas las expectativas. Es necesario recordar que a principios de la década de los sesenta la computadora no era aún un medio de comunicación sino que se manipulaba como una potente calculadora cuyas posibilidades se antojaban prácticamente infinitas. Una época de renovación, de cambios, de nuevas expectativas, de revisar lo revisado etc; pero sobre todo, una época para la experimentación. Fig.5. Morfologia. Asimow Fig.6.Estudio de unidades espaciales. Moore Fig.7. Espacio de movimientos. Centro de Cálculo, Universidad de Madrid. El avance en la informatización lógica de procesos creativos dejó una secuencia en la que cabe destacar varios hitos. En Introduction to design, Morris Asimow (1962) realizó un primer esfuerzo descriptivo (fig.5) de la descomposición de las operaciones del proceso que sigue al diseñar (Seguí 2012c: 195). En la línea de los trabajos funcionalistas realizados por Alexander Klein o Bruno Taut sobre la racionalización de la organización del espacio, el primer esfuerzo definidor de unidades espaciales desde un punto de vista informático 99 se apoya en el 99 Ibíd. 172

199 conductismo, data de los primeros años de la década de los 60, y se debe a Moore, Activity Data Method (fig.6). En los sesenta y setenta se produjo la observación experimental de la fusión de la arquitectura y la informática 100 a través de varias vías de investigación, algunas de ellas agotadas en la actualidad, pero otras de vigencia activa. La metodología lógica que propuso el lenguaje informático contagió otros lenguajes y se convirtió, en sí misma, en una corriente de pensamiento heredera de filosofías como la practicada por el austriaco Ludwig Wittgenstein ( ) o el estadounidense Noam Chomsky (1928). Javier Seguí (2012c: 193) sintetiza así el protocolo referido a la metodología del proyecto arquitectónico afectada por la computación: Los pasos necesarios para poder pensar en el tratamiento informático de la arquitectura ( ) son: 1º descripción operatoria de lo procesos arquitectónicos (globales o parciales); 2º sistematización de los mismos; 3º modelización; y 4º algoritmización. Los intentos de sistematización pasaban por superar el dilema planteado por la hibridación de procesos creativos y lógicos. Los esfuerzos por crear la máquina de arquitectura que replicara la lógica del pensamiento racional sin mermar la creatividad propia de la naturaleza humana eran tenaces. Las sinergias entre los centros experimentales y entre los propios analistas se tradujeron en un frente de investigación pan-humano que destilaba complicidad y complejidad en la reflexión. Seguí 101 realiza una descripción concreta de los diferentes caminos recorridos por aquellos investigadores comenzando por la vía de Mesarovich (Views in General Systems Theory), Archer (The estructure of design), Newel, Shaw y Simon, que comprendía la aplicación de modelos matemáticos como globalidad definitoria de un sistema que aseguraba su algoritmicidad y en consecuencia, el planteamiento arquitectónico subyacente quedaba sometido y forzado al primero 102. A esta vía de indagación se sumó una segunda consistente en la selección de ciertos procedimientos matemáticos estructurados y utilizados como modelos de partes o conjuntos de operaciones aislados en los procesos de diseño (Alexander, Notas para la síntesis de la forma). La tarea de acometer e informatizar la categorización de las operaciones, principios y elementos del diseño tiene un punto de inflexión entre , en los trabajos del Centro de Cálculo (Juan Navarro y el Grupo de Sistemas Artificiales) y Nicholas Negroponte en el MIT, cuyos 100 ( ) en este sentido nosotros mismos, en el Centro de Cálculo, elaboramos una sistematización de las actividades en las que se tenían en cuenta diversos factores. ( ) Por los años 69-70, también en el Centro de Cálculo, nos ocupamos de describir el comportamiento como cadenas de actividades (fig.7), y se llegó a plantear un tratamiento para el análisis y descripción de comportamiento social. (Seguí, íbid., 196). 101 Ibíd., p Seguí, ibíd,, p

200 planteamientos de tratamiento gráfico a partir de GRAFT y SKECHPAD (Sutherland) desembocarían en el Urban 5, sistema interactivo que permitía visualizar decisiones de diseño, por pasos interconectados en distintos órdenes 103 (Negroponte 1971). La experimentación del comportamiento animal en hábitats vivos tuvo en el proyecto Architecture Machine 104 de Negroponte un exponente representativo 105, ejemplarizante e influyente, basado en protocolos cibernéticos de análisis que inducían cambios en la configuración del ecosistema 106. La actividad del grupo de Negroponte Architecture Machine Group derivará en la creación posterior del Media Lab del MIT. Con la comercialización del ordenador personal a finales de los setenta finalizó este periodo heróico experimental y comenzó una nueva etapa de investigación que se hizo extensiva a un número mucho mayor de escuelas de arquitectura y otros centros interesados en la afección arquitectónica del Entorno Digital Integración operativa. El proceso de integración operativa de la ciencia de la computación en la práctica profesional arquitectónica comprende varias fases según el alcance y tipo de interacción. La operatividad hace alusión a la acepción ejecutora y activa. Será indispensable recurrir a la potencia de procesado -de cálculo- de información para resolver el planteamiento del proyecto, calcular el comportamiento de un elemento constructivo o representar gráficamente una configuración. Esta vía operativa tiene en el proyecto arquitectónico su primera etapa de integración. La computación constituye en este caso la herramienta diferencial que procesa la información contemplada en el proceso de proyecto, dando una solución a la ejecución material de la propuesta 107. El análisis de este proceso se realiza a partir del estudio de la obra de colectivos como Archigram y la facción metabolista japonesa. La trayectoria profesional de éstos abarca desde los primeros atisbos de integración computacional en el proyecto hasta las propuestas ejecutadas mediante las directrices computacionales del creciente Paradigma Digital. Por otro lado, se producirá paulatinamente el empleo de facto de esta tecnología en el edificio, bien para integrar procesos controlados por la computadora o para realizar análisis informáticos del comportamiento del edificio construido. Las propuestas individuales de Christopher Alexander, Nicholas Negroponte o Cedric Price fueron pioneras en esta vía operativa. 103 Seguí, ibíd., p Negroponte, 1970, óp.cit. 105 Este experimento bien pudiera integrarse en la vía operativa descrita a continuación. 106 Véase la tesis de Fernando Jerez (2013) para profundizar en la materia. 107 Por ejemplo, registrando el feedback de los ciudadanos de Computor City. 174

201 Este camino experimental pautó la integración de la interacción digital en el proyecto y en el edificio construido. Ahora bien, conviene remarcar que la construcción del Entorno Aumentado no consiste solamente en incorporar a la realidad física el Entorno Digital de la computación. El análisis de la integración en la práctica arquitectónica de las nuevas estrategias de información y comunicación procedentes de la evolución de los mass media resultan vitales para comprender el germen de la incidencia de la Revolución Digital en la práctica arquitectónica. En referencia a este propósito mediático cabe señalar la importancia de la obra de Charles y Ray Eames y otras obras puntuales como el Pabellón Phillips (1958) de Le Corbusier y Iannis Xenakis. Según Rouillard (2012) la introducción de la ciencia computacional en el dominio arquitectónico nunca supuso la inclusión de referencias metafóricas en los proyectos; pocos proyectos encontraron aplicaciones prácticas reales. Los arquitectos reaccionaron temprano al Paradigma Digital, asumiendo los presupuestos teóricos que éste iba deparando. Pero no fue hasta la década de los noventa cuando la integración de sistemas de diseño asistidos por ordenador se hizo efectiva y extensiva a los estudios de arquitectura. Anteriormente quedaba exclusivamente reservada a proyectos de investigación en el ámbito universitario. Rouillard 108 concreta la integración de tres tipos de tecnologías de la información y la comunicación en el entorno del planeamiento urbano: 1. Herramientas para regular y comunicar (conectar). Implementadas en el funcionamiento propio de la ciudad, para operar su funcionamiento Herramientas de análisis urbano. Las TIC como herramientas para medir y analizar un tejido urbano. La disponibilidad de datos, la creciente capacidad de cálculo y los avances en programación permiten profundizar en la escala del análisis. 3. Herramienta de proyecto. La intervención de otros agentes puede ser tenida en cuenta asumiendo cambios y actualizando constantemente el flujo de datos Computación y arquitectura mediática TIC. La arquitectura como estrategia de comunicación. Una de las exploraciones pioneras en el ámbito de las tecnologías de información y la comunicación realizadas con un enfoque arquitectónico corresponde al trabajo de Charles y Ray Eames. La alineación con la vanguardia de la Revolución Digital caracterizó, desde sus inicios, 108 Ibíd., p Ratti & Berry; Schmitt; Huang & Waldvogel. 175

202 la trayectoria de los estadounidenses. Sus proyectos no destilan un gran interés por la computación como herramienta de cálculo organizadora del proyecto, como fue el caso de Negroponte o Alexander, pero si como herramienta parte de las TIC. La arquitectura de los Eames propone situaciones estratégicas donde la capacidad comunicativa -retórica, retroalimentación, interacción, etc.- cobra una importancia máxima 110. Su experimentación en el campo de la percepción audiovisual y en el tratamiento e interpretación de la imagen no tiene parangón por su precisión y condición pionera 111. La utilización de los soportes multimedia en la disciplina militar -Situations Room de la Segunda Guerra Mundial y, más adelante, Mision Control Room de Cabo Cañaveral- supuso un cambio en el modo de contar y percibir la información. Pero esta circunstancia enseguida dejó de ser exclusiva de la tecnología de guerra para involucrar a diseñadores, arquitectos y artistas. Beatriz Colomina (2001: 7), destacada arquitecta investigadora de esta coyuntura mediática arquitectónica, señala que mientras que el uso de esas tenologías por los artistas tiende a estar asociado con los Happenings y el Expanded Cinema de los sesenta, los arquitectos estuvieron involucrados mucho antes y en contextos muy diferentes, como operaciones militares y campañas de propaganda gubernamentales. Eliot Noyes, director de diseño de IBM y comisario del pabellón que el gigante norteamericano instaló en la exposición universal de 1958 celebrada en Bruselas, encargó a Charles Eames la dirección y producción de la película que sería visionada por los visitantes del pabellón. A mediados de la década de los cincuenta Charles Eames experimentaba formas de introducir procesos de animación en sus películas; fue entonces cuando conoció el estudio UPA y quedó fascinado por su producción artística. Los dibujos con pastel de Dolores Cannata ilustraron de este modo la primera película de animación de los Eames. Charles Eames (1958), autor del guión de The Information Machine 112, elaboró una narración sencilla y dinámica del nacimiento de la computación. Si bien los Eames no hicieron mención explícita al uso de la computadora como herramienta del arquitecto, si adujeron en su favor estas tres cualidades: capacidad de control y regulación de los medios de producción; herramienta de diseño capaz de calcular el procesamiento de datos derivado de un proceso complejo diseñado por el proyectista; y capacidad de simular modelos de vida, anticipando los efectos al transcurso de la acción. En 1958, USA y USSR acordaron sendas exposiciones para intercambiar cultura, ciencia y tecnología. En la norteamericana de Moscú 1959 los Eames instalaron un dispositivo multipantalla que a la postre se convirtió en una potente arma de propaganda. Como afirma Colomina (Íbid.,: 11) en Glimpses of the USA los Eames fueron conscientemente arquitectos de 110 Véase en Cap.II Cultura mediática de la Revolución Digital. El arquitecto comunicador. 111 Junto con el Pabellón Phillips que Le Corbusier proyecto junto a Xenakis (Ibíd). 112 Eames, Charles & Ray (1958) The Information Machine. Disponible en: < (Consultada el 28 de agosto de 2013). 176

203 un nuevo tipo de espacio. La película rompió con la perspectiva fija del mundo 113. A la instalación multipantalla, hay que añadir una computadora RAMAC 305, un cerebro electronico que respondía por escrito a preguntas sobre los Estados Unidos. Aquella arquitectura integraba desde el proyecto una combinación de estructura, espectáculo multimedia y computación. Fig.1. NASA Mission Control, Houston. Fig.2.Glimpses of the USA, Moscow World's Fair auditorium. Charles y Ray Eames. Fig.3a.Diagram of Field of Vision, Herbert Bayer. Fig3b.Think, Multiscreen projection. Fig.4.A Computer Perspective, Charles y Ray Eames. La multiproyeción Think (fig.3b) rodada por los Eames para ser expuesta en el pabellón ovoide de IBM diseñado por Saarinen para la Exposición Universal de Nueva York ( ) envolvía al espectador en una reminiscencia de la obra de Herbert Bayer de 1930 Diagrama del campo de visión (fig.3a). En ese mismo pabellón, el visitante transcurría junto a un muro con una colección de imágenes denominado Perspectiva computacional (fig.4), una estructura informacional que aumentaba el lugar antecediendo el acceso sencillo a la información -o la sobre-informaciócaracterístico del Entorno Aumentado. Esta imagen de 1971 dista mucho de la comprensión de la computación como instrumento de cálculo habitual en la década anterior y se acerca a la naturaleza mediática que tras la formulación de Internet caracteriza los soportes digitales contemporáneos. 113 The multiscreen performance turned out to be one of the most popular exhibits at the fair (second only to the cars and color televisions). Time magazine called it the smash hit of the Fair, 16 the Wall Street Journal described it as the "real bomb shell, and U.S. officials believed this was the real piledriver of the fair. Groups of five thousand people were brought into the dome every forty-five minutes, sixteen times a day, for the duration of the fair.i8 Close to three million people saw the show, and the floor had to be resurfaced three or four times during the six-week exhibition. (Colomina, óp. Cit., p.11). 177

204 Arquitectura cibernética. La materialización del diagrama. We just haven t learned how to enjoy our new freedom: how to turn machinery, robots, computers, and buildings themselves into instruments of pleasure and enjoyment. Cedric Price, A message to Londoners (borrador de un folleto promocional del Fun Palace). A principios de la década de los sesenta, arquitectos como Cedric Price ( ), Christopher Alexander (1936) o Nicholas Negroponte (1943) se interesaron por cómo implementar el desarrollo tecnológico de sistemas inteligentes en la disciplina arquitectónica. Esto les llevó a afrontar el reto desde una argumentación sistémica; aproximación similar a la que estaba proporcionando en otras disciplinas la computación respecto a la simulación de entornos virtuales. Una serie de conferencias incluyendo Architecture and the Computer en el Boston Architectural Center en 1964, Computer Graphics in Architecture and Design en la Yale School of Art and Architecture en 1968, y el doble número de Design Quarterly, Design and the Computer en 1966, reunieron a representantes de la arquitectura, el urbanismo, la ingeniería y la ciencia de la computación. El planteamiento de la arquitectura como un sistema acercaba el proceso de proyecto a una metodología científica interdisciplinar. En esta linea Lobstiger (2000a: 23) afirma: quizá lo más importante es que la teoría de sistemas estaba llamada a producir resultados generativos; esto es, permitir y soportar la emergencia de efectos secundarios. Para Price la teoría de sistemas y los diagramas proveían un proceso proyectual abierto y generativo que mediaba entre la complejidad desorganizada de la sociedad informacional y las necesidades de la arquitectura. Con Price, sin embargo, la forma construida en si misma se volvió un diagrama. Cedric Price conoció a Frank Newby en la exposición de arte This is Tomorrow (fig.2) celebrada en 1956 en la Whitechapel Art Gallery; también coincidió allí con Reynner Bahnam. Artistas, arquitectos, músicos y diseñadores gráficos trabajaron en torno a doce equipos, en un ensayo de colaboración multidisciplinar 114 donde destacaron las obras del Independent Group 114 Esta condición multidisciplinar recuerda a lo acontecido años después ( ) en el Centro de Cálculo de la Universidad Madrid. Javier Seguí describe así la situación: Hay que hacer cosas parecidas al Centro de Cálculo, porque si no la sociedad se desarticula. Eso es lo que es lo colectivo, buscar lo común, inventándolo, eso es lo que es absolutamente sustancial para que podamos sobrevivir. EL CCUM, desde mi punto de vista, es una especie de referente. Una especie de brillo. Imposible de recuperar porque aquello pasó, pero que es el paradigma de otras posibles asociaciones de ese orden. Donde sin buscar la gloria personal de nadie se busca lo que está colectivamente en la inquietud de todos. Seguí, Javier (2012: ). 178

205 del Institute of Contemporary Art. Price, Newby y Bahnam coincideron en que los avances de la tecnología no eran recogidos en toda su capacidad por la arquitectura contemporánea, pues esta tomaba aquella exclusivamente como un referente estético. Cuatro años más tarde, la Sociedad Zoológica contactó con Antony Armstrong-Jones 115 con motivo del encargo de un nuevo aviario que debería reemplazar el Gran Aviario londinense de Este a su vez, eligió a Cedric Price como colaborador en el proyecto. Para la construcción del nuevo aviario fue determinante la recomendación de Cedric Price de incluir en el equipo a Franck Newby, ingeniero de estructuras que ya había trabajado en el estudio de Samuely 116 y colaborado con Konrad Wachsman, Charles Eames y Eero Saarinen y que supo de él en sus años de estudiante en la Architectural Association. El aviario se construyó aplicando el concepto de tensegridad 117 que desarrolló Buckminster Fuller, o compresión discontinua (Steiner 2009: 54). Construido el aviario y publicado en Archigram 2 y 4, Newby y Price emplearon modelos computerizados para analizar la distribución de esfuerzos en la malla de acero. Cedric Price ( ) fue pionero en la incorporación de las tecnologías de la información y la comunicación al proyecto arquitectónico. La convergencia se produjo tanto en el contexto proyectual de propuestas como Fun Palace ( ), Potteries Thinkbelt ( ) o Generator ( ), como en la arquitectura construida del Aviario del Zoo de Londres, si bien, el uso que se hizo de la computación fue en este último caso singular al utilizarse para evaluar a posteriori el comportamiento estructural. En el caso de los proyectos no construidos, la computación fue asumida por la vía operativa, de modo que ésta hacía factible la performance arquitectónica diagramada por Price. Sidney Lummet afirmó una vez que todo gran trabajo está preparándote para cuando suceda el accidente. El significado que entraña su afirmación bien puede aplicarse a los proyectos de Price, que constituyen un sistema posibilístico -y probabilístico- operado por la tecnología última, la del momento, la que permitiría adaptar las condiciones propias del edificio a la circunstancia demandada por el o los usuarios. El edificio y su circunstancia momentánea de uso se interpretan como un fotograma de los muchos posibles que componen la película -el sistema-. El edificio se muestra como es casi por accidente. Wilken (2007) compara el concepto de accidente preparado implícito en la obra de Price con la cinta de David Cronemberg Crash (1996) y la música experimental de John Cage. 115 El duque de Edinburgo, presidente de la Sociedad de Zooogía, fue el que recomendó a su cuñado Anthony Armstrong-Jones, conocido fotógrafo londinense que estudió dos años de arquitectura. 116 Según Steiner (óp.cit., 2009) en una conversación entre Price y Newby, en la transcripción de lo que resultó impresa en AA Files, Price asegura que la única opción para una estructural experimental de este tipo eran Ove Arup y Samuely, las firmas consultoras de la Piscina de Pingüinos del Zoo. (Engineers and architects: Newby + Price, AA Files 27). 117 Véase el trabajo de Alexander Graham Bell en Cap. II Arquitectura emisora. Antecedentes predigitales en la transferencia de la información y comunicación (TIC). 179

206 Fig.1. Aviario del Zoo de Londres, Alzado desde el río. Cedric Price. Fig.2. Just What is it that Makes Today s Homes so Different, so Appealing? Richard Hamilton. Fig.3.Ideal Site. Fuente: Price and Joan Littlewood, The Fun Palace, The Drama Review: TDR 12, no.3 (Spring 1968): 132. La Teoría Cibernética de Weiner y el auge de los mass media a principios de los sesenta influyeron en el concepto de lo arquitectónico, introduciendo la necesidad de considerar la capacidad comunicativa entre los agentes que intervienen, destacando el usuario. Para que se produjera una inter-comunicación efectiva entre el usuario y el edificio, este último tenía que habilitar en sí una gramática de posibilidades. Este proceso alienta al proyectista a interpretar el proyecto como un sistema de comunicación, que en el caso de Price, definió de manera integral el conjunto 118. Basándose en el lenguaje de la computación, el proyectista debía ordenar la casuística arquitectónica para que respondiera de manera óptima a las exigencias de cada circunstancia -contemplada-. Lo arquitectónico se sistematizaba, asumiendo metodologías científicas (aunque podían haber tenido otro cariz). Es así como la arquitectura muerta se apoderó de una herramienta que la vitalizaba. La Teoría de la Comunicación sitúa en el rango más básico la comunicación unilateral, donde la fuente de la información emana sin conocimiento de destino alguno. En términos arquitectónicos, la posición jerárquica e impos(i)tora del arquitecto como hacedor principal, obviando cualquier otro contexto, constituiría el estadio más básico de todos los posibles entre los agentes de la construcción. En este sentido Price se proclamó así mismo anti-arquitecto, se interesó por la tecnología como herramienta capaz de subvertir la condición autoritaria del proyectista en la toma de decisiones proyectuales. Este hecho atañe también al contexto de las artes plásticas. Si bien Price compartía gran parte de las proclamas de Fluxus o la Internacional Situacionista, se diferenciaba de éstos al integrar a la vez y de manera explícita las TIC con las teorías de juegos, de sistemas y cibernética. Sostiene Wilken (óp.cit., 2007) que la mayor parte de la crítica sobre el trabajo de Price presta mucha 118 En una reciente entrevista, el pionero de la cibernética Heinz von Foerster me dijo que la mayor contribución de la cibernética fue aceptar lo circular, para observar procesos circulares. El Fun Palace habría sido el primer edificio cibernético de la historia. Cedric Price (2006:70) 180

207 atención a explorar y documentar estas influencias teóricas, así como el uso en el proyecto de dispositivos de comunicación y computación propios del contexto socio-cultural de la época. El propio Wilken propone una interesante indagación acerca de la sociedad tecnológica para la que Price diseñó la casuística de sus proyectos, argumentando tres hipótesis: la primera, sobre la tensión establecida entre el programa y el accidente -especialmente en el Fun Palace- en el proceso metodológico de proyecto; la segunda, el rigor teórico en la incorporación de las tecnologías de la computación y comunicación; y en tercer lugar, la significación del Fun Palace como una exploración temprana experimental de interacción en la sociedad informacional mediática que derivaría posteriormente en las recientes formas de interaccion social on-line y en la aparición de comunidades. Price abogaba por un perfil de anti-arquitecto cuyas competencias permitieran el establecimiento y diseño de un entorno sintetizado en una matriz proyectual, una estructura sistémica capaz de solucionar problemas y admitir un cierto grado de flexibilidad. En este sentido las TIC suponían una herramienta habilitante del proyecto. A pesar de la sintonía del arquitecto con los avances tecnológicos, Price sostuvo en el ejercicio profesional una actitud específica con relación a su uso. Lejos de admitir lo tecnológico per se, el empleo de la tecnología debía obedecer un criterio definido, como afirma Landau (1984: 11): En primer lugar, es necesario que haya una idoneidad (tal vez se encuentra en la electrónica, pero también posiblemente en una cabaña primitiva), y la idoneidad rara vez será sinónimo de convencional. En segundo lugar, la tecnología se puede utilizar para jugar un papel crítico, lo que significa que se espera que participe en el debate arquitectónico, quizás a través de la contribución, disputa o la capacidad de provocar. Y en tercer lugar, la tecnología debe ser colocada en un contexto particular y real del cual se puede derivar un marco limitador de restricciones. Price solía referirse a la tecnología de sus zapatos favoritos Hush Puppies como analogía de la capacidad de adaptación perfecta del edificio al uso y al usuario. Frente a la definición del (arque)tipo arquitectónico estático, el proyecto de un sistema dinámico que emplea la tecnología como catalizador, incluso la tecnología móvil (zapatos) como recurso. Este criterio tecnológico pauta el proyecto de Potteries Thinkbelt, desarrollado por Price de , cuya capacidad de cambio era ejecutada por una tecnología que permitía la adecuación potencial a las circunstancias múltiples y efímeras derivadas de la contingencia del programa. Price propuso una combinatoria que podía integrar diferentes versiones de instalaciones vinculadas al ámbito universitario. Esta capacidad de adaptación quedaba enfatizada y replicada en la localización de la infraestructura, anclada a una vía de ferrocarril abandonada. En sí mismo, el proyecto proponía una geometría fractal, ya que la propia universidad era capaz de moverse por un sistema ferroviario que había caído en desuso. La propuesta de una red universitaria conformaba lo que Price vino a llamar Meir Transfer Area o área de transferencia universitaria. Este concepto revisaba y subvertía no solo la formalización del proyecto arquitectónico si no también el propio concepto de universidad, anticipando en cierta medida la enseñanza a distancia o e-learning donde definitivamente se ha suprime el edificio. 181

208 El Fun Palace asumió la complejidad del proceso proyectual y del hecho construido en una propuesta dilatada en el tiempo ( ) que integraba el análisis de profesionales, colaboradores y asesores, procedentes de diferentes disciplinas. Joan Littlewood, fundadora del Taller de Teatro del Theatre Royal de Londres, impuso como hipótesis de proyecto la noción de lugar de encuentro de procesos teatrales que podía florecer sin constreñirse a la forma del edificio. Lobsinger (óp.cit., 24) lo define como un centro de ocio abierto 24 horas, temporal, multiprogramado (y reprogramable) que marida las tecnologías de la comunicación y los componentes estándar del edificio para producir una máquina capaz de adaptarse a las necesidades del usuario. El concepto de ocio, conquistado por la clase trabajadora después de la posguerra, significó la inauguración de un nuevo ámbito espacio-temporal que demandaba propuestas como el Fun Palace 119. La tecnología se hacía presente a nivel operativo tanto en el proyecto como en la manipulación del edificio construido, aunque nunca lo llegó a ser. Las máquinas de leer o de calcular junto con televisiones y computadoras poblaban diferentes lugares del proyecto, Littlewood propuso incluso un circuito cerrado de televisión que mostraba en directo lo que sucedía fuera y dentro del Fun Palace, fuera y dentro de Londres (Littlewood: 482). El edificio de estructura metálica proyectado por Price, cuya referencia inmediata eran los gigantescos astilleros navales, aseguraba la flexibilidad programática requerida por Littlewood mediante un espacio interior reconfigurado por un sistema de grúas. El sistema estructural diseñado y calculado por Frank Newby permitía múltiples combinaciones programáticas. El proceso proyectual meticuloso y detallado del Fun Palace fue acompañado por un Subcomité Cibernético liderado por el prestigioso teórico cibernético británico Gordon Pask 120. El subcomité, contaba con miembros destacados como Tom Driberg y se reunía en un local frente al estudio de Price. La recopilación de información tanto para el desarrollo del proyecto como para el funcionamiento y configuración del edificio estaba regulada por la teoría cibernética de la retroalimentación de información. Detrás de la adecuación inmediata y automática de la infraestructura a los propósitos del usuario usuarios- se encontraba una organización 119 Nótese la vinculación con lo lúdico que emparenta este proyecto con muchos de los proyectos de Archigram. Asimismo, la importancia del campo lúdico del videojuego en su aportación a la construcción del Entorno Aumentado. 120 Price sobre Gordon Pask: Cuando conocí a Gordon Pask al principio de los sesenta-estaba trabajando en la predicción los soldados que necesitaría la Royal Air Force en el año Pero para hacer eso, construyó su propio ordenador, en Ritchmond, con miles de latas de mostaza. Pero Gordon, después de trabajar en el Fun Palace, se volvió más y más interesado en la arquitectura. El no estaba vinculado a la arquitectura antes, pero después se vovió un arquitecto, realmente más que yo. Solía enseñar en la AA. Gordon Pask trabajó con otros arquitectos como Ranulph Glanville o John Frazer director del Departamento de Arquitectura de la Universidad de Hong Kong-. Fuente: Pask, Gordon (1968) An aesthetically Potent Social Environment, Archigram, nº 8, np. 182

209 precisa de las posibilidades aleatorias. La propuesta orquestada por Price, Littlewood 121 y Pask desarrolló la sistematización de la interacción social de un modo radical, operada por las telecomunicaciones y la computación -en pleno proceso efervescente-, resulta ser uno de los primeros edificios mediáticos con una propuesta de comunicación integrada, articulada por la computación, y con una comunidad virtual habilitada mediante conexiones mediáticas con el exterior. Fig.4. Fun Palace section 122, Cedric Price, Fig.5. Fun Palace sketch, Cedric Price and Joan Littlewood. Fuente: Ulrich, Hans O. (ed.) (2003) Cedric Price, Re:CP, Basel: Birkhauser, 33. La organización y el desarrollo del proceso proyectual del Fun Palace no prescribe soluciones, si no que obedece a una concepción de patrones que interpretan un contexto social. A diferencia del Lenguaje Patrón de Christopher Alexander, los patrones del Fun Palace no proponían una solución directa a la hipótesis de partida si no que planteaban un análisis continuo retroalimentado a través de la experiencia. Podría decirse que planteaban la monitorización del ecosistema. La tesis de Onur Özkoç (2009) Social Potentials Of Pattern: Cedric Price s Fun Palace aporta una vision específica del proyecto, en base al análisis de la capacidad de registro del patrón como síntesis de la interacción social potencial del proyecto. El programa de ocio del Fun Palace quedaría configurado por un sistema patronal generado por los propios usuarios, que facilitaba el procesamiento continuo de actividades. Estos proyectarían su experiencia respecto al ocio en base a un listado de acciones básicas. Como afirma Özkoç (2009: 60), estos límites definitorios conceptuales se diluyen, reformulando nuevas y frescas probabilidades de incertidumbre. El Subcomité Cibernético del Fun Palace elaboró un cuetionario que complementaba la lista de actividades de Price y Littlewood y proporcionaba la retroalimentación informativa requerida por el proyecto. Los encuestados debían reflexionar sobre el tipo de actividades que debería acoger el edificio, entre otras: comer, esquí, bolos, karts, baile, conciertos de música, nadar, fotografía, restauración de coches antiguos, simulación de voz, pintura dáctil, admiración mutua 121 Según la mayoría de las fuentes (Wilken, óp.cit., 2007) Littlewood explica sus ideas visionarias sobre un espacio social experimental interactivo a Price en octubre del Fuente: Mathews, Stanley (2005) The Fun Palace: Cedric Price's Experiment in Architecture and Technology, Technoetic Arts: A Journal of Speculative Research, Vol

210 (requería espejos de bolsillo), te apetece (sexo)?, teatro y opera, tiro con arco, son et lumiere, etc. Fig.6.Diagrama del sistema de control cibernético del Fun Palace, Gordon Pask. Fig.7. Diferentes tipos de observación y experimentación vistas como sistemas, Gordon Pask. El sistema cibernético programaba y reprogramaba el Fun Palace, configurando la opción más eficiente 123. La organización quedaba representada en un diagrama cibernético que operaba la mecánica del sistema. El diagrama constituía un procedimiento lógico de variables múltiples, con entradas (input) y salidas (outputs) de información al que seguiría la traducir a un lenguaje informático estos procedimientos, procesando así la información de modo que la computadora operara las órdenes preceptivas 124. La vanguardia de la arquitectura interactiva, con Cedric Price, Gordon Pask, Archigram y Yona Friedman a la cabeza, concurrió con propuestas a IDEA 125, la conferencia celebrada en el New Metropole Arts Centre de Folkstone el de junio de La atención hacia una arquitectura flexible que integrara la participación del usuario acercaba la disciplina a la sociedad. La atención temprana de Price hacia el potencial que escondían las tecnologías computacionales de la información y la comunicación influyó decisivamente en el fundamento 123 La tesis de Fernando Jerez (2013) profundida en este enfoque. 124 Véase fig Véase Tipografías digitales en Vía del Lenguaje tecnológico, Cap. III. 184

211 de tendencias arquitectónicas como el High-Tech. Cedric Price constituyó una referencia fundamental para Archigram -su mentor 126 -, Will Alsop, Arata Isozaki, Rem Koolhaas y Bernard Tschumi, entre tantos arquitectos vinculados a la tecnología 127. En la línea del pensamiento de Buckminster Fuller, Price propuso una arquitectura con fecha de caducidad y expandible ( expendable ). Estos conceptos serían asumidos inmediatamente por Archigram a partir del proyecto Fun Palace y por los Metabolistas japoneses. En contraposición al pensamiento positivista que basaba el desarrollo del proyecto en un proceso causa-efecto, Price se alejaba de la concepción lineal de la metodología proyectual ortodoxa propicia en el Movimiento Moderno. De igual forma, Price evitó en sus proyectos un aprovechamiento único del edificio, en detrimento de la arquitectura estática y en pos de propuestas dinámicas. Price participaba de la arquitectura no construida de los Smithson 128 y favorecía soluciones noarquitectónicas, evitando las limitaciones de los edificios monumentales. Otro proyecto seminal, Generator ( ), proponía un entorno con unas condiciones de interacción dadas en un ambiente reconfigurable y responsivo -acuñado por el propio Price-. En colaboración con los arquitectos y programadores John y Julia Frazer, se desarrolló un sistema computerizado en el que a partir de una trama estructural de 12 por 12 pies y un catálogo de componentes constructivos -paneles y puertas correderas de vidrio, pantallas y pasillos peatonales móviles-, pudieran combinarse mediante una grúa móvil diferentes estructuras y arquitecturas por la acción de los usuarios. El proyecto desarrolló un código cerrado que generaba una amplia red de configuraciones a través de un programa informático. Este complejo flexible, dispuesto en la frontera entre Florida y Georgia, incluía una grúa para la movilización y transporte de los módulos. En una carta a los Frazer, Price escribió: 126 El número dos de Archigram (1962) incluía una colaboración de Cedric Price: An expendable aesthetic requires no flexibility in the artifact but must include time as an absolute factor. Planned obsolescence is the order within such a discipline - shoes; motor cars; magazines. The validity of such an aesthetic is only achieved if replacement is a factor of the overall design process, The mobile home presupposes a continuance of production of such units...in all such cases the artifact at any one time is complete in itself and the overall design problem requires a solution to the organization of such unitsflowers in a bowl; caravans on a site. In allowing for change, flexibility, it is essential that the variation provided does not impose a discipline which may only be valid at the time of design. It is easier to allow for individual flexibility than organizational change - the expandable house; the multi-use of fixed volumes; the transportable controlled environment. The massing of living units in single complex [sic] presupposes the continuance of physically linked activity complexes...physical forms as known are often the by-product of social, economic, technical conditions no longer relevant. Planning for activities must allow for change not only in content but in means of operation. Disciplines can only be based on foreseeable change and thereafter only order and not direction of change should be established. Extraído de Peter Cook (ed), Archigram 2, Archigram, London. 127 El Fun Palace claramente supuso un precedente conceptual y una estructura formal para el Centre Pompidou, según admite el propio Rogers. 128 A pesar del desencuentro entre Price y Peter Smithson. Este último, miembro del tribunal del proyecto de fin de carrera del primero. 185

212 The whole intention of the project is to create an architecture sufficiently responsive to the making of a change of mind constructively pleasurable. A lo que ellos contestaron: If you kick a system, the very least that you would expect it to do is kick you back. Los Frazers diseñaron cuatro programas que implementaban información (input) obtenida a partir de sensores instalados en los components del Generator: un programa de dibujo, un programa de inventario, una interfaz de modelado y prototipado, y un programa llamado boredom. Según afirma Molly Wright (2010: 2) a pesar de que Price no disponía de las herramientas de programación de Negroponte y Alexander, continuamente revisaba las posibilidades que la computación y la tecnología ofrecían para lograr una mayor interacción en su arquitectura. John Frazer continuó investigando procesos arquitectónicos vinculados al desarrollo computacional, sistemas de modelización inteligente y arquitecturas responsivas. El trabajo de investigación de Frazer y de su unidad en la Architectural Association de Londres produjo proyectos como el Universal Constructor o una revisión de Generator en , cuyas maquetas electrónicas fueron expuestas en la AA y etiquetadas por Pask como una expresión del Entorno Informacional 129. Su influencia ha sido decisiva tanto en ámbito académico como en el profesional. La colaboración de Price con Gordon Pask 130 tuvo otros frutos de entre los que cabe destacar el reencuentro con motivo del concurso de viviendas para estudiantes en Kawasaki, Japón. Dada la fecha del proyecto (1986), la importancia de este casi desconocido proyecto radica en la anticipación y descripción de un entorno híbrido en sintonía con la dimensión heterogénea que propone el Entorno Aumentado. En esta ocasión, Pask diseñó un complejo sistema basado en las TIC para recabar feedback de todo Kawasaki: el proyecto Japan Net, una compleja red de esferas multimedia con receptores multidireccionales y transmisores mixtos articulaba el entorno integrando en la ciudad una nueva capa de información (Hardingham 2003: 10). El dibujo de Price sobre las esferas informacionales (figs.8 y 9) describía dos esferas, una inferior al nivel de la cota de la calle, donde se establece la interaccion ciudadana con pantalla de tv, audio y altavoces- y otra superior, elevada para mejorar la señal de transmisión y recepción de la información. De igual modo, el apunte 24-hours Postman (fig.9) proponía una visión de este elemento mediático como si de un huevo informacional se tratara. Un elemente cruzado por 129 Fuente: Gonçalo Furtado, Disponible en: < (Consultada el 9 de septiembre de 2013). 130 Para más información sobre la relación Pask, Price y los Frazers: < (Consultada el 29 de agosto de 2012). 186

213 cables estructurales que recuerda la tensigrity del Aviario del Zoo de Londres y que articulaba también la instalación mediática de esta Plaza Inteligente de Kawasaki. Fig.8 y 9. Concurso de viviendas para estudiantes en Kawasaki, Gordon Pask y Cedric Price. Fotomontaje y croquis de las esferas de información. La propuesta mediática de la Plaza Inteligente procuraba una representación fidedigna (estomacal) del pensamiento mediático localizado en el espacio (osamenta). Price localizaba y referenciaba el flujo informacional a un sistema de coordenadas axonométrico (fig.10). El resultado fue una especie de red neuronal donde incluso cabe distiguir nodos de las conexiones. En un esquema construido de la propuesta (fig.11) la identificación de los elementos blandos (dispositivos) y duros (estructura) con el diagrama de flujo informacional es bastante precisa. La estructura tensada de cables de acero hacía flotar el contenido de dispositivos mediáticos, de modo parecido a la propuesta de Fisac para el campanario de la Iglesia de los Dominicos de Madrid. En la memoria del concurso titulado La Plaza inteligente, Gordon Pask se refería a una arquitectura del conocimiento que representaba los pensamientos de la ciudad (ciudadanos) y una imagen de la estructura construida animada por computadora (con gráficos digitales) que evolucionaría adaptándose a la ciudad. La figura 9 representa un croquis de Price sobre la estructura mediática instalada en la plaza. Fig.10.Jappan Net, The Architecture of Knowledge, Cedric Price and Gordon Pask. Fig.11.Kawasaki (city) suspension.. Cedric Price and Gordon Pask. Fig.12.Jappan Net.Representación del concepto.. Cedric Price and Gordon Pask. 187

214 Pask estuvo vinculado al campo del proyecto experimental del entorno de la AA de Londres, colaborando en proyectos relacionados con el Entorno Informacional y la Arquitectura del Conocimiento (del inglés Information Environment y Architecture of Knowledge) como A of K, animación informática llamada a ser expuesta con la maqueta electrónica de Frazer. En 1995, John Frazer describía en An Evolutionary Architecture el nuevo paradigma que equiparaba la arquitectura con una forma artificial viva, en la línea de la arquitectura responsiva de Cedric Price Interacción en la arquitectura sistémica del Estructuralismo. The role of the architect... I think is not so much to design a building or city, as to catalyse them: to act that they may evolve. Gordon Pask La integración operativa de la computación en la práctica profesional se produjo a escala urbana en los nuevos modelos de desarrollo surgidos en torno a los arquitectos estructuralistas de la década de los sesenta, que pusieron en crisis tanto la reflexión que hizo el Movimiento Moderno sobre la ciudad como las propuestas urbanas fluidas del Team X. La trayectoria de Cedric Price, Christopher Alexander y Nicholas Negroponte recibió y proyectó una influencia retroactiva respecto al Estructuralismo, con el que compartían vías de investigación con inquietudes parejas relacionadas con el avance tecnógico y la interacción hombre-máquina. La historia crítica del proceso de integración de la interacción en la ciudad, circunstancia inducida en gran medida por influencia del campo de la computación, es tratada por Dominique Rouillard (2007: 14) en L invention de la interactivité urbaine, publicado en Interactive Cities, donde se aporta una visión panorámica de cómo ésta se produjo en la obra de Archigram y de Alison y Peter Smithson. Esta investigación complementa y amplía el enfoque de Rouillard en el sentido de enmarcar la trayectoria de sendos grupos en relación al paradigma digital y añadir otros arquitectos pioneros en el campo de la computación. Frente a otra literatura examinada, el texto de Rouillard comparte un enfoque similar de análisis al sugerido en esta revisión histórica. Las indagaciones efectuadas sobre la obra de Archigram se fundamentan en el análisis de documentación procedente de diferentes fuentes. Por un lado, la literatura coetánea de las revistas de la época como Architectural Design, así como los nueve números de la revista homónima, el magazine Archigram ( ) que dio nombre al grupo. Por otro lado, los textos de Sadler (2005) y Steiner (2009), y la tesis de Piantá (2001) Grupo Archigram, Uma fábula da técnica constituyen ejemplos de lecturas panorámicas de la obra completa. La publicación de Ley (2008) tiene el valor de un catálogo heterodoxo internacional del movimiento megaestructuralista. La antología del grupo editada por el propio Peter Cook (1999) merece un tratamiento especial aparte por su carácter biográfico. 188

215 El Movimiento Moderno articuló una propuesta higienista de ciudad segregando las rutinas para obtener una ciudad saneada donde la Naturaleza se identificaba con una alfombra en la que apoyar la intervención artificial construida. La respuesta Moderna pretendió poner freno a las condiciones insalubres derivadas de los efectos de la Revolución Industrial. Así mismo, tras el fracaso del paradigma positivista que supuso el colapso de la Segunda Guerra Mundial, el auge de las ciencias sociales experimentado en el proceso de reconstrucción de las ciudades europeas acontecido en la década de los cincuenta propició una reflexión humanista sobre la ciudad por parte del Team X. Tanto la Ville Radieuse, como la Ciudad Jardín, como las propuestas del Team X en su versión británica -Manifiesto Doorn de los Smithson- basada en las ciencias sociales, como la holandesa de Bakema y Van Eyck interesada en la experiencia urbana fenomenológica, no interpretaron el proyecto de ciudad como un sistema capaz de asumir la interacción ciudadana. Sus propuestas describían modelos con una excesiva rigidez que no permitía la transformación dinámica y con ello la adaptación evolutiva al cambio. La comprensión de la ciudad como un (eco)sistema vivo a la vez que interfaz habilitadora de la interacción ciudadana fue un concepto pionero de los estructuralistas y su entorno. El modelo de ciudad se abordaba desde el diseño de una entidad que precisaba ser ajustada a la circunstancia cambiante de su ciudadanía. Llegaba el turno de la ciudad cibernética, un nuevo modelo para construir la naturaleza artificial postindustrial. Cuál es el origen de la concepción sistémica de la ciudad que compartían los grupos estructuralistas de la década de los sesenta? Uno de los orígenes vincula este concepto a la aparición de la Teoría Cibernética de Norbert Wiener, en la Segunda Guerra Mundial. Su influencia posterior en las tesis del grupo de arquitectos japoneses metabolistas derivó en la extrapolación de la teoría de Wiener a la ciudad. Por otro lado, no hay que olvidar que la generación estructuralista europea vivió la transformación que experimentaron las grandes ciudades europeas en el devenir de la contienda. A diferencia de la Primera, la Segunda Guerra Mundial llevó el frente a la ciudad. De modo análogo a la estrategia de las plazas medievales asediadas por ejércitos de infantería y caballería, las viejas ciudades europeas tuvieron que transformarse en estructuras militares integradas en la estrategia bélica. En muy poco tiempo dieron una respuesta lo más eficaz posible al acoso enemigo, producido casi siempre en forma de bombardeo aéreo. La ciudad asumió forzosamente su condición beligerante convirtiéndose en un asentamiento militarizado que habilitaba un sistema articulador de esa nueva realidad operativa: la defensa. El diseño del sistema debía operar la infraestructura construida de la ciudad de modo que fuera viable la nueva condición estratégica. La trama urbana de Londres, Berlín o París sufriría una customización diseñada por la cúpula militar de turno. La integración de la logística militar, la conexión urbana con las redes de suministros -maquinaria, munición, víveres, medicamentos- y la habilitación de infraestructuras defensivas -refugios antiaéreos, sistema de radar, baterías de defensa antiaérea etc.-, entre otras circunstancias, supuso una rápida adecuación sistémica a la nueva condición de la metrópolis. 189

216 Referentes Formales El tamaño de las construcciones propuestas por los estructuralistas exploró campos referenciales de tipologías de gran escala vinculadas tradicionalmente a la arquitectura de grandes luces. Constant, Friedman, Archigram y los metabolistas japoneses, entre otros, encontraron claros referentes formales para sus proyectos de ciudad en las estructuras de hierro de grandes luces del s.xix y del s.xx. Las grandes infraestructuras producidas por la arquitectura del hierro en el siglo XIX -puentes, hangares, naves industriales, estaciones etc.- estaban presentes en el imaginario de este colectivo. El trabajo experimental de Konrad Wachsmann fue uno de los precedentes del plug in de Peter Cook, junto con la Philadelphia City Tower (1954) de Louis Kahn y Anne Tyng -reunía una combinatoria modular en la matriz tridimensional de una superestructura- y los dibujos de Sant Elia de su Città Nuova (1914). Las fuerzas aéreas estadounidenses encargaron a Wachsmann el diseño de un hangar para el bombardero B-52. Wachsmann proyectó una superestructura de tubos de aluminio con unas juntas especiales. Este sistema constructivo, se podía importar fácilmente a las megaestructuras. Gestural work like Festival of Britain (1951) contained a mixture of post-war spinoff (the technology of laminates, alloys and micro-mechanics) and latter-day thirties styling. The real coalescence of idealism for a new architecture and for a new technology was simultaneously happening with Konrad Wachsmann s experiments with the technique of building elements. Peter Cook (1970) Asimismo, el fin de la II Guerra Mundial, con el cese y posterior reconversión de la industria bélica, propició que muchos productos de la industria militar pasaran a formar parte de la escena civil. Antibióticos, rayos infrarrojos, radares, fertilizantes, fibras artificiales, pesticidas, detergentes etc., pero también los plásticos, la tecnología de los laminados, las aleaciones y la micro-mecánica empezaron a ocupar la cotidianeidad civil y con ello el imaginario colectivo de los arquitectos de la postguerra. Los noticiarios radiados y la prensa escrita poco a poco daban también cobertura a una nueva ciencia: la electrónica. 190

217 Fig.1.Philadelphia City Tower, Louis Kahn y Anne Tyng. Fig.2.USAF Space Frame, Konrad Wachsmann. Por otro lado, la ciencia ficción 131 determinante, por ejemplo, en la trayectoria profesional de Buckminster Fuller- jugó un papel principal en el colectivo Archigram 132. Banham afirmaba en 1958 que la ciencia ficción es uno de los grandes ampliadores de mentes. ( ) es parte de la educación de la imaginación de cada técnico. El nº 4 de Archigram (1964) ejemplifica muy bien la influencia de la ciencia ficción y del comic 133, tanto en el contenido de los proyectos del grupo londinense como en la retórica estratégica de contarlos -si es que resulta viable esta disyuntiva-. La retórica del grupo londinense se inspiraba a menudo en el género del comic, la iconografía aparecida a propósito de la carrera espacial y la estética pop de los sesenta. Por lo demás, a la hora de buscar referentes cabe señalar la importancia de algunos juegos infantiles como Meccano (fig.4). Este juego de construcción ocupó también un lugar en el imaginario Archigram. Sadler (2006) recuerda que un niño británico criado en la década de los cuarenta -generación Archigram- era fácil que jugara a menudo con él o con algún tipo de juego similar, del mismo modo que Frank Lloyd Wright hizo lo propio con los bloques Froebel (fig.3) en su infancia 134. Las dos propuestas lúdicas incentibaban la capacidad del niño para percibir y modificar lugares. 131 Véase Cap.III, Influencias transdisciplinares. Arquitectura y ficción. 132 Buckminster Fuller había sido profesor de Greene en la Nottingham University School of Architecture. 133 Véase fig.2. en Influencias interdisciplinares: arquitectura y ficción. 134 Frank Lloyd Wright declaró haber sido influido por el pedagogo alemán Friedrich Fröbel, quien publicó sus ideas en el libro La educación para el hombre en el año 1826 y acuñó el concepto y término de jardín de infancia (en alemán, Kindergarten). 191

218 Fig.3. Juegos Froebel. Fig.4. Meccano. Fig.5. Minecraft. A pesar de que ha transcurrido más de medio siglo, hoy los niños juegan a juegos muy similares aunque en formato diferente. Los videojuegos apuntan claras y frecuentadas interferencias arquitectónicas. Títulos como Tetris, Angrie Birds o los mundos virtuales que proponen Sim City o Minecraft (fig.5) constituyen ejemplos muy populares y vinculados a la disciplina arquitectónica bien sea por el tipo de proceso creativo lúdico de construcción o por la influencia de las físicas en los procesos de destruccion. Minecraft es una suerte de Lego virtual que permite ejecutar cualquier construcción con bloques virtuales y compartirla con otros usuarios. Monica Ekman, profesora de la Viktor Rydberg School de Estocolmo donde los alumnos de trece años tienen un curso obligatorio de Minecraft, afirma que (los alumnos) aprenden planeamiento urbano, cuestiones medioambientales ( ) e incluso como proyectar para el futuro. ( ) No es muy diferente de las bellas artes o del trabajo con madera. Operatividad Si bien la vía de la integración conceptual de la ciencia computacional en la disciplina arquitectónica supuso la llave de un nuevo ámbito epistemológico a incorporar en la praxis arquitectónica, la integración operativa constituyó un proceso táctico más que estratégico. La incorporación del paradigma digital en el proyecto de arquitectura permitió alcanzar la operatividad del modelo de mega-ciudad, incorporando el feedback del ciudadano. La nueva herramienta aportaba al proyecto una capacidad para procesar información nunca antes conocida, pronto se constituyó en el software (programa) que el ejecutaba el hardware construido. La computación se convirtió en el motor que haría funcionar las super-estructuras. Los sistemas complejos que articulaban la interaccion del ciudadano con la ciudad serían procesados por supuestas computadoras que se encargarían de armonizar la realidad urbana de ciudades como Computor City o Plug in City. Los primeros arquitectos mega-estructuralistas contribuyeron a construir el corpus lingüístico de terminología procedente de las ciencias de la computación. Yona Friedman, Constant y los metabolistas japoneses incorporaron a sus escritos términos como electronic computer device, automation, robotic y calculator (Rouillard 2012). El empleo de estos términos aclaraba en el proyecto la integración de nuevas herramientas que permitían ejercer un control más preciso y rápido, habilitando una capacidad de cambio y adaptación en la configuración de las megaestructuras. A diferencia de lo sucedido en la vía conceptual, el uso de vocabulario 192

219 procedente de los avances tecnológicos tuvo una trascendencia mayor en este grupo de arquitectos. Subvirtieron la categoría conceptual de los neologismos para usar de facto los nuevos dispositivos que nombraban. Sus proyectos eran casos prácticos en los que la computación se empleaba para ejercer el control. El Entorno Aumentado deposita en la componente interactiva de la dualidad hombre-máquina su razón operativa de ser. En este sentido, los proyectos analizados en esta investigación planteaban una mirada subversiva hacia el vínculo establecido entre el usuario y lo arquitectónico. De manera radical, Archigram revisa el concepto de interacción urbana surgida entre los ciudadanos y el tejido o ente urbano. Su defensa de la libertad individual frente a la megaestructura que acoge la gran colectividad les llevó a buscar mecanismos que velaran por la pervivencia de esa condición. Mientras que el observador mainstream se enfrentaba al producto técnico acabado de alta gama propuesto por la arquitectura del Movimiento Moderno, el observador de Archigram apenas puede abarcar desde la pasividad la complejidad y la dispersión de las propuestas del grupo londinense. La arquitectura de Archigram necesita de la interaccion del observador. El observador debe abandonar su estatismo para convertirse en usuario. La relación establecida entre lo arquitectónico y el usuario tiene lugar en un entorno cibernético 135. Actores La trayectoria de Archigram y los Metabolistas japoneses coincidió con este período de integración operativa de la computación en la disciplina arquitectónica. A lo largo de la década de los años sesenta, los dos colectivos comenzaron poniendo en cuestión el modelo de desarrollo urbano previsto por el Movimiento Moderno. Su andadura descubrió el comportamiento de una nueva tipología de ciudad: la megaestructura. Esta nueva solución de ciudad permitiría desarrollar un nuevo concepto dinámico de vivir la ciudad. La trayectoria sesentera de Peter Cook, Warren Chalk, Ron Herron, Dennis Crompton, Michael Webb y David Greene (Archigram desde 1961 hasta 1974), junto con Akira Shibuya, Youji Watanabe, Kisho Kurokawa y Kiyonori Kikutake (grupo metabolista 136 ) y otras destacadas figuras como 135 En el número 8 de Archigram, publicado en 1968, el grupo describe las danzas cibernéticas de los móviles robóticos de Gordon Pask como un entorno social estéticamente potente. Pask fue el consultor experto en cibernética para el Fun Palace de John Littlewood y Cedric Price (Sadler: 133). 136 Destacados miembros del movimiento metabolista japonés que reconocen como influencia principal la obra y escritos de Kenzo Tange, maestro de casi todos de ellos, si bientange no se incluye en el grupo. 193

220 Christopher Alexander, Arata Isozaki 137, Cedric Prize o el propio Nicholas Negroponte dejó un rastro claro de la integración operativa de la computación en la práctica profesional de la arquitectura. La elección de estos arquitectos para examinar la irrupción del paradigma digital en la práctica profesional obedece tanto al carácter pionero de su trabajo como a la influencia que significó para el resto de la disciplina. En lo que respecta a esto último, la figura del crítico Reyner Banham 138 tuvo un efecto amplificador en la difusión de las nuevas propuestas. En su aportación introductoria a la monografía sobre el grupo londinense Archigram, editada por el propio Peter Cook (1999), Arata Isozaki señala el carácter contracultural y transdisciplinar que la crítica proyectual imprimió a la dinámica establecida por el Movimiento Moderno, descubriendo una nueva escala de valores y una nueva sintaxis arquitectónica. Por el contrario, continua Isozaki, el metabolismo japonés carecía de esta perspectiva sobre la necesidad de descubrir nuevos valores contraculturales ( ), y parecía más identificado con la planificación de la acelerada economía urbana. Técnica (Del lat. technĭcus, y este del gr. τεχνικός, de τέχνη, arte). Conjunto de procedimientos y recursos de que se sirve una ciencia o un arte.. RAE. La condición sistémica de las propuestas urbanas de los estructuralistas está relacionada con el auge de las tecnologías de la información y la comunicación, y tuvo en la computación su herramienta operativa. En el caso de Archigram, no se produjo una apología de la tecnología sino que el grupo anglosajón se sirvió de ésta para proponer en sus proyectos estimulantes un nuevo modo de vida. En los primeros años y a pesar del corte tecnológico de sus proyectos, Archigram se preocupó de labrar una imagen humanitaria, evitando así ser tachados de exaltados tecnófilos. No persiguieron la tecnología como fin último, descuidando la implicación del usuario. Al menos, así lo afirma Warren Chalk: 137 Respuesta de Cook a Isozaki en Re: CP: It s purely coincidence that he (Price) never became a member (Archigram). Just like you don t belong to the metabolist. 138 Bahnam fue vecino de Peter Cook: Compartir con Archigram una calle en el NW6 (londinense) fue siempre interesante: como una familia, echamos una mano en Archigram 7 (mi hijo ayudo a doblar y empaquetar) y yo tuve el privilegio de llevar las primeras copias recién salidas de prensa de Amazing Zoom Archigram Four a USA (porque me encontré a Peter Cook en la calle la noche anterior a mi vuelo) (Cook 1999). 194

221 Una de las más flagrantes concepciones erróneas sobre nosotros es que no nos interesa en última instancia la gente. Esto probablemente viene del tipo de imágenes que usamos. La sección de City Interchange (fig.3) predice un lugar baldío automatizado habitado solo por computadoras y robots. Es difícil evaluar cuánto se justifica esto, pero si nuestro trabajo es analizado con detenimiento, se encontrarán trazas de una preocupación muy real por la gente ( ) 139. La reestructuración del capitalismo fordista (Taylor-Ford-Keynes), la transformación de la cultura entonces industrial de cadenas de montaje en otra vertebrada por las TIC, junto con el auge de la cultura de masas -irrupción de los mass media y de la condición de entropía y simultaneidad retratada por McLuhan en la Aldea Global- constituyeron la base estratégica de actividad de estos grupos en los años sesenta. Estas pautas pueden ser reconocidas (Piànta 2001: 20) en sus proyecto en tres atenciones principales: tecnología y consumo; tecnología y lugar - movilidad-; y tecnología extrema o tecnología como una situación límite de lo arquitectónico. En cada una de ellas se producirá, en mayor o menor medida, la integración de la ciencia computacional como habilitante de la operatividad del proyecto. Salvo excepciones, la cronología registra un aumento exponencial de la componente computacional. En cuanto al conocimiento y la opinión que los arquitectos tenían de la computación, cabe destacar dos etapas diferenciales: una primera, donde se entendía la computación como Inteligencia Artificial o Gran Hermano 140, concepción propia de la opinión pública en la década de los cincuenta 141 ; y una segunda a finales de la década de los sesenta, donde lo computacional se individualiza para cada ciudadano anticipando la aparición del ordenador personal. Alter Ego (Loc. lat.) Literalmente 'el otro yo'. RAE. El proyecto de ciudad interactiva implicaba necesariamente la reflexión sobre el nuevo usuario. Una de las premisas que harían efectivo el diseño del perfil del nuevo usuario fue aumentar el grado de libertad del contenido respecto al continente arquitectónico. El proyecto de ciudad tendría más en cuenta el modo de vida que la formalización de sus estructuras urbanas. El 139 Warren Chalk, Housing as a consumer product, Arena, nº81 (march 1966), p , reeditada en Archigram, ed., A guide to Archigram , p.92 (Sadler 2006). 140 Véase en Cap. III Influencias transdisciplinares. Arquitectura y ficción. 141 Nótese el texto que acompaña a la viñeta de comic publicada en Archigram 4, 1964: Un tema recurrente en el universo del Comic Espacial es el CEREBRO computerizado móvil y los tentáculos flexibles. Disponible en: < (Consultada el 29 de agosto de 2013). 195

222 usuario de las megaestructuras era también un individuo integrado en los impetuosos movimientos sociales de los años sesenta fue el año de la primera edición de la revista Archigram y de la toma posesión del demócrata John F. Kennedy. Yuri Gagarin fue protagonista del primer vuelo espacial tripulado y Steve Rusell desarrolló uno de los primeros videojuegos Spacewar!. En un momento de cambios y avances científicos 142, la humanización de la tecnología electrónica encarnó todo tipo de robots 143. En este sentido, el alter ego del usuario Archigram se identificó más con Superman que con Robie the Robot, la estrella de la ciencia ficción que presentó la exposición This is tomorrow 144 de los Smithson. Superman representaba la evolución ulterior de la dimensión física y mental, según el catálogo de la exposición Living City 145. Archigram de ningún modo propuso ubicar en sus proyectos colectividades cercanas al socialismo o al comunismo, o cualquier otro tipo de sociedad. El objetivo de sus proyectos era el ser humano individual 146, con un perfil de usuario de ciudadano autónomo. El referente: Superman. La tecnología en Archigram 147 implicaba dotar a la sociedad de una mayor libertad individual que liberara al ciudadano de la represión de la sociedad industrial, alcanzando niveles de autogestión que permitieran incluso el nomadismo. El usuario de sus proyectos evolucionó alcanzando grados de libertad cada vez mayores. La automatización de los procesos 142 El conocimiento científico se duplica cada nueve años, apuntaba Archigram en el film grabado en 1966 para la BBC. 143 Años más tarde, el pabellón de Osaka de Kenzo Tange contaría con la participación de robots en su puesta en escena. El propio Michael Webb escribió en 1983 un artículo titulado The robots are here! The robots are here! en el nº 121 Robots de la revista Design Quarterly, donde exponía una cronología del robot desde la Antigüedad, bajo la perspectiva de la influencia de la inteligencia artificial en el ámbito doméstico. 144 Seis años antes de la exposición Living City, su patrocinador Theo Crosby trabajó como curador de la exposición This is tomorrow celebrada en la galería londinense Whitechappel. 145 Sadler, óp.cit., El usuario como individuo libre en medio de la deriva urbana tiene una connotación o vocacióncontemporánea, anticipándose al usuario de las realidades alternativas que proponen los mundos virtuales de internet. La preservación de la individualidad de los internautas es precisamente una de las claves de su enorme influencia como colectividad. Nótese a este respecto, la incompatibilidad de los diferentes perfiles de usuario de las redes sociales, si bien todos ellos presentan a la misma persona. 147 La etimología de Archigram está asociada a las TIC. En Archigram, la verdadera historia contada por Peter Cook, Cook se remite a tele-gram o Aero-gramme. Fuente: < (Consultada el 20 de agosto de 2012). 196

223 industriales 148 se conseguiría como culmen de profundos cambios sociales, como refleja el fotomontaje de Ben Fether en City Region Centre de La automatización del sistema liberará al individuo, como libre se siente el astronauta del fotomontaje al exclamar: Estoy feliz porque he aprendido a ser creativamente no productivo 149. Fig.6. City Region Centre, Fotomontaje de Ben Fether. Fuente: Steiner (2009: 106). El concepto existencial de la individualidad que recorre los caminos del laberinto social llevó a Peter Taylor a proponer para Living City un gran caleidoscopio social en el que todos los perfiles de usuarios interaccionan en la ciudad, surgiendo así infinitas asociaciones. Este collage supone la síntesis de los procesos convergentes y divergentes que configuran el ecosistema de los usuarios de la ciudad cosmopolita. Living City permitía el grado más alto de individualismo, de modo que el individuo nunca habría de someterse al programa. A pesar de que el proyecto se desarrolló cuando las TIC aun no habían revolucionado las comunicaciones. La imagen de Tayor podría perfectamente erigirse en el logotipo de Internet, disputando ese privilegio a Archigram explicaba así su propuesta de ciudad: 148 Nótese en Influencias transdisciplinares. Arquitectura y ficción, el comentario sobre William Morris, El sueño de John Ball (2007) y Noticias de Ninguna Parte (2011b). 149 Se da la paradoja de que muchos ciudadanos del primer mundo que lucharon por conseguir formalizar reivindicaciones referentes, por ejemplo a la jornada de trabajo u otros logros sociales relacionados con el sistema de bienestar occidental de los años sesenta y setenta, y que a su vez creían que la revolución digital aligeraría la jornada sobredimensionada de trabajo, han podido comprobar que no ha sido así. Al menos en lo que llevamos de siglo XXI. 197

224 Esto que llamamos Living City contiene muchas ideas y emociones asociativas y puede suponer muchas cosas para mucha gente: gustando o no gustando, comprendiéndolo o no comprendiéndolo, depende de esas asociaciones individuales. No hay ningún deseo de comunicar con todo el mundo, solo con aquellos cuyos pensamientos y sentimientos tengan que ver con los nuestros. Sistema (Del lat. systēma, y este del gr. σύστημα). Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí. RAE. Computor City (Archigram nº 4, 1964) es un proyecto pionero en la concepción de la ciudad como metabolismo interactivo. El lenguaje programado de la computación procesaba la información que reportaba una red de sensores distribuidos en la nueva ciudad. Dennis Crompton proyectó Computor City como un sistema donde todos los componentes incluidos los ciudadanos- forman parte del conjunto. El sistema se plantea desde lo conceptualprogramación- pero también desde lo material -jerarquía sistematizada de elementos construidos- (fig.32). Frente al objeto, el sistema. Un sistema operativo (software) cuyo objetivo era ejercer el control y sistematizar el empleo del hardware entre distintos programas de aplicación y el usuario. Administraba los recursos de hardware del conjunto. Procesaba datos y habilitaba una interfaz de comunicación entre el ciudadano y la complexión urbana. El programa de Computer City realizaría tareas básicas como el control y asignación de la memoria, la evaluación de las prioridades en las solicitudes del sistema, el control del feedback o la administración y registro de las órdenes de salida. El sistema operativo que gestionaba la administración Computor City se anticipó cinco años al origen muchos de los sistemas operativos contemporáneos comunes. A finales del decenio de 1960, los laboratorios Bell desarrollaron UNIXS (Uniplexed Information and Computing System), sistema operativo que propiciaría el desarrollo de otros 150 como Mac OS X (7 % de cuota de mercado), Linux (0,95 %), Solaris y FreeBSD. El planteamiento sistémico del proyecto dejaba cabida incluso a la aleatoriedad, tratada también por Christopher Alexander en sus estudios sobre el patrón de crecimiento urbano. De este modo, la propuesta se alejaba del discurso lineal positivista de causa-efecto practicado por el grueso de arquitectos del Movimiento Moderno e introducía en el discurso arquitectónico los preceptos del Paradigma de la Complejidad, propio de nuestra contemporaneidad. La autoría se multiplica 150 Microsoft Windows, con un % de participación en el mercado, no surgió de este modo. 198

225 y el proyecto se enriquecía con la participación de expertos pluridisciplinares. Andrés Perea (2013: 30) lo cuenta en estos términos: no hay un único autor del proyecto sino que la autoría pertenece a una conjunción de individuos procedentes de diferentes disciplinas, todos ellos necesarios para dar una respuesta compleja a una realidad compleja. Computor City introdujo de este modo al usuario final en el proyecto, proponiendo una gestión participativa de los distintos agentes implicados, circunstancia apremiante y vigente en determinadas prácticas del planeamiento urbano contemporáneo sostenible. Introducida la cuestión sistemática en el proyecto, el alcance y desarrollo de la hipótesis fue diverso. La inclusión de nuevas tecnologías que hicieran efectivos esos sistemas se produjo casi siempre de manera muy tangencial, al menos en el caso de la computación. Casi siempre por desconocimiento de la propia tecnología computacional. Tras la devastación del país nipón en la Segunda Guerra Mundial, se celebró en 1960 la Conferencia Mundial de Diseño en la ciudad de Tokio. Takashi Asada, Noboru Kawaoe, Kisho Kurokawa y Kiyonori Kikutake sentaron entonces las bases del movimiento metabolista presentando su primer manifiesto: El metabolismo: propuestas para un nuevo urbanismo. La identificación de la ciudad con el metabolismo de un ser vivo concretó el carácter sistémico de las nuevas propuestas. La apoteosis del metabolismo tendría lugar diez años más tarde en la Expo 70 de Osaka, y constituirá un hito en la historia arquitectónica de la interacción hombremáquina. Celebrada la Conferencia Mundial de Diseño, Fumihico Maki acuñó un año más tarde el término megaestructura refiriéndose al gran marco en el cual se apoyan e intuyen todas las funciones de una ciudad, mediante el uso de la tecnología punta. Fig.7.Edificio Nagakin, Kurokawa, Alzados de la cápsula. Fig.8.Edificio Nagakin, Kurokawa, Axonometría y vista del interior de la cápsula. Fig.9.Casa prototipo y edificio Nagakin, Kurokawa, Vista exterior. Así mismo, Kisho Kurokawa, principal redactor del manifiesto, investigó el desarrollo urbano orgánico y estudió el crecimiento doméstico en base al acoplamiento de cápsulas prefabricadas, re-empazables y re-ubicables. Buen ejemplo de ello es su proyecto de Ciudad Helicoidal de Kurokawa llevó su tesis a la práctica en el edificio Nagakin (figs.7, 8 y 9), una torre de habitaciones de alquiler para los ejecutivos que se veían obligados a pasar la noche en Tokio construida en 1972 en la zona de Guiza. Frente a la disposición ortogonal de Nagakin, Buckminster Fuller (1927) y Warren Chalk (1964) propusieron soluciones radiales de viviendas 199

226 en torre (figs. 10 y 11). En el artículo Architecture as a Consumer Product Chalk dejó escrito el siguiente comentario al respecto: La casa es tratada como un objeto industrial creado por el proyectista, cada cápsula es seleccionada y construida con componentes, dispositivos, mobiliario, dimensiones, colores, etc. Seleccionado de un catálogo de piezas, de la misma manera que se elige un coche o un frigorifico. Fig.10. Capsule Homes, 1964, planta y perspectiva de una cápsula. Archigram, W.Chalk. Fig.11. Capsule Unit Tower, 1964, planta y perspectiva de una cápsula. Archigram, W.Chalk. Fig.12. Multiple-Deck 4D, 1927, dibujo del dirigible transportador de la puesta en obra. B. Fuller. Fig.13.Bathroom Service Tower, Student Hostel Paddington, Farrel & Grimshaw Terry Farrel & Nicholas Grimshaw construyeron cinco años antes (1967) la Bathroom Service Tower para el Student Hostel de Paddington (fig.13), en el West London. Colaboradores de Archigram, Farrel & Grimshaw diseñaron su primer edificio como un prototipo de arquitectura plug in que se adosaba a la trasera de un inmueble residencial del XIX reconvertido en hostal de estudiantes. La ampliación proponía un elemento vertical con un núcleo central que alojaba las instalaciones y un equipamiento perimetral de baños que transcurría helicoidalmente en torno al mástil central. La idea de un Bathroom pod ya fue planteada por Fuller en 1937, cuando diseñó el baño prefabricado de acero Dymaxion (fig.12). En 1927, Fuller ya tanteaba en sus dibujos el sistema de plug in. Las 140 cápsulas de la torre Nagakin, de 14 plantas de altura, tenían unas dimensiones de 2.5x4.00x2.5 metros y alojaban tipologías habitacionales y de Tea room. Podían ocupar distintas posiciones en torno a dos núcleos verticales de comunicación. Aunque la casuística combinatoria era bastante restrictiva -dos tipos de ensamblaje más la respectiva simetría en cada uno de las dos posiciones habilitadas en casa frente del núcleo cuadrilátero- la percepción exterior del conjunto si lograba dar una imagen aleatoriedad razonablemente construida. 200

227 Fig.14.Vivienda prototipo, Alzado y sección de la cápsula. Kurokawa. Fig.15.Edificio Nagakin, Axonometría del montaje la cápsula. Kurokawa. Fig.16.Edificio Nagakin, Planta tipo. Kurokawa. A pesar de su reducido tamaño, la arquitectura interior de la cápsula incorporaba un teléfono, una televisión integrada, un sistema de altavoces integrados, un módulo con enchufes múltiples, iluminación integrada, una calculadora digital y un casette reproductor estéreo de cintas magnéticas, además de un escritorio retráctil y aire acondicionado. Aquel lugar mínimo brindaba al usuario una disponibilidad máxima para prorrogar la jornada de trabajo gracias al equipamiento de tecnologías TIC, por otro lado seña de identidad del imperio Nipón. Figs.17, 18 y 19. Celestial Theme Pavillion, maqueta, sección y fotografía, Osaka 70 Kisho Kurokawa. En la década de los sesenta el japonés Kisho Kurokawa y sus compatriotas metabolistas desarrollaron propuestas de arquitectura capsular. Desde Metabolism 1960 Proposals for a New Urbanism Kurokawa investigó diversas tipologías de existenz mínimum y propuso el ensamblaje de cápsulas en una infraestructura soporte como alternativa al desarrollo residencial. La torre Nagakin supuso el colofón construido a esta trayectoria experimental, aunque dos años antes, la Expo de Osaka de 1970 había participado muy activamente de esta retórica de la cápsula. Los proyectos de Kisho Kurokawa Movable hotel, el Celestial Theme Pavillion o el Takara Pavillion para la empresa de muebles homónima- fueron muestras de ello. El primero, no construido, planteaba un hotel móvil dentro de la Expo de Osaka. El Celestial Theme Pavillion de Osaka 70 (figs.17, 18 y 19) era un prototipo de arquitectura doméstica ensamblada en la cubierta del Pavillion Theme de Kenzo Tange. La desintegración de la unidad de vivienda en cápsulas mínimas cuya combinatoria se adhería a la megaestructura de Tange constituyó uno de los ejemplos más destacados de esta retórica del ensamblaje. El entendimiento de lo arquitectónico como un proceso sistémico y metabólico, articulador de la nueva ciudad artificial, produjo numerosos ejemplos. Esta vía de investigación proyectual se agotaría con la construcción del Nagakin en

228 Fig Takara Pavillion, planta y sección, Osaka. Kisho Kurokawa. Fig.22.Proyecto para un Movable Hotel, 1970.Kisho Kurokawa. El grueso del movimiento estructuralista aconteció en la década de los sesenta, cuando aún no se había desarrollado el ordenador personal 151. La invención del microprocesador en 1970, basado en el chip de silicio, haría posible la fabricación de computadoras muy baratas y, por tanto, pensar en soluciones individuales. La primera aparición conocida del término anglosajón personal computer quedó registrada en la revista New Scientist en 1964, en la colección de textos El mundo en Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió un artículo titulado The Banishment of Paper Work: Hasta que no sea viable obtener una educación en casa, a través de nuestra propia computadora personal, la naturaleza humana no habrá cambiado. La primera generación de computadoras personales comenzó a fabricarse en los años setenta. Frente a las computadoras de las empresas estas eran mucho menos polifacéticas y potentes. En general, estos aparatos eran utilizados por entusiastas de la materia para jugar a videojuegos. La comercialización de la hoja de cálculo VisiCalc -en origen para Apple II (fig.24 y 25) y posteriormente para el IBM PC- supuso la verdadera aplicación que consiguió alterar la deriva del mercado y convertir a la microcomputadora en una herramienta de trabajo. El bajo coste de las computadoras personales en los años ochenta abriría el camino para la estandarización en el ámbito doméstico como el profesional 152. A pesar de ello, las grandes computadoras presentaron desde sus orígenes una estructura de similar morfología. De hecho, hoy en día, la mayoría de los ordenadores todavía usan la arquitectura desarrollada por Von Newmann en la construcción de los primeros modelos de 151 Nótese la presencia de una máquina de escribir sobre el escritorio en la fotografía de la habitación del edificio Nagakin. 152 Junio 1977: Apple II (Norteamérica). Gráficos en color, ocho ranuras de expansión. Agosto 1977: Tandy Radio Shack TRS-80 (N.). Primera computadora personal de menos de US$600. Diciembre 1977: Commodore PET (N.). Primera computadora completa: teclado/pantalla/cinta. 1979: Atari 400/800 (N.). Primera computadora con un chipset específico y chip de video programable. 1979: TI-99/4. Primera computadora personal con un procesador de 16 bits. 202

229 1940. Los componentes de aquellas supercomputadoras -válvulas, conectores, interruptores, transistores, circuitos, etc.- eran reemplazados cuando agotaban su operatividad, de modo similar a como sucedía en las megaestructuras. La arquitectura del hardware de las grandes computadoras 153 evolucionaría hacía la síntesis del ensamblaje de elementos en una placa base genérica, morfología propia del ordenador personal (fig.23). Fig.23.Circuitos de la computadora ATLAS 154, Fig.24.Apple I, prototipo, Expuesto en el Smithsonian Institution. Fig.25.Apple II, anuncio commercial, El sistema de ensamblaje de las cápsulas plug-in 156 replicaba la condición mecánica de enchufar los componentes en la arquitectura de la computadora. Bien es verdad que los pequeños módulos de Lego capaces de construir combinaciones reversibles o las aeronaves espaciales construidas mediante el ensamblaje de módulos, resultan también reconocibles en la Plug-in City de Peter Cook. 153 El término arquitectura del hardware se emplea de este modo en el argot de las TIC. 154 Introdujo muchos conceptos modernos: interrupciones, pipeline, memoria virtual, memoria entrelazada y paginación. La computadora ATLAS fue un proyecto conjunto la Universidad de Manchester, Ferranti y Plessey. Fue uno de los primeros supercomputadores, considerado el más potente en el mundo hasta la fecha. Se decía que si Atlas se apagaba desaparecía la mitad del poder computacional de Gran bretaña. Fuente: Wikipedia. 155 Fuente: < el 20 de agosto de 2013). 156 Como una evolución de la expresión, hoy en día se denomina Plug-and-play o PnP ( enchufar y usar ) a la tecnología que permite a un dispositivo informático conectarse a una computadora sin necesidad de configurar, mediante otro software específico suministrado por el fabricante, ni proporcionar parámetros a sus controladores. Para que esto sea posible, el sistema que opera el ordenador debe proveer soporte a dicho dispositivo. Véase Glosario para una definicón precisa. 203

230 Metabolismo (Del gr. μεταβολή, cambio, e -ismo). Conjunto de reacciones químicas que efectúan constantemente las células de los seres vivos con el fin de sintetizar sustancias complejas a partir de otras más simples, o degradar aquellas para obtener estas. RAE. La condición sistémica de la ciudad asumirá con los metabolistas la cualidad orgánica propia del metabolismo de los organismos vivos. El grupo japonés optó en un principio por replicar en sus proyectos comportamientos del sistema orgánico, identificando las rutinas del metabolismo con situaciones arquitectónicas referentes sobre todo al orden estructural del proyecto. La oficina del arquitecto japonés Kenzo Tange, mentor del grupo metabolista, había elaborado en 1960 un proyecto de desarrollo urbano para la ciudad de Tokio ocupando su bahía. Publicado en Archigram en 1964, la propuesta tuvo una enorme influencia en estos orígenes del movimiento estructuralista. La ampliación de la ciudad se establecía mediante un sistema capaz de cubrir extensas superficies sobre el agua. La propia condición del medio soporte indujo la aparición de una infraestructura auto-portante a la cual se subordinaban otras construcciones. El sistema encarnaba el concepto de metabolismo: una estructura de larga duración que servía de soporte a otros componentes efímeros (Sadler, óp. cit., 2006). Peter Cook transfirió este concepto en la definición del orden estructural de Plug in 157 City. Incluso indicó la durabilidad de cada componente. La estructura tubular de la ciudad duraría cuarenta años, veinticinco años para, por ejemplo, el núcleo de un hotel, y tres años para las habitaciones que se conecten (plug in) a él. La introducción en el discurso arquitectónico de elementos efímeros sienta un precedente anticipatorio de la arquitectura con fecha de caducidad que surge en torno a principios propios del paradigma de la sostenibilidad, entendida como suma de procesos holísticos. Control (Del fr. contrôle) Regulación, manual o automática, sobre un sistema. RAE. Los metabolistas japoneses introdujeron la computación en sus proyectos como si se tratara de una Inteligencia Artificial que gestionaba las posibilidades de cambio requeridas por las megaestructuras. En los primeros años de la década de los sesenta la computación estaba muy alejada de vincularse con actitudes individuales sobre el proyecto, y menos aún con la posibilidad de que esas megaestructuras pudieran asumir y procesar la información particular de 157 A mediados de los sesenta, la trayectoria de Archigram varió el rumbo, abandonando el concepto de megaestructura a favor del kit arquitectónico. El plug in de Peter Cook se impuso frente a los proyectos en red anteriores. 204

231 los usuarios registrada en un ordenador individual. La computadora no se entendía como medio de comunicación sino como una gigantesca herramienta de cálculo cuya capacidad -velocidadde procesar información rivalizaba con la mente humana. Realmente la función servidora que aquellas superestructuras proponían al ciudadano, difícilmente incorporaba el feedback plural, diverso y democrático de la población. Tampoco admitía los grados de libertad necesarios impuestos como hipótesis estratégica del nuevo modelo de ciudad. El control unilateral y jerárquico ejercido desde una posición de poder superior, ya sea artificialmente inteligente o no, difícilmente cubriría las múltiples posibilidades combinatorias de integración de los módulos. En diez años, estas rígidas y lineales estrategias de organización urbana caducaron. Feedback 158 (retroalimentación, realimentación) Como ya se ha visto anteriormente, Wiener acuñó el término cibernética en su ensayo Cibernética o el control y comunicación en animales y máquinas (1948). La etimología 159 proviene del griego kybernetes y significa regulador o timonel, en alusión al papel clave de la reacción o feedback en los sistemas de comunicación (Gere 2007). En el texto, Wiener explica tres conceptos básicos en el funcionamiento de un organismo o sistema cualquiera: comunicación, control y feedback 160. El diagrama de las figuras 23 y 24 reproduce el concepto de retroalimentación o feedback desarrollado por Wiener en su Teoría de la Cibernética. Wiener puso fin a los procesos lineales a favor de procesos circulares en los que parte del output (salida) se remite de nuevo a la entrada de información (input), generándose así un sistema que autorregula su aproximación hacia el objetivo. Richard Rogers 161 desarrolló en 1997 dos esquemas (fig.26) que explicaban el metabolismo urbano en relación con el desarrollo sostenible. El metabolismo circular (de 158 Véase definición en el Glosario. 159 Véase en el Glosario. 160 La cibernética nace con Norbert Wiener durante la Segunda Guerra Mundial, a partir del problema de automatizar la conducta de tiro de los cañones antiaéreos. Wiener postuló como forma de regulación de la conducta, en pos de los objetivos prefijados, la modificación que se da a partir de la información que se recibe acerca de los efectos que ha tenido la conducta anterior del actor. En su caso, si el cañón está informado de la distancia entre el avión y la explosión de sus obuses, puede ir acercándose progresivamente hasta abatirlo (Sandoval 2009). 161 Archigram sirvió de inspiración para Richard Rogers y Renzo Piano en el proyecto Centro Georges Pompidou construido en

232 Wiener) minimiza la entrada de nuevos inputs energía, alimentos y mercancías- y maximiza el reciclaje. Por el contrario, el metabolismo lineal consume y contamina output- mucho más. Rouillard (2012: 23) transcribe aquí la conexión existente desde mediados de los sesenta entre Nobert Wiener 162 y los Metabolistas: Las teorías de Norbert Wiener, de las cuales los arquitectos retuvieron el principio de que las relaciones eran plurales, selectivas, espontaneas, energéticas y demás, serían explícitamente mencionadas por los metabolistas desde mediados de los 1960 en adelante. Sin embargo sus ideas eran parte de una modo orgánico y tradicional de entender una infraestructura, y debido a que fueron fuertemente apoyadas por Kenzo Tange, representante de Japon en el CIAM, los arquitectos japoneses no podían imaginar una computadora como una manera de adaptar la toma de decisiones a requisitos individuales, lo que capacitaría a todos a participar en el desarrollo urbano. Hasta finales de 1960, la tecnología de la computación y la micro-computación estaban vinculados a los proyectos de entorno cibernético limitados a la vivienda (por ejemplo, la Casa Aida de Isozaki, a receptive 163 house). Fig.26. El metabolismo de las ciudades: hacia la sostenibilidad, Rogers (1997). (a) Metabolismo lineal b) Metabolismo circular. 162 En 1906, a la edad de once años, ingresó en la Universidad Tufts, obteniendo en 1912 el doctorado en lógica matemática por la Universidad de Harvard. Wiener (1948) acuñó el término cibernética (ver glosario) en su publicación Cibernética o el control y comunicación en animales y máquinas. 163 Receptive (receptiva), que recibe estímulos. Responsive (responsiva), que reacciona. 206

233 Los sistemas control orgánico e inorgánico responden a principios comunes, así se plantea desde la cibernética. La arquitectura inorgánica podría operar como una extensión de sus usuarios orgánicos, a su vez cada hombre y mujer una terminación nerviosa del cuerpo social (Sadler 2006). En este sentido, la única opción de ejercer el control sobre la masa social recaería en la computación. Sólo la máquina podría procesar tal ingente cantidad de información en sucesivos ciclos de retroalimentación. La cibernética planteaba en aquellos años la integración holística de máquina y ser humano como complementos necesarios en el nuevo ecosistema urbano. Fig.27 y 28. Diagramas cibernéticos, feedback positivo y negativo. Sadler (2006) recoge a este respecto la afirmación de Nicholas Negroponte (1970): es obligatorio proceder de esta manera ( ) porque vigilar cada individuo supondría demasiada tarea para cualquiera menos para Dios. Negroponte añadiría: la arquitectura, a diferencia de las damas con reglas fijas y un número fijo de jugadores, y más como una broma determinada por el contexto, es el juego de croquet de Alicia en el País de las Maravillas, donde la Reina de Corazones (sociedad, tecnología, economía) se cuida de ir cambiando las reglas. El ciudadano de Living City adaptará la ciudad a su imagen y semejanza, mediante patrones 164 de consumo y el registro posibilidades de hábitos de vida. La tarjeta perforada de la computadora (fig.31) era un recibo del sistema, un seguro de que las preferencias individuales pueden ser rastreadas tan fielmente como los de las grandes masas. Homo Ludens El proceso proyectual gestado en un contexto lúdico a menudo esconde una intención pragmática basada en un enfoque científico. Los avances tecnológicos suscitados en el seno de 164 Véase Christopher Alexander en p

234 la Revolución Digital han surgido en muchas ocasiones en contextos lúdicos. Este hecho ha sido una constante en la investigación de nuevos modelos de desarrollo urbano mediante el uso de herramientas digitales. El sesgo lúdico que Archigram infirió a muchos de sus proyectos resulta contemporáneo y representativo de un patrón que se ha venido repitiendo desde el uso de las primeras herramientas digitales hasta nuestros días. La experiencia del homo ludens en formatos lúdicos como Living City o el videojuego a menudo ha sentado las bases para posteriores desarrollos académicos o profesionales. La Red alberga un número creciente de herramientas que hacen visible la experiencia urbana del ciudadano. Estas herramientas a menudo dibujan la realidad urbana referida al ocio, al tráfico, a la composición del aire etc., en una visualización dinámica cuyos datos pueden ser introducidos por el propio individuo, que reporta información a la Red desde su dispositivo móvil. La suma de datos constituye una cartografía de visualización dinámica donde cada ciudadano es libre de geolocalizar su experiencia. Es el caso del IED Trend Map, una herramienta que permite, utilizando dispositivos portátiles y las redes sociales, geolocalizar los puntos de la ciudad en los que están sucediendo los acontecimientos más interesantes relacionados con la creación artística, así como los núcleos urbanos en los cuales se concentran los profesionales que crean este tipo de iniciativas. El concepto de responsive city, acuñado por Price y empleado por Archigram en Computor City muestra una ciudad cuajada de sensores que, como si se trataran de mobiliario urbano, recababan información en tiempo real. La profusión de dispositivos digitales en el medio urbano ha desembocado en que sea el propio ciudadano se convierta en un sensor. El propio Sadler (óp.cit., 2006: 96) vincula la teoría de juegos al planeamiento urbano, en tanto supone una vía para que el sistema asimile los deseos de más de un jugador. Esta componente de azar habilita una senda de investigación que fue explorada en Living city (1963), donde Archigram comparó el transcurrir de la vida urbana con un juego sujeto al azar. Ben Fether desarrollo en el marco del proyecto Living City un juego de mesa en el que el ciudadano iva ajustando sus habilidades innatas al juego de la vida. Fether materializaba así el vínculo entre el urbanismo y el campo lúdico y se anticipaba en más de cuarenta años a proyectos como Space Fighter, the evolutionay city o Skycar City de MVRDV-DSD y a los mundos virtuales alternativos que propone Internet. Space Fighter, the Evolutionay City, proyecto de investigación a caballo entre el mundo académico y el profesional, propone una interfaz donde analizar el crecimiento urbano en base a una serie de parámetros que se pueden modificar por el usuario. Esta base es una de las componentes de casi todos los mundos virtuales que simulan experiencias vitales. El videojuego se convertirá a partir de la última década del siglo XX en el auténtico simulador urbano, siendo soporte de mundos virtuales que suponen la digitalización de aquellas propuestas sesenteras. La propuesta de Archigram implicaba una dinamización de contenidos auténtica e inmediata. Este feedback real inmediato se transformaría en global y on line con la llegada de Internet. Hoy por hoy, las sinergias existentes, en cuanto a estrategia de juego, tipo de análisis, interfaz y puesta en escena, entre los mundos virtuales generativos vinculados a la escena urbana -Sim 208

235 City, Second Life, etc.- y los proyectos de investigación de planeamiento urbano es múltiple y potencial. A menudo, la línea que hoy separa la dimensión lúdica de la experimental característica del planeamiento urbano es inapreciable. La evolución de los motores de videojuegos ha permitido construir verdaderos laboratorios donde experimentar la simulación de la vida urbana real alterando premeditadamente los parámetros que regulan el equilibrio entre individualismo y colectividad; qué hubiera sido de la New Babylon de Constant si el holandés hubiera dispuesto del ciberespacio para ubicar allí su ciudad ideal. Fig.29. City Synthesis, 1963, Plug-In City ( ), Archigram, Dennis Crompton. Maqueta conceptual. Fuente: < Fig.31.Crowd Gloop, Living City, Fig.30. Pressure Area Section, 1964, Plug-In City ( ), Archigram, Peter Cook. Interacción Acción que se ejerce recíprocamente entre dos o más objetos, agentes, fuerzas, funciones. RAE. City Synthesis (1963) sentó las bases para el desarrollo un año después de Computor city (1964). Dennis Crompton describió el sintetizador o mecanismo que habilitaba la movilidad de las partes que constituían el proyecto como the corner of some giant brain or analogic computer. Crompton se refería a la interaccion hombre-máquina como creadora de la urbana en base a niveles de reacción conscientes y subconscientes por su propia complejidad : [el hombre social] se identifica con la computadora natural y es una parte integral de su sistema de procesado de datos la ciudad evoluciona cuando funcionan al unísono, y decae cuando están divididos Archigram supuso un cambio radical en el entendimiento de lo que podía suponer la inclusión de las computadoras en el ámbito de lo arquitectónico. Si los metabolistas tomaron la computación como un instrumento para operar sus megaestructuras de una manera jerárquica, aunque cibernética, Dennis Crompton introdujo la computación en su proyecto como un dispositivo sensible a la percepción de la acción ciudadana. La iniciativa ciudadana respondía al principio de reciprocidad entre la máquina y los habitantes, y entre éstos en sí mismos. Computor City era una responsive city o ciudad responsiva o reactiva. Archigram inventó la interacción urbana (Rouillard 2012), aunque sin acuñar el término interacción. 209

236 Las actividades de una sociedad organizada tenían lugar en una red equilibrada de fuerzas que interactuaban naturalmente con el fin de crear una cadena continua de cambios. El programa que regulaba Computor City procesaba los datos enviados por los dispositivos sensibles que poblaban la ciudad. Analizaba los cambios acontecidos y da una respuesta óptima a los mismos. La orden de la computadora central era enviada y operada por la red de dispositivos que se encargaban de ajustar con precisión la manera en la que la ciudad se acomodaba al cambio. Si bien términos como automatización si fueron introducidos en seguida en el vocabulario de Archigram, la computadora no apareció hasta noviembre de 1964, en el nº 5 de la revista Archigram. El neologismo era tan reciente que en el magazine apareció Computor en lugar de Computer. Computor City es proyectado en paralelo a Plug in City, siendo Crompton y Cook los líderes respetivos. Ahora bien, mientras este último quedaba definido por elementos conectados a una red, Computor City habilitaba una red en sí misma. Ya no había necesidad de una estructura arquitectónica soporte sobre la que disponer añadidos, lo que significaba la desaparición del arquitecto como proyectista de un continente. El super-hacedor pasó a ser un superprogramador, el planificador urbano resultó sustituido por el programador del software que regula la interacción ciudadana. Continuando la vía abierta por Peter 165 y Alison Smithson y otros, Computor City describía la arquitectura de lo no construido, donde importa más el contenido arquitectónico que el continente. Fig.32. Computor City, Área para unos habitantes. Archigram 5, Dennis Crompton. 165 Peter Smithson fue profesor de Peter Cook en la Architectural Association de Londres. 210

237 El proyecto de Crompton situó la arquitectura, y posiblemente al arquitecto, enteramente en el campo de la programación. Crompton la llamó Computor City: la sombra de la ciudad significando que podría ser a la vez una proyección computerizada de la infraestructura - ejemplo del sistema que facilitaría la operatividad óptima de Plug in City y un programa que funcionara con cualquier tipo de arquitectura. La red informática proveía el desarrollo de la instalación de manera que los edificios y la infraestructura no eran representados más. La primera acepción está en la línea de la arquitectura generativa, en la que el diseño del logaritmo lo es todo y el proyecto final es un mero desarrollo de la ecuación, y también en el origen de la smart city. El concepto de red implementado en Computor city avanzó la estrategia contemporánea de Smart City. Dennis Crompton describió en sus diagramas una ciudad cibernética que incorporaba la teoría del feedback de Weiner. La ciudad se convertía en una red sensible a la información, supuestamente retroalimentada en tiempo real, donde todos los datos eran percibidos por dispositivos sensibles o sensores: Las actividades de una sociedad organizada suceden dentro de una red de fuerzas equilibrada que interacciona naturalmente para formar una cadena continua de cambios Un sistema computerizado procesaba los datos de la red de Computor City. Datos referentes a temperatura, transporte, suministro de mercancías, grúas, niveles de autosuficiencia, habitantes, plug in de las infraestructuras, datos estadísticos de la población, consumo, suministro energético etc., entre otros (Sadler 2005: 121) eran asimilados y analizados. Sobre esta información se elaborarían instrucciones precisas que volcadas en el sistema rectificaran los procesos urbanos, ajustándolos en pos de un equilibrio integral. Crompton lo explicaba así: el mecanismo (de la ciudad) es a la vez digital y biológico, produciéndose acciones racionales y aleatorias, reacciones a favor y en contra. El programa computerizado es un conglomerado de pensamiento racional, presunciones intuitivas, preferencia individual, oportunidades ( ) que es asimilado e interpretado ( ) describiendo un sistema humano abierto a situaciones indeterminadas emergentes. De nuevo Wiener y el comportamiento metabólico entre líneas. La Teoría Cibernética regulaba la relación entre el ser humano y la máquina. La deseada interacción ciudadana no hubiera podido ser posible sin un sistema de comunicación que permitiera una conexión inmediata con la computadora. La existencia de un sistema en red resultaba necesaria para tal fin, así lo mostraba la axonometría de Crompton (fig.32), donde se trazó -y rotuló- un primer orden metropolitano de conexiones: Primary Feed y Primary Return. Sendas comunicaciones cruzan en diagonal el dibujo. Conectada a ellas, Crompton trazó en rojo una red secundaria de conexiones inter-zonales con nodos donde puede leerse la palabra Sensor. Una última red terciaria tridimensional sensible se dispone en todo el ámbito. Esta queda configurada por finas conexiones aéreas que nacen y mueren de condensadores o nodos. 211

238 Rouillard (2007: 29) relata la configuración de este sistema de red, estructurándolo según tres niveles de información: Primer nivel. Grabación de los requerimientos de cambio de los ciudadanos mediante sensores, y se expresa en términos de necesidades muy precisas, muy distantes de necesidades funcionales, por ejemplo, reduciendo la temperatura unos cuantos grados, expandiendo ésta y aquella unidad unos cuantos metros cuadrados ( ). Segundo nivel. Transmisión inmediata de los requerimientos a través de mensajes, a cerebros electrónicos que reaccionan y responden a ellos ( ). Tercer nivel. La red mantendría a la gente informada de todo lo que podría acontecer en la ciudad. Circuito (Del lat. circuĭtus). Conjunto de conductores que recorre una corriente eléctrica, y en el cual hay generalmente intercalados aparatos productores o consumidores de esta corriente. RAE. La formalización que Computor City tomó como referente iconográfico la computación. En paralelo (1964) a Dennis Crompton, Peter Cook desarrollaba el proyecto de Plug-in City. Sendos proyectos coinciden con un hecho muy destacable en la historia de las TIC, una auténtica evolución en la arquitectura de la computadora: el paso de la segunda a la tercera generación de computadoras. Fig.33, 34, 35. 1ª generación, tubos de vacío (lentos, caros y frágiles); 2ª generación, transistores (más pequeños, más baratos, más rápidos, se calientan menos; 3ª generación, circuito integrado (miniaturización, infinitas posibilidades). Fig.36.Componentes electrónicos. 212

239 La Primera Generación de computadoras 166 ( ) basó su tecnología electrónica en los tubos de vacío y la programación en lenguaje de máquina. El prototipo IBM 603 tenía más de tubos de vacío enchufables 167, y sirvió más tarde como la unidad central de procesamiento de la calculadora electrónica IBM Card-Programmed Electronic Calculator. La Segunda Generación de computadoras, abarca el periodo comprendido entre 1957 y Esta generación incorporó el transistor 168 y redujo su tamaño y coste. Surgieron numerosas compañías y máquinas bastante avanzadas para su época, como la serie 5000 de Burroughs y la ATLAS 169 de la Universidad de Manchester. Algunas computadoras se programaron con cintas perforadas y otras por medio de cableado en un tablero. Fig.37, 38, 39. Generaciones de circuitos: 1ª Generación, IBM 603 Electronic Vacuum Tube Multiplier, 1946; 2ª Generación, circuitos de la computadora ATLAS, Universidad de Manchester, 1962; 3ª Generación, Circuito µa709, Talbert and Widlar, Ese mismo año la llamada Tercera Generación de computadoras ( ), con la aparición del IBM 360, revolucionó el mercado de la computación. Además, las placas de circuito impreso con múltiples componentes elementales pasan a ser sustituidas por placas de circuitos integrados. La invención del circuito integrado o microchip 170, por parte de Jack St. Claire Kilby y Robert Noyce (1959) -que derivaría más tarde en la invención del microprocesador por Ted ENIAC. Primera computadora digital electrónica en la historia, no fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos. 167 Del inglés pluggable. 168 El transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de 1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en Fue el sustituto de la válvula termoiónica de tres electrodos, o triodo. Fuente: Wikipedia. 169 Se decía que si Atlas se apagaba desaparecía la mitad del poder computacional de Gran Bretaña. 170 Véase definición en el Glosario. 213

240 Hoff de Intel- supuso una importante transformación en la organización de la estructura electrónica de la computadora. Nuevamente las computadoras se hicieron más pequeñas, más rápidas, generaban menos calor y eran energéticamente más eficientes. Fig.40. 2ª Generación, Universidad de Manchester, computadora UK TC con transistores. Fig.41. RCA 501 computer, una de las primeras máquinas comerciales con transistores en USA, presentada en Fig.42. Sonotone 1010, Primer producto de consumo en USA construido con transistores, un audífono de $ La axonometría de Crompton (1964) recuerda al paisaje del circuito impreso donde se disponen una serie de caminos o pistas de material conductor sobre una base aislante. Esta retórica electrónica, compartida en Plug-in City, construye paisajes con componentes y redes. El paisaje arquitectónico de la ciudad se convierte en un sistema integral que implementa la iconografía del circuito electrónico. Los componentes electrónicos (fig.36), generalmente cerámicos, plásticos o metálicos, se suelen encapsular. Resistores, condensadores, diodos, transistores, etc., están diseñados para conectarse entre ellos habitualmente soldando los terminales o patillas metálicas. Fig.43. Hard and Soft-ware, Archigram, nº , n.p. Fig.44.Archigram nº 8. Autor de la portada: James Meller. Fig.45.Típica instalación de centro de cálculo IBM System 360, Computor City contaba en el proyecto con un programa escrito en un lenguaje de programación que debería ser procesado por una computadora que regulara la estructura comunitaria. En diciembre de 1966, la portada del nº7 de Archigram ponía en evidencia el interés del grupo en el proceso incabado de proyecto, por encima de la formalización final del edificio terminado. En el editorial, Peter Cook avisaba de que no debería haber más edificios en Archigram 8. Archigram 8 no incluía edificios masivos, dejando claro que los edificios masivos no tendrían 214

241 cabida en el futuro (Sadler, óp.cit., 2006). La portada contaba con una ilustración de James Meller que representaba un loom computerizado, la representación de un patrón programado por ordenador. Fig.46. Control and Choice, Archigram, Warren Chalk, Peter Cook, Dennis Crompton y Ron Herron, Archigram fue invitado en 1967 a la Bienal de jóvenes de París. Warren Chalk, Peter Cook, Dennis Crompton y Ron Herron propusieron Control and Choice, un nuevo proyecto que persistía en la vía de investigación que mantiene la interacción del usuario como una de las premisas de interés. Con la experiencia adquirida en proyectos como Computor City o Living 1990, presentaron una propuesta en la línea de Christopher Alexander y su fijación en evitar la mano del arquitecto diseñador de objetos. En esta ocasión el usuario de este proyecto residencial dispone de un sistema abierto que admite la evaluación (control) y elección (choice) de la configuración doméstica en función de su modo de vida. Lejos de formalizar ningún tipo cerrado, a la manera de la ortodoxia moderna, proponen configuraciones efímeras que van adaptando el hábitat residencial a las necesidades del usuario morador. Inevitablemente, el ensamblaje tiene que ser un conglomerado de sistemas, organizaciones y aparataje técnico que permita la elección de una respuesta entre un numero de alternativas; y explotar las distintas formas de la limitación física de una pieza de hardware frente a las ilimitadas posibilidades atmosféricas de un medio efímero...existe un miedo natural en todos nosotros que desconfía del poder de la máquina frente a la responsabilidad humana. La dependencia de este tipo de elementos para una vida emancipada es una de nuestras paradojas. (1967 Control and Choice. Peter Cook Archigram). 171 El grupo fue contratado para proyectar una casa para el año 1990 por Weekend Telegraph Magazine con motivo de la exposición House of the Future de 1967, celebrada en los almacenes Harrods de Londres. El propio Warren Chalk 172 explicaba la intervención del grupo para 171 Fuente: < future.blogspot.com>. 172 CHALK, Warren (1967) Living, 1990, Architectural Design, marzo, p

242 demostrar como la tecnología de la computación y los conceptos de expendability 173 y ocio personal podrían influir en la forma de las casas del futuro. Mike Webb introdujo en el prototipo dos robots móviles: Fred y James (figs.47, 48 y 49). Estos electrodomésticosautómatas podían desplegar pantallas que habilitaban un ámbito privado al que se ajustaba temporalmente el techo inflable. Equipados con expendedor de refrescos, radio y la última tecnología en televisión. Los robots convivían con mobiliario hinchable y con la hoverchair, una silla que implementaba la tecnología hovercraft en sus desplazamientos. Un muro de servicio conectaba la vivienda con la megaestructura urbana que proveía del resto de instalaciones básicas a las viviendas plugg in. Fig.47.Diagrama del movimiento durante un día de los robots Fred y James. Living 1990, Archigram. Fig.48. Robot James, planta y alzado. Living 1990, Archigram. Fig.49. Robot Fred, planta y alzado. Living 1990, Archigram. Alison y Peter Smithson también emplearon la tecnología en la Home Of The Future de Septiembre de 1956 proyectada para la exposición La casa ideal, esponsorizada por el London Daily Mail Ideal Home Exhibition. Este prototipo antecesor del de Archigram también permitía a los usuarios la elección de consumo a través de componentes intercambiables, si bien los dispositivos que proponía Archigram hacían del ámbito domestico un entorno más flexible 174. Sendos prototipos apostaban por una vivienda que preservaba la integridad e independencia de los individuos que en ella moraban. 173 Sujeto a ser usado o consumido. Traducción de Carmelo Rodriguez Cedillo. 174 Véase House of the Future, Alison y Peter Smithson. 216

243 Fig.50.Living 1990, 1967, Archigram Fig.51.Control & Choice, Peter Cook, Dennis Crompton y Ron Herron. Fig.52. Living 1990, serie de plantas, Archigram. Archigram presentó en 1968 su octava publicación en un formato peculiar, una colección de cartas. Entre ellas, Hard and Soft-ware (fig.43) incluía un texto en lenguaje de programación. El grupo británico expuso metafóricamente una reflexión acerca de lo tangible y lo intangible de lo arquitectónico. En la disyuntiva que plantea la dualidad del hardware y lo construido o la envolvente, y el software y lo no construido o lugar, Archigram se decanta hacia el lado inmaterial y cambiante de lo arquitectónico. La formalización de dispositivos de hardware quedó identificada con las megaestructuras de principios de los sesenta, mientras el software respondía a la organización de la información en red. Una red interactiva que integraba en un equilibrio perfecto a la ciudadanía con la trama urbana. Estos términos 'Hardware' y 'software' se han tomado de la jerga informática. 'Hardware' se refiere a cualquier objeto tangible, tocable. 'Software' es el sistema, el mensaje o programa que se puede transmitir, pero no tocar. En planeamiento urbanístico estamos llegando a un punto en que el alcance del 'software' es suficiente para organizar la correcta disposición (control; posicionamiento) de un entorno. Esta simplificación tiene la intención -y la necesidad - retórica en un momento particular de la historia. De hecho, es paralelo a la retórica arquitectónica futurista maquinista. El Hardware tiene limitaciones. El Software se lanzó contra él con el fin de exponer la continua y completa adicción del arquitecto al hardware. Una vez que la cosa se haya refrescado, podemos seguir adelante con la vinculación de los dos juntos como sistemas de interactivos (response systems). Hard and Soft-ware, Archigram nº 8, 1968, n.p. Del mismo modo que Archigram fue abandonando el interés en las megaestructuras de los primeros años (Hardware) en favor de los sistemas (software), Arata Isozaki replicaba esta conducta en referencia a las propuestas del grupo Metabolista japonés. Las propuestas arquitectónicas desmaterializaban su continente tectónico, reservándose para el contenido 217

244 estratégico. Surgiría lo que Bahnam vino a llamar intervenciones clip on 175 que prescindían de una infraestructura servidora. La colectividad que habitó las grandes propuestas de ciudad dio paso a proyectos individuales que se ajustaban a las necesidades de cada ciudadano, como en el caso de Living Pod de David Green (1966), Suitaloon de Michael Webb (1967) o Bathmatic. Robots (Del ingl. robot, y este del checo robota, trabajo, prestación personal). Máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas solo a las personas. RAE. A pesar de ello, el pabellón proyectado por Kenzo Tange para la Exposición Universal de Osaka, en 1970, presentaba una superestructura que cubría una gran plaza donde tenían lugar diversos eventos de la muestra. La gran cubierta contaba con componentes que se incrustaban, con mecanismos plug in, en los módulos tridimensionales del orden estructural. Ahora bien, bajo este proyecto que recordaba otras muchas megaestructuras metabolistas, acontecía una propuesta relacionada con el concepto de arquitectura-software. El entorno robótico que Isozaki dispuso en bajo el gran atrio, ofreció a los visitantes una muestra de integración robótica en un ámbito arquitectónico de vanguardia. Fig.53.Diagrama del robot de la instalación de la Expo 1970, Osaka. Isozaki. Fig.54.LIFE, portada. Expo 1970, Osaka. Isozaki. Fig.55.Theme Pavillion, Kenzo Tange. Claro está que tras la década de los sesenta el gran público ya tenía sus referentes de la ciencia ficción y estaba familiarizado con la figura del robot esclavo. Ello supuso que tanto Isozaki como Archigram tuvieran que explicar la verdadera razón de integrar la máquina programada en sus proyectos. El robot gigante de Isozaki manipulaba mobiliario, grúas, pantallas, camas, luces. La máquina bicéfala disponía de dos salas de control. En la primera, se recogía y procesaba información del entorno. En la segunda, se producía la respuesta en forma de instrucciones que accionaban dispositivos de humo, luz, sonido y olor. El cuerpo del robot podía elevarse una 175 Véase Glosario. 218

245 altura de setenta y tres metros. Los movimientos le permitían participar de una coreografía que tenía lugar durante la exhibición. Afirma Sadler (óp.cit., 120) que Archigram quedó realmente impresionado por el trabajo de Isozaki, y no es de extrañar. El grupo británico intervino en la muestra con una instalación localizada en el Theme Pavillion de Tange en forma de gruta por la que pasaban por la que pasaban miles de visitantes. Al visitante se le realizaban cinco preguntas sobre la ciudad a las que respondía pulsando el botón si o no. Las cinco preguntas (Rodríguez 2013) eran: Te gustaría una ciudad muy organizada? Necesitas el apoyo de muchos equipamientos? Necesitas una ciudad para su estilo de vida? Preferirías ser un ciudadano del mundo? Necesitas un espacio entre tus sueños y el entorno real? Ese mismo año de 1970, Peter Cook, Dennis Crompton, Colin Fourier, Ron Herron, Diana Jowsey y Frank Newby -como Arquitectos Archigram- presentaron el proyecto del Centro de Ocio de Mónaco. Entre el conjunto de kits que se desplegaba bajo la superestructura de la arena dispusieron cuatro tipos diferentes de robots: el gran robot extensible con proyectores, altavoces etc; un prototipo de robot pequeño transportable y otro suspendido. Fig.56.Steam-Bath Apparatus, Fig.57.Suitaloon, 1967 Fig.58.Balthmatic. Tecnología Personal De modo análogo a la evolución de la computadora, desde el gran formato del ENIAC a la computadora personal PC de los años setenta, la arquitectura de Archigram acabó centrándose en el individuo, vistiéndole con propuestas arquitectónicas individuales hasta convertirlo en un cibor (fig.57). La instalación del inflable Suitaloon en la sección internacional de la Trienal de Milán de 1967, cuyo temática versaba sobre el crecimiento demográfico, mostraba al protagonista Deivid Greene desplegando el prototipo y descansansando en el interior. Tumbado y casi sin vestimenta, Greene permanecía protegido del entorno por la piel plástica de su traje 219

246 arquitectónico. Ahora bien, no se encuentraba aislado del exterior, el kit Info-Gonk 176 le permitía habitar una realidad virtual representada. De esta manera el grupo británico presentaba en Archigram 8 un futuro tecnológico en el que la experiencia doméstica se reduce a una propuesta de percepción tecnológica cuya representación tiene lugar en nuestro cerebro: si se desarrolla, la extensión de la personalidad podría volverse la piedra angular del entorno. Este prototipo de vivienda portátil y confortable supone una síntesis entre lo biológico, los sistemas mecánicos tecnológicos y la realidad alternativa propia del Entorno Aumentado. Info- Gonk constituye el soporte que habilita el entorno aumentado en este proyecto doméstico 177. Info-Gonk también se encuentra en Emancipación, Archigram 8, En esta ocasión y vinculado a una estrategia de género, podemos observar a una mujer haciendo uso de esta tecnología. Junto a ella, un individuo portando el casco audiovisual de Walter Pichler (Viena, ). Como apunta Haraway 178 en Simians, Cyborgs, and women: the Reinvention of Nature, la integración del ser humano y la máquina evocaba un potencial emancipatorio. Si la libertad tecnológica de la mente sería o no secundada por la autonomía sexual del cuerpo, solo podría ser una cuestión especulativa. El proyecto The Instant City (1969) se trataba de un conjunto de infraestructuras y equipamientos tecnológicos itinerantes cuyo objetivo era transformar temporalmente un ámbito periférico o suburbano carente de estas posibilidades culturales en un autentico nodo cultural. La propuesta original había sido la de Jhoana Mayer en En esta secuela, Archigram pretendía inducir la cooperación y la creatividad en los individuos que habitaban lugares ciertamente desconectados de la contemporaneidad como lo es la provincia. Esta muestra cultural itinerante alimentaría el desarrollo de lugares deprimidos culturalmente. Toda una infraestructura audiovisual pondría al día a sus ciudadanos, de modo similar al proceso de globalización de internet. El carácter lúdico de la propuesta continuaba la línea propositiva de New Babylon de Constant Del desenlace arquitectónico al patrón generativo. EL trabajo de Christopher Alexander durante la década de 1960 y 1970 supuso un acercamiento implícito a la computación. Ya en la Universidad de Cambridge expresó su deseo de aprender programación, de hecho fue uno de los pocos arquitectos que supo programar en los sesenta. Curso el grado de matemáticas y después se graduó en arquitectura en el programa dirigido por Leslie Martin (Keller 2005). Alexander implementó la cibernética y la IA en un intento de describir la complejidad creciente de los problemas de diseño. 176 Véase Info-gonk en Cap.II, Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 177 Este dispositivo anticipa las gafas de realidad aumentada de Google y otros dispositivos electrónicos en la misma línea. 178 Steiner, óp.cit., 2009, p

247 Christopher Alexander (1964) afirmaba en Notes on the Synthesis of Form que la intuición (citada por Crompton en el texto anterior) no podía tener en cuenta todos los factores del proyecto en un campo progresivamente confuso. Siendo esto así y al surgir los problemas propios de una confluencia urbana y mutar éstos más rápido de lo que ningún proyectista pudiera imaginar 179, Alexander propuso un sistema jerárquico que presentara descripciones objetivas y unificadas del fenómeno formal, para asegurar la correspondencia de la solución física con el patrón del problema a resolver. Alimentando la necesidad de tomar las conductas de los usuarios siempre por encima del criterio del proyectista, Alexander popularizó en su libro A Pattern Languaje 180 el concepto lenguaje de patrón, ideado junto con Ishikawa y Silverstein: Cada patrón describe un problema que ocurre una y otra vez en nuestro entorno, para describir después el núcleo de la solución a ese problema, de tal manera que esa solución pueda ser usada más de un millón de veces sin hacerlo si quiera dos veces de la misma forma. Consistente en una metodología estructurada que pone al alcance del usuario el proyecto arquitectónico, una arquitectura generativa basada en patrones, Alexander calificaría el proceso de construcción de la arquitectura moderna como ridículo, estrecho e inhumano, una psicosis pasajera en la historia de la creación del hombre. La manera en que Alexander ordena la información implica asumir el solapamiento de actividades. 181 Propone tres conceptos paradigmáticos que estructuren la ciudad: La cualidad: la esencia de todas las cosas vivas y útiles que nos hacen sentir vivos, nos da satisfacción y mejora la condición humana. La puerta: el mecanismo que nos permite alcanzar la calidad. Se manifiesta como un lenguaje común de patrones. El camino: siguiendo el camino, se puede atravesar la puerta para llegar a la ciudad. Como todos los lenguajes, un patrón contiene vocabulario, sintaxis y gramática. El lenguaje patrón de proyecto incluye también estos tres elementos. La descripción del lenguaje, el vocabulario, es una colección desoluciones nombradas y descritas a los problemas de un campo 179 Steiner, ibíd., p Christopher Alexander ha sido reconocido como el padre del pattern languaje en las ciencias de la computación. Christopher Alexander, Sara Ishikawa y Murray Silverstein, (1977) A Pattern Language : Towns, Buildings, Construction, New York: Oxford University Press. 181 Para profundizar en cómo los sistemas pequeños interactúan dentro del más grande y complejo, ver KARATANI, Kojin (1995) Architecture as metaphor, M.Speaks (ed.), Cambridge, MA: MIT Press, p

248 de interés determinado. Son los llamados patrones de diseño : cimientos, edificios, salas, ventanas, cerraduras, etc. La sintaxis son esas reglas, por ejemplo geométricas, para articular esos elementos. La gramática describe como las soluciones resuelven un problema o producen una mejora. Si la mejora es innecesaria, la solución no es útil. Alexander criticó en A city is not a tree ( ) el mecanicismo tecnocrático en tanto que emplea el patrón arborescente de toma de decisiones 182. A la vez, defendió el Paradigma de la Complejidad vinculado a al tejido enredado de elecciones y azares que supone la urbe, hecho aplaudido en su día por Peter Cook Postulados y visiones pre-globales, La facción tecnológica de la arquitectura de la década de los sesenta vista hasta ahora, pionera en inaugurar el proceso de la convergencia físico-digital, no cesará también a lo largo de este periodo pre-global en el desarrollo de las técnicas ya apuntadas anteriormente, si bien, reconducirá su discurso teórico. El concepto de interacción y otros muchos derivados del uso de la computación, ya formaban parte del lenguaje y de la práctica arquitectónica. A diferencia de lo acontecido en la época heróica de la Revolución Digital, la influencia de la ideología Post - Moderna hará que la implicación del edificio en el contexto exterior gane enteros, en detrimento de las arquitecturas planteadas desde la atención a la organización interior de su metabolismo. En este sentido, la interacción del sistema -tan vinculada a la computación en la década de los sesenta- pasará a un segundo plano, cobrando gran relevancia la atención mediadora del edificio con su entorno. No hay que olvidar que no será hasta la llegada de Internet (1998) cuando la computadora se identifique como medio de comunicación. Hasta bien entrada la década de los noventa, la implicación digital de la computación versará, sobre todo, en la influencia que las nuevas aplicaciones del diseño asistido por ordenador operen en el desarrollo del lenguaje retórico propio del discurso de la deconstrucción. Fig.1.Computor Aided City, planta, Arata Isozaki. Fig.2.Concurso Pompidou, sección axonometría, Cacoub, Perugini, Heim de Balsac, Roa y de Rossi. En el campo del proyecto arquitetónico, Computor Aided City (1972) de Arata Isozaki tomó el testigo de Computor City (1964) de Archigram. De nuevo un gran ordenador central generaba 182 Fernández-Galiano (El País, 27 mayo 2006). 222

249 un catálogo de posibilidades urbanas, algunas recreadas en el Climatroffice de Norman Foster. El Concurs Pompidou celebrado en 1972, ya mencionado anteriormente a propósito del equipo ganador, tuvo algunas entradas que si bien no resultaron ganadoras si fueron destacadas por su planteamiento integrador de la computación en la disciplina arquitectónica. La desarrollada por el equipo formado por Cacoub, Perugini, Heim de Balsac, Roa y de Rossi reunía una arquitectura cinética, cibernética y electrónica cuya figuración formal recuerda a la The Analitical Engine de Charles Babbage. Un año antes, en febrero de 1971 los Eames inauguraban en Nueva York la exposición A Computer Perspective -cuyo contenido sería publicado dos años después en un libro homónimo- como parte de una prolífica colaboración con IBM que daría entre otros frutos la grabación de las películas Computer Landscape (1971), Computer Perspective (1972) o Mathematica (1961 y ). Por otro lado, la implicación del Entorno Digital en el ámbito doméstico iba articulándose en nuevos foros, como en el caso del Concurso Shinkenchiku de 1990, cuyo lema La Casa como un Dispositivo electrónico para vivir en él indujo a Konstantin Savkin a concurrir con una vivienda mediadora organizada en base a un esquema que codifica la información sobre la vida de los habitantes y lo transfiere la fachada (una pantalla a tiempo real). La propuesta de Price se alejaba de la estética tecnológica, planteando simplemente equipamientos inalámbricos y soporte técnico. La perspectiva de la computación resultaba en los setenta inseparable de la tendencia formalista y semiótica del primer postmodernismo. Contrariamente a la directriz cibernética de los arquitectos de esta década, la cual atribuía un origen natural a los patrones, el historiador Manfredo Tafuri planteó en Architecture and Utopia (1973) los sistemas arquitectónicos computerizados como lenguajes artificiales dispuestos a dominar el progreso. Asimismo, el filósofo Jean François Lyotard en el ensayo publicado en 1979, The Postmodern Condition, señaló 184 la emergencia del juego lingüístico y una sociedad más orientada a la cibernética como una de las claves del Postmodernismo. En 1988 se produjo un acontecimiento trascendente en el plano teórico de la disciplina; la primera publicación de Le Pli, Leibniz et le baroque, a cargo del filósofo francés Gilles Deleuze, supuso un impulso seminal hacia la comprensión de otras geometrías espaciales de mayor vinculación con la topología que con la dimensión extensa euclidiana de arquitecturas anteriores. Cuatro años más tarde, Peter Eisenman (2013a) explicó en el artículo Visions Unfolding: Architecture in Age of Electonic Media los fundamentos de la sustitución del Paradigma Mecanicista por el electrónico, con la siguiente disimilitud entre la fotografía analógica, característica del primero, y el fax propio del segundo: En la reproducción fotográfica el sujeto todavía mantiene una interacción controlada con el objeto, y aún retiene su función de intérprete (...). Con el fax, el sujeto ya no es llamado a interpretar, la reproducción tiene lugar sin ningún tipo de contro o ajuste. 183 Versión alemana de la exposición inglesa de 1966, producida para la rama alemana de IBM. 184 Picon, óp.cit., p

250 Peter Eisenman completó su tesis doctoral bajo la tutela de Leslie Martin 185, el fundador en 1967de LUBF (Land Use and Built Form Studies) en la Universidad de Cambridge. Este grupo de investigación tenía como objetivo principal transformar el royecto arquitectónico en una práctica computacional basada en la consideración de patrones espaciales y funcionales 186 (Picon 2010: 38). Según Eisenman, el nuevo paradigma tecnológico implicaba un enorme potencial arquitectónico al definir la realidad en términos de media-ción y simulación; valorando la apariencia sobre la existencia. Esta circunstancia implicaba la subversión del punto de vista monocular de Brunelleschi, que desde el siglo XV había dominado la arquitetura con su visión mecánica. La transformación acontecida en el resto de las artes con la inclusión de la variable dinámica del tiempo -expresionismo, cubismo, Robert Smithson, etc.- parecía llegar por fín al orden arquitectónico. El concepto de plegar impuso una revisión del espacio visual arquitectónico, más allá de la razón, el significado y la función. Deleuze inauguró un camino que el Entorno Aumentado recorre hoy en día, desde su naturaleza híbrida físico-digital, sintonizando con nuevas y multiples dimensionalidades. La propuesta de una arquitetura más afectiva y menos efectiva, separaba al arquitecto postmoderno de los presupuestos lineales y utilitarios del Movimiento Moderno, alineándolo con una arquitectura que diera una respuesta sensorial al entorno físico (Eisenman, 2013b: 23), circunstancia ya explorada por la arquitectura y las performances de Ray y Charles Eames o Robert Venturi. Las preferencias de Venturi por el manierismo y el Barroco fueron expuestas en 1966 en Complexity and Contradiction in Architecture, en un alegato crítico frente al reduccionismo del Estilo Internacional, que establecía la apertura del período Post-Moderno y la superación del funcionalismo higienista impulsado por el Movimiento Moderno. Es en Learning from Las Vegas (1972) cuando Venturi retrata y defiende, junto a Denisse Scott Brown y Steve Izenour, la capacidad de comunicación del edificio, así como la aceptación y empatía con el contexto físico y social, en connivencia con la línea argumental semiótica de Umberto Eco 187. Las posiciones teóricas que ampliaban el registro arquitectónico hacia la inclusión en el edificio de otras atenciones diferentes a las implementadas en lo que iba de siglo XX, encontraron sinergias conceptuales en los programas de diseño asistido por ordenador 188 (CAD). La naturaleza particular del deconstructivismo hizo que el empleo del ordenador fuera especialmente pertinente, y que los sistemas de CAD, junto con la fabricación asistida por computadora (CAM) que permitía la fabricación estandarizada de elementos modulares ligeramente diferentes, comenzaran a expandirse en la disciplina. Las pulsiones teóricas deconstructivistas y su tendencia hacia la fragmentación dejaron huella en obras como La Villette (1982) de Bernard Tschumi; el Wexner Center for Arts (1989) de Eisenman; las propuestas de Coop Himmelblau en Vienna; el concurso Biology Center for the 185 Magalhaes, 2004, óp.cit. 186 Tanto Christopher Alexander como William Mitchell estuvieron vinculados a la experiencia LUBF. 187 ECO, Umberto (1976) A Theory of Semiotics, London: Macmillan. 188 Note el lector la inclusión del término ordenador en vez de computadora, como consideración del inicio de la expansión de la computadora personal o PC que tuvo lugar a finales de la década de los setenta y principios de los ochenta. 224

251 University of Frankfurt, competition (1987) de Peter Eisenman; la Gehry House ( ) y la Familian Residence en Santa Monica (1978), de Frank Gehry; el concurso The Peak, en Hong Kong (1983), de Zaha Hadid; la Rotterdam Building and Tower (1981), de Rem Koolhaas; o el concurso City Edge Competition en Berlin (1987), de Daniel Libeskind. Estas obras formaron parte de la exposición del MOMA celebrada 189 en 1988 y titulada Deconstructivist architecture que cristalizó el movimiento y dio notoriedad a sus integrantes. Fig.3.Field diagrams, Stan Allen. Fig.4.Eurhythmics Centre, Alicante. Enric Miralles. Poco a poco, el software de los programas de diseño asistido por ordenador fue mejorando su operatividad, brindando al usuario una paleta más completa de herramientas. La penetración del software en los estudios de arquitectura fue pausada, y no sin encontrar un fuerte rechazo por parte de los sectores más tradicionales. A menudo, la estética CAD contagiaba la retórica de técnicas pre-digitales; los primeros bocetos de Zaha Hadid proponían una retórica que podría recordar a representaciones generadas por computadora, pero realmente no fueron así desarrollados. Frank Gehry, conocido por simultanear modelos físicos y virtuales en el proceso proyectual, empleó el sofisticado programa de diseño aeronaútico CATIA en el proyecto del Museo Guggenheim de Bilbao ( ), lo que significó un punto de inflexión en la exploración formal. La arquitectura curvilínea vió en este edificio su adalid. A partir de entonces, el modelado por ordenador permitió la representación sencilla de superficies de doble curvatura que a la postre configurarán la arquitectura ameboide y viscosa, acuñada por Greg Lynn (2013: 28) en 1993 con el término blob 190. Éste derivará en otras formas complejas cuya manipulación algorítmica producirá arquitecturas con una fuerte atención morfogenética, como en el caso de la arquitectura generada por geometrías basadas en el uso de la herramienta NURB Comisariada por Philip Johnson en colaboración de Mark Wigley. 190 Véase definición en el Glosario. 191 Acrónimo del inglés nonuniform rational B-spline. 225

252 Las condiciones de campo como geometría estructural del proyecto arquitectónico (fig.1) fueron recuperadas en 1997 para el debate teórico por Stan Allen (2013: 70), y entre otros, por FOA en el ámbito del proyecto, con el celebrado concurso de la Terminal Internacional Portuaria de Yokohama (1995). Esta nueva jerarquía en la estructura arquitectónica anticipa el campo informacional del lugar aumentado 192, fundamento del Entorno Aumentado. Tanto el proyecto de FOA como el Eurhythmics Centre de Alicante ( ) de Enric Miralles, usaron la sección cinemática como herramienta de proyecto que incorpora el tiempo como variable en la representación del edificio, en base a una secuencia de cortes que expresan las variaciones de la topografía (fig.2). Habrá que esperar hasta 1998 y la creación de la World Wide Web para que se dispongan las bases del desarrollo de todo el potencial del concepto de campo aplicado a la capa digital del Entorno Aumentado. Es apartir de esta fecha cuando, a tenor del desarrollo de Internet, la computadora asumirá además de la capacidad procesal, la competencia como medio de comunicación. Desde su libro City of Bits (1995), William Mitchell urgía a los arquitectos a plantearse el ciberespacio como campo de trabajo dada la necesidad de buen diseño, también en la dimensión digital. Esta circunstancia enseguida fue tomada en cuenta por las grandes compañías vinculadas a las TIC, como Microsoft. El proyecto arquitectónico comenzó así a ocuparse del ámbito ciberespacial, pero ha sido a raíz de la emergencia del Entorno Aumentado y su contribución concreta a la fusión físico-digital cuando se ha producido la auténtica llegada de la arquitectura entendida como intefaz. Como observa Picon no es accidental (óp.cit.: 56) que una institución como el Media Lab del MIT, que trabaja fundamentalmente en cuestiones relacionadas con la interfaz, esté afiliada a una escuela de arquitectura. Negroponte también anticipó la cuestión: la interfaz se ha convertido en un problema arquitectónico. Desde la perspectiva social, la arquitectura como interfaz cobra si cabe mayor sentido al considerar la necesidad social de poner en común la dimensión individual del usuario, supuesto imperativo de la era digital en el que insiste Nicholas Negroponte 193. La hibridación físico-digital propia del Entorno Aumentado, anticipada con la emergencia del ciborg por William Gibson (Neuromancer, 1984), Donna Haraway (Manifesto for Cyborgs: Science, Technology, and Socialist Feminism) o Neil Stephenson (Snow Crash, 1992) resultó evocada por Mitchell (Me++: The Cyborg Self and the Networked Cuty, 2003) a propósito de la deslocalización parcial del sistema nervioso en el entorno electrónico y anteriormente por Toyo Ito (Tarzan in the Media Forest, 1997): We of the modern age are provided with two types of body. ( ) The real body which is linked with the real world by means of fluids running inside, and the virtual body linked with the world by the flow of electrons. 192 Véase en Cap.I, Escenario ontológico. 193 Negroponte, 1995, óp.cit. 226

253 Capítulo IV Post-Revolución Digital. El Entorno Aumentado. (EA) 4.1. La convergencia tecnológica Topología del Entorno Aumentado. Deriva digital hacia la eclosión El fin de la mano mecánica y el advenimiento de la ergonomía post-digital 4.2. El proyecto arquitectónico del Entorno Aumentado El carácter inteligente de los parámetros. Variaciones sobre un tema La narrativa proyectual dinámica. Del zootropo a los Serious Games El chip replicante. En busca paisaje sensorial natural A propósito del reciclado digital: el proyecto nómada El proyecto procedimental: arquitectura opensource y proyecto colaborativo 4.3. El hábitat del Entorno Aumentado La vivienda aumentada. Ciudadanización de la domus Perfil antropológico de la vivienda aumentada. Del morador al electronómada [ , +1998] Interferencia mediática en el ámbito doméstico. Cartografía multimedia de las TIC Interferencia informacional en el ámbito doméstico. Del Post- It de nevera a la realidad aumentada Apuntes sobre la casa del futuro Vanguardia de la vivienda aumentada La ciudad aumentada. Domesticación de la ciudad La disolución del entorno dicotómico tradicional El umbral aumentado. La sintonización del paisaje El entorno transfigurable y el declive de la estética estática De la fachada mediática a la capa aumentada La Ciudad Origami Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo 227

254 4.1. La convergencia tecnológica. El Entorno Aumentado aflora con la precipitación del proceso evolutivo de las tecnologías de la información y la comunicación, y la adhesión extendida a los presupuestos derivados del Paradigma Digital. El análisis del estado del arte, así como del alcance del proceso, resultan necesarios para interpretar con rigor las acciones que construyen el nuevo entorno. Una colección de avances concretos, producto de la deriva tecnológica propia de finales del siglo XX y principios del XXI, vertebra el proceso constructivo. La topología de la fusión digital con el Entorno Físico pone de manifiesto la vanguardia de esta convergencia; su descripción resulta vital para cartografiar el acontecimiento Topología del Entorno Aumentado. Deriva digital hacia la eclosión 4.0. Esta especie de insurrección propulsada a silicio, basada en la red y dirigida por los ilustrados contra el orden establecido, tuvo su 1789, su octubre, su 4 de Mayo puede poner el lector su fecha favorita- alrededor de 1993, con el despegue de la World Wide Web y la aparición de la revista Wired. Resultaba obvio para cualquier observador que los sistemas habituales estaban siendo barridos por procesos simultáneos, casualmente relacionados, de innovación tecnológica, movilización de capitales, reorganización social y transformación cultural. William J. Mitchell, e-topía, Kurt Lewin (1936) propone en sus Principios de la psicología topológica un entramado conceptual para expandir el empirismo en formas que esclarecen los nexos entre los acontecimientos posibles y no posibles. La relación topológica establecida entre el Entorno Físico, Digital y Aumentado, concreta y delimita el ámbito de existencia de cada uno, pero también vislumbra ciertas tendencias como consecuencia de la inercia del proceso tecnológico. El equilibrio entre la razón lógica y la emoción sensible resulta alterado en cada nuevo estadio del progreso; a veces con dominio de la primera, a veces bajo la principal influencia de la segunda, el Entorno Aumentado se nutre de tecnología para fabricar nuevos escenarios. Ya nadie cuestiona la convivencia de las computadoras con la especie humana, tampoco al revés. Incluso el campo disciplinar de las bellas artes o de la arquitectura reservan una cuota altísima de propuestas que necesitan la máquina. Pero la relación contemporánea con la tecnología diverge de la existente en épocas pasadas. El temor o la sospecha hacia una Inteligencia Artificial 1 que sometiera a los humanos parecen relegados a existir como arquetipos ya escritos en la distopía literaria. Los orígenes de la 1 Véase definición en el Glosario. 228

255 búsqueda de máquinas pensantes se remontan a Aristóteles y su intento de describir el funcionamiento racional de la mente. Ctesibio de Alejandría fue de los primeros en construir una máquina automática que regulaba el flujo de agua. La herencia griega desarrollada con eficacia y sabiduría por el pueblo árabe fue fructífera en cuanto a la invención de todo tipo de instrumentos y técnicas. A las puertas del Renacimiento, Ramón Llull valoró en 1385 en el Ars Magna o Ars Generalis Ultima (fig.1) la posibilidad de construir razonamiento de manera artificial en un artefacto mecánico con el que poder revelar las verdades de la fe de una manera tan clara que no hubiese lugar a discusión. Pretendía construir una máquina que demostrase que los dogmas de la fe cristiana eran correctos y una tesis, en forma de libro, que sin lugar a dudas pusiera sobre la mesa los errores que cometían los infieles. Aunque el Ars Magna era un autómata muy rudimentario que combinaba cincuenta y cuatro ideas o raíces 2, se considera el primer intento de utilización de medios lógicos para producir conocimiento y una de los primeros desarrollos de sistemas de inteligencia artificial. En el siglo XVI, Giordano Bruno retomó y amplió su trabajo, al igual que hiciera, en el siglo XVII, Leibniz 3 en su obra De Ars combinatoria. Ciertamente fue en los años cincuenta del siglo XX cuando se reparó con mayor intensidad en la especulación sobre el alcance de la inteligencia artificial, concepto evocador de todo un género llamado a producir las obras maestras de la ciencia ficción y muy influyente en determinados arquitectos coetáneos. Publicaciones como Giant brains or machines that think (1949), del científico norteamericano Edmund Berkeley (fig.2), popularizaron las primeras imágenes de computadoras. Casi una década más tarde, Archigram abrirá una vía arquitectónica de propuestas influidas por la hipótesis de la existencia de la Inteligencia Artificial. En paralelo a la ingeniería genética y al desarrollo de la tecnología electrónica, la IA constituyó entonces un sugerente tema de debate científico y pseudo-cientifico. En el siglo XXI, aún no hay computadoras que repliquen el pensamiento. Algunas se mueven, hablan y responden, pero la equiparación a la vida se antoja remota. En 1978 John McCarthy, investigador estadounidense sobre el libre albedrío de las máquinas, ya sospechaba esto; declaró que para poder desarrollar una auténtica Inteligencia Artificial se necesitaría el trabajo de 1,7 Einsteins, 2 Maxwells, 5 Faradays y la financiación de 0,3 Proyectos Manhattan, siempre y 2 Combinando estas 54 ideas se podía obtener el conocimiento científico (scientia generalis); la máquina representaba los sujetos, predicados y teorías teológicas mediante figuras geométricas perfectas. Accionando unas palancas y ruedas, las proposiciones y teorías se movían a lo largo de unas guías para detenerse en una postura positiva (verdad) o negativa (falsedad) de manera que, según Llull, con esta máquina se podía verificar si un postulado era cierto o falso. Fuente: < (Consultada el 8 de agosto de 2013). 3 Inventor del sistema binario en el que se fundamentan todas las computadoras contemporáneas, incluida la última generación de procesadores cuánticos que rentabilizan en mayor medida la combinatoria dual de Leibniz. 229

256 cuando ese proyecto viniera después de los necesarios descubrimientos conceptuales. El debate contemporáneo presiente de un modo menos relevante esta circunstancia que señala a la máquina como ente capaz de llegar a desarrollar pensamiento propio, inteligente, habilitador de una voluntad propia parece obsoleta. Hoy por hoy, no se ha conseguido inventar un robot capaz de mantener una conversación lógicamente humana, debido a la ausencia de conciencia. A pesar de ello, sí se han logrado grandes adelantos que sitúan la computación cada vez más cerca de la superación del conocido Test de Turing, lo que conllevaría a la imposibilidad por parte del interlocutor de poder asegurar si mantiene una conversación con un humano o bien con un robot -programa informático-. Fig 1. Ars Magna, Ramón Llul. Fig 2. Giant brains or machines that think, 1949, portada. Edmund Berkeley. Fig 3. La Sociedad del Espectáculo, 1967, portada. Guy Debord. Transcurrida la Revolución Digital, también llamada la Tercera Revolución Industrial, datada por Nicholas Negroponte en , somos testigos cada día de la fusión del dominio digital y la realidad física. Esta convergencia suma a la disciplina arquitectónica una nueva extensión digital que implica una revisión en profundidad de la interacción hombre-máquina, donde la disyuntiva planteada en la década de los noventa en el seno de la disciplina arquitectónica en cuanto a la defensa o no del uso de programas asistidos de diseño (Autocad sí; Autocad no.) ha sido ampliamente superada. Hoy la interacción se produce tanto dentro de la pantalla digital 5 como fuera; los programas de diseño asistido proponen múltiples formas de representación, simulación y generación morfológica. El flujo continuo de tecnología emergente depara una alternativa arquitectónica en base a dispositivos y procesos que ponen en crisis los invariantes arquitectónicos tradicionales en favor 4 Negroponte, óp.cit.,1998, en Wired: The Digital Revolution is over. Fuente: < (Consultada el 7 de agosto de 2013). 5 Véase Cap. II, De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses. 230

257 de una nueva vía de interacción: la arquitectura aumentada 6.En este sentido y en este ámbito de la vanguardia tecnológica, los avances suponen nuevos retos de integración de la infomasa 7 en el entorno arquitectónico, y por extensión, en la ciudad y en la sociedad. Su asimilación a menudo conlleva la subversión de la función primera para la que fueron creados. El campo profesional de la arquitectura no ha resultado tradicionalmente proclive al aliento de propuestas TIC, a menudo tachadas de chismes, artilugios o dispositivos poco arquitectónicos por la ortodoxia. En el ejercicio profesional contemporáneo, el colectivo de jóvenes arquitectos se interesa por la tecnología digital emergente. Proyecta y programa, o programa y proyecta, atendiendo a estas directrices y dando lugar a no pocas tecnologías disruptivas 8 que por su rápida aceptación desplazan de inmediato a la tecnología dominante 9. Este camino de investigación se suma a otros como el recorrido con entusiasmo por François Hennebique, William Le Baron Jenney, Pier Luigi Nervi, Norman Foster o Shigeru Ban, en referencia en este caso al uso de nuevos materiales y técnicas constructivas avanzadas. La materialidad digital de los bits, como si de un material de nueva factura se tratara, se dispone a ser manipulada e implementada en el proyecto arquitectónico como ocurrió siglos atrás con el vidrio, los metales o el hormigón armado. La crítica teórica y la investigación arquitectónica producen gran cantidad de literatura sobre la vanguardia contemporánea tecnológica, cuyo análisis permite la configuración de una cartografía de la convergencia que supone el Entorno Aumentado. Deriva y borde tecnológico Los conceptos de deriva tecnológica y borde tecnológico tratan de definir los límites de la topología de esta convergencia dispar de realidades. El término deriva reivindica para el Entorno Aumentado la acepción situacionista propuesta por el filósofo francés e impulsor del movimiento Guy Debord (1958): Entre los procedimientos situacionistas, la deriva se presenta como una técnica de paseos ininterrumpidos a través de ambientes diversos. El concepto de deriva está ligado indisolublemente al reconocimiento de efectos de naturaleza psicogeográfica y a la afirmación de un 6 La acepción aumentada se toma del término espacio aumentado, acuñado en 2002 por Lev Manovich (2003) en su ensayo The Poetics of Augmented Space: Learning From Prada. 7 Véase Cap. I, Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información. 8 Véase definición en el Glosario. 9 Tal es el caso del Grasshopper, plug in gratuito de Rhinoceros, primera aplicación de diseño asistido por ordenador diseñado por un arquitecto. Tal vez tenga que ver esta circunstancia con las características diagramáticas de su interfaz, que prácticamente permite programar dibujando. 231

258 comportamiento lúdico-constructivo 10 que la opone en todos los aspectos a las nociones clásicas de viaje y de paseo. Constant Nieuwenhuys puso en valor esta definición en el desarrollo de su proyecto utópico New Babylon. Descrita en maquetas y planos, New Babylon permitía el nomadismo 11 y el juego masivo, y dibujó sobre los planos de ciudades europeas existentes grandes megaestructuras tecnológicas que podían ser modificadas a voluntad de los residentes. Debord publicó La Sociedad del Espectáculo en 1967 con la finalidad de proveer al Situacionismo de una base teórica sólida. Por un lado, se trataba de un manifiesto, pero por su extensión y profundidad este texto aspiró a realizar un análisis radical de la sociedad postindustrial. Escrito explícitamente en contra del espectáculo, y a favor de su destrucción sin concesiones: El espectáculo no es sólo la acumulación de imágenes de los medios de comunicación de masas y la publicidad en todas sus formas posibles, sino las relaciones sociales mediatizadas por esas imágenes que constituye una cierta concepción del mundo. El espectáculo es la actual forma de dominación y la garantía del orden. No es una mentira que se quiera imponer a las masas, sino el modelo actual de vida socialmente dominante. Actualmente, la mediatización de la contemporaneidad convierte al individuo en individuoespectáculo a la manera de un hombre-orquesta, autor de su propia producción mediática y del registro digital de ésta 12. El usuario participa decididamente del espectáculo, a veces con mayor ahínco que del propio acontecimiento. A la confusión o disolución de las jerarquías tradicionales que hacían prevalecer la ética del objeto frente a su representación mediática se suma la socialización del acontecimiento. Esta conjunción favorece la emergencia de la modernidad líquida de Bauman como categoría sociológica y figura del cambio y de la transitoriedad (Vásquez 2008). Una liquidez que representa la precariedad y el carácter transitorio y volátil de los vínculos humanos, así como la dilatación del tiempo presente en su acercamiento si cabe más próximo al pasado y al futuro. Esta ampliación dimensional consecuencia de la Revolución Digital es un síntoma propio del Entorno Aumentado. Su condición intangible, fruto de una percepción que depende de un dispositivo electrónico, no ha 10 Nótese de nuevo la aparición de la componente lúdica en el transcurso de la investigación. 11 Véase Cap. IV, Perfil antropológico de la vivienda aumentada. Del morador al electronómada [ , +1998]. 12 Véase portada de Life en Cap. IV, Perfil antropológico de la vivienda aumentada. Del morador al electronómada [ , +1998]. 232

259 de poner en duda una existencia en continuidad calificada de líquida en palabras de Zygmunt Baumann. Fig. 4. Virtual Continuum, Paul Milgram y Fumio Kishino. En 1994, Paul Milgram y Fumio Kishino se referían a la Realidad Mixta como ( ) cualquier lugar entre los extremos del Continuum virtual (fig.4). El continuum creciente, dinámico y colonizador de situaciones ajenas -en el sentido de deriva- es una de las cualidades características del Entorno Aumentado. La envolvente de las trayectorias descritas por las sucesivas incursiones practicadas desde el ámbito digital en los campos vírgenes de la realidad física configura el límite entre lo digital y lo físico. Precisamente, es esa la frontera que confina el Entorno Aumentado. El solapamiento de información se produce en capas sobrecomprimidas 13 por el tiempo, el espacio y el lugar. Todos participan de una sedimentación dimensional, cuyos movimientos migratorios y escenas híbridas resultan cartografiados por capas en los dibujos y diagramas de la artista de origen etíope Julie Mehretu (figs y 7). El desarrollo de la vanguardia tecnológica que supone este nuevo entorno no se encamina hacia una meta predecible. Se trata más bien, de un goteo constante de descubrimientos tecnológicos que conforman una dimensión digital cuyo límite asume la identidad propia de la modernidad líquida de Bauman (2003). Los avances en tecnología digital no se producen de modo aislado; son partícipes de la estructura en red de la tecnología, lo que permite el contagio y aprovechamiento de una nueva aplicación por campos de especialidad diferentes el caso extremo sería la disrupción-. Igual que sucedió con la expansión del hierro o el hormigón a todo el compendio de oficios vinculados a la construcción de puentes, rascacielos, transportes, instrumental médico, industria armamentística, etc., la transversalidad disciplinar también se manifiesta y le es propia a la tecnología. Así, un nuevo modelo de análisis matemático programado en una empresa de biotecnología puede acabar generando algoritmos para las simulaciones de movimiento de un caza de combate o servir de base para la programación de software para cálculo de estructuras. Esto es posible gracias a la globalización de los soportes y del lenguaje informático entendido como suma de dialectos que comparten el alfabeto binario 13 Javier Echeverría opone la compresión versus la extensión, para significar la diferencia cualitativa entre las geometrías euclidianas y la topología característica del Tercer Entorno. Echeverría, Los Señores del aire: Telépolis y el Tercer Entorno, Óp., cit., p Cf. figs. 5, 6 y 7, advirtiendo las diferencias en las características gráficas de la representación de los flujos información. 233

260 común. La evolución de la capacidad de transportar bits 15, el paso de kilo, a mega, a giga, a tera, a peta, etc., trasciende de manera global a todos los sistemas computacionales. Fig.5. Black City, Julie Mehretu. El concepto de borde tecnológico fue acuñado por los teóricos del Ciberpunk tras las obras de William Gibson (Tomas 2001:179): el borde tecnológico puede definirse como el producto de una conjunción exitosa de tecnología avanzada de hardware y técnicas sofisticadas contextualizadas. Refiriéndose con estas últimas a aquellas derivaciones tecnológicas no prescritas, consecuencia de la innovación interdisciplinaria. Dovey y Kennedy (2006) identifican al hacker 16 como personaje arquetipo de este borde tecnológico -recuperando así la figura del console cowboy de Gibson con reminiscencias ideológicas de los sesenta- en oposición a los herméticos departamentos de I + D de los gigantes TIC. El borde del Entorno Aumentado es poroso, allana lugares públicos y privados, indaga y transforma los hábitos establecidos, propone dinámicas de conducta y revisa los estereotipos de relaciones sociales; demarca lugares olvidados y lugares superpoblados, abraza y habilita ingentes cantidades de información en localizaciones que aun pueden no haber sido civilizadas. Esta superficie fronteriza separa la dimensión digital integrada por procesos de información, 15 Véase Glosario. 16 Para profundizar en el perfil antropológico del hacker véase La ética del hacker (Himanen 2001). 234

261 programas y datos, del mundo exterior que acontece fuera de la pantalla. Cómo evoluciona? Cómo se puede cualificar su evolución en referencia a lo arquitectónico? Convergencia y ubicuidad. Atendiendo a estos interrogantes se propone una cartografía topológica referida al límite definido por la cuarta pared 17 o pantalla. Fuera del borde se localiza la realidad física unplugged 18 ; dentro, la realidad digital. La relación existente entre estos dos campos puede explorarse desde enfoques diversos. Con la intención de valorar el movimiento relativo de uno respecto de otro (deriva) se propone la distinción convergente o divergente de su trayectoria: La deriva digital divergente significará que la evolución de la vanguardia tecnológica generadora de realidad digital se produce sin pretender establecer vínculos con lo que sucede fuera de la cuarta pared. La interacción sucede en el ámbito de la pantalla o interfaz, donde el usuario visualiza la ejecución de la tecnología. Por ejemplo, el programa con el que se escribe este texto. La deriva digital convergente propone aplicaciones tecnológicas referenciadas a un lugar físico desde donde se operarán. La relación interactiva hombre-máquina sucederá fuera de la pantalla. Por ejemplo, el detector de presencia que acciona la apertura de una puerta o un programa de reconocimiento facial. La deriva convergente es la tecnología que propiamente construye el Entorno Aumentado; y la ubicuidad, una característica propia que la arraiga a lugares físicos. Aeropuertos, calles, transportes, edificios, etc., integran estos dispositivos habilitados para aquellos usuarios que mantengan operativos sus terminales electrónicos portátiles. Esta tecnología será la que aumente el lugar con un campo de información digital. Disciplinas como la arquitectura o el planeamiento urbano, generadas a partir de procedimientos digitales procedentes de la deriva divergente (software característico de un estudio de arquitectura), comienzan a integrar en sus procesos creativos, dispositivos procedentes de la deriva digital convergente 19. La capacidad de esta última dinámica para generar soportes de información, propicia la aparición continua de nuevos dispositivos electrónicos puente que practican la hibridación digital-física, refiriendo datos digitales a coordenadas geodésicas o a coordenadas libres que a su vez pueden referenciarse a unas geodésicas. Los geo-localizadores 17 Véase Cap. II, De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 18 Sirva el símil musical que hace referencia a los conciertos unplugged o desenchufados para describir la ausencia de tecnología TIC. 19 Véase Cap. IV, Vanguardia de la vivienda aumentada. 235

262 o locative media, asocian información digital -también analógica, si es preciso- a unas coordenadas geodésicas determinadas que no tienen por qué ser las que definen su posicionamiento; en el Entorno Aumentado la información puede percibirse de modo independiente al punto geográfico de anclaje. Otras tecnologías ubican información digital mediante sistemas de referencia autónomos, como por ejemplo los códigos QR (fig.8) o el escáner digital. La información geo-localizada puede conectarse a la Red en tiempo real, permitiendo su actualización y retroalimentación. Fig.6. Augmented City, Keiichi Matsuda. Fig.7. Migration Direction Map, Julie Mehretu. El campo escalar que plantea el Entorno Aumentado tiene un alcance que trasciende la escala cotidiana del contexto próximo arquitectónico, el urbano o el suburbano. El aumento máximo de la extensión del lugar se consigue referenciando la información del entorno digital mediante los sistemas de posicionamiento global por satélite GPS (USA), GLONASS (Federación Rusa), Compass (China) o Galileo (Comunidad Europea). Así, los 30 satélites del sistema Galileo orbitan tres elípticas distintas a treinta mil metros de la superficie terrestre, ampliando el campo aumentado a todo el planeta 20 (fig.9). La posición de la señal se calcula mediante triangulaciones: el tiempo que tarda en llegar la señal a tres satélites determina la posición de la señal emitida desde la Tierra. Este mínimo de tres referencias se repite en cualquier otro sistema 20 La precisión del posicionamiento depende de la versión del sistema (civil, comercial o militar). 236

263 de referencia tridimensional. En el caso del código Bidi o del código QR 21 (fig.8) se puede apreciar la terna referencial en forma de tres cuadrados de mayor tamaño situados en tres de los cuatro vértices de la figura. El escáner lector del código posicionará la información contenida en el resto de píxeles del gráfico -probablemente un enlace a una dirección web- en referencia a estos tres puntos. El Entorno Aumentado se construye intensamente en los dominios menores correspondientes a la meso, micro y nanoescala 22. Fig.8.Código QR. Fig.9. Comparación de las órbitas de los sistemas de posicionamiento GPS, GLONASS, Galileo y Compass (órbita mediana terrestre) con las órbitas de la Estación Espacial Internacional, el telescopio Hubble y la constelación Iridium (Órbita geoestacionaria terrestre) y el tamaño nominal de la Tierra. La órbita lunar se encuentra aproximadamente a nueve veces la distancia de la órbita geoestacionaria. En la medida que la estratosfera lo es para los satélites, el Entorno Aumentado constituye una nueva dimensión a ocupar por la información. La axonometría seccionada de la figura 6 muestra un individuo en una calle que tiene en torno a sí un halo de pedazos de información. El sujeto es el origen de coordenadas polares del sistema de referencia en que se ubican esos objetos digitales. Matsuda describe de este modo una subjetividad digital, circunstancia propia del yo aumentado 23. En la escena pueden apreciarse teclados digitales que sirven para operar esos objetos, así como una confluencia de canales de información que transcurren por la vía 21 Del inglés Quick Response barcode, código de barras de respuesta rápida. 22 Véase definiciones en el Glosario. 23 Véase Cap. IV, Perfil antropológico de la vivienda aumentada. Del morador al electronómada [ , +1998] para profundizar en el significado de esta expresión. 237

264 pública 24. Incluso podría parecer que el personaje tiene frente a sí una envolvente ficticia adherida a la fachada edificada técnica donde se integran las instalaciones. Las posibilidades de sintonía de los vínculos digitales que articula el Entorno Aumentado habilitan una miscelánea colosal de combinaciones de sendas realidades. La deriva tecnológica que afecta a Internet, en su versión convergente, supone un potencial extraordinario y una renovación persistente de las herramientas de comunicación colectivas. Conectividad aumentada. La distorsión del espacio-tiempo. Sostiene Ryan (2010: 74) que a los individuos les gusta estar interconectados 25. La tiranía de la geografía ha dictado con quién se cazaba, luchaba y procreaba. El desarrollo de las tecnologías de la información y la comunicación no solo ha extinguido esta tiranía territorial; también ha hecho lo propio con la temporal. La conectividad entre individuos, característica del mundo contemporáneo, ha deformado la condición tiránica espacio-temporal impuesta a la especie humana. J.C.R. Licklider (1968: 21), el visionario que presagió Internet junto a Robert Taylor, el manager en ARPA (Advanced Research Projects) que puso en movimiento el proyecto de ARPANET (Advanced Research Projects Agency Network), hizo la siguiente predicción en 1960: In a few years, men will be able to communicate more effectively through a machine than face to face We believe that we are entering into a technological age, in which we will be able to interact with the richness of living information not merely in the passive way that we have become accustomed to using books and libraries, but as active participants in an ongoing process, bringing something to it through our interaction with it, and not simply receiving something from it by our connection to it. La computación fue vislumbrada por primera vez como un dispositivo de comunicación en 1968, en una comunicación 26 co-escrita Taylor y Licklider. El incremento exponencial de la 24 El concepto de basura digital toma en el Entorno Aumentado un cariz diferencial con respecto a la que puebla Internet. En si mismo se merece una reflexión que excede al alcance de esta tesis. 25 Del inglés networked. 26 Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él. Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet. Robert W. Taylor, co-escritor, junto con Licklider, de The Computer as a Communications Device. Fuente: (The New York Times, 29 de diciembre de 1999). 238

265 interacción internáutica 27, desde aquella ARPANET pre-global que conectó en noviembre de 1969 las universidades de Stanford y Ucla (fig.10) hasta la Internet de nuestros días (fig.11) invita a pensar en la conquista de dos nuevos objetivos. El primero, la consecución de una interacción plena entre los usuarios. Desde un principio la estructura vertical jerárquica de Internet no favoreció especialmente la relación entre los sitios web. Esta carencia conectiva, heredada de la celosa incompatibilidad decretada por las empresas de software hacia sus propios productos -la información presa de los intereses de mercado- se aplicaba a cualquier género, del mismo modo que los maestros constructores góticos guardaban secretamente sus conocimientos técnicos. Fig.10. The ARPANET, MIT. Fig.11. Map of the Internet, circa La incompatibilidad ha sido la tónica dominante entre las estrategias para salvaguardar también los intereses del tejido digital de la empresa privada. Las diferentes extensiones de los archivos de programas de diseño asistido y otros soportes han supuesto, y suponen, un claro perjuicio para el usuario. Ejemplo de esta incompatibilidad de soportes es lo sucedido en las redes sociales que exigen del usuario un avatar diferente y exclusivo para cada plataforma. A pesar de ser el mismo usuario, de momento no existe vínculo alguno entre los avatares de Facebook, Twiter, Los Sims o Linkedin. El avatar maduro, tras horas y horas de dedicación de su madre virtual, no puede cruzar la frontera de la plataforma en la que es gestado. En la mayoría de los casos, la repetición de información supone una molestia habitual para el usuario digital. El segundo objetivo consiste en la conquista de la interacción entre internautas y el mundo exterior. Tim O Reilly acuñaba en 2004 el termino web 2.0 para nombrar la correspondiente evolución de Internet, una puesta en común de contenidos interactivos: blogs, redes sociales, 27 Según el estudio de Royal Pingdom, Internet registró en millones de usuarios en todo el mundo. Asia se convirtió en el continente con mayor número de usuarios con millones. Además, 2012 se cerró con millones de usuarios de correo electrónico en todo el mundo con un tráfico diario del mismo de millones. (Portaltic/EuropaPress, 18 Enero de 2013). 239

266 videotecas, wikis etc. El concepto web 2.0 apostaba por una gran interactividad entre internautas basada en una deriva divergente. El propio O Reilly (Payo 2011) afirma que la verdadera web 3.0 no es semántica, sino sensorial. Se refiere O Reilly a la nueva extensión conferida a Internet por los dispositivos móviles: Se trata de un Internet sensitivo. Se basa en los smartphones, dispositivos que aumentan nuestros sentidos mientras que reciben información por sus sensores aprendiendo de una base de datos. El término web 3.0, mencionado por primera vez en 2006, si hace referencia a la condición sensible del entorno digital. Una naturaleza que cosecha mediante sensores de todo tipo de movimiento, acústicos, térmicos, de presión, de equilibrio, etc.- los datos del mundo real, dando formato digital a cualquier expresión humana que pretenda interactuar con la máquina. Se puede afirmar que la web 3.0 es consecuencia de una deriva digital convergente que potencia esa aproximación entre el Entorno Físico y la dimensión digital. Por consiguiente, es esta evolución de la web la que ha propiciado el verdadero impulso original de generación del Entorno Aumentado. La denominación web 4.0 o web² (web 2.0 al cuadrado) es una evolución del concepto web 2.0. y supone aumentar o extender la realidad virtual de la 2.0 al resto de realidad. Es decir, hacer ubicuo su contenido vinculándolo mediante sistemas de referencia con el resto de realidad. La web ubicua es omnipresente en todas las dimensiones conocidas de la realidad al mismo tiempo; cualidad que tradicionalmente se atribuía únicamente a la figura de la divinidad. La interacción sensorial mejorada de la web 3.0 es recogida y ampliada por esta nueva concepción de la Red alimentada por la deriva convergente. La mutación y evolución de la Red facilita de manera sustancial los hábitos de vida humanos, solucionando problemas hasta ahora irresolubles. Permite intensificar y multiplicar la dimensión socializadora de sus usuarios y precipita la construcción de la sociedad informacional que habita el Entorno Aumentado. El desarrollo de los superconductores y otras estrategias evolutivas se suman a esta carrera acelerada 28. En palabras de Alexis Socco (Payo 2011): en poco tiempo se sumará la inteligencia artificial y tal vez mucho antes de 2029, fecha de referencia del gurú Raymond Kurzwei, 28 La informática cuántica es mucho más rápida que la tradicional debido a las insólitas propiedades que tienen las partículas a la escala más pequeña. En lugar de la precisión de los unos y los ceros que se han usado para representar los datos desde los inicios de la informática, la informática cuántica se basa en el hecho de que las partículas subatómicas se encuentran en un intervalo de distintos posibles estados. Esos estados pueden acotarse para determinar un resultado óptimo entre una cantidad casi infinita de posibilidades, lo que permite que ciertos tipos de problemas puedan resolverse rápidamente. (El País, 9 de abril de 2013). 240

267 empresario y científico especializado en ciencias de la computación e inteligencia artificial, veamos aplicado el concepto de web Cerebral. Brecha digital En los años noventa nació la expresión brecha digital para describir a los ricos y pobres de la tecnología, e inspiró algunas iniciativas para poner en manos de todos los estadounidenses, en especial las familias con ingresos bajos, las últimas herramientas informáticas. Esos esfuerzos han acortado la brecha, pero han generado un efecto secundario no deseado que preocupa a investigadores y políticos y que los Gobiernos ahora pretenden resolver. Con la propagación del acceso a dispositivos, los niños de las familias pobres pasan bastante más tiempo que los pertenecientes a familias acomodadas utilizando televisores y artilugios para ver series y vídeos, y para jugar y conectarse a las redes sociales, según demuestran varios estudios. Este aumento en la diferencia del uso del tiempo, según políticos e investigadores, es más un reflejo de la capacidad de los padres para controlar el empleo que hacen los niños de la tecnología que del acceso a la misma. No me opongo a la tecnología en casa, pero no es la salvación, dice Laura Robell, directora de Elmhurst Community Prep, una escuela pública de secundaria situada en la zona más humilde de East Oakland, California, que duda desde hace tiempo del valor que tiene introducir un ordenador en cada casa sin una supervisión adecuada. Con mucha frecuencia, los padres nos dicen que no tienen ni idea de cómo controlar Facebook. (El País, 14 de junio de 2012). Las consecuencias de los cambios que ya están en marcha desde la consecución en 1998 de la Revolución Digital tienen causas concretas y algunos efectos de difícil vaticinio. Basta decir que el mundo actual, atravesado de polo a polo por las tecnologías, es radicalmente desigual dentro y entre los países. Cómo están afectando y afectarán los avances tecnológicos a las estructuras sociales? Cómo impactarán en las desigualdades educativas, ampliamente estudiadas por la sociología y la política educativa? La brecha digital admite distintas definiciones. En su dimensión primera, remite al nivel de acceso a la tecnología según condiciones sociales 29. En una segunda derivada, la brecha digital se refiere a los usos de la tecnología. Distintos estudios muestran que, en este sentido, la desigualdad puede ser incluso mayor, dado que los sectores sociales con menores recursos tienden a usar la computadora para cuestiones más instrumentales (Peres y Hilbert, 2009; Sunkel y Trucco, 2010). El concepto de brecha digital se usa en ocasiones para señalar las diferencias entre aquellos grupos que tienen acceso a contenidos digitales de calidad y aquellos que no. El término opuesto que se emplea con más frecuencia es el de inclusión digital. 29 En la Argentina, esta brecha era amplia, al menos, hasta la aparición del programa Conectar Igualdad. Las provincias más pobres tenían menos computadoras por alumno y conexión a Internet en las escuelas públicas y privadas que las provincias con mayores niveles de ingresos (Rivas, Vera y Bezem, 2010). 241

268 En el caso concreto del Entorno Aumentado, la brecha digital puede segregar fácilmente la accesibilidad del usuario a la capa digital, estableciendo categorías de ciudadanos. Los usuarios premium podrán vivir la ciudad aumentada en plenitud; otros ciertas capas, otros durante cierto tiempo, otros con determinada intensidad o con una capacidad limitada de interacción,...etc. Habrá dispositivos que permitan percepciones exclusivas de la información o se convendrá un estándar mínimo, como sucede en Internet? A tenor de lo que sucede con muchas aplicaciones digitales en el mercado de la tecnología, parece que la decantación social de una jerarquía de usuarios puede depender del consumo monetarizado de los dispositivos y productos aumentados. Las grandes empresas ya se están posicionando, aunque el debate no ha hecho más que comenzar. El dilema que plantea el acceso a capas digitales con información de índole privada ancladas en lugares públicos o la regulación del espacio público aumentado forma parte de la construcción política del nuevo entorno. Locative Media El término locative Media o medios basados en la localización fue acuñado por Karlis Kalnins (Galloway & Ward 2006). GPS, ordenadores portátiles, códigos QR, Bluetooth, etiquetas RFID, telefonía móvil, Wi-Fi, etc. conforman una red conectada que convierte el movimiento en un acto dialógico (Adam & Perales 2012: 123). Los soportes que conforman el HUD 30 pueden ser digitales, analógicos o híbridos. La movilidad de estos dispositivos brinda al individuo la conexión continua con la Red. La localización de su posición puede convertirse en información pública en tiempo real. Conocer y hacer visible la posición es ya algo inmediato, aplicaciones como Gowalla, Aris o Foursquare ofrecen un servicio de localización on line. El registro de la posición de un usuario en estas aplicaciones se conoce popularmente con el nombre de check in (argot de Foursquare). La interacción propicia la visualización de la posición en un mapa accesible a los amigos del usuario. El negocio está servido; empresas como Starbucks premian a los más localizados en sus establecimientos (Abad 2011). La incorporación de nuevos medios tecnológicos, como dispositivos móviles y videojuegos apoyados en esta tecnología georeferenciada induce dinámicas nuevas de aprendizaje características del Entorno Aumentado. La contextualización del conocimiento, y por extensión del aprendizaje, potencia el vínculo entre cuestión e información asociada. 30 El móvil actúa como un HUD en el espacio físico. Véase definición de HUD en el Glosario. 242

269 Fig.12. GPS Map. Fuente: < (Consultada el 9 de agosto de 2013). Los dispositivos móviles conectados a Internet, redes sociales, micro-blogging y otros, parecen ser adoptados de forma creciente por los estudiantes (Smith & Caruso 2010); si bien la naturaleza de esos medios, posiblemente más que el contenido, describe la manera en que esos estudiantes y la sociedad en general piensan (McLuhan & Lapham 1994). Merlin Donald (1993) analiza cómo la anatomía específica del cerebro ha cambiado con la adopción histórica de los nuevos métodos de comunicación. De la misma manera, Donald Norman (1994) afirma que la interacción del ser humano con la tecnología influye en el modo en que se produce el proceso cognitivo, desplazando cantidades crecientes de información fuera del cerebro e incorporando conocimiento en los artefactos que diseñamos y que nos rodean. Según Gagnon (2010: 2), parece ser que la sociedad, la anatomía y el conocimiento estén profundamente conectados entre sí en torno a los medios. El modo en que un chico de hoy aprende a pensar es muy diferente de cómo lo hicimos los que nacimos en plena Revolución Digital. La mirada transversal inductiva sustituye, mucho más a menudo que antes, a la lineal deductiva que enseñaban las pedagogías escolares del siglo XX. El aprendizaje producido en un entorno híbrido físico-digital deberá asumir un multiplicidad aun mucho mayor de recursos y formatos. Las herramientas de comunicación recientemente alojadas en la llamada web 2.0 han puesto de relieve ejemplos de aprendizaje y metodologías de pensamiento en grupo (Gagnon 2010: 2). Basándose en la teoría de que el conocimiento puede transferirse en grupos, herramientas y entornos (Hollan, Hutchins & Kirsh 2000), estas pedagogías están habilitando un método e incluso una motivación para que los individuos colaboren y produzcan conocimiento emergente (Cress & Kimmerle 2007). La naturaleza de la comunicación electrónica propicia la formación y el mantenimiento de comunidades de conocimiento (Paavola, Lipponen & Hakkarainen 2004), comunidades de práctica (Lave & Wenger 1991) y organizaciones sin sede física (Nardi 2007) de un modo nunca antes visto. Porque el coste de la reproducción de información está disminuyendo y los artefactos digitales pueden darse sin ser devueltos (Wiley 2010), fenómenos como el software de código abierto (del inglés open source) y los recursos educativos on line 243

270 son opciones cada vez más viables para la producción de bienes útiles a nivel mundial que a la vez mantienen la capacidad de ser customizados por necesidades locales 31. Glocalización aumentada Una de las características del Entorno Aumentado radica en asignar a la información digital una extensión física. La naturaleza local propia de la posición geográfica asignada condiciona por tanto el entorno híbrido. En este contexto, la introducción en el discurso del término glocalización abre una vía de investigación paralela y diferente a la comúnmente empleada. El tecnicismo es acuñado en la década de los noventa, en el seno del sector japonés de los negocios. La estructura lingüística es la misma empleada en la construcción del neologismo smog: smoke + fog (humo + niebla), pero en esta ocasión se unen los morfemas globalización y localización 32. El sociólogo británico Roland Robertson (1992) introdujo la expresión nipona en Occidente 33 en los años noventa. La glocalización supone recorrer el camino inverso a la globalización. Desde la dimensión virtual, y a través de derivas digitales convergentes, la globalidad busca localizarse físicamente en una ubicación del Entorno Aumentado. La afirmación (Abad 2011) pensar de modo global y actuar localmente cobra mayor sentido, implica un paso más hacia la consecución integral del Entorno Aumentado y además tiene especial trascendencia para disciplinas como la arquitectura, que desde hace siglos nutre sus raíces con la realidad física. El paralelismo existente entre los pares glocalización-globalización y la convergencia-divergencia de la deriva digital retrata el tránsito de lo concreto a lo abstracto, de la acción al pensamiento, de lo particular a lo general. La deriva digital divergente ha transcurrido por los derroteros algorítmicos descontextualizados. La abstracción propia de los lenguajes generadores de programas y el origen estéril y estándar del medio en el que se han ejecutado ha propiciado un entorno global. Parece que no podía haber sido de otra manera. 31 Véase Cap. IV, La Ciudad Origami. 32 Dochakuka significa localización global. Originalmente se refiere a la manera de adaptar las técnicas de implantación industrial a condiciones locales, en concreto, una estrategia de marketing japonesa adoptada en los ochenta. 33 En mayo de 1990, un objeto destacó sobre los demás en la exposición Global Change - Challenges to Science and Politics, celebrada en Bonn. El conocido como Cubo Rubik de la Ecología o Eco-Cubo lograba sintetizar el tránsito local-regional-nacional-global y apuntar las posibilidades de enfoque ecológico, delimitando los diferentes ámbitos cognitivos surgidos a partir de la globalización. 244

271 Cellspace 34 En la década de 1990 el Paradigma Digital concentró el interés mercantil en el desarrollo del Entorno Digital de lo virtual sobre otras materias que componen el paradigma tecnológico. Las tecnologías informáticas habilitaban nuevos lugares virtuales. El Entorno Físico resultaba infructuoso y fuera del alcance del paradigma. En palabras de Manovich (2006: 220) el ciberespacio, un mundo virtual que existe en paralelo a nuestro mundo, dominó la década. De la misma forma que en los cincuenta predominó la obsesión por la inteligencia artificial, la obsesión de los medios con la Realidad Virtual impuso una deriva tecnológica divergente. A mediados de la década, los navegadores gráficos hicieron realidad el ciberespacio para millones de usuarios. La segunda parte de la década de 1990 nos depararía otro acontecimiento en el Entono Digital, el.com, aunque esta vez para estrellarse con las leyes económicas del sistema. A finales de la década, la dosis diaria de ciberespacio 35 hizo casi olvidar los planteamientos primitivos de los orígenes, tan presentes en la primera ficción ciberpunk de la década de y aún evidentes en los manifiestos originales del VRML de la década de Lo virtual se domesticó, lleno de anuncios y controlado por las grandes marcas, se hizo inofensivo. En palabras de Norman Klein, el ciberespacio se convirtió en un barrio electrónico. A principios del siglo XXI, los programas de investigación, la atención de los medios y las aplicaciones prácticas se han concentrado en un nuevo reto, el lugar físico aumentado con información digital. El icono previo de la era de la computadora, un usuario-avatar viajando por el espacio virtual, ha sido reemplazado por una nueva imagen: una persona revisa su correo electrónico o hace una llamada telefónica usando una PDA o teléfono móvil con conexión a Internet desde el aeropuerto, en el calle, en un coche, o en cualquier otro espacio realmente existente; unos cuantos ejemplos de las aplicaciones tecnológicas que proporcionan en tiempo real datos dinámicos o que extraigan datos del Entorno Físico y que ya se utilizan ampliamente en el momento de escribir estas líneas. Las cámaras de vigilancia de un edificio o el universo de los sensores electrónicos (temperatura, presión, equilibrio, etc.) traducen el Entorno Físico en datos informáticos. Por el contrario, las tecnologías cellspace 37 trabajan en la dirección opuesta proporcionando datos a los usuarios del entorno físico. Cellspace es un lugar físico lleno de datos que pueden ser obtenidos por los usuarios a través de dispositivos electrónicos y proceden 34 Traducido al castellano por Espacio celular. 35 El uso de Internet para hacer reservas de avión, consultar el correo electrónico con una cuenta de Hotmail, o descargar archivos MP3. 36 Donna Haraway publicó en 1985 su celebrado Manifesto for Cyborgs: Science, Technology, and Socialist Femenism in the 1980s, Socialist Review, nº 80, pp Término acuñado por Manovich (2006: 220) referido a medios móviles wireless o locative media. 245

272 de redes globales como Internet o pueden estar embebidos en objetos situados en torno al usuario. Si bien podemos pensar en cellspace como la capa invisible de la información que se integra en el Entorno Físico y se adapta al individuo, la publicidad de las pantallas de ordenador-vídeo puede presentar la misma información visible para los transeúntes. Estas pantallas gradualmente más grandes y más delgadas, ya no se limitan a superficies planas y ni siquiera necesitan la oscuridad para ser visibles. Manovich (2006) afirma que a corto plazo podremos ver habitualmente pantallas más grandes tanto en los espacios privados y públicos. A más largo plazo, cada objeto puede convertirse en una pantalla conectada a la red y con el tiempo, todo el espacio construido puede convertirse en un conjunto de superficies de visualización: un entorno aumentado sin zonas grises desconectadas de la capa virtual. El Entorno Aumentado es un entorno informacional del que se pueden extraer datos (cámaras de vigilancia, monitorización con sensores, etc.) o aumentarlo con datos (Cellspace, dispositivos computacionales). Cellspace conforma por tanto una parte de él, una parte activa y propositiva, cuya construcción forma parte del planeamiento urbano del siglo XXI. La ciudad aumentada se puede construir y reconstruir sin necesidad de borrar la memoria de lo edificado. En un nivel básico, las acciones tecnológicas que activan el campo informacional de cellspace son directamente evocadas y operadas por la iniciativa del usuario. En un entorno aumentado más sofisticado, el sistema presentaría una comunicación fundamentada en sensores, que detectan por ejemplo actividad y presencia (humanas), y en respuestas inteligentes. La interacción puede considerar un único comportamiento, resolviéndose en un proceso lineal, o puede tener en cuenta la confluencia de múltiples comportamientos e incluso la interferencia que se produzca entre ellos. En un entorno aumentado aún más avanzado multiresponsivo se generará necesariamente una situación donde la selección del tipo de respuesta idónea requiere un contacto previo que informe de la intención del usuario en un primer input de información. La integración en cellspace de funciones fenomenológicas relacionadas con el confort térmico, acústico, lumínico, etc., y funciones vinculadas, por ejemplo, con la capacidad comunicativa mediática -redes sociales, , etc.- constituye un ejemplo de entorno aumentado complejo. Esta caracterización deriva en un estadio superior de mayor complejidad tecnológica cuando integra procesos de auto-apredizaje que se refieren al cambio operado en la respuesta de cellspace para lograr un comportamiento óptimo. La selección de la respuesta en base a una selección de datos que implica una retroalimentación de información en el proceso interactivo - puede ser on line- significa el desarrollo de entornos que tradicionalmente se han denominado inteligencia artificial. 246

273 Fig.13. Aproximaciones al entorno aumentado contemporáneo basado en modelos mecatrónicos. Fuente: Addington & Schodek, óp.cit.: 214. Fig.14. Aproximaciones al entorno inteligente contemporáneo. Fuente: Addington & Schodek, óp.cit.: 215. Fig.15. Aproximaciones al entorno inteligente futuro. Fuente: Addington & Schodek, óp.cit.:

274 Esta circunstancia se produce en modelos tecnológicos que replican el comportamiento neuronal del cerebro. Las redes neuronales artificiales ANN 38 están diseñadas según este componente de aprendizaje. Se fundamentan en manejar un contenido vasto de datos, al que someten a un proceso exhaustivo de prueba y error conocido como entrenamiento. Una vez entrenado, este entorno tendrá la experiencia de elaborar un juicio ante situaciones nuevas dadas (Addington & Schodek 2005: 210). Cada nivel de evolución del entorno aumentado ha ido reduciendo la participación mecánica del usuario en la toma de decisiones en tiempo real. Esta evolución en el diseño de los entornos aumentados queda sintetizada en tres diagramas correspondientes a las figuras 13, 14 y15. El entorno aumentado basado en un modelo mecatrónico 39 simple fundamenta la interacción en una interfaz que propone la correspondencia lineal sensor-actuador 40 (fig.13). En esta aproximación básica, un sensor captaría el cambio suscitado por un campo de estímulos. La señal inicial sería traducida en otra final que directamente controlaría la respuesta. Este tipo de entorno aumentado ocuparía según Addington & Schodek 41 (Ibíd., 2005: 210) el nivel evolutivo básico 42. Como se ha visto anteriormente, un estadio inmediatamente superior correspondería a los entornos aumentados inteligentes que proponen una capa digital con comportamientos múltiples (fig.14), mientras que el nivel más avanzado de entornos sería competencia de aquellos que replican procesos neuronales con capacidad de aprendizaje (fig.15). 38 Véase definición en el Glosario. 39 Véase definición en el Glosario. 40 Véase definiciones en el Glosario. 41 Michelle Addington y Daniel Schodek son profesores de Architectural Technology en el Departamento de Arquitectura de la Harvard University School of Design, USA. 42 En analogía con los diferentes procesos comunicativos que propone la Teoría de la Comunicación, este nivel se corresponde con el primario que propone la disertación impartida por un conferenciante a un auditorio, sin tener en cuenta ni asumir ningún tipo de feedback. 248

275 El fin de la mano mecánica y el advenimiento de la ergonomía post-digital. La Revolución Digital y el progresivo desarrollo de nuevos soportes electrónicos han procurado un cambio radical en la interacción hombre-máquina. La construcción del Entorno Aumentado se traduce en sucesivas evoluciones de la interfaz que mejoran su operatividad, resultando más sencilla e intuitiva. El Paradigma Mecanicista de los siglos XVII, XVIII y XIX alentó la invención de máquinas accionadas mecánicamente, casi siempre, por la mano humana. El Entorno Aumentado alimenta la revisión de esta circunstancia, superando la condición mecánica de la interacción más simple (mecatronics) 43 y asumiendo nuevas formas de cohabitación mixta que solapan el dominio digital y el entorno físico tradicional. La superación del Paradigma Mecanicista implica el perfeccionamiento de las relaciones interactivas con la máquina. La naturaleza mecánica implícita en el manejo de dispositivos MEMS 44 resulta sustituida por el dinamismo de las interfaces propias del dominio digital del siglo XXI. Este cambio provoca en el usuario una nueva disposición comunicativa, a la vez que transforma el modo de procesar, estructurar o visualizar la información. La consecuencia última que la Revolución Digital infiere al individuo afecta directamente a la manera de estructurar los procesos de comunicación y pensamiento. Fig.1. The evolution of architectural visualization. Norm Li AG. El scriptorium (fig.2), según la descripción del italiano Casiodoro de Vivarium (s. VI), tenía lámparas de aceite autoalimentadas, un reloj de sol y una clepsidra; hay que añadir tinteros, navajas y plumas. Los monjes copiaban en el scriptorium los manuscritos que celosamente custodiaban transcribiendo letra a letra su contenido. El proceso lento, dañino para la vista y la espalda y poco prolífico, comprometía la cantidad y el acceso a la información. Este oficio fue paulatinamente sustituido por la impresión con tipos móviles (fig.4) compuestos de plomo, antimonio y estaño fundidos, vertido en los moldes de los caracteres y pulido de impurezas. La composición del texto se realizaba en cajas de madera formando columnas. Entintado el texto, se impregnaban los tipos con aceite y hollín y se procedía al calco en papel. 43 Véase Glosario. 44 Véase Glosario. 249

276 Fig. 2. Miniatura del siglo XV de Jean Miélot (muerto en 1472). Representación al propio autor trabajando precisamente mientras compila sus Miracles de Nostre Dame, donde esta miniatura se incluye. Fig.3. Imprenta renacentista de tipos móviles. Fig.4. Tipos móviles de Gutenberg (creó 300 unidades). La introducción de la imprenta de tipo móvil (fig.3) en la sociedad medieval 45 indujo, tras años de uso, a la aparición de unas dinámicas que acabaron transformando la estructura del sistema social establecido. La profusión del nacionalismo, las revoluciones democráticas, el pluralismo religioso, el capitalismo, el individualismo, y el progreso de la ciencia y la tecnología (Strate 2012: 65) se extendieron por Europa con ayuda de la imprenta. La transformación que la Revolución Digital ha inferido al soporte de comunicación, a los medios y al mensaje -que diría McLuhan- invita irremediablemente a reflexionar sobre los posibles paralelismos con los efectos suscitados por la invención de la imprenta de tipos móviles. Dónde conducirán estos cambios y qué alcance tendrá en la profesión del arquitecto es algo que, según la experiencia acumulada de siglos, nos vendrá impuesto y será difícil evitar 46. La metáfora del remolino de McLuhan, deudora del cuento de Edgar Allan Poe Un descenso al Maelström y del Vorticismo Las primeras prensas de impresión (como la que se muestra en la ilustración) utilizaban un mecanismo helicoidal para aplicar presión a la rama de impresión. Tenían sus orígenes en las prensas de los agricultores para obtener aceite de oliva. Gutenberg hizo adaptar una vieja prensa de vino para construir su primera imprenta. Fuente: < (Consultada el 1 de agosto de 2013). 46 Véase Cap. III, Presagios de la Revolución Digital. 47 El nombre del movimiento artístico fue acuñado en 1913 por Ezra Pound, aunque la principal figura de esta vanguardia exclusiva británica es Percy Wyndham Lewis, La imagen no es una idea, es un nudo o un amontonamiento radiante. Es lo que puedo, y por fuerza, debo llamar Vórtice, del cual, a través del cual y en el cual las ideas están constantemente precipitándose. Con decoro, uno sólo puede llamarlo Vórtice. Y de esta necesidad procede el nombre de Vorticismo. La pintura vorticista trata de mostrar la vida contemporánea como una disposición provocada por la ruptura de la perspectiva que distorsiona las líneas y los colores volviéndose intensa y embaucadora. 250

277 británico 48 de principios del siglo XX, anticipó la Teoría del Caos y la emergencia de la Ciencia de la Complejidad al final del siglo XX, de igual manera advirtió los imprevistos derivados de la introducción de los medios electrónicos y las tecnologías digitales en la sociedad postmoderna. En el siglo XX, la tecnología digital de medios electrónicos confió en las manos la capacidad para transferir a las máquinas computadoras, las órdenes dictadas por el cerebro humano. Las manos han operado casi todos los dispositivos digitales. En los primeros años de la computación, picar datos, procesar textos o realizar cálculos requería de una mecanización del gesto manual. La mano mutilaba así casi toda su capacidad de movimiento digital, convirtiéndose en el instrumento de percusión de un teclado. Hasta bien avanzado el siglo, el usuario de la computadora asumió por imperativo tecnológico ciertos hábitos robóticos de naturaleza automática. Fig 5. Sección del teclado de un clave. Fig 6. Clave de Andrea Ruckers, Fig 7. Teclado de Apple, Fig.8. Sección del teclado de un pianoforte. Fig.9. Pianoforte de Bartolomeo Cristofori, Fig.10. Teclado Swype de Android, Las teclas del clave o del clavicordio (figs.5 y 6) son simples palancas que al ser percutidas tañen con una pequeña púa de cuero, fibra o caparazón de tortuga la cuerda insertada en el extremo contrario de la tecla. Su sonido quedo inspiró la obra de Haendel y Johann Sebastian Bach, que compusieron numerosas obras ex profeso para este instrumento. La musicalidad del instrumento define la composición. Los matices sonoros de las fugas de Bach se perderían distorsionados por la reverberación de un instrumento con diferente sonoridad. La mayor sensibilidad en la pulsión mecánica que incorporó el mecanismo de percusión (martillo, tecla, báscula y apagador) en el pianoforte (figs.8 y 9) relegó musicalmente al clave y al clavicordio. La pulsión mecánica de la tecla de una computadora común apenas difiere de la propia de las 48 Ibíd., p

278 primeras máquinas de escribir. No será hasta la década de los sesenta, cuando en un laboratorio de la Universidad de Stanford, en pleno Silicon Valey, Douglas Engelbart y Bill English inventan el periférico comúnmente conocido como ratón (fig.12). Este hecho supuso el comienzo de un camino que llevaría al ser humano a la recuperación de una de sus señas de identidad: el pulgar. En clave antropológica, la capacidad del pulgar para oponerse físicamente al resto de dedos constituye la característica diferencial del ser humano, a diferencia de otros homínidos que no han logrado subvertir su condición genética. El desplazamiento erguido permitió liberar la mano de soportar el peso del cuerpo y asumir otras tareas -esto ya lo observó Darwin- (Wilson 2002). La presa pulgar (fig.11) permitió al ser humano trabajar con una mano en un objeto que sostenía con la otra (Sennet 2009). Entre la mano prehomínida y la nuestra, el pulgar ha crecido, también se liberó el extremo final del cúbito que da grados de libertad a la mano. Wilson 49 afirma asimismo que el pulgar largo permite tocar la punta de todos los demás dedos, con lo que se pueden manipular objetos con precisión y sujetar piedras para golpear, excavar o lanzarlas. La oposición de los dedos, combinada con la desviación cubital de la muñeca, permite sujetar totalmente un palo a lo largo del eje del brazo. Washburn (en Wilson 2002) defiende que el cerebro humano moderno evolucionó 50 después de la aparición del pulgar de la mano en los australopitecos y, libre de la locomoción, se hiciera más diestra con el uso de herramientas. El ratón de Engelbart y English ha significado la recuperación biomecánica de la manera más evolucionada de asir, en combinación con la percusión de tres o más botones que potencian su multifuncionalidad. La evolución en la capacidad de control mecánico de la computadora es un aspecto esencial en la construcción del Entorno Aumentado. Sin embargo, tanto el ratón como el teclado requieren de un punto de apoyo en el antebrazo para liberar la muñeca y con ella el movimiento manual. No ejecutar la ergonomía adecuada para apoyar el antebrazo genera una sobrepresión muscular que acaba siendo la causa de contracturas u otras afecciones graves como el Síndrome del Túnel Carpiano. 49 Ibíd. 50 Australopitecos, 4,2 millones de años / 400 cc. de cerebro; Homo Habilis, 2 millones de años / 600cc. de cerebro; Homo Erectus 1 millón de años / 1100 cc. de cerebro; Homo Sapiens años / 1350 cc. de cerebro. (Wilson 2002). Fuente: (Consultada el 12 de abril de 2013). 252

279 Fig.11. Movimientos de oposición y contra-oposición del pulgar. Fig.12. El primer prototipo de ratón, Douglas Engelbart y Bill English. Fig.13. Minority Report, Director: Steven Spielberg. En los últimos diez años la tecnología ha revolucionado la interacción hombre-máquina 51 con la incorporación de nuevos sensores de movimiento 52. La percusión dactilar es sustituida por el deslizamiento en una pantalla táctil. De este modo, el obligado punto fijo del antebrazo se elimina y la mano recupera la totalidad del movimiento y la expresión total del gesto, lo que implica una mayor sensibilidad en la interacción con el dominio digital. Esta sensibilidad extra ha de amortizar la interfaz 53 de la pantalla, teniendo en cuenta por ejemplo los movimientos circulares que la mano describe de forma natural en torno a la articulación de la muñeca o la pinza formada por el pulgar y el índice. Las aproximaciones visionarias que describen la ciudad aumentada, desarrolladas en el seno de la investigación académica, coinciden en muchos aspectos con los prototipos de las empresas del sector de las comunicaciones. En 2002, Spielberg anticipó en Minority Report (fig.13), adaptación cinematográfica del relato de Philip K. Dick El informe de la minoría (The Minority Report, 1956), una interfaz táctil que liberaba casi por completo el movimiento de la mano, aunque ésta aún operaba una pantalla. En la misma línea, la escritura mecanográfica ha visto surgir otras alternativas. La mayoría de los teclados contemporáneos se corresponden con el modelo Qwerty, distribución habitual de las telas usada cada día por millones de usuarios. Si bien la disposición original de la primera máquina de escribir organizaba los tipos en dos filas por orden alfabético, el teclado Qwerty diseñado y patentado por Christopher Sholes en 1868 y vendido a Remington en su nombre se debe a las primeras seis letras de su fila superior de teclas-, separó los caracteres más usados para evitar atascos en el mecanismo transmisor del movimiento impelido por las teclas. Sholes encargó un estudio para conocer las letras y las combinaciones de letras más comunes empleadas en inglés; concluyó en una dispersión por el 51 Véase Cap. II Cultura interactiva de lo visual. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 52 3D en Kinect (2010) y Wii (2006), y 2D en las pantallas táctiles. 53 Véase definición en el Glosario. 253

280 teclado de los caracteres habituales y sus combinaciones. Así fue como reorganizó las teclas para ralentizar deliberadamente al mecanógrafo, en beneficio de la solvencia en la mecánica que operaba la máquina de escribir, pero penalizando la ergonomía del usuario y con ello el rendimiento y la eficacia en la comunicación. A pesar de ello, el Qwerty se extendió por todo el planeta. Disposiciones alternativas de las teclas, como la Colemak, que valora la fortaleza física de cada dedo, o la Dvorak, patentada en 1936 por August Dvorak y su cuñado William Dealey 54, que reduce por tres la movilidad digital, superan con creces la capacidad del Qwerty. El teclado Dvorak dispone las teclas de mayor uso, como son las vocales y otros caracteres fijos que suponen el 70% de los ataques del teclado, en posiciones que no implican movimiento digital, aumentando así la velocidad de la escritura. Con el uso extendido de las pantallas táctiles, la escritura Swype (fig.10) se populariza entre los usuarios de terminales de telefonía móvil. Swype implica un avance sustancial si cabe más determinante: no teclea palabras, las dibuja. Esta evolución radical en el soporte del mensaje en la interacción más íntima del usuario con la máquina- subvierte el canal de comunicación y le infiere una componente arquitectónica como es la trazabilidad gráfica del mensaje. En la carrera hacia la desmaterialización del soporte, la tecnología de la Realidad Aumentada, aparecida en torno a 2009 en el contexto industrial del juguete vinculado a una webcam, constituyó el origen del cambio de soporte que definitivamente revolucionaría la interacción hombre-máquina 55. La evolución de los dispositivos periféricos de la Realidad Aumentada (casco, guantes, gafas, etc.), junto con la propia de los entornos táctiles, mejoró ostensiblemente la relación con las computadoras, pero fue la aparición de los primeros controladores con sensores de movimiento lo que inició el cambio 56. A partir de reconocimiento del gesto corporal por escáneres 3D, el espacio se ha convertido en una pantalla donde el interlocutor puede registrar información. 54 El objetivo de Dvorak y Dealey era diseñar científicamente un teclado para disminuir los errores de mecanografía, aumentar la velocidad y reducir la fatiga del mecanógrafo. Realizaron una investigación exhaustiva. En 1914 y 1915, Dealey atendió a seminarios sobre la ciencia del movimiento y revisó películas de mecanógrafos a cámara lenta. Dvorak y Dealey estudiaron meticulosamente el idioma inglés investigando las letras y combinaciones de letras más usadas. También estudiaron la fisiología de la mano. En 1932, el resultado fue el teclado Dvorak (Dvorak Simplified Keyboard). Fuente: Wikipedia. 55 Ibíd. 56 Wii de Nintendo (2006), EyeToy + Move (PlayStation) de Sony (2010) y Kinect (XBOX 360) de Microsoft (2010). 254

281 Fig.14. Jackson Pollock. Fotógrafo: Hans Namuth. Fig.15. Anthropométries, Paris. Yves Klein. Fig.16. Tipografía manual. Tien- Min Liao. El usuario puede comunicar con la totalidad del cuerpo, expresarse con gestos naturales a su anatomía y sin necesidad de constreñir la expresión a determinados movimientos dactilares. Resulta inevitable recordar el proceso que condujo a Jackson Pollock (fig.14) a pintar con la energía de todo su cuerpo sobre un lienzo abandonado en el suelo: My painting does not come from the easel. I prefer to tack the unstretched canvas to the hard wall or the floor. I need the resistance of a hard surface. On the floor I am more at ease. I feel nearer, more part of the painting, since this way I can walk around it, work from the four sides and literally be in the painting. La pintura de acción o Action Painting, acuñada en los 50 s por el crítico de arte Harold Rosenberg, convirtió el cuerpo del artista en el instrumento de comunicación del mismo modo que la realidad aumentada propone interfaces con ausencia de soporte físico. En la década de los sesenta, la performance antropométrica (fig.16) de Ives Klein exploraba la paleta expresiva del cuerpo humano. La trayectoria experimental que éstos y otros autores recorrieron en búsqueda de la liberación total de la acción plástica y la supresión de la huella mecánica impuesta por soportes e instrumentos que coartan la expresividad potencial del artista, forma parte del ideal artístico que supone la desmaterialización de la herramienta. En este sentido, el corpóreo usuario del Entorno Aumentado a menudo se convierte en el propio instrumento o canal de comunicación de la información 57, sin necesidad de intermediación periférica 58 alguna que opere la capa digital Nótese el sentido metafórico de la obra del diseñador neoyorkino Tien-Min Liao (fig.16). 58 Véase periférico en el Glosario. 59 El progreso en la desmaterialización de la interfaz que opera la computadora está ligada a la evolución del videojuego y la ruptura de la cuarta pared por la consola Wii Sport en Véase Cap. II, Videojuegos, paradigma arquitectónico del Entorno Digital. 255

282 Fig.17. Augmented City. Keiichi Matsuda, Visión del usuario que opera la interfaz aumentada. En el caso de Augmented City (Fig.17), representación ficticia de un entorno aumentado, el vínculo entre el ser humano y la computadora ha alcanzado la desaparición física de la interfaz donde se opera el lenguaje comunicativo. Matsuda (2010) propone un lugar con interfaces etéreas translúcidas y transparentes que el usuario puede visionar a través de unas gafas electrónicas u otro dispositivo digital. La mano de la figura no está tocando ninguna pantalla, pero el ojo del usuario sí está percibiendo este gesto. El movimiento manual es registrado por un escáner situado, por ejemplo, en el techo de ese lugar. Una vez digitalizada la información se traduce a un lenguaje de programación de código binario. La computadora ya ha interpretado el gesto. El sujeto, en definitiva, tiene la sensación (percepción) de que su mano regula el pequeño reloj que nítidamente está viendo. A pesar de que en la figura 17 la información se localiza en un plano vertical sin profundidad, replicando la estructura de columnas de una hoja de periódico o de un blog, las posibilidades tecnológicas que brinda el Entorno Aumentado hacen factible pensar en otro tipo de controladores más identificados con la ergonomía del cuerpo humano. Matsuda plantea en la figura 18 un controlador tridimensional concéntrico sencillamente manipulado con un giro dactilar La imagen está diseñada con la técnica de visualización estereoscópica (véase estereopsis en el Glosario) y se visualiza a través de unas gafas con dos filtros de los mismos colores complementarios, un color para cada ojo. 256

283 Fig 18. Augmented City. Keiichi Matsuda, La investigación de estas tecnologías de controladores sobre el campo informacional del lugar aumentado produce nuevos prototipos con gran celeridad. Las Google Glasses convierten en realidad la ficción de la mirada del Terminator 61 ; suman a la mirada del espectador la propia de un androide, resultando ésta perdida entre la corta distancia de la información que aparece en los cristales digitales y la larga distancia propia de la del entorno físico. Este dilema sobre la selección del enfoque que atañe a la profundidad de campo de la visión, se antoja uno de los puntos singulares del formato visual híbrido; sobre todo, al contemplar la mirada perdida del individuo que está debatiéndose entre el la lectura de la capa digital que proponen sus gafas electrónicas y la visión de la realidad. El desarrollo tecnológico de los entornos táctiles y de realidad aumentada, entre otros, ha supuesto la aparición de numerosos foros de experimentación sobre la visualización de datos. En otros tiempos anteriores a la Revolución Digital, el trabajo de expertos en esta materia como el destacado Edward Tufte (The Visual Display of Quantitative o Information Envisioning Information) supuso un referente para la profesión. La visualización de datos se desarrolla transversalmente a otras disciplinas y utiliza, según recoge MediaLab-Prado 62 en su web, el 61 Véase Cap. II, Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses (fig.16). 62 El proyecto Visualizar, dirigido por José Luis de Vicente e integrado en Medialab-Prado, surge como un proceso de investigación abierto y participativo en torno a la teoría, las herramientas y las estrategias de visualización de información. Visualizar cuenta con el apoyo de Bestiario (Compañía pionera en el sector). Fuente: < y < (Consultada el 10 de agosto de 2013). 257

284 inmenso poder de comunicación de las imágenes para explicar de manera comprensible las relaciones de significado, causa y dependencia que se pueden encontrar entre las grandes masas abstractas de información que generan los procesos científicos y sociales. Intrawall vs Extrawall. Al otro lado del espejo. McLuhan (1964) publicó en una de sus obras más influyentes, Understanding Media: The Extensions of Man, un concepto ya clásico, un binomio acerca de los medios de comunicación surgidos a partir de la percepción de sus contenidos por parte de los receptores. Este binomio establecía dos categorías: los medios calientes y los medios fríos. Los medios fríos son aquellos que reclaman de sus receptores una alta interacción. Al no ofrecer demasiado detalle sobre su contenido, exigen de los receptores una participación muy activa en el proceso de comunicación. Un ejemplo de ello es la radio, que procura únicamente sonido a sus receptores, instándolos a usar su imaginación para completar la información recibida. Por el contrario, los medios calientes proporcionan al espectador tanta información que éste no precisa de un gran esfuerzo para percibirla. La televisión constituye el ejemplo paradigmático al permitir una respuesta del espectador ciertamente pasiva. McLuhan no era precisamente un partidario de ciertos medios calientes como la televisión, pero qué opinión le merecería Internet? Si entendemos la Red como un medio de comunicación o como un canal, cómo serían los medios que transitan a través de él? Considerando la cantidad de información disponible en ellos, podrían considerarse como calientes? Para responder a estas preguntas, nos puede resultar de gran ayuda fijarnos en un fenómeno que al convertirse en cotidiano puede pasar inadvertido: la sobre-información. El Entorno Aumentado integra medios digitales como la radio o la televisión, pero también Internet. La interacción que propone puede resultar fría o caliente en función de las características variables propuestas en la capa digital, dando por hecho la multiplicidad y profusión de la información. Atendiendo a la topología que define la cuarta pared es preciso incorporar a la literatura el binomio aquí definido como intrawall - extrawall, referido a la posición que ocupa el campo informacional del Entorno Aumentado con respecto a la cuarta pared. El usuario está conminado a convivir entre estas dos fuentes de información, una situación evidentemente más cómoda para los nativos digitales. Intrawall Aquél entorno aumentado cuya capa digital propone una interacción que acontece exclusivamente en el campo visual de la pantalla. Este no ha sobrepasado la cuarta 258

285 pared y por tanto corresponde a interacciones habituales resueltas por ejemplo mediante teclado y ratón. Extrawall Aquél entorno aumentado cuya capa digital propone una interacción usuariocomputadora que ha traspasado la cuarta pared. La interacción hombre-máquina se resuelve aquí con dispositivos periféricos que exceden el ámbito de la computación tradicional. El caso extremo de este entorno se produce, por ejemplo, en interfaces basadas en escáneres que reconocen el movimiento del cuerpo, la voz, el tacto, etc.; el cuerpo se convierte este tipo de entorno aumentado en el operador del campo informacional El proyecto arquitectónico del Entorno Aumentado El carácter inteligente de los parámetros. Variaciones sobre un tema. Históricamente la técnica del proyecto arquitectónico ha ido adaptando su fundamento para asumir los cambios tecnológicos acontecidos en la cultura de la construcción. El proceso de proyecto en la Edad Media, en el Renacimiento, en el Barroco o en el Movimiento Moderno incorporó sucesivamente avances que acompañaban a la innovación arquitectónica. La metodología tradicional de proyecto basada en la prueba y error de soluciones proyectuales tiene en la versión aumentada del proyecto el reto de renovar su naturaleza pedagógica. La computadora no cesa de proponer nuevas interfaces mediadoras entre el proyectista, el proyecto y el edificio. Las herramientas generadoras de algoritmos evolutivos han subvertido la condición temporal lineal del proyecto, proponiendo metodologías alternativas desde la emergencia tecnológica. El empleo del código binario como motor generador de objetos ha sido causa de una tenaz revisión de la morfología arquitectónica. El software generador de modelos digitales ha deparado toda una colección de respuestas formales nunca vistas. Si el siglo XX asistió a la liberación de la planta, se puede afirmar sin temor a equívoco que el siglo XXI proyecta desde la liberación morfológica. Desde finales del siglo XX, el algoritmo forma ya parte de la práctica arquitectónica habitual de muchos profesionales. Como resultado de la evolución de los programas informáticos de diseño asistido, la confección algorítmica de envolventes permite hoy en día obtener soluciones precisas y óptimas muy rápidamente. La técnica constructiva habrá de convertir la forma vectorial en elementos constructivos que materialicen la forma digital a escala 1/1. Muchas de estas exploraciones formales resultan vacías de contenido ajeno a lo morfológico; permanecen en ese campo de la investigación alineándose con la biomímesis u otras estrategias de réplica que predisponen su geometría desde la parametrización generativa programada. La triangulación de superficies de doble curvatura ha sido la técnica común en la materialización de estas superficies complejas, desde el paradigmático museo Guggenheim de Bilbao a las envolventes de Zaha Hadid. Si bien la atención proyectual basada en la forma parametrizada puede producir objetos o edificios de gran integridad y riqueza, su complemento con otras consideraciones paramétricas a menudo logran un resultado de mayor potencial 259

286 arquitectónico. Conducir la experimentación digital hacia otros propósitos no exclusivamente formales relacionados con la flexibilidad programática, el comportamiento bioclimático, la capacidad comunicativa, el confort psicrométrico o cualquier otra circunstancia que provea información útil al usuario supone todo un reto para el arquitecto proyectista. Los programas de diseño asistido por ordenador del último cuarto de siglo XX no incorporaban el parámetro tiempo en las pocas posibilidades algorítmicas que existían para representar el modelo arquitectónico. De igual modo, aún bajo los efectos de la inercia retórica característica de las técnicas de representación en papel, el proyecto a menudo reflejaba tendencias de réplica de procedimientos pre-digitales, digitalizando las retóricas analógicas de representación 63. El cambio que ha supuesto el uso de programas de generación algorítmica, con las posibilidades de intervención en el proceso dinámico de construcción del modelo que habilitan, ponen en crisis las metodologías tradicionales del proyecto arquitectónico. Fig.1. Galápagos. Fuente: < Fig 2. Galápagos. Fuente: < Uno de los aspectos innovadores de la apuesta algorítmica contemporánea es la capacidad computacional de transformar los parámetros en tiempo real 64. Es el caso de programas como el Galápagos, que propone una metodología de proyecto dinámica distinta a la ortodoxa de prueba y error. Esta plataforma generativa de algoritmos evolutivos posibilita la integración de condiciones paramétrica nuevas en el proceso de proyecto: orientación, requisitos urbanísticos, bioclimatismo 65, normativa, etc. La dinámica de trabajo del programa resulta un protocolo 63 Era habitual encontrar desajustes en la escala de la representación, provocados por la disparidad entre el nuevo zoom digital y el antiguo zoom analógico. 64 Véase Glosario. 65 En una combinación de Grasshopper + Galapagos + Ecotec, Galapagos evaluaría los resultados de la serie y elegiría la solución que tuviera una radiación solar óptima (fig.2). 260

287 sencillo y distinto a la práctica habitual, pues el software va generando variaciones 66 sobre la hipótesis inicial de proyecto (fig.1) que se distancian en mayor o menor medida de la directriz media establecida por las condiciones de partida. Estas variaciones suponen una colección de soluciones a los problemas que plantea el proyecto, una suerte de Ars Magna 67 a disposición del proyectista. El usuario puede dar la orden precisa para que la línea exploratoria del programa continúe por tal o cual derrotero Narrativa proyectual dinámica. Del zoótropo a los serious games. El edificio y la ciudad se nutren poco a poco de la materia aumentada procedente de propuestas políticas, soluciones técnicas de profesionales e iniciativas ciudadanas, entre otras prácticas. El propio proceso de proyecto del nuevo entorno ve afectada su metodología por los avances de las tecnologías de la información y la comunicación. Las estructuras profesionales también están adaptando su configuración para asumir unas pautas tecnológicas que estimulan la interactividad fuera y dentro de la pantalla. El proyecto arquitectónico se alimenta de la puesta en valor de la crisis creativa. El arquitecto se enfrenta a esta crisis equipado con diferentes armas explorativas. Javier Seguí (1996: 29) distingue el dibujo como oficio de tanteo propio de la fase de ideación del proyecto, del dibujo preciso como herramienta de ejecución y control. Algunos métodos dinámicos de producción se incorporan a la fase de ideación proyecto arquitectónico y representan procesos cuya naturaleza operativa afecta a la naturaleza del edificio. No es objeto de esta investigación abundar en el catálogo de representación gráfica arquitectónica como tal, sino en el proceso narrativo y retórico proyectual. La fase de ideación del proyecto se ha resuelto desde el Renacimiento con el dibujo de tanteo o croquis y la elaboración de miniaturas o maquetas, aproximaciones plásticas del proyectista al ámbito arquitectónico. El desarrollo de las TIC y del Paradigma Digital ha propiciado nuevas herramientas que los arquitectos incorporan a esta fase de creación. Esquemas, diagramas, textos, gráficos estadísticos, audiovisuales, encuestas, noticias, etc., facilitan el análisis paramétrico de la circunstancia informacional del proyecto a la vez que aclaran y afianzan la conjetura del arquitecto. En sí mismas, estas herramientas se presentan como expresiones acabadas, como fotografías del ámbito proyectual que documentan y alientan la crisis proyectual. Si bien formaban parte de la labor documental del arquitecto ortodoxo, lo eran de manera ciertamente distante al tratamiento que hace de ello el arquitecto contemporáneo. La búsqueda y acumulación de datos que definen los cauces del proyecto no han sido objeto de ser 66 Véase gráfica de la serie en color naranja (fig.1). 67 Véase Ars Magna en Cap. IV, El fin de la mano mecánica y el advenimiento de la ergonomía postdigital. 261

288 representadas en el ejercicio profesional hasta prácticamente desarrollada las tecnologías propias de la Revolución Digital. El pensamiento positivista que dominó la escena metodológica proyectual a lo largo de la práctica totalidad del siglo XX -salvo excepciones- mostraba el proyecto como una solución a un problema definido en la hipótesis de inicio. Las metodologías lineales de exploración proyectual apenas se percataban en la narración del proceso proyectual y en los efectos que este podía tener en la propia solución. Se pasaba del inspirado croquis de servilleta a los planos acotados como si no hubiera sucedido nada entre medias, o al menos, nada de interés para el cliente. La cocina del arquitecto, aun con reminiscencias del maestro constructor medieval, se ocultaba tras un tupido velo que impedía ver la técnica del proceso proyectual. Apenas incluía estructuras narrativas salvo las empleadas en la representación final del proyecto. Como consecuencia de las propiedades del soporte papel utilizado de forma mayoritaria por el oficio, la narrativa proyectual se ha alejado de configuraciones dinámicas. La aparición del soporte digital permitió incorporar al proyecto expresiones audiovisuales dinámicas que formalizaron de un modo diferente la circunstancia en torno a la fase de ideación del proyecto. La evolución de los programas de edición de video y de animación han permitido estandarizar la incorporación de estas técnicas al proyecto arquitectónico contemporáneo. Ray y Charles Eames, pioneros en el empleo de un soporte dinámico como herramienta de exploración proyectual, recurrieron a esta técnica en la confección de más de 80 películas cuyo fin no era otro que aclarar y comunicar estados críticos sobre circunstancias muy diversas referidas al ámbito de lo arquitectónico. El interés de Ray y Charles en materias de comunicación se remonta a 1952, cuando A rough sketch for a Sample Lesson for a Hypothetical Course, Esbozo para una lección-tipo de un curso hipotético, vió la luz a propósito de un encargo de su amigo George Nelson 68. En esta ocasión era una exposición de una clase típica de cincuenta y cinco minutos para el Departamento de Bellas Artes de la Universidad de Georgia, en Athens (Colomina 2006: 258). Además del despliegue audiovisual, la propuesta incluía una colección de olores sintéticos embotellados que debían lanzarse al auditorio durante el show a través del aire acondicionado. 69 La creencia de los Eames de que los profesores debían conocer la Teoría de la Comunicación 70 resulta de una vigencia abrumadora en el contexto actual de la profesión. Recopilar 68 George Nelson, arquitecto, diseñador industrial y director de diseño de la compañía de muebles Herman Miller, introdujo a los Eames en la compañía en Charles y Ray desarrollaría casí toda su producción en el seno de la compañía. 69 George Nelson, The Georgia Experiment: An industrial Approach to Problems Education, manuscrito de 1954, citado por Abercrombie, George Nelson, 145, y por Beatriz Colomina (Íbid: 259). 70 Los Eames leyeron Una teoría matemática de la información (1949) obra en la que Claudde Shannon demuestra que todas las fuentes de información se pueden medir. Sentó también las bases para la corrección de errores, supresión de ruidos y redundancia, conceptos también explorados por los arquitectos en el largometraje A Comunications Premier (1953). 262

289 información, seleccionarla para construir un discurso crítico sobre la circunstancia del proyecto y transmitir el resultado potenciando la narrativa mediante el uso de medios dinámicos, empieza a formar parte del corpus metodológico de algunas escuelas de arquitectura 71. El uso del video convierte al arquitecto en director cinematográfico y pone en sus manos todo un despliegue de técnicas de representación propias del séptimo arte, que por otra parte no ha dejado de ser una disciplina cercana a la arquitectura. Sendas formas de mirar la realidad se contaminan mutuamente, no sólo desde el punto de vista formal con la incorporación de arquitecturas ficticias (Metrópolis) o reales (Mon Oncle, Housewife) a la película, y viceversa, sino también al compartir técnicas y procesos constructivos de la obra. Fig.1.Taumatropo, John Ayerton. Fig.2. Zoótropo, William George Horner. Fig.3. Zoótropo. Bartlett School of Architecture, curso Unit 22. El zoótropo o zoetrope fue un juguete muy popular en la primera mitad del siglo XIX y uno de los avances precursores del cine. Creado en 1834 por William George Horner, está compuesto por un tambor circular con unos cortes, a través de los cuales mira el espectador para que los dibujos dispuestos en tiras sobre el tambor, al girar, den la ilusión de movimiento. Evolución del Taumatropo o Wonderturner, inventado por John Ayrton en Paris en 1824, el zoótropo representa el eslabón perdido entre el cine y la arquitectura, al combinar el dinamismo de uno y la miniaturización de un escenario o maqueta. El zoótropo ha sido rescatado como técnica del proyecto arquitectónico por la unidad 22 de la Barlett School of Architecture de Londres 72. La participación o interacción entre sujeto (proyectista) y objeto (proyecto) supone un hecho diferencial en la narración del proyecto arquitectónico cercano a la naturaleza también dinámica del Entorno Aumentado. Tanto las versiones vistas predigitales como las que utilizan la 71 Véase el trabajo de profesores como Izaskun Chinchilla uso de zootropos en la fase de ideación del proyecto- y alumnos como Keiichi Matsuda uso de animaciones en las fases de ideación y representación del proyecto- en la Barlett School of Architecture. 72 Dirigida por los profesores Izaskun Chinchilla y Carlos Jiménez. 263

290 tecnología digital aportan esa condición temporal tan arraigada en los procesos arquitectónicos contemporáneos. Fig.4. Everyday the same dream, Paolo Pedercini, La Molleindustria. Fig.5. Serious Games, Jordane Pâquet. Fuente: < (Consultada el 5 de agosto de 2013). Los serious games o juegos serios constituyen pequeños cortos de animación que integran la interacción del jugador. La retórica narrativa, la capacidad multimediática y la propuesta pedagógica de comunicación del mensaje (fig.5) son características de este formato vinculado al videojuego. Se trata pues de un soporte de información crítica que reune interacción y dinamismo, una evolución del zoótropo analógico. El colectivo independiente italiano La Molleindustria desarrolla su trabajo en formato serious game en oposición a la industria del videojuego mainstream. El tratamiento gráfico, la jugabilidad y el soporte de sus propuestas son de una factura sencilla, idónea para enfatizar la denuncia crítica implícita en sus videojuegos. Everyday the same dream 73 es un serious game (fig.4) que sitúa al jugador en el papel de un hombre cuya vida ha de cambiar, en palabras del su creador Paolo Pedercini, es un juego existencial corto sobre alienación y rechazo al trabajo. Éste y otros serious games proponen una narrativa dinámica a la que suman la dimensión interactiva. El espectador se convierte en parte activa del mensaje. En este caso el espectador toma partido como jugador, sin que esta condición lúdica reste un ápice de seriedad a la propuesta. La conjetura del arquitecto 74, propia de la fase de ideación del proyecto, puede encontrar en este formato una herramienta de gran expresividad y utilidad, tanto en el aspecto de la narración y de la retórica del proyecto, como en la interlocución con el receptor -cliente o usuario-. 73 Everyday the same dream, La Molleindustria. Fuente: < (Consultada el 11 de agosto de 2013). 74 Seguí, óp.cit., 1996:

291 El chip replicante. La sensibilización artificial del Entorno Aumentado. Manifiesta Herreros (2005: 21) que el proceso de artificialización de la naturaleza ha de complementarse, en pos del desarrollo sostenible del planeta, con la naturalización de la ciudad. En relación a la segunda vía o Segunda Naturaleza, Herreros 75 señala tres elementos o materias primas que la componen: cambio, energía e información. El Entorno Aumentado se advierte como soporte o medio para la construcción de la Segunda Naturaleza de Herreros, el paisaje artificial que propone puede ser explorado en referencia a los tres componentes. De ellos, el cambio y la energía comparten una connotación temporal en su definición relacionada con la capacidad para obrar, transformar o poner en movimiento. El tiempo, sumado a la tercera componente -la información- aproxima la Segunda Naturaleza a otro sustantivo fundamental en la concepción del Entorno Aumentado: la comunicación, en tanto que proceso mediante el cual se puede transmitir información. La naturaleza híbrida (física + digital) del Entorno Aumentado insta al individuo a asumir una nueva percepción del entorno que amplía la comprensión fenomenológica tradicional del medio. Esta circunstancia 76 pasa por la sensibilización artificial del Entorno Aumentado, proceso analizado en este texto y expuesto en forma de taxonomía fenomenológica. La clasificación se realiza en base a una estrategia sintética de la compleja realidad sensorial, fundamentada en la analogía con el sistema sensorial humano y en casos de estudio paradigmáticos de cada tipo. La combinatoria de tipos inaugura un abanico de sinergias sensoriales. Actualmente muchos estudios e investigaciones de sociólogos, antropólogos y otros científicos de lo social enmarcan sus trabajos dentro de un paradigma que en palabras de Longina (2008) podría llamarse la influencia de la tecnología en las transformaciones socioculturales. Éstos tratan de comprender y explicar cómo la tecnología puede cambiar el modo de percibir el mundo 77, lo cognitivo y por tanto, las prácticas sociales, los hechos, lo cotidiano, el 75 Ibíd. 76 Desde 1999, la Fundación Telefónica apuesta por la convergencia entre el arte, la ciencia y la vida artificial con VIDA. El Concurso Internacional Arte y Vida Artificial se ha convertido en un referente internacional de la materia. 77 Véase la intervención de Amparo Lasén en el panel Modelos y Contextos de la Escucha, X Congreso de la SIBE-Sociedad de Etnomusicología. V Congreso dei ASPM-España. II Congreso de músicas populares del mundo hispano y lusófono: Música, ciudades, redes: creación musical e interacción social, Conservatorio Superior de Música de Salamanca, 6-9 de marzo de Disponible en: < (Consultada el 3 de septiembre de 2013). 265

292 pensamiento. Por un lado, incluyen en el mismo paquete los procesos de percepción, cognición y comunicación; y los medios, artefactos y tecnologías por el otro. A estos efectos Marshall McLuhan y Edward T. Hall señalaron la influencia de los medios electrónicos en el cambio de la percepción cultural del espacio, cómo se percibe y cómo se transforma. Ambos también entendían que toda tecnología es una extensión del cuerpo y de la mente del ser humano; que en el análisis de la comunicación humana se debe tener en cuenta a los medios tecnológicos como ambientes en sí mismos, agentes que tienden a transformar la propia percepción humana y, en consecuencia, la cultura. Estas tecnologías creadas por el ser humano no son sólo extensiones del organismo, de su cuerpo, también se convierten en prótesis. Cada vez que el ser humano sufre un cambio adaptativo como consecuencia de la creación de una nueva tecnología o medio, ocurre una experiencia dolorosa en el organismo. Aristóteles clasificó en cinco categorías los radares naturales del organismo: vista, oído, gusto, tacto y olfato. Recientemente y al ritmo de los avances científicos se han ido añadiendo otros como el sentido del equilibrio, la temperatura, el dolor, la posición corporal y el movimiento. También se han descubierto que unos influyen sobre otros 78. No obstante, nuestros sentidos - como ya sospechaba Descartes no son simples captadores de la realidad. Transforman los fotones en imágenes, las vibraciones, en sonido y las reacciones químicas en olores y sabores (Sáez 2012). Tampoco las percepciones que recrea el cerebro a partir de esos estímulos identifican el mundo exterior tal y como es. Por todo ello, no levanta ninguna sospecha la afirmación del psico-biólogo Ignacio Morgado (2012): aquello que nos rodea y la imagen mental que tenemos de ello no tienen mucho que ver. Pero el animal vivo no sólo recibe estímulos del medioambiente que lo rodea, también lo hace de sí mismo. Sus órganos internos y el movimiento de sus extremidades y sus órganos sensoriales, y los movimientos locomotores del cuerpo entero dentro del espacio, también proporcionan estímulos. Sherrington propuso en 1926 un sistema complementario para clasificar los sentidos (Mantzou 2000:389) distinguiendo entre exteroceptores 79, interoceptores 80 y propioceptores 81, sosteniendo que trabajan por separado. Su teoría ha sido cuestionada por James J. Gibson al afirmar que la percepción es un proceso mucho más activo e integral y que la mayoría de las veces se basa en el concurso de propioceptores y exteroceptores. Según Gibson, los estímulos producidos por la acción son obtenidos, no impuestos. Es decir, obtenidos por el individuo, no impuestos sobre él. Son intrínsecos al flujo de actividad, no extrínsecos a éste y dependientes de él. En vez de entrar en 78 Véase Sinestesia en el Glosario. 79 Intervienen en la visión, sonido, olfato y sensación cutánea. (Ibíd.) 80 Sensaciones recibidas desde las vísceras. (Ibíd.) 81 Intervienen en la sensación somática profunda recibida de los receptores ubicados debajo de la piel, en los músculos y articulaciones, y en el oído interno (presión, movimiento, vibración, posición dolor agudo y movimiento). 266

293 el sistema nervioso a través de receptores, estos re-entran, acción que sustantiva el tecnicismo feedback o retroalimentación. La interpretación de la sensación ha sido uno de los invariantes en la historia del arte de todas las culturas, incluso para negarla. La estructura simple del arte tradicional se acomoda fácilmente a las enseñanzas de la Teoría Gestalt 82, según la cual toda percepción o creación de formas está sometida a una tendencia hacia la percepción o la producción de estructuras tan simples y penetrantes como sea posible. Fue a partir de 1950, con los trabajos de Gibson y su línea de investigación, cuando este enfoque se revisó y cuestionó. Con respecto al entendimiento lineal y reduccionista de la complejidad del mundo del los sentidos, sostiene Mantzou 83 que la noción clásica del órgano sensorial es la de un receptor pasivo pero los ojos, las orejas, la boca, la piel, son en realidad móviles, exploratorios y orientadores. Los modelos referentes de la percepción establecen inequívocamente esta conexión entre sujeto actuante y percepción: la acción guía a la percepción y la percepción a la acción. Esta circunstancia atañe directamente al proyecto de lugares aumentados que integran percepciones múltiples. La propiocepción considerada como la obtención de información desde la acción de uno mismo no depende necesariamente de los propioceptores; y la extrerocepción, considerada como obtención de información desde eventos extrínsecos, no depende necesariamente de los exteroceptores. Como observó Merleau-Ponty 84 : La cosa y el mundo me son dados con las partes de mi cuerpo, no por una geometría natural sino por una conexión viva comparable o más bien idéntica con la que existe entre las partes de mi cuerpo. Maurice Merleau-Ponty aseguraba así que no existe realmente una manera de aislar la percepción exterior y la percepción del propio cuerpo ya que varían conjuntamente porque son 82 A principios del siglo XX, se acentuó con los teóricos de la forma -Teoría de la Gestalt- la capacidad innata del cerebro para organizar lo visual según leyes universales y eternas. La teoría de la Gestalt partió del problema de cómo se ven las formas, tomando un camino que presentaba a la forma como elemento que excedía de un mero compuesto de sensaciones. La experiencia no era reductible a elementos o unidades aditivas, según su argumentación, y cuando se la analizaba introspectivamente en integrantes sensoriales se la falsificaba. Así pues, tendemos mayoritariamente a percibir formas simples, compactas y precisas, al mismo tiempo que eliminamos de nuestra percepción las formas vagas, incoherentes e inarticuladas. Se denomina tendencia Gestalt a esta tendencia perceptiva articulante que posee las propiedades formales de la simplicidad, la compacidad, la coherencia, etc., que se integran en una Gestalt estéticamente buena. (Ibíd., 396). 83 Ibíd., p Ibíd., p

294 las dos caras de la misma moneda. El enfoque de Gibson 85 es distinto pero se entiende que Merleau-Ponty aunque no se refiere exactamente a la propiocepción, por lo menos analizada como impuesta y obtenida. En cierta manera se aproxima a su enfoque cuando dice: toda percepción exterior es sinónima de cierta percepción de mi cuerpo como toda percepción de mi cuerpo se explícita en el lenguaje de la percepción exterior. Además, Gibson señala que existe una jerarquía 86 activos: entre los distintos sistemas sensoriales Un estímulo tiene siempre un grado de orden sucesivo. Tiene una estructura en el tiempo. Por lo menos hay una transición en el principio y otra en el final, de tal modo que el estímulo nunca es un instante matemático. Tiene estructura secuencial así como inevitablemente tiene estructura simultánea. Consecuentemente, un estímulo se estructura en una parte permanente y otra cambiante. Conviene tener esta consideración muy en cuenta para plantear el impacto sensorial del Entorno Aumentado en el usuario no como una circunstancia homogénea sino como un paisaje multicapa donde conviven incidencias sensoriales dinámicas. Es evidente el nexo entre la percepción y la pauta de comportamiento, pero es necesario considerarlos y examinarlos por separado. En ese sentido, Gibson propone una clasificación de los inputs (los impulsos entrantes) y de los outputs del sistema nervioso (los impulsos salientes). Los sentidos externos se conciben de un nuevo modo, como activos en vez de pasivos, como sistemas en vez de canales y como interrelacionados en vez de mutuamente exclusivos. El artículo de Lev Manovich 87 The poetics of augmented space, (Poéticas del espacio aumentado), destaca entre la literatura especializada por su condición pionera en el tratamiento del Entorno Aumentado. Manovich (2006: 220) propone una disyuntiva en base a la dicotomía aumentar/monitorizar. Tomando ésta como referente y teniendo en cuenta la clasificación sensorial de Gibson se puede proponer una taxonomía del paisaje sensorial aumentado en 85 Los movimientos del habla se controlan en un nivel por el feedback de los labios, la lengua, el paladar y el mentón, pero también en otro nivel por el feedback del oído -es decir, escuchándose a sí mismo mientras uno habla. Se ha demostrado que si el feedback auditivo se retrasa artificialmente por una fracción del segundo, el habla es interrumpido, aunque la propiocepción de bajo nivel permanece inalterada (Gibson 1968: 36). 86 La lista provisional que propuso Gibson para la clasificación de los niveles de propiocepción va de los más bajos a los más altos y de los más automáticos a los menos automáticos: propiocepción muscular, articular, vestibular, cutánea, auditiva y visual. 87 Profesor de Visual Arts de la Universidad de California donde enseña Arte y nuevos medios. 268

295 relación a dos categorías: output (emisión) e input (recepción). De este modo, el paisaje sensorial output (estimulante) sería aquél conformado por la tecnología que emite información, en oposición al paisaje sensorial input (receptor) que capta información gracias a la monitorización del entorno físico. En todo caso, la clasificación rescata al usuario como referente subjetivo, ya sea receptor u emisor. Exteroceptivos Impuestos Obtenidos con los órganos sensoriales pasivos con los órganos sensoriales pasivos Input (impulsos entrantes) Propioceptivos Impuestos Obtenidos sobre órganos pasivos o extremidades por órganos móviles por extremidades móviles y cuerpo Impuestos sobre órganos pasivos o extremidades Propioceptivos Obtenidos por órganos móviles por extremidades móviles y cuerpo Output (impulsos salientes) Actividad exploratoria Actividad ejecutiva de los sistemas perceptivos de los sistemas ejecutivos Fig.1. Clasificación sensorial de J.J. Gibson. (Mantzou, ibíd., p.396). El sensor artificial y el sentido sensorial del cuerpo conforman un par interactivo de intercambio de información en base a la estimulación. La asociación de los sensores artificiales con los sentidos del cuerpo humano genera toda una combinatoria sensorial dispuesta a ser incorporada en la arquitectura para convertirse en un ecosistema artificial sensible. La combinación de los diferentes cazadores de estímulos, ya sean naturales o artificiales, dibuja un mapa del paisaje sensorial múltiple y diverso. La intensidad y la complejidad del paisaje recae en la diversidad de especies sensoriales. Desde la pentasensorial, con un gradiente máximo de complejidad a la monosensorial, el paisaje artificial construye ámbitos sensoriales básicos que interactúan de modo complejo con el sentido humano. A partir del paisaje monosensorial táctil, acústico, visual, gustativo y olfativo, la agrupación por pares se traduce en paisajes bisensoriales, cuyo ejemplo más común es la televisión. Las posibilidades matemáticas de combinación de sensores analógicos y digitales son por tanto elevadísimas. 269

296 Según Strate 88, McLuhan enfatizó el papel de los medios en la percepción sensorial, declarándose tomista al respecto. Veía el arte como un medio de capacitar a los sentidos y abrir las puertas de la percepción 89. En lo que respecta al Entorno Aumentado, las puertas de la percepción están abriéndose más y más según evoluciona la tecnología. A pesar de ello, el cambio de paradigma ha de ser asumido socialmente, para lo cual es necesario buscar otras articulaciones externas al dominio tecnológico, como puede ser el mundo del arte. Son conocidas las aseveraciones que McLuhan realizó a propósito de los sentidos y su vínculo con respecto al medio. McLuhan (1962) afirmaba que el sentido del oído nos sitúa siempre en el epicentro de la escena arquitectónica. El campo perceptivo que se dispone 360º entorno al sujeto fue definido por el canadiense como espacio acústico. Esta disposición esférica disiente de la disposición perceptiva de otros sentidos y de la geometría asimétrica en el plano horizontal del cuerpo humano. El sentido auditivo nos colocará irremediablemente en el centro de la acción y en el centro del lugar que ocupemos. El sujeto se sitúa dentro de lo percibido. Por el contrario, el sentido de la vista nos desplaza fuera del ámbito percibido, observando el interior. La percepción visual es lineal y unidireccional, a diferencia del espacio polar auditivo. La intensidad con la que percibimos el espacio auditivo es constante, mientras que podemos regular la percepción del espacio visual ajustando el enfoque desde el punto de vista fijo. Es la mirada de un espectador voyeaur 90, desde una posición objetiva y objetivante que McLuhan identificó como espacio visual. La interacción de este espacio con el polar auditivo, tanto en su versión analógica como digital, procuran una convergencia compleja en el lugar aumentado. La anatomía perceptiva 91 del Entorno Aumentado infiere al sujeto hábitos de comportamiento en base a los nuevos canales perceptivos. El desarrollo de la máquina y las nuevas comunicaciones en la Revolución Industrial ya supuso una manera diferente de percibir la realidad. El auge de 88 Óp.cit., Parafraseando la alegre afirmación de Aldoux Huxley. 90 Strate, ibíd., 2012, p Lo visual enfatiza el razonamiento cuantitativo regido por el hemisferio izquierdo del cerebro, crea una imagen monolítica y lineal de la civilización occidental, mientras que lo acústico, regido por el hemisferio derecho, crea un pensamiento cualitativo, se basa en el holismo, no en un centro cardinal sino en varios centros que producen diversidad enfatizando las cualidades tipo norma de dicho pensamiento cualitativo. Lo sonoro es protagonista ahora del frente. Es por eso que deberíamos luchar contra la hegemonía de lo visual para ganar tiempo, para promocionar lo cualitativo frente a lo cuantitativo, para desarrollar el hemisferio derecho, para crear resistencia y compensar la balanza. Ganar tiempo significa operar en relación a esos ocho siglos de ventaja de hegemonía de un sentido sobre el otro, de lo visual sobre lo sonoro. Si promocionamos y difundimos lo sonoro estaremos trabajando en esa línea, estaremos en ese frente, y ese es uno de los objetivos de Madridsoundscape.org: promocionar la escucha como una nueva vía de conocimiento de la sociedad, como una herramienta epistemológica que sea capaz de promover los aspectos cualitativos de la existencia humana. (Longina 2008). Disponible en < 270

297 las TIC y el Paradigma Digital en el siglo XX han situado al ser humano a las puertas del Entorno Aumentado. Si para memorizar los textos en la Edad Media o en la Antigua Grecia eran imprescindibles el verso y la música, cómo afecta a la tradición oral -paisaje sensorial acústicolos instrumentos de comunicación propios del Entorno Aumentado? Desde tiempos anteriores a la escritura se define como tradición oral la forma de transmitir, la cultura, la experiencia y las tradiciones de una sociedad a través de relatos, cantos, oraciones, leyendas, fábulas, conjuros, mitos, cuentos, etc. El abandono de la supremacía de la tradición oral en favor de la cultura literaria, y especialmente la alfabetización, supuso una inversión en la jerarquía del espacial perceptual en beneficio del espacio visual y en detrimento del espacio acústico. La comunicación del mensaje en los tiempos anteriores a la escritura precisó del lenguaje oral, lo que supuso el empleo de recursos mnemotécnicos que ayudara a tal fin 92. La canción, los versos, formatos como el cuento, el romance y otros recursos lingüísticos favorecían el recuerdo del contenido del mensaje. Este hecho resultó enfatizado con la invención de la imprenta de Gutenberg (McLuhan, óp.cit., 1962), responsable de las características propias de la civilización Occidental. La perspectiva histórica nos indica que es fácil darse cuenta de que el invento de la imprenta en el siglo XV está muy distante cronológicamente del invento del fonógrafo -prácticamente en el siglo XX-, casi ocho siglos de hegemonía de lo visual sobre lo sonoro. La imprenta permitió conservar el pensamiento escrito y la imagen, ejerciendo tecnológicamente su difusión. Asimismo transformó un ambiente sonoro en un ambiente visual y al hacerlo cambió también la forma de percibir el mundo en la sociedad occidental. La capacidad de la materia para asimilar inteligencia artificial depara una larga lista de objetos inteligentes : edificios inteligentes, teléfonos inteligentes, coches inteligentes, juguetes inteligentes, electrodomésticos inteligentes, tejidos inteligentes, geles inteligentes etc., en una lista que va aumentando según evoluciona la actividad de los laboratorios de I+D y la producción de las multinacionales del sector. Hoy en día la sociedad está habituada a calificar a los objetos artificiales de inteligentes. Objetos cuya respuesta se diseña en función de la información que perciben del medio. El mito de la Inteligencia Artificial 93 acompaña al ser humano desde el momento en que un individuo pensó en construir otro ser semejante (fig.3). A menudo, la réplica artificial se ha moldeado tomando la figura del ser humano como patrón (fig.2), renegando de la abstracción en favor de lo figurativo. La inteligencia artificial que propuso Fritz Lang en Metropólis toma forma en el cuerpo del robot María. 92 Véanse los estudios de Parry (1987) sobre la cuestión homérica y el descubrimiento de fórmulas mnemotécnicas integradas en la estructura del poema. Nótese el significado del término griego rapsodizar, rhapsoidein, unir canciones. 93 Véase Cap. IV, Topología del Entorno Aumentado. Deriva digital hacia la eclosión

298 Cómo han imaginado los arquitectos el edificio inteligente? Ha transformado la tecnología el lugar donde se ubica o tan solo se ha almacenado en él? La respuesta a estas cuestiones lleva a analizar circunstancias como la integración de las TIC en la arquitectura desde aplicaciones domóticas o inmóticas, a menudo estrategias parasitarias de estructuras herederas de tiempos pasados. La tecnología se ha tomado frecuentemente como un gadget, un chisme más que propone un control diferente, y a veces anecdótico, sobre el entorno. Por el momento, la incorporación del paisaje artificial sensorial en el entorno físico no ha implicado una transformación radical extendida en la envolvente arquitectónica tradicional. Fig.2. Revista AD, Portada. Fig.3. Galaxy, Portada. Fig.4. Un ácaro cerca de un grupo de engranajes de MEMS 94. La interacción del ser humano con el dominio digital del Entorno Aumentado pasa por sensibilizar dicho entorno. Como operador de ese dominio, el cuerpo humano constituye en sí mismo un estímulo que produce una variación en el medio físico cuya magnitud afecta al campo informacional digital. La parte del Entorno Aumentado que se encarga de esta empresa es el sensor. Un sensor electrónico responde al estímulo con una señal eléctrica que transfiere la información de esa magnitud que a la postre se convertirá en información digital. Del mismo modo que el fotógrafo de animales debe ocultarse para obtener una instantánea que muestre al animal en libertad sin que éste se cerciore de la presencia humana, el sensor en muchas ocasiones debe ser imperceptible para no condicionar la actividad que pretende medir. La tecnología de sistemas micro-electromecánicos (MEMS) ha evolucionado de tal modo que el tamaño de estos dispositivos se ha reducido hasta acomodarse en ocasiones a una escala de micras (fig.4). 94 Fuente: Laboratorios Nacionales Sandia (Sandia National Laboratories), tecnologías SUMMITTM, < (Consultada el 5 de abril de 2013). 272

299 Otro factor importante para implementar la tecnología sensorial al paisaje tradicional es el económico. Salvo sensores muy concretos, se pueden encontrar en el mercado una gama amplísima a un precio realmente económico. Basta pensar en el precio de una cámara web - sensor óptico- para hacerse a la idea. La durabilidad del campo sensorial artificial también ha mejorado en los últimos años. Por otro lado, los sensores son dispositivos que han existido siempre. Forman parte de los seres vivos y permiten transmitir información. Las fuentes de información también han existido siempre. Empíricamente cualquier manifestación de energía se puede medir. La transferencia de información desde el medio natural al artificial a través de un sensor permite una interacción inmediata. La sensibilización del Entorno Físico permite al ser humano predecir, por ejemplo, el comportamiento de la naturaleza, la predicción del clima 95, la detección de movimientos sísmicos o de maremotos 96. Los paisajes sensoriales atienden al comportamiento humano y anticipan recursos destinados a acomodar o al menos a hacer más eficiente nuestra conducta. De la misma manera que el alcantarillado romano, o el gas y la electricidad de la Revolución Industrial, la red sensorial habilitará una nueva experiencia de la ciudad 97. A menudo se califican estos entornos inteligentes como sensorialmente conscientes 98. Existen multitud de clasificaciones que atienden a la variada tipología de sensores y a la magnitud que se desea medir. Algunas se refieren al tipo de señal de entrada: térmica, de movimiento (acelerómetros, brújula, GPS), infrarrojos, caudal de aire, corriente eléctrica, de posición, humedad, de presión y fuerza, de turbidez de un fluido, magnética, lumínica..., etc. Otras, al tipo de señal emitida por el sensor: analógica o digital, es decir continua o discreta; otras, a la naturaleza de la señal eléctrica generada por el sensor: activos o pasivos. 95 Nótese la diferencia que se hace en la cultura anglosajona entre tiempo y clima (Time vs Weather) y que no existe en los pueblos mediterráneos que usan el tiempo para referirse indistintamente al clima y al tiempo horario. Algunos explican esto por la tradición eminentemente marítima del pueblo anglosajón y la necesidad de conocer el pronóstico del tiempo en el mar. 96 El sistema DART (Deep-Ocean Assessment and Reporting Program) dispone con éxito una barrera de sensores en el Pacífico Norte. (El País, 11 de agosto de 2005). 97 Recuérdese el cambio que experimentaron los primeros espacios públicos que contaron con red Wi-Fi gratuita, por ejemplo la Plaza de Santo Domingo, en Madrid. 98 Los antiguos romanos creían que cada lugar tenía un espíritu característico su genius loci- que se podía manifestar, si se le observaba cuidadosamente, en forma de serpiente. La idea era correcta pero no tenían la tecnología necesaria (Mitchell 1999). 273

300 Piezoeléctricos Fotovoltaicos Generadores de señal Termoeléctricos Magnetoeléctricos Electrocinéticos Electroquímicos Analógicos Resistencia variable Capacidad variable De parámetro variable Inductancia variable Sensores Transformador variable Fotoeléctricos Geometría variable Mixtos Efecto Hall Bioeléctricos Codificadores de posición Incrementales Absolutos Digitales Autorresonantes Caudalímetros de vórtices digitales Sensores inteligentes Fig.5. Árbol sensorial. Universidad Nacional de Colombia, Medidas e instrumentación. Asimismo, si estableciéramos esa clasificación en función de las especificaciones técnicas del dispositivo obtendríamos una lista interminable de la que una muestra podría ser (fig.5): sensores de movimiento (acelerómetros, brújula, GPS), infrarrojos, caudal de aire, corriente eléctrica, de posición, humedad, de presión y fuerza, de temperatura, de turbidez de un fluido, magnéticos, de luz y sistemas táctiles, etc. Atendiendo a la interpretación y proyecto del paisaje sensorial del Entorno Aumentado como receptor y/o emisor informacional de las acciones operadas por el usuario-actor, se puede establecer la siguiente clasificación en base al tipo de acción interactiva que ha de generar el usuario, y más concretamente, el tipo de sentido corporal que emplea el usuario para activar el paisaje sensorial que le rodea. Junto al paisaje visual absolutamente integrado en la realidad 274

301 contemporánea y al gustativo 99, los paisajes táctil, sonoro y olfativo son analizados a continuación en una colección representativa de casos de estudio. Paisaje Táctil Asir, tocar, deslizar, empujar, tirar, agarrar, percutir, pisar, etc., son acciones vinculadas al sentido táctil integradas en la rutina diaria de cada individuo. El tacto experimentado al tocar el pasamanos de una barandilla de abedul diseñada por Alvar Aalto, las pisadas huecas sobre el linóleo natural, la textura fría de un muro de hormigón, etc., forman parte del subconsciente colectivo de la historia fenomenológica de la arquitectura. Allá donde el usuario extiende su capacidad sensorial recibe información sobre la materialidad construida. El paisaje sensorial táctil se convierte en interactivo cuando se torna artificialmente sensible: la presión de una pisada que activa el movimiento de las escaleras mecánicas; la mano que toca una luminaria y se enciende; el gesto manual sobre una pantalla táctil, etc. Fig.6. Strawscraper. Diagrama de la cronología del proyecto, Estocolmo. Belatchew Arkitekter. En este grupo quedaría enmarcada la arquitectura que incluye dispositivos o materiales piezoeléctricos 100 descubiertos en el siglo XIX. Los materiales piezoeléctricos (paisaje sensorial táctil receptor) alimentan airbags, encendedores y otros pequeños dispositivos, si bien hay abiertas múltiples líneas de investigación abiertas en el ámbito de la arquitectura que exploran el intercambio energético que se produce en la piezoelectricidad. La propuesta del estudio sueco Belatchew Arkitekter para rehabilitar un rascacielos con filamentos piezoeléctricos capaces de transformar la oscilación del viento en electricidad (fig.6) ha resultado de gran interés para el ayuntamiento de la ciudad de Estocolmo (Ruth 2012). La arquitectura blanda y peluda pronosticada hace un siglo por Salvador Dalí tiene similitudes con esta arquitectura de filamentos. 99 Aunque objeto de interesantes reflexiones, es demasiado peculiar para abordar su análisis en esta tesis. 100 La piezoelectricidad es la propiedad de ciertos cristales cerámicos, naturales o poliméricos que no tienen estructuras simétricas y que consiguen transformar la presión o el movimiento en energía. 275

302 Este tipo de paisajes proponen a menudo intervenciones que consideran en el pavimento la interacción piezoeléctrica. Un ejemplo de ello es el Sustainable Dance Floor, proyectado en 2008 para el Club WATT de Rotterdam por Daan Roosegaarde cuyo interactivo táctil permite generar electricidad mediante el baile. Los sensores electrónicos asimilan la presión de los pasos de baile sobre el pavimento transformándola en impulsos eléctricos que alimentan a su vez dispositivos lumínicos. El pavimento se construye con módulos de 65x65cm, cada uno de los cuales produce más de 25 watts. Este efecto ha sido también estudiado para tránsitos pesados de vehículos a motor. En definitiva consiste en aprovechar la energía potencial ocasionada por un desplazamiento físico (fig.7). Fig.7. Sustainable Dance Floor, Esquema de funcionamiento y fotografía de la pista. Fig.8. Onskebronn, Berlin. La instalación interactiva Onskebronn, proyectada por Phase 7 en una estación de metro de Berlín, propone una pista de baile con tecnología LED que responde en tiempo real a los pasos de los peatones. A diferencia del Club Watt, la propuesta berlinesa aumenta un lugar exterior. Entre los proyectos a gran escala que integran esta tecnología cabe destacar la instalación durante dos meses de 2008, en la estación Yaesu del metro de Tokio, de un suelo generador de electricidad (Rull 2013). El suelo contenía miles de piezas de 35mm que generaban electricidad con las pisadas de los peatones. Cada persona de 50 kg produjo 0.1 vatios por segundo en dos pisadas. Gracias a los usuarios diarios se obtuvieron vatios/segundo, el equivalente a la luz necesaria para encender una bombilla de 100w durante 100 minutos. Esta energía se empleó para abrir puertas y encender pantallas informativas. Fig.6. Pavegen. Funcionamiento de la baldosa. Fuente: < (Consultada el 12 de agosto de 2013). 276

303 El pabellón Plinthos 101, proyectado por el estudio de arquitectura Mab Architecture para el Interior Design Show Atenas de 2010, es un ejemplo de paisaje monosensorial táctil. El visitante entra en un recinto construido en su totalidad por fábrica de ladrillo hueco doble que configura un cerramiento de suelo y paramento vertical permeable a la luz y al sonido. Los sensores táctiles que activan este paisaje se encuentran localizados en los extremos de pequeños mástiles articulados fijados al suelo del interior del pabellón. El visitante toca (paisaje sensorial táctil receptor) estos juncos con la mano y ocasiona una vibración del mástil, que inmediatamente emite un destello lumínico. La frecuencia de este destello queda registrada por una cámara de video. Esta señal es procesada a su vez en un ordenador que devuelve al recinto un paisaje audiovisual compuesto por luces de LEDS en colores RGB y sonidos. Fig.7. Pabellón Plinthos. Planta, esquema sensorial y fotografía del acceso, Mab Architecture. Por último, cabe incluir el lugar kinético 102, en su acepción táctil, en esta colección de casos donde el sensor realmente interpreta la posición presencial del usuario sin que éste toque ningún dispositivo. El usuario se comporta como si estuviera tocando el fluido que le rodea, como si estuviera moviéndose dentro de una piscina con agua. Paisaje sonoro The universe is the potential map of auditory space. We are not Arguseyed but we are Argus-eared. We hear instantly anything from any direction and at any distance within very wide limits. Whereas the eyes are bounded, directed, and limited to considerably less than half the visible world at any given moment, the ears are allencompassing, constantly alert to any sound originating in their boundless sphere Carpenter & McLuhan (1960: 69). El ser humano condensa la experiencia con la vista, aprende al mirar y con ello a ver. Mientras la visión es síntesis, la audición es holística (Longina 2008). La distinción entre campo visual y mundo visual responde a esta interrelación e implica por tanto una disyuntiva entre lo visto y lo 101 Véase El entorno transfigurable. El crepúsculo de la estética estática. 102 Véase El ocaso de la mano mecánica. 277

304 percibido -interiorizado-. La visión sintetiza, selecciona, y la selecci&oac