domingo, 30 de marzo de 2008

La relatividad y el supremo interfaz

El interface siempre ha venido definido por materializar leyes que interpreten el mundo objetivamente, más allá de la subjetividad de quien observa; por sugerir una fórmula que haga posible la lectura del mundo independientemente de las condiciones en las que el mundo se percibe. La teoría de la relatividad formuló con claridad esa voluntad:

"Al estudiar los cielos nos vemos privados de todos los sentidos, a excepción de la vista. No podemos tocar el sol, o viajar hasta él. [...] Sin embargo, los astrónomos han aplicado constantemente a ellos la geometría y la física que creían válida para la superficie de la tierra y que se basaba en el tacto y en el camino". Por lo tanto, el movimiento absoluto sería una ficción, y de ahí nacería el cálculo.

"A medida que avanza la física se ve con mayor claridad que la vista, como fuente de nociones fundamentales sobre la materia, es menos engañosa que el tacto".

"La física intenta informar sobre lo que ocurre en el mundo físico, y no sólo sobre las percepciones privadas de cada uno de los observadores. La física, pues, ha de interesarse por aquellos aspectos que un proceso físico presenta a todos los observadores. Tales aspectos sólo pueden considerarse como pertenecientes al mismo hecho físico. Ello exige que las "leyes" de los fénomenos hayan de ser las mismas, tanto si se describen tal como aparecen a un observador o como ante otro. Este único principio es el motivo generador de toda la teoría de la relatividad".

"Cada uno está igualmente justificado, y yerra si atribuye una validez objetiva a sus medidas subjetivas. Esta distancia en espacio entre dos hechos es, pues, un hecho físico en sí mismo. Pero existe un hecho físico que se puede deducir de la distancia en tiempo junto con la distancia en espacio. Es lo que se llama el "intervalo" en el espacio-tiempo. [...] El intervalo entre dos sucesos es un hecho físico sobre los mismos, que no depende de las circunstancias particulares del observador".

Cfr, Bertrand Russell, ABC de la relatividad, Ariel, Barcelona, 1989 (Londres, 1958)

Tráfico, capitalismo e individuo

Mucho se ha escrito sobre la relación entre el nacimiento del capitalismo moderno y la ética protestante (Weber, Troeltsch, Collinson, etc.) pero poco se ha dicho sobre la mútua influencia entre el resultado de esa comunión en el desarrollo de sistemas de traducción e interfaz.

En este sentido, el historiador José Antonio Maravall apuntó posible caminos a recorrer. Según él, la noción de "tráfico" dará un puesto central en el sistema social de inspiración burguesa, a la idea de contrato… en lo moral, en la política, en el derecho, en la economía… ya que representa "la característica más común de la especie humana". Según Adam Smith, "la disposición permutativa que provoca la propensión de negociar, cambiar o permutar una cosa por otra es la relación básica de la sociedad". Así, en el siglo XVIII nacerán términos como "tráfico en las vías de comunicación", "tráfico de mercancias", "tráfico de ideas".

L. Goldman ha señalado que, en esta tendencia a considerarlo todo en términos de "tráfico", yace la raiz del individualismo, de la noción de igualdad en la partes, de libertad en el mutuo trato de las mismas, de la propiedad, de la universalidad de las reglas, de la tolerancia. Hoy sabemos que en ella también radica la idea de imposición por la estandarización.

Cfr, José Antonio Maravall, Estudios de la historia del pensamiento español (siglo XVIII-XIX), Mondadori, Madrid, 1991, pp. 253-254

Gestionando una realidad huidiza

Una realidad huidiza, infotografiable, requiere de una apropiada gestión de aparatos ACME:

“Imaginad que queréis observar un animal muy huidizo que solo sale de noche. Una posibilidad es hacer una fotografía con flash; pero el propio relámpago provocaría su huida en busca de seguridad. Lo mismo ocurría con el átomo: en principio, se podía hacer una fotografía con flash, pero el destello mandaría los electrones a paseo. Una manera de evitar que el animal se asuste es utilizar luz muy débil o luz infrarroja que no pueda ver; pero con los electrones no hay salida: para observar la posición de un electrón se necesita, como poco, un cuanto de radiación, un cuanto de rayos X, para ser más exactos, lo cual sería suficiente para expulsar al electrón del átomo. Los cuantos infrarrojos son más suaves y podrían usarse para medir la velocidad de un electrón, igual que la policía utiliza el radar para comprobar la velocidad de un coche; pero debido, precisamente, a su gran longitud de onda, los cuantos infrarrojos nos darían la posición del electrón con muy poca exactitud. Si uno intenta medir al mismo tiempo la velocidad y la posición de un electrón, ambos vendrán afectados por cierta cantidad de incertidumbre, como indica la famosa relación de Heisenberg.”


Otto R. Frisch, De la fisión del átomo a la bomba de hidrógeno. Recuerdos de un físico nuclear, Alianza, Madrid, 1982 (Cambridge, 1979), pp. 114-115

Pasigrafía

La pasigrafía es un sistema de escritura por el que se escriben conceptos en vez de palabras o fonéticas. El objetivo (como en los números ordinarios 1, 2, 3, etc.) es que sea inteligible para personas de cualquier lengua. El término se aplicó a un sistema propuesto en 1796. Pasi en griego significa "a todos". Leibniz y Alexander von Humboldt se encuentran asociados al concepto.

“Las actas del Concilio Nacional están impresas, habiéndolas recogido un taquígrafo, es decir, un hombre que escribe tan veloz como se habla, arte conservado en Inglaterra, que antiguamente usaron los romanos y acababa de perfeccionarse en Francia, donde aún se diversificó con notas musicales y de otras maneras, como también se comenzó a practicar la pasigrafía. O arte de entender lo que se escribe con cualquier lengua, sin entenderla […] que llegó a perfeccionarse en Prusia con muy pocas cifras.”

Servando Teresa de Mier, Memorias. Un fraile mexicano desterrado en Europa, Trama Editorial, Madrid, 2006 (circa 1818), p. 75

viernes, 28 de marzo de 2008

Maquinarias individuales: pantallas e interfaces

Con la pantalla ganando su propia independencia de la televisión, como ocurrió gracias a los videojuegos, el ordenador comenzó a ser bastante más “personal” a principios de los años 1980. La llegada de una organización ergonomista de la relación con el ordenador vino sobre todo gracias a la pantalla y al ratón. El monitor exclusivo del PC individualizaba la relación entre máquina y usuario, pero sobre todo fue el ratón quien hizo al ordenador un instrumento de uso individual. El ratón nos permite navegar y hacer extensiva una coordinación cerebro, brazo, espacio virtual que hace única la experiencia y sólo responde al individuo usuario. Como ha indicado Steven Johnson, la metáfora del escritorio en la pantalla es por definición un sistema monádico: pertenece a la esfera de la percepción y de la psicología individual, y es por eso que se hace tan difícil pensar el PC en términos más comunales, más sociales.

Las primeras imágenes en movimiento proyectadas sobre pantallas producidas por medios mecánicos y con voluntad de sistematización simbólica fueron las fotocinematográficas. El cinetoscopio de Edison (1894) era un aparato de visión individual con un pequeño visor sobre el que se agachaba el espectador para ver pasar las imágenes: un paso definitivo en la nueva percepción visual que los estereoscopios y la fotografía habían abierto poco antes. El estereoscopio (Wheatstone, 1851), aparato con dos visores a través de los cuales se ven diapositivas distintas de un mismo objeto creando la sensación de una imagen única, puede ser considerado el primer ejemplo de la combinación entre nuevos conceptos de novedad, estilo de vida y penetración comercial. En los tres primeros meses se vendieron en la Gran Bretaña 250.000 ejemplares. Esas dos pantallitas, que se colocaban muy cerca frente a los ojos, aislándolos del entorno, creando un marco negro alrededor de la imagen, que no se movían cuando uno caminaba, dieron pie a un fabuloso negocio de placas estereoscópicas y de mundos al alcance de la mano. Baudelaire, nada amigo del naturalismo en la representación, veía el estereoscopio como un agujero negro que “absorbía millares de ojos ávidos que se inclinaban sobre sus mirillas como sobre los tragaluces del infinito” .
Una nueva cultura visual estaba naciendo. El mundo se presenta a los ojos dentro de un espacio visual acotado y transiluminado mecánicamente. La pantalla se convertía en el vehículo fundamental de transmisión. El cine y la televisión han sido los modelos preeminentes de la relación entre percepción y pantalla durante todo el siglo XX: una pantalla inmóvil que ofrece contenidos de forma estandarizada: un lugar de visión, no de acción. La relación es unidireccional y es espectador resta pasivo. Pero con los años, y gracias a la paulatina portabilidad de los aparatos, la fusión de diversos formatos, y la progresiva interacción individual ofrecida por los medios radiodigitales, la pantalla se ha transformado enormemente, tanto en tamaños como en las consideraciones visuales y productivas de su función. La pantalla actual es un espacio integrado de transmisión y producción, en donde la consulta de datos y el acceso a servicios, los menús y las opciones se superponen a las imágenes: las pantallas táctiles convierten directamente la pantalla en superficie. La televisión interactiva y el ordenador se han convertido en espacios en los que se trabaja y en donde uno se divierte o informa.

La pantalla resume la nueva herramienta digital: porque en ella ocurre nuestro trabajo y el resultado de nuestro trabajo. Las leyes fundamentales de la producción en cadena del capitalismo parecen alcanzar una especie de paroxismo: como si se hubiera producido una implosión, revelan una completa desorganización, pero la fábrica queda igual. La diferencia es que los trabajadores se mueven entre todas las máquinas. No se trata de que el trabajador no sepa del sentido final de lo que hace, sumido en una hilera de máquinas poniendo clavos en serie, sino que el sentido es abierto porque el acceso es común. Y la cercanía y movilidad situacional que proporciona el ordenador lo hizo todo un poco difuso. En la gestión de ese nuevo espacio de relaciones, el sentido final de tu trabajo eres tú. Y en ti cae toda la responsabilidad. Que se lo digan a cualquier oficinista. No lo pueden decir igual los paletas: no es tan fácil la “responsabilización” personal a pie de obra.

La pantalla es respecto al ordenador personal lo que los números o las manecillas respecto al reloj: sin ellos, el tiempo seguiría siendo cosa de expertos en arena o una simple entidad abstracta. Las ruedecillas dentadas en el interior de un reloj no están ahí simplemente para dar la hora, sino para que la hora se presente simbólicamente a través de los movimientos de unas varillas en una esfera. Piensen hasta qué punto la imagen organizacional de la esfera con dos palitos y 12 números equidistantes no es ya “el tiempo” mismo. De la misma manera, la pantalla hace visibles los procesos de la máquina, convirtiéndolos en un lenguaje comprensible y dialogante que a su vez comienza a organizar nuevas situaciones siempre en crecimiento, siempre por adhesión, por adherencia. La necesidad del diálogo lleva intrínseca la búsqueda de un sentido social de la tecnología, pero que al sistematizar, impone estándares únicos de relación. Y por ello, no estaría de más empezar a pensar en el Collective Computer y no tanto en el PC.

En la pantalla, todas las matemáticas, la ingeniería electrónica, las grandes complicaciones técnicas desaparecen para reaparecer convertidas en símbolos, reducidas a palabras o iconos, parpadeantes a la espera de nuestro próximo paso. Es la ventana que da acceso. Toda la investigación en electrónica y cálculo matemático no hubieran podido crear el PC por sí mismos. Necesitaban socializar la computación. ¿Qué relación que no fuera experta era posible con un ordenador que se expresa por medio de lucecitas rojas, que habla sólo mediante una impresora y que recibe la información a través de montones de tarjetas perforadas? ¿Cómo podía convertirse un engorro así en lo que después significó el ordenador personal? Las bases de la computación moderna se fijaron ya en los años 40 y 50, gracias a las aportaciones de gente como Alan Turing o John von Neumann -siempre bajo patrocinio militar-, pero fue la búsqueda de un método de comunicación con la máquina la que precipitó, a principios de los años 70, la realidad de un ordenador que decía “hola”. Ese saludo era producto de muchas cosas y de muchas manos. De la misma manera, que el espacio en donde se expresaba -la pantalla-, y la prótesis que nos representa en el universo de la máquina –el ratón- eran a su vez resultado de muchas otras. Analizar sus biografías puede revelarnos datos interesantes sobre importancia de los usos y necesidades de cada momento en la forma que ha ido adquiriendo la computadora “personal”.

La televisión ha sido el medio en el que la pantalla ha sido más servicial en el siglo XX. Su ubicuidad, su inserción en el entorno cotidiano de la gente (en forma de mueble, como en los años 50 y 60, o asociado a una estética tecnófila, como ocurre en la actualidad), su mejora desde una visión lateral y la rápida adaptación al color (1954), hizo del televisor la metáfora adecuada de un espacio en el que el usuario deposita buena parte de su tiempo y de su confianza (7 horas y media de “atención discontínua” frente al televisor en los EEUU, 5 horas en España en el 2002). Desde 1974, el 97% de los hogares de los EEUU tienen televisión, y desde 1988, hay más de dos receptores de media en cada casa. Los principales países europeos alcanzan la cifra del 92% de penetración televisiva doméstica en 1986.
Con el radar (Radio Detecting and Ranging), desarrollado durante la Segunda Guerra Mundial, la posición de un objeto queda determinada por una señal electrónica en un monitor redondo, cuyo espacio visual está regido por unas coordenadas espaciales, todas ellas dispuestas alrededor de un punto central que es la posición de la antena de radio. La percepción producía una imagen en la pantalla, un resplandor y surgió un lugar de estrategias, simulaciones y cálculos. La información deviene un actor visible en la pantalla. Nuestras acciones sobre el objeto serán percibidas también sobre la misma. Esa posibilidad de interacción que el radar ofrecía llevará rápidamente a los ingenieros a trabajar en joysticks, lapices ópticos, para llegar finalmente al ratón. Pero, al mismo tiempo, la asociación entre la pantalla y el seguimiento de lo lejano, que tanto recuerda a las primeras ideas de Galileo frente a las estrellas reducidas a símbolos perseguibles en un cristal, quedará aún más acentuada gracias a los usos de observación y vigilancia de las pantallas, en especial gracias al radar. De ahí que llamemos monitor a la pantallas de nuestros ordenadores.

Vale la pena recordar de nuevo a Douglas Engelbart. Mientras esperaba la desmovilización como técnico naval de radar en 1945, poco después de acabada la guerra, leyó en una revista un artículo de Vanevar Bush, “As We May Think”. De vuelta en casa, continuó con su experiencia con el radar como ingeniero eléctrico. Años después, todas esas horas intentando discernir las verdaderas amenazas representadas por pitidos virtuales en pantallas de radar se transfiguraron en nuevos modos de información y comunicación: “Comprendí que si las computadoras te pueden mostrar la información en papeles impresos, también lo podrían hacer en pantallas. Cuando ví la conexión entre una pantalla –como la tele- un procesador de información y un medio para representar símbolos a una persona, todo se removió. Me fui a casa y dibujé un sistema en el que las computadoras dibujarían símbolos en la pantalla y en donde yo podría navegar a través de espacios de información diferentes con mandos y botones y mirar palabras, datos y gráficos de diferentes maneras”.

En la era de las primeras grandes computadoras, como el ENIAC (1944), EDVAC (1945), UNIVAC (1947), y las series de IBM de los años 50 y 60, la forma de introducir órdenes y extraer resultados era mediante tarjetas y cintas perforadas. Botones verdes o rojos poblaban unos tableros parpadeantes que daban cuenta de la actividad de la máquina. Con la llegada del radar y su aplicación en las señales de actividad eléctrica de los relés y válvulas de las computadoras, la información queda visualizada: el lenguaje de la máquina establece una cierta relación visual con el usuario a través de un nuevo alfabeto, que acabará conformando un interfaz.

En los años 60, ingenieros como John Licklider intentarán “casar los elementos humanos y electrónicos". En 1963, Ivan Sutherland realiza Sketchpad, un equipo con lápiz óptico fijo en la mesa que al moverlo en una dirección activaba acciones en un monitor conectado a una computadora, utilizando además un primer sistema con interfaz simbólico, con manipulación directa de símbolos gráficos. Un operador podía crear gráficos directamente en la pantalla al tocarla con un lapiz de luz. Al cambiar algo en la pantalla, también se cambiaba en la memoria del ordenador. La pantalla en tiempo real se hacía interactiva: “Vivimos en un mundo físico con cuyas propiedades nos hemos familiarizado con el tiempo y que podemos predecir y observar. Pero nos falta la misma familiaridad con conceptos no perceptibles en el mundo físico. Es en la ventana electrónica en donde mirar el maravilloso mundo matemático”.

Aunque en 1965 se desarrolla el primer trackball, también para el control de tráfico aéreo, será en 1967 cuando Doug Engelbart invente el "ratón". Engelbart recuerda que se inspiró en un aparato llamado "planímetro", que un ingeniero deslizaba sobre un gráfico para calcular el área bajo una curva. Entre muchos ingenieros este dispositivo compacto era tan común como una regla de medición. El ratón proporcionaba un método práctico y superior de interactuar con un ordenador que no deformara las capacidades simbólicas de razonamiento del usuario. El modelo más evidente era el automóvil, cuyo sistema presenta al conductor una conexión clara y directa entre girar el volante y cambiar la dirección, pisar el pedal del gas y acelerar, pisar el pedal del freno y reducir velocidad. Los automóviles -y el ratón- usan una coordinación ojo-mano, en la que los humanos son muy hábiles a la hora de leer información. Engelbart (o Kay, que desarrollará la idea de escritorio) sostenían por entonces que “mediante el uso de una computadora y una terminal de video para componer documentos, sería posible ensanchar el entero proceso de composición escrita”. Alan Kay, por su parte, comenzó a tratar la pantalla como un escritorio y a cada proyecto como un papel sobre el escritorio.

Una vez integrado el hardware del teclado, la pantalla, y el ratón, todo ello se ha de hacer expresable visualmente. La búsqueda de un lenguaje gráfico que sea capaz organizar información que depende de otra, con el volumen que eso conlleva, será el próximo paso en la creación de un interfaz que “justifique” socialmente y comercialmente la idea del ordenador.

Los ingenieros de Xerox Parc, empezaron a desarrollar ordenadores a principios de los años 1970 con la intención de adelantarse a ciertos temores propios de una empresa de fotocopiadoras frente a la creciente interconexión de dos medios distintos: las computadoras extraían su información a través de impresoras. Asignar el número de copias a imprimir en el programa era una posibilidad que debió aturdir a los ejecutivos de una compañía de fotocopias. Xerox adoptó una nueva estrategia que le llevó en 1973 al Xerox Alto, un ordenador de mesa, con teclado y pantalla. El monitor era vertical para corresponder con el formato real de una página: la idea de espacio virtual aún no había cuajado. XEROX se había basado en las investigaciones de Licklider y Engelbart. Además de utilizar un ratón y ventanas, el Xerox Alto disponía también de una pantalla "bit-mapped", donde cada elemento gráfico podía ser manipulado. Esto permitía al usuario escalar cartas y mezclar textos y gráficos en la pantalla.

En 1979, Apple empieza a trabajar en un ordenador llamado Macintosh. Proyecto de Jef Raskin, éste propuso un ordenador que unificara texto y gráficos de la misma manera que ya se había investigado en Xerox Parc. Apple había presentado el Apple Lisa, que ya disponía de menús de persiana y menú de barras. Era caro (10.000 dólares) y las ventas no fueron espectaculares. El siguiente movimiento fue la contratación de algunos ingenieros de Xerox Parc, que se llevaron consigo el invento del ratón. En 1984, Apple presenta el Macintosh en un anuncio de tv durante la gran final de fútbol, en el que una chica rubia lanza un martillo a una gran pantalla de corte orwelliano, y en la que una inmensa cara adoctrina a unas masas aplastadas, en clara referencia a IBM. El ordenador se vendía por 2.500 euros. Constaba de pantalla de alta resolución en blanco y negro, teclado, ratón y 128K de memoria. La elegancia del sistema operativo de Mac fue un gran éxito. Su combinación de simplicidad, integración e ingeniería práctica era extremadamente rara en aquel momento. Cuando un archivo se abría o se cerraba, su símbolo se contraía o se espandía, lo que se reveló muy agradable entre los usuarios. Microsoft enseguida vió el potencial de un interfaz así. Un año más tarde Apple presentaba un rudimentario sistema de trabajo en red, llamado AppleTalk, inspirado en sistemas de transmisión por radio (a través de eter) entre las islas Hawai.
Mientras tanto, la miniaturización de los aparatos y su consiguiente portabilidad llevó consigo nuevas investigaciones sobre tecnologías de visión aplicadas a las pantallas de múltiples dispositivos: ordenadores, salpicaderos de automóvil, equipos electrónicos de filmación y sonido, relojes, calculadoras, videojuegos, ascensores, etc..

En 1961, se comercializa por primera vez un LED (Light Emitting Diode) que combina tres elementos primarios: el galio, el arsénico y el fósforo. Las calculadoras y los temporizadores serán las primeras máquinas en recibir esas pequeñas pantallas en las que aparecen unos pequeños filamentos, cuya iluminación selectiva indica un número. Los LED serán revolucionarios en la medida en que permitirán el desarrollo de la comercialización masiva de artilugios, de fácil comprensión y visualización para el usuario.

En 1970, Sharp incorpora una pantalla LCD (Liquid Crystal Display) en una de sus calculadoras, y Optel Corp en un reloj electrónico en 1971. El proceso hacia el LCD parte de las investigaciones realizadas por el austriaco F. Reinitzer en 1888 que le llevaría a descubrir los cristales líquidos. Las aplicaciones de las pantallas de cristal en la industria tecnológica han sido ingentes y también enormemente influyentes en la comercialización de videojuegos, ordenadores portátiles y para todo tipo de despliegues en pantalla. Los despliegues LCD usan mucha menos corriente que los LED o los modelos fluorescentes y permiten que las calculadoras de bolsillo funcionen durante meses (y no durante horas, como los LED) sin recargar o cambiar las pilas. En 1983, Toshiba presenta el primer ordenador portátil con pantalla de LCD. Y también es gracias al LCD que Nintendo presenta el Gameboy en 1989. El LCD, sin embargo, es difícil de ver desde un ángulo lateral.

Eso empezará a corregirse parcialmente en 1961, cuando el norteamericano P. Weimer inventa el TFT (Thin Film Transistor), que además de ofrecer mejor calidad de imagen, tenía una mayor velocidad de actualización, lo que reviste especial importancia en las aplicaciones multimedia que usan secuencias de video animado y en los dispositivos de telecomunicación móviles. El TFT es el actual estándar de las pantallas planas en la mayoría de aparatos de reproducción e interacción.

Aunque los estudios sobre la posibilidad de actuar directamente en pantalla ya estaban apuntados con el desarrollo de los radares y los lápices ópticos, será en la década de los 70 cuando la pantalla táctil comenzará a ser una tecnología realista. En 1971, Sam Hurst, fundador de Elographics, crea un primer sensor táctil en pantalla. En 1974, se inicia una cierta comercialización y en 1977 se patenta definitivamente como la conocemos hoy: lo primero, en el cajero automático.

Estándar, portabilidad, expansionismo

“Lo que pasa es que esa máquina no se cansa”, se quejaba un lugareño congolés en 1883, cuando no podía perseguir, harto ya de remar, los barcos a vapor que remontaban el río Congo.

La portabilidad occidental es expansionista: pero ahora llevada a los cuatro confines del mundo individualmente. La unificación de protocolos, estándares e interfícies en la utilización global de las TCI portátiles hace de los usuarios los personalizados caballos de Troya de un sistema bulímico y no poco anárquico de información, cuyo principal enemigo son sistemas que no reconocen los propios. Y a los que se ataca sin piedad: “El motor y la radio son el alma de nuestras divisiones de turistas, que se entrenan o simulan la guerra relámpago”.

El interfaz es el imán, el polo que atrae y condensa toda nuestra comunicación. Y a su alrededor crea sistema, urbaniza y estructura. Kittler ha constatado que “la digitalización de la información elimina las diferencias entre medios individuales. El sonido y la imagen, la voz y el texto se reducen a efectos de superficie, conocido por los consumidores como interfaz”. Vivian Sobchack ha analizado esta cultura del interfaz a la vista de que “la televisión, los videocassettes, los grabadores y reproductores de video y los ordenadores personales, todos forman un sistema representacional incluyente cuyas varias formas se “interfacializan” para constituir un mundo absoluto y alternativo que incorpora al espectador/usuario a un estado descentrado espacialmente, debilmente temporalizado y casi incorpóreo”. Enzensberger, ya hace años, visualizó también el sistema del interfaz como un proceso hacia una total unificación: “Satélites de noticias, televisión en color, televisión por cable, cassettes, cintas de video, videograbadoras, videofonos, estereofonía, técnicas láser, procesos electrostáticos de reproducción, impresión electrónica de alta velocidad, máquinas de composición y aprendizaje, microfichas de acceso electrónico, impresión por radio, ordenadores a tiempo compartido, bancos de datos: todos estos nuevos medios están formando constantemente nuevas conexiones tanto entre ellos como con medios más antiguos como la impresión, la radio, el cine, la televisión, el teléfono, el teletipo, el radar, etc. Todos ellos están claramente uniéndose para formar un sistema universal”.

En la cultura extrema de la conectividad, la realidad se convierte en un catálogo apologético de la totalidad de los objetos tecnológicos: “al consumir un objeto, uno los consume todos”, ha señalado Richard Stivers, porque sólo en uno se reflejan todos los demás, gracias a la unificación proporcionada por el interfaz. Tampoco es ajeno a esto el hecho de que el proceso de concentración y estandarización haya llevado a los usuarios a concebir la experiencia del consumo en términos homogéneos, como perspicazmente ha intuido el historiador Brian Winston. La homogeneización producida por la unificación de estándares conlleva un rechazo radical de los usuarios de líneas que no sean continuas, como cuando Coca-Cola tuvo que suspender su intento de cambiar el sabor de su producto, al ver cómo auténticas masas se echaban a la calle para protestar. No deja de ser interesante observar cómo se activan actitudes más vinculantes, socialmente hablando, sólo en el momento en que los estándares son puestos en peligro. Tampoco es baladí que eso ocurra, casi en exclusiva, en el dominio comercial.

El estándar y el interfaz son algo más que simples espacios y pantallas de comunicación. Son en realidad una técnica social, una norma en las relaciones políticas y culturales. Jacques Ellul habló en los años sesenta de cómo la técnica integra a la máquina en la sociedad: “Construye el tipo de mundo que la máquina necesita e introduce orden donde el traqueteo incoherente de la maquinaria amenaza ruina. Clarifica, organiza y racionaliza: hace en el dominio de lo abstracto lo que la máquina hizo en el dominio del trabajo. Es eficiente y aporta eficiencia a todo.” El interfaz es la grasa que hemos construido para que las máquinas adopten un sentido lógico en la mentalidad social; incluso para que el espectáculo sea vivido como “espacio social” al permitir que los códigos de interpretación sean percibidos como horizontales e integradores.

Además, el lenguaje digital, principal impulsor de la importancia moderna del interfaz, es imperativo, esencialmente por causas de “seguridad”. Todo lo que no es digital debe hacerse digital: “Mientras más complicado sea un aparato manufacturado por los métodos de ingeniería tradicionales, sus fallas serán más imprevisibles, catastróficas y difíciles de solucionar”, ha intuido el escritor mexicano Naief Yehya. La tecnología analógica está comenzando a ser percibida en términos problemáticos pues puede llegar a cercenar la fluidez comunicativa dentro del sistema. La naturaleza de lo “analógico” se ve como ralentizadora, puesto que no crea a su alrededor las “necesarias” condiciones orgánicas de crecimiento y progreso. El desplazamiento de la tecnología analógica a la digital en el ámbito de los móviles así lo confirma. Gilles Deleuze propuso la metáfora del “filum maquinal” como el proceso de autoorganización por el que los elementos del universo alcanzan un punto crítico y comienzan a cooperar para formar una entidad de más alto nivel. Yehya, siguiendo esa vía, apunta una idea fundamental en este sentido: el proceso de organización de la comunicación actual se percibe como orgánico, natural. Los elementos simples se unen, en un proceso de comunión, para producir organismos más complejos, como si de biología tratáramos. Aquellos elementos que no facilitan esa complejización deben ser separados. La visión de una evolución tecnológica darwiniana basada en una relación orgánica entre los distintos formatos y medios (solapándose, pasándose el testigo, interfacializándose) comporta una total biologización del discurso maquinal. No es extraño, pues, que el descubrimiento del ADN (ácido desoxirribonucleico) –el principal hallazgo de los años sesenta- creara lo que ha venido en llamarse el “paradigma de la información”; la información como principio de organización por sí mismo: “El código genético fue el código, y la transmisión se convirtió en la manera preferida de enfocar todo tipo de información”. El término “paradigma”, de hecho, se estableció como estándar en el ámbito científico desde que en 1970, el filósofo científico Thomas Kuhn utilizara el término para describir “aquellas realizaciones científicas universalmente conocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica” . El propio Kuhn ya intuyó las potenciales analogías del “paradigma” en el desarrollo tecnológico de su momento.

En este ambiente de inclusividad, no sólo se acaba juzgando lo que es operativo o no en función de la necesaria dependencia de los factores del sistema, sino que también se condena el propio concepto de autonomía, algo que les guste o no a los tecnófilos, sigue suponiendo la principal traba para un mayor desarrollo del imperio. Porque la historia también nos muestra que no siempre la creación de estándares ha sido posible, y que existen posibilidades de sustraerse a ello. En 1875 se creó en París la Agencia Internacional de Pesas y Medidas. Sin embargo, sigue habiendo muchas divergencias en el uso de medidas en diferentes países y regiones. La encendida cuestión de los diversos anchos de vía ferroviaria llevó a muchos países, España entre ellos, a adoptar estrategias nacionalistas respecto al tema, como es el caso de la conducción automovilística por la izquierda en Gran Bretaña. Los continentes siguen utilizando diferentes voltajes, tomas de luz distintas, etc. La batalla continental por el estándar de televisión ha dado lugar a múltiples sistemas, incompatibles entre sí: PAL, NTSC, SECAM, etc. El monopolio de Microsoft está siendo contraatacado día a día. El inglés, aunque imperante, es seguido de cerca por otras lenguas que están recibiendo cada vez más atención internacional como el castellano o el árabe; etc.

Los casos son ingentes; tantos que, a primera vista, parecen poner en solfa la tendencia imperativa de los estándares. Indudablemente, es un espejismo dado el evidente crecimiento exponencial de los códigos comunes en todo el mundo. Sin embargo, el mantenimiento de muchos de esos “casos” nos indica hasta qué punto las tan cacareadas líneas de globalización encuentran más dificultades para expansionarse de las que habría que suponer. Las estrategias de marketing (y la presión nacionalista) tienen mucho que decir en la creación de esas barreras: con ellas, se protegen mercados de posibles invasiones de la competencia (las “regiones” de los formatos de DVD; los sistemas televisivos, etc). Pero, ¿hasta qué punto no podemos considerar algunos de estos frenos a la universalización de sistemas como simples resultados de la voluntad de grupos sociales y culturales en mantener la identidad cultural frente al torrente global? ¿Por qué no considerar la diferencia de voltaje eléctrico de la misma manera que percibimos las diferencias gastronómicas o lingüísticas entre diversas culturas y sociedades? A menudo, la obsesión por la estandarización de los sistemas de comunicación lleva a aculturizar los trasfondos sociales que les dieron vida. El entusiasmo contemporáneo por la conectividad parece haber convertido en anatema los sistemas locales o territoriales: no se busca la creación de interfaces, sino que se imponen unos determinados.

La persecución del interfaz integrado promete un espacio perfecto en dónde modelar todas las experiencias posibles, sin distinción alguna de países, culturas o clases. Sin embargo, para construir esa suerte de “espacio cero”, se aplaude como necesaria la erradicación de todo vestigio de lógica cultural localista, aquellas que existían en los tiempos pre-portátiles; aquellas que todavía hoy existen, “entorpeciendo” una verdadera comunicación integrada.
Para evitar esos inoperativos frenazos en la consecución de la ubicuidad y de la movilidad dentro de un mundo plenamente colonizado, los poderes realizan esfuerzos continuados de vigilancia, creando suprasistemas que como un paraguas universal ofrezcan al individuo la posibilidad de operar en dónde sea y bajo cualquier circunstancia. Así, en 1978, el ejército de los EEUU lanzó al espacio el NAVSTAR (Navigation System with Timing And Ranging), el primero de una serie de 24 satélites que, junto a estaciones de recepción terrestre, formarían un sistema de establecimiento de posición a nivel planetario (latitud, longitud y altura) con un margen máximo de error de 20 metros. Desde el lanzamiento en 1994 del último satélite previsto, el sistema es conocido como Sistema de Posición Global o GPS. Todos los satélites son controlados en la base aérea de Falcon, Colorado. No será hasta 1980 que se permitió el acceso de la industria civil a algunas de las aplicaciones GPS, como la telefonía movil y la cartografía. Al GPS, le seguirían un miriada de satélites de los EEUU, Europa y Japón, prácticamente dedicados en exclusiva a las comunicaciones civiles.
El espectáculo de la integración acaba convirtiéndose en una estética, en una tecnoestética: “Todo el mundo vé el mismo mundo alterado, experimenta el mismo entorno total. La fantasmagoría asume la posición de un hecho objetivo y natural: se convierte en norma social. La adicción sensorial a una realidad compensatoria acaba siendo una forma de control social”. Control social, que no sólo se observa en el ámbito de los medios de comunicación de masas, sino en la propia estructuración de un sistema laboral globalizado y supuestamente idílico.

La evolución de los estándares en los sistemas de las máquinas en todo el mundo hace de sus habitantes seres potencialmente ubicuos: pueden desplazarse donde quieran, plenamente sincronizados: pueden buscar nuevos horizontes personales y laborales; pero también pueden ser desplazados a donde sea porque saben utilizar las máquinas. El caso de la explotación laboral por empresas de tecnología es un buen ejemplo de cómo el conocimiento de las técnicas de ensamblaje de los trabajadores locales ha generado el desplazamiento de la industria hacia otros continentes en busca de mano de obra barata; o ha provocado las recientes migraciones internas en el Sudeste asiático, en México, en Brasil, o en Marruecos a una escala más reducida. Allí, las “maquiladoras”, o empresas de ensamblaje de los componentes ya fabricados procedentes de las matrices norteamericanas, europeas o japonesas, han supuesto gran parte de la producción económica de la década de los 90. La movilidad ofrecida por una sociedad en la promesa de una constante experiencia espacio-temporal ideal, trepidante y fantasmagórica, es asumida por muchos trabajadores como la fragilidad de un tiempo laboral desarraigado y miserable.

La seguridad del estándar

En una cultura que se debate entre el derecho a la privacidad y la publicidad de la misma, y frente a la ausencia de canales de construcción social, la seguridad de los medios (y del sistema vinculado a/por ellos) ha alcanzado grados de paroxismo. Los valores de movilidad y portabilidad han quedado directamente afectados por la sugestión de la inseguridad y la búsqueda de arquitecturas y protocolos de protección.

La portabilidad tecnológica ha sido posible gracias a la miniaturización de los aparatos y a la digitalización y satelización del espacio radioeléctrico mundial durante los últimos veinte años. Nuestros móviles, portátiles, tarjetas de crédito, archivos internet, etc, se mueven en un espacio con plena cobertura. Esa disponibilidad de servicios instantáneos en nuestros aparatos portátiles nos hace percibir la movilidad únicamente en términos fetichistas e ilusionistas de la máquina, integrada en nosotros de una manera casi protésica. Sin embargo, nos olvidamos que la movilidad actual también responde a un proceso integracionista en los lenguajes: el espacio externo se ha hecho un lugar sugerente porque da seguridad. Esa seguridad se basa en que todas las máquinas utilizan el mismo lenguaje y admiten los mismos formatos. Un individuo móvil fija gran parte de su esquema de seguridad en la tecnología; en la certeza de que, esté donde esté, conocerá las reglas de uso que le permitirán negociar las situaciones de riesgo. Los interfaces por tanto deben estar unificados: si no fuera así, la movilidad sería una inutilidad productiva. Si no fuera así, no habría tantos turistas en medio mundo (715 millones en el año 2002).

En una sociedad cada vez más conectada y más dependiente de su propia conectividad como paradigma de seguridad, surgen a menudo paradojas que retratan la sensacional transformación en el funcionamiento de nuestras relaciones sociales y políticas. Una de ellas procede del afincamiento generalizado del protocolo como mecanismo regulador de nuestra accesibilidad y como dispositivo fundamental de nuestra seguridad y de la del sistema.

Con la aparición de Internet, determinadas fórmulas de identificación y acceso propias del entorno militar han ido consolidándose paulatinamente en la esfera civil. Ciertamente, el desarrollo de Internet ha ido evolucionando del concepto altamente centralista del C+C (Command and Control) hacia una red formada por múltiples redes distintas, independientes las unas de las otras, pero unidas gracias a lenguajes "compatibles". Así, la noción de compatibilidad ha sido uno de los argumentos líderes en el crecimiento de la red y, en la práctica, una obsesión de pensadores, ingenieros, industriales, políticos y usuarios de Internet. En realidad, el sostenido auge de Internet desde principios de los años 90 se debe casi en exclusiva a la búsqueda denodada de protocolos, de llaves, que puedan vincular con gran seguridad y sin pérdida de datos multitud de sistemas y lenguajes informáticos, algunos de ellos muy dispares entre sí. Al fin y al cabo, el mismo nombre de Internet refleja que se trata de un sistema "entre redes". Se trataba pues de hallar un estándar que sirviera de lenguaje común.

La carrera por esos estándares comenzó desde el momento en que la NSF (National Science Foundation), el organismo oficial del gobierno norteamericano para la legitimación de aplicaciones científicas, unificó diversos centros de computación en 1985, pero sobre todo cuando permitió el uso comercial de Internet en 1991. Con anterioridad, la investigación sobre lenguajes de programación ya había abierto buena parte del camino, pero ésta estaba sobre todo encaminada a sistemas de escritura informática lo más útiles posible y no tanto a facilitar lenguajes comunes entre distintos sistemas.

La consecución de protocolos, de lenguajes universales que permitan conectar fuentes dispares, es una premisa que filósofos, científicos y humanistas han remarcado prácticamente desde el Barroco. Leibniz fue el primero en buscar un sistema de comunicación simbólica que se adaptara a cualquier modelo lingüístico existente. Lo llamó Characteristica Universalis: "Mediante este lenguaje universal, cualquier información del tipo que sea podría grabarse sistemáticamente en símbolos abstractos con lo que cualquier problema de razonamiento podría ser articulado y resuelto." En 1867, Melville Bell, padre de Alexander Graham Bell, uno de los principales inventores del teléfono, desarrolla el Visible Speech, un alfabeto universal capaz de codificar unitariamente sistemas diversos. Y en 1943, Noam Chomsky, vinculado en aquellos días a la investigación militar en el Laboratorio Psico-Acústico de la Marina de los EEUU en Harvard, propone una Gramática Universal con el mismo fin.

Indudablemente, la persecución de esos estándares que hicieran compatibles lenguajes diferentes ofrecía la posibilidad de crear un sistema fluido de comunicación e interacción, pero a la vez abría la caja de los truenos en la medida que el uso de un lenguaje universal ponía sobre la mesa graves cuestiones de seguridad ya que cualquiera que dispusiera del código simbólico pertinente podía introducirse sin más en una vasta y a menudo delicada red de información. He ahí el inicio de una paradoja antes apuntada, que en nuestros días tiene ya un carácter central.

Los protocolos nos sirven para movernos en la red con inmediatez y con la seguridad de que las traducciones funcionan. Protocolo procede del griego protokollon, que designaba a la hoja adherida a la portada de un manuscrito y que contenía titulares o pequeños resúmenes de los contenidos del texto. De esta manera, se facilitaba la búsqueda de los temas y ayudaba a la comprensión de escrituras a mano de difícil lectura. El protocolo también ha sido tradicionalmente entendido como el conjunto de regulaciones y acuerdos que los países o instituciones se han dado entre ellos para "corregir" las diferencias de costumbres y usos culturales y diplomáticos. Es una manera de asegurarse que no habrá malentendidos y de agilizar las relaciones oficiales.

De la misma forma, el protocolo en el actual entorno comunicativo se define como el "conjunto de normas que permiten estandarizar un procedimiento repetitivo" entre sistemas informáticos . Entre los protocolos más conocidos por el público, destacan aquellos directamente vinculados a Internet y a los sistemas combinados de telefonía por satélite como el http o el wap. Todas estas llaves nos permiten vincularnos a una red común y convertir los diferentes sistemas en unos códigos que todas las máquinas puedan leer e interpretar.

Ahora bien, parece claro que cuando los diferentes sistemas convivían separadamente, sin protocolos comunes, el grado de seguridad propia era mucho mayor, dado que las fronteras entre unos y otros eran mucho más difíciles de cruzar, aunque el precio a pagar fuera la falta de conectividad y una cierta autarquía. En la actualidad, la situación es completamente opuesta: la unificación ofrece ilimitadas posibilidades de intercambio y distribución de información, pero los riesgos sobre la seguridad de un sistema integrado por protocolos se intuyen enormes. Esto es, el establecimiento de llaves comunes lleva automáticamente a generar procesos complejos de encriptación y codificación que aseguren que la globalidad de las redes no suponga la destrucción de éstas. El interfaz, el estándar son la garantía de ello.

La seguridad tecnológica se basa en que cada uno de nosotros disponga de su propio código de acceso, lo que además nos legitima como ciudadanos electrónicos de pleno derecho. Pero al mismo tiempo nos parece que la gestión de esas contraseñas por parte de las empresas del sector puede infringir gravemente nuestro derecho a la intimidad y seguridad personal. Otra de las contradicciones de esta nueva frontera membranosa entre lo público y lo privado. Sin embargo, el afianzamiento de los interfaces interactivos desde los años 80 ha supuesto un cambio importante en la percepción del necesario entorno de seguridad que se pretende crear con las máquinas. Ello sin duda se debe a una aplicación de la interactividad cada vez más simple en su uso pero más amplia en sus prestaciones. La máquina responde, creándose en definitiva una relación familiar, personal, fiable. La trama de confianza y seguridad que han urdido los interfaces entre usuario y máquina es enorme, y condiciona sin lugar a dudas una percepción más global del fenómeno tecnológico.

La seguridad del usuario electrónico actual se basa en la reversibilidad: en la seguridad de que un error puede ser corregido. En los primeros interfaces comerciales de ordenador, desarrollados por Xerox y Apple a finales de los 70, la premisa fundamental de los psicólogos era que la reversibilidad (Sí-No-Cancelar) no sanciona directamente la ineficiencia o error del usuario sino que le amplia el espectro de seguridad de una manera pedagógica, a la vez que ayuda a entrenarle a la hora de proceder con la máquina. En el manual de interfaz de Apple Computers del año 1984 se lee: “Puedes animar a la gente a explorar tu aplicación mediante el recurso al perdón. Perdón significa que las acciones en el ordenador son generalmente reversibles. La gente necesita sentir que puede intentar cosas sin dañar el sistema; crear redes de seguridad para que la gente se sienta confortable aprendiendo y usando tu producto […] Avisa siempre a la gente antes de iniciar una tarea que cause pérdida irremediable de datos. Las cajas de alerta son una buena manera de alertar a los usuarios. Sin embargo, cuando las opciones se presentan claras y la respuesta es apropiada y pronta, aprender a usar un programa debería estar relativamente exento de errores. Esto quiere decir que cajas de alerta frecuentes son una buena indicación de que algo va mal en el diseño del programa.”

El usuario no siente ese constante Sí-No-Cancelar como algo molesto sino que lo acepta como algo fundamental, vinculado al alto grado de estima que tiene para él o ella la seguridad. La aparición de interfaces de ese tipo socializó a los usuarios en el nuevo dominio de relaciones digitales, evitando susceptibilidades y generando una confianza en la posibilidad de deshacer los pasos realizados hasta el momento. Es interesante advertir que la acción de guardar los datos en el ordenador, muchos lo llaman “salvar”; como si el entorno computacional fuera en realidad un oscuro camino lleno de trampas, a la manera de los videojuegos. Observemos el revelador comentario de un adolescente en el año 1983 tras su experiencia con un ordenador Sinclair: “El otro día, cuando estaba utilizando un procesador de textos, intenté salvarlo. Me había pasado toda la mañana tecleando. Empecé a las 8 de la mañana y acabé a la hora de comer. Con que hagas un solo error, ya es basura. Te da pánico. Es un asco teclear y me quise asegurar de salvarlo. Así que lo salvé todo en una cinta [cassette] sin apagar la máquina. Entonces llevé la cinta a la máquina de un amigo mio, para ver si podía descargarlo allí. Si era posible, entonces lo había hecho bien. Tuve suerte, porque no perdí esas ocho horas frente al teclado”.

En 1976, los ingenieros de los laboratorios Wang se dieron cuenta de que muchos usuarios de equipos de procesamiento de palabras estaban aterrorizados ante el hecho de perder el trabajo de todo un día tras pulsar inadvertidamente la tecla errónea. Y no eran sólo secretarias quienes se quejaban de tales acciones: en 1981, el ex-presidente Jimmy Carter perdió algunas páginas de sus memorias al apretar una tecla errónea en un ordenador Lanier de 12.000 dólares. Una llamada a la empresa llevó a ésta a elaborar un disco de utilidades que permitió a Carter recuperar los datos del disco duro original. Los ingenieros de Wang llevaron a cabo un diseño que hiciera que estos errores no pudieran ocurrir. El acceso a las órdenes se producía a través de una simple pantalla de menús. Años más tarde, el diseño de Wang sería conocido por el cliché de "user-friendly" (“fácil para el usuario”, o también de GUI, Graphic User Interface, o interfaz gráfico de usuario). Si el usuario se equivoca, ya es sólo un problema de su propia adaptabilidad y adecuación, no una cuestión de la máquina.

Todo el sistema del interfaz gráfico de usuario se basa en la idea de la consistencia. Los elementos deben ser consistentes entre ellos y en la manera en que los hacemos operar. Cuando una caja de diálogo aparece frente a nosotros en la pantalla del ordenador, en la que tenemos tres opciones a operar -SI-NO-CANCELAR-, si le damos a la tecla INTRO, por defecto activaremos la función SI. Esto es lo que significa consistencia: que en cualquier ordenador y en cualquier aplicación, sea de la marca que sea y con cualquier sistema operativo, la tecla INTRO significará SI. La consistencia es el meollo de la seguridad, de la reversibilidad y del estándar. Con la consistencia no solamente damos por más segura nuestra relación con el ordenador sino que supone la herramienta principal en el proceso de aprendizaje, de exploración y de expansión de su uso, porque aunque nos encontremos ante un programa nuevo, sabemos que hay una serie de acciones que son idénticas siempre: Ctrl+S, Ctrl+O, INTRO, etc.

Esa nueva actitud respecto a la gestión de la seguridad, en el sentido de que se requiere de una responsabilidad individual en la salvaguarda general del sistema, contrasta con la desaparición de la responsabilidad pública de esa salvaguarda. La paulatina extinción (privatización) de las políticas gubernamentales en el espacio público, en el dominio energético, en el mundo laboral, en la gestión de la solidaridad, etc., tiene como eslógan de cobertura la "activa responsabilidad personal" en este nuevo mundo desregularizado y atrapado en las no-leyes del mercado.

Un ejemplo obvio de esta situación es la aplicación y percepción del automóvil. La velocidad es el valor fundamental de nuestro sistema cultural y moral. Sin embargo, parecería lógico que velocidad y seguridad debieran darse de la mano para una verdadera operatividad social. Pero no ha sido así en el caso del coche. Hemos acordado entre todos que el valor de la velocidad se sitúa más alto en la jerarquía que el de la seguridad.

De entre todas las máquinas con finalidades civiles inventadas durante el siglo XX, el automóvil ha sido con distancia el ingenio que más vidas se ha cobrado. En España, mueren entre 75 y 100 personas en accidente de coche o moto cada semana . ¿A qué otra máquina se le permite causar la muerte de esta manera? ¿qué pensaríamos si los teléfonos móviles le quitaran la vida a 10 personas cada semana o cada mes o cada año, o que el uso de los ascensores alcanzara tal volumen de siniestralidad? Sobre el automóvil, nuestras sociedades han depositado una suerte de contrato con el mundo mecánico, un contrato de seguridad, incluso una especie de constitución, de carta magna. Los accidentes de tráfico, ocurridos desde el principio de la historia del coche, han continuado hasta nuestros días y jamás se ha puesto en práctica una política de restricción. El accidente representa el aviso público de los efectos de la ineficiencia del usuario respecto a la gestión de la máquina (y de la velocidad), y también la multa máxima -la muerte o las secuelas-, circunstancia que tiene carácter de ley, por lo definitivo.

Está plenamente establecido que la responsabilidad de un accidente de tráfico es siempre estrictamente individual. Es ahí en donde hemos fijado la variable de la seguridad. La posible ineficiencia social con las máquinas de los pasajeros que mueren en accidentes de autobús o de tren o de avión nada tiene que ver con sus muertes. Es por eso que ese tipo de accidentes despiertan mayor atención y cobertura informativa. Nos despierta más sentimientos, porque es injusto. Es una tragedia inmerecida para aquella gente, aunque un profesional -el conductor- pueda haber fallado. Los accidentes de coche se justifican moralmente porque la responsabilidad es precisamente individual. La propia libertad personal es el argumento que sostiene este modelo moral, y que podemos constatar públicamente en las imágenes publicitarias de coches. Libertad individual y velocidad quedan así casadas en el inconsciente. Y de paso, se asimila sin problemas el enorme número de bajas "colaterales" en las carreteras del mundo entero.

El teclado: el estándar y el individuo

El teclado de la máquina de escribir, que marcó un hito en la evolución de los interfaces, nos enseña cómo una tecnología patentemente obsoleta ha conseguido imponerse gracias a la fuerza del invidividuo. Los interfaces pueden venir diseñados por la industria, pero su razón final de ser, su real configuración es cosa de los usuarios.

En 1865, Christopher Scholes y su hermano, un profesor de escuela, diseñaron una máquina de escribir, siguiendo un modelo de cosmogonía empresarial: la “filosofía de las piezas intercambiables” en el marco de un entorno laboral en cadena que se extiende también al hogar. Isacc M. Singer ya las había aplicado con enorme éxito en la década de 1860 en su máquina de coser. Se trataba de construir piezas más que máquinas, de manera que éstas últimas no fueran más que un perfecto ensamblaje de diversas partes. La difusión y expansión del uso de este tipo de tecnologías aumentó considerablemente en un corto período de tiempo. Todas las máquinas eran la misma, sus partes eran intercambiables y fácilmente sustituibles sin afectar al resto del conjunto. Y sobre todo, todos los usuarios pasaban a ser el mismo. La máquina no hace distinciones ni prejuzga la habilidad de quien la maneja. El usuario es todos los posibles.

Los Scholes y un equipo de lingüistas analizaron cuáles eran las secuencias de letras más usadas , de manera que su organización en el tablero, con cierta práctica, facilitaba una trascripción veloz y una tipografía impresa que no estaba sujeta a los caprichos de la caligrafía. Sin embargo, pronto se vio que había que solucionar los problemas mecánicos que hacían que las teclas se quedaran pegadas. El resultado fue el teclado qwerty, que es la secuencia de las primeras letras en la hilera superior. Fue patentado en 1873.

El teclado qwerty nació para evitar el atoramiento de las letras, pero al mismo tiempo reducía el rendimiento real del usuario. En los primeros años tras la aparición de la máquina de escribir, las teclas que golpean el papel en el rodillo no eran visibles, por lo que a menudo, cuando se atoraban dos o más teclas, el usuario seguía escribiendo sin saber que estaba repitiendo la misma letra bloqueada. Para ello, Scholes alejó las vocales las unas de las otras, ya que eran éstas las letras más utilizadas, para que fuera más lenta la concatenación de la pulsación. Pero he aquí que 127 años después, cuando ya no tenemos ese problema frente al ordenador, seguimos utilizando el teclado qwerty.

Por tanto, ¿quién reacciona o fija el estándar? ¿es el estándar parte de un sistema ya dado, o por el contrario, la práctica cotidiana y la negociación van definiendo su evolución? En 1904 se convocó una conferencia internacional para fijar el patrón entre diversos modelos de teclado, pero de nada sirvió ya que los profesores de mecanografía se negaron rotundamente a adoptar otro estándar que no fuera el qwerty. La comodidad de lo aprendido en cada uno de los usuarios es la fuerza tractora en el progreso de un medio como el teclado. No se trata de simples factores técnicos que modelan un proceso, sino de que los individuos valoran enormemente la disponibilidad inmediata en un teclado, además de valorar menos las fases de aprendizaje. De esta manera, la influencia del estándar global mismo produce su propio estancamiento: científicos y diseñadores no pueden desarrollar nuevas investigaciones en teclados porque parecen condenadas al fracaso. En 1930, August Dvorak desarrolló un modelo de teclado para la Marina norteamericana, en colaboración con un grupo profesional de mecanógrafas, que facilitaba con creces la velocidad y seguridad del tecleo. No obstante, aunque aún es utilizado en ciertos lugares, jamás se impuso sobre el modelo de Scholes, que se convertirá en estándar.


En 1956, investigadores del Massachussets Institute of Technology empiezan sus experimentos sobre teclados que operan directamente en la arquitectura interna de las computadoras. El usuario ya puede establecer directa relación con el ordenador gracias a órdenes directas tecleadas. En 1973, Don Lancaster logra una conexión directa entre un teclado y un televisor. La información ya se despliega en una tele normal y corriente. Pero a nadie se le ocurrirá proponer un cambio en el modelo del teclado para adecuarlo a los nuevas prácticas de los usuarios informáticos. Las pocas propuestas que logran progresar no parecen aún capaces de influir a gran escala. El teclado qwerty se usa en la actualidad en los 45 países con alfabetos romanos, excepto en 3 casos.

El teclado se ha convertido, gracias al ordenador, en la herramienta más consustancial en el entorno de buena parte de los ciudadanos: es literalmente su proyección en el orden maquinal. No parece que vaya a cambiar en breve. El software vocal no ha cuajado lo suficiente en una cultura aún vinculada a una cierta intimidad en las comunicaciones. Así pues, creado hace siglos, el teclado de Scholes sigue imperando como estándar, aunque sus funciones hayan quedado mermadas a causa de un diseño desfasado. Las características de unidad que conllevan protocolos muy asentados acaban perjudicadas por la comodidad y las dificultades técnicas de un cambio tan enorme. Tampoco olvidemos que el teclado fue pensado y ejecutado en lengua inglesa, que como el Meridiano de Greenwich marca la hora lingüística internacional. La universalización del interfaz del teclado ayudó sobremanera al colonialismo lingüístico de Inglaterra y EEUU, que gracias a la ingente burocracia impresa consiguieron una gran penetración en el tejido cultural de los países colonizados en África y Asia. Que el teclado qwerty no esté seriamente amenazado se debe también en buena parte a que el primer productor de tecnología son los EEUU. Y allí aún se sigue hablando inglés.

Estándares: políticas de individualidad portátil

Nuestros aparatos de comunicación actuales son funcionales 1) si son aptos para trabajar en todas las situaciones, y 2) si son consistentes entre ellos. O lo que es lo mismo: 1) Queremos que todo el mundo se adapte a nuestro estándar, y 2) deseamos que todas las máquinas tengan el mismo lenguaje. Y ¿de qué manera definimos el interfaz sino como el sistema visual y táctil mediante el que se relacionan hombres y máquinas –que por naturaleza debe ser unitario- y el lenguaje matemático con el que hablan las propias máquinas? El interfaz es el imán: la piedra alrededor de la cual toda nuestra comunicación gira.

La movilidad se acelera cuando la gente crea lenguajes comunes con los que entenderse con desconocidos. El lenguaje mismo ha sido y es el principal interfaz de comunicación. El lenguaje fronterizo ha sido siempre crisol social y los imperios disponen de muchas fronteras. El ejemplo del pidgin (pronunciación china de la palabra inglesa business) es bien conocido: un inglés híbrido hablado por numerosos asiáticos de principios del siglo XX, a través de los largos (mal)tratos comerciales con los británicos . El spanglish, en su fondo, es otro ejemplo más actual. Son lenguas resultados de las diferencias. La búsqueda de un código común es la esencia misma de la comunicación.

Pero si la lengua ha sido esencial en esas transmisiones culturales e imperiales, los nuevos lenguajes electrónicos y digitales plantean nuevos alcances en la elaboración de sistemas comunes y adaptados a usos simples y directos. No se trata ya de crear hibridaciones hechas de fricciones, sino de unificar el conjunto general en un solo código, siguiendo la pauta de la “ley natural” de la tecnoeconomía fundamentada en la creación de estándares. En la nueva religión de la conectividad universalizada, no tiene ningún sentido pelearse con lenguajes de máquina extraños.

El homo mobilis da por hecho que todo el mundo es móvil también, que utiliza sus mismos estándares, y de hecho constata una realidad. El estándar rige el imperio de la movilidad. Cuando uno se desplaza por ahí, lo que desea es que el ordenador ajeno frente al que se sienta tenga “el” sistema operativo, para no tener que perder el tiempo. El caso de los cajeros automáticos y el sistema actual de despliegue gráfico por menús dan buen ejemplo de ello. La mayoría de displays gráficos en las pantallas se configuran a base de menús; un lenguaje nacido en el ordenador a principios de los años 80, e inmediatamente aplicado a los cajeros automáticos, y más tarde a todos los sistemas de información sobre pantalla. El menú proporciona multivisión de opciones (no ampliables) y da la seguridad de poder “deshacer” una decisión ya tomada. En el sensible caso de los cajeros automáticos, que encontraron una gran reticencia inicial entre un público temeroso del error mecánico o de la suplantación de identidad, la “reversibilidad” en la elección de opciones constituyó un gancho directo y personal. Más adelante, abundaremos más en este punto. El estándar informativo con el que las máquinas se comunican con nosotros es imperativo, en el sentido que genera total dependencia en el usuario, ya que bajo el falso manto de la facilidad de uso, quedan monopolizadas las posibilidades de percibir otros modos diferentes de organización visual.

La portabilidad crea estándar a la fuerza. Antes de la aparición del ferrocarril en 1841, las horas que marcaban los relojes públicos de Bristol y Londres eran diferentes. Cuando en la primera eran las 6:15, en la City eran las 6:00 . A nadie le importaba puesto que a nadie afectaba esa diferencia horaria. Las relaciones entre las ciudades se sucedían a una velocidad en la que los minutos y los segundos contaban relativamente. Con la aparición del tren –o del telégrafo- y la implantación de los horarios, las horas se unificaron, en beneficio de un “sistema de integración interno del tiempo” que la propia máquina impone en los usuarios. Los horarios de los transportes modernos transformaron de manera definitiva nuestra concepción del tiempo productivo en todos los ámbitos: el laboral, el escolar, el lúdico, el familiar, el del viaje. Todo se rige por un lógica ordenada del tiempo, que informa da sentido a todo. Más tarde, la portabilidad virtual de los artilugios de comunicación del siglo XX, añadiría al deseo de transportarse uno mismo, el de transportarlo todo a uno mismo. Esta distinción es esencial, pues confirma la definición del estándar como una plataforma común sobre la que cada individuo o industria despliega su contenido. La percepción de los estándares como simples escenarios a rellenar ha cegado una crítica más profunda del carácter expansionista de la comunicación, puesto que el “sistema común” se concibe dentro de una jurisdicción cerrada e innegociable: la libertad del individuo y su derecho inalienable a comunicarse y recibir información, en cualquier parte y en todo momento.

La movilidad y la portabilidad obligan al establecimiento de estándares que hagan operativa nuestra gestión en y con el mundo. Sin dejar a nadie fuera. La propia noción de la ordenación temporal establece medidas para saber dónde está uno respecto a su punto de partida. En el tortuoso camino de la exploración colonial, la conquista de interfaces ha sido unos de los botines más preciados. La búsqueda centenaria de un sistema para el cálculo marítimo de la longitud terrestre inició el camino hacia una hora mundial, establecida, por supuesto, en “el punto de partida”, en Greenwich , Inglaterra, en 1833. La transportabilidad lleva pareja el uso de un interfaz consistente que permita al viajero medir su posición de la misma manera y en cualquier parte del mundo. Por tanto, el mundo debe adaptarse a él. Si por algo se perciben tan contiguos el colonialismo del siglo XIX y XX y la globalización actual es por el hecho que si antes no se concebía un territorio "sin movimiento", ahora no se concibe un tiempo autosuficiente, ajeno al sistema. “Ninguna cultura debe quedar aislada”: esta fue la línea que adoptó Estados Unidos a finales de los noventa en una revista, Correspondence, editada por Daniel Bell, y en la que se condenaba aquellas sociedades que no quisieran convertirse en “globales”.

El único tiempo que corre es el individual, vendido como un tiempo privatizado pero en plena armonía con el todo, gracias a las tecnologías y las técnicas de gestión. Los aeropuertos, las estaciones de tren, los vehículos: todos funcionan de la misma manera y no confunden al usuario. Los botones de ordenadores, y de los cientos de pequeños aparatos de cocina, personales, etc., están diseñados para que sean identificables y similares a todos los demás: consistentes, en el lenguaje del diseño. Los individuos despliegan su movilidad gracias a una comunión comunicacional con su entorno. El lenguaje de la máquina lo arropa.

La observación como interfaz

La principal formulación científica moderna del interfaz viene de la mano de la termodinámica y de la hidrostática del siglo XIX, dos ramas de la física encargadas de analizar el encuentro entre elementos distintos. Los posteriores desarrollos quánticos y sobre la relatividad, añadieron una nueva profundidad a su definición. La nueva física, especialmente a partir del modelo propuesto por Einstein, subrayaba la importancia de considerar la observación dentro de la dinámica del mundo observado, sin tratarlo como un añadido extraño a ese mundo. Nuestros sentidos son en buena medida parte integrante de ese interfaz:

“Nuestros sentidos son superficies que forman una frontera común entre nuestras partes internas y externas de materia y espacio. Las superficies de nuestros sentidos son activas y permiten transgresiones entre la “materia y el espacio internos” y la “materia y el espacio externos”. El tiempo es el dominio necesario para pasar a través de las superficies de nuestros sentidos”.

Dice la teoría quántica: “Un interfaz es una entidad que forma la frontera común entre dos partes de un sistema, así como un medio para intercambiar información entre esas partes. Por convención, una parte del sistema se llama “observador” y la otra “objeto”. La información entre el observador y el objeto es intercambiada a través del interfaz y mediante símbolos. Cualquier intercambio de información de este tipo se llama medida.”

Para poder establecer un descripción real del mundo que observamos es necesario crear un espacio de intercambio de información que lo permita: una especie de check-point permanente y duradero: “Una de las posiciones más sostenidas para describir cualquier objeto es que lo que es descriptible permanece en estasis (situación de equilibrio entre dos fuerzas opuestas). Si el objeto descriptible varía justo en el proceso de descripción, nadie puede esperar una completa identificación del objeto dado pues los cambios aún por llegar nos obligarían a actualizar constantemente la descripción”.

Cálculo social

Leibniz será uno de los primeros investigadores en construir máquinas de calcular, en acercarse un poco más a la propia velocidad. Esas máquinas desplegaban botones y ruedas, de manera que la relación con el cálculo se simplificaba mucho. Pero aparte de los matemáticos, ¿a quién simplificaba el trabajo también?


Máquina de calcular de Leibniz, 1694

En 1649, Blais Pascal construye la primera calculadora mecánica para facilitar el trabajo de su padre, recaudador estatal de impuestos.


Máquina de calcular de Pascal, 1649

Hermann Hollerith, funcionario de la Oficina de Censos de los EEUU, recibe el encargo de diseñar en 1890 una máquina que pueda reducir el tiempo de clasificación de datos fiscales y de censo. Los datos del censo realizado en 1880 tardaron 9 años en ser compilados. La "Tabuladora" de Hollerith lo llevó a cabo en 2 años y medio, y utilizó 56.000.000 de tarjetas perforadas. Y a modo de broma histórica, años más tarde, encontramos a Einstein trabajando de empleado en la Oficina de Patentes de Berna, mientras elaboraba los principios fundamentales de la física moderna.


Tabuladora de Hermann Hollerith, 1890

La evolución de técnicas fiables de registro y archivación ha respondido casi siempre a necesidades institucionales específicas: el padrón, el censo, el seguimiento fiscal, las oficinas de pasaportes, el establecimiento de redes seguras de información reservada tanto política, policial como militar; el análisis de ciclos periódicos, ya sean naturales o macroeconómicos (con sus complicadas variables); pero sobre todo, ha sido la necesidad científica la que ha impuesto el modelo técnico que actualmente impera, dado que ella estaba al servicio de su comprobación; era de alguna forma su garante.

El interface cartesiano

El “yo” cartesiano es algo que opera en la línea divisoria entre Dios y el mundo. El “yo” tiene dos caras. Una mira el mundo de máquinas que le rodea y la otra mira un mundo sobrenatural que no comprende. Descartes descubre dos cosas: que el “yo” puede manipular ambos lados, y que las manipulaciones en uno de ellos tiene consecuencias en el otro. Ambos lados están conectados via interficie. La interficie es un “yo” en estado de observación. El interfaz, así, es un andamio, una construcción intermedia capaz de proporcionar los medios conceptuales necesarios.

Descartes formula una nueva manera de dar forma a los contenidos de nuestros intercambios con el mundo externo: una nueva tecnología para manejar la información: la visión analítica, cuyos medios de almacenar y procesar información se encuentran en el lenguaje matemático de símbolos operativos y abstractos.

Coyote y Correcaminos: superjeto y objetil

Hace ya algunos años pude explicarme uno de los fantasmas que desde mi niñez televisiva me venía acompañando. Recuerdo aquellas tardes del sábado, pegado a la televisión, junto a mi hemano, esperando con ansiedad una nueva entrega del Coyote y el Correcaminos. Ya entonces me hacía ciertas preguntas: ¿Cómo se puede ser tan tonto para estropearlo todo en tan poco tiempo? ¿Cómo era posible que el destino se cebara tanto en ese pobre Coyote? Aparte de mi fascinación por todos aquellos aparatos e inventos que de nada le servían, y además de mi más profunda repulsión por aquella retorcida avestruz, ya de pequeño, lo recuerdo con claridad, pensaba que había truco escondido. Que en alguna parte de la historia estaba la clave para entender todas aquellas contradicciones. Hoy sé que la historia que nos contaban era un sutil discurso sobre el deseo cristiano, sobre la conformidad social frente a lo que no podemos o no nos dejan conseguir. Pero, por otro lado, también sé que Coyote era una fabulosa metáfora sobre la tecnología contemporánea, sobre el concepto de velocidad y sobre la gestión institucional de esa idea.

El Coyote luchaba contra la velocidad, contra un mundo que iba más rápido que si mismo, contra un objeto de deseo inalcanzable, no porque no pudiera ser atrapado, sino porque iba demasiado rápido. Por esa razón, el Coyote se pasaba el día equipándose con todo tipo de artilugios, es un superjeto, en la terminología de Deleuze; necesitaba de esas máquinas, de esas prótesis para ponerse al diapasón del mundo (de Correcaminos, un objetil) para establecer una relación igualitaria. Sus máquinas casi siempre eran dispositivos de velocidad, tecnologías de desplazamiento. El Coyote era una especie de cyborg; un ser consciente de que para dejar de ver las cosas emborronadas tenía que ponerse a la misma velocidad que esas cosas. Y no pocas veces lo conseguía. Aunque, eso sí, preocupado por correr como la maldita avestruz, nunca se acordaba de comérsela en el momento oportuno.


La fábula del Coyote y el Correcaminos sin duda no fue nueva, pero quizás ha sido de las primeras en llegar simultáneamente a millones de personas en un mismo instante, a través de la televisión. En realidad, fue Galileo quien puso la primera piedra de este debate: un agujero en el que mirar a lugares muy lejanos. Con la invención del telescopio, el astrónomo italiano y otros que le siguieron establecieron que las distancias eran tan enormes y relativas que se hacía necesario un total replanteamiento de la idea de velocidad. Más que eso; con el telescopio se hacía patente que para establecer la más mínima noción empírica de velocidad era necesaria la "máquina"; artefactos que fueran capaces de deducir la distancia, de conquistar el espacio. La ciencia, desde el Barroco, es un puro ejercicio por dominar la velocidad; desde los más diminutos e infinitesimales procesos físico-químicos, que se producen en nanomilésimas de segundo hasta las más progresivas transformaciones cósmicas; desde nuestros constantes cambios de humor hasta las infinitas variables que hacen de un proceso histórico algo voluble. Todo se convierte en probabilismo, la ley jesuita del relativismo. Todo pasa a componerse de posibilidades, de variaciones. Se trata de dominar la variable para así estar más preparado en el momento de su fantasmagórica aparición. Es decir, nos equipamos con determinadas tecnologías, como el telescopio, el microscopio, para analizar procesos más allá de nuestra simple percepción sensorial; nos damos máquinas fotográficas o de cine para captar una realidad huidiza; nos compramos televisores, radios u ordenadores para dar sentido a una velocidad de comunicación y gestión de información que funciona a kilobytes por segundo; e inventamos el tren, el coche o el avión para convertir la distancia en algo táctil, a la luz de aquellas tecnologías decimonónicas, como el telégrafo, que auguraban una velocidad suprema en la información del mundo.

Con el telescopio, el hombre podía detectar astros a años luz de la tierra; los podía ver pero no los podía tocar, como le pasaba al Coyote. Toda la ciencia pasó a fundamentarse en la idea de predicción; de análisis empíricos que pudieran demostrar cosas que eran intangibles, que estaban muy lejos pero que podíamos observar con nitidez en el cristal de la máquina frente a nuestro ojo. Es extremadamente difícil fotografiar un átomo; cuando lo iluminamos, éste sale despedido. Lo que vemos del átomo es un rastro, a través del cual deducimos su existencia. La velocidad de fuga es el objetivo a medir. Observar los astros suponía calcular el tiempo que la luz tardaba en llegar a la tierra, con el propósito de fijar así la fecha real de los planetas en el momento de su observación. La ciencia, en realidad, pasaba a ser ciencia-ficción o, mejor dicho, ciencia-predicción, ciencia-búsqueda a fin de entender lo que se vé en el cristal. Una ciencia producto de la necesidad de predecir, como si de una voluntad militar se tratara: la anticipación ante hechos que existen, cuya probabilidad y existencia está corroborada. Los ordenadores, sin ir más lejos, son lo que son porque se originaron en contextos, como los militares, en los que la predicción es fundamental: el cálculo balístico o los escenarios de estrategia que requieren cómputos enormes con montones de variables. Las reglas de esa ciencia-predicción las encontramos hoy por doquier: en las estrategias de inversión en bolsa, en las decisiones a tomar por un jugador frente a la cónsola de un video-juego, en la realidad virtual en dónde podemos simular un edificio que aún no ha sido construido, o en los comentarios de revista en los que señalan los errores científicos de la serie Star Trek (¿cómo se pueden conocer los errores científicos en el diseño de una nave espacial del año 4000?).

Esto tiene mucha enjundia, si se paran un momento a pensar en ello. Si la ciencia emprende una carrera para establecer aquello que puede pasar, entonces es toda una tentación crear una realidad en función de aquello que ha de venir. Ya ven que ésto tiene mucho de religioso, y desde luego no es por casualidad. La ciencia la hemos hecho teleológica, es decir, existe en función de algo futuro, de una manera muy similar al modelo religioso. La ciencia, al mostrarnos que hay cosas posibles, demostrables en el cristal de la mirilla o de la pantalla pero aún no asimilables rompe de cuajo los modelos clásicos de la realidad y de la ficción, para comprometerlo todo en un estado de probabilidades y simulación, de tests de cercanía respecto de lo que se vé al final del telescopio. Esas probabilidades ciertamente acaban afectando a nuestro propio presente, puesto que en el entramado de poder legislamos la realidad con los ojos puestos en ese día que llegará. Legislación que invariablemente viene establecida institucionalmente y que legitima los propios mecanismos científicos por su capacidad de predicción y de registro.



Leibniz: ¿Cómo ver si no hay ventanas?

Decíamos que Leibniz hablaba del cuerpo como una habitación sin ventanas, y que de alguna manera era necesario recrearlas para podernos comunicar.
Si el cuerpo no tiene ventanas, no vemos ni nos ven. El valor de la credibilidad, al tener que representarnos sin que pueda verificarse nuestro libreto, encerrado en las cuatro paredes de nuestra casa sellada, se convierte en el adhesivo que comunica y vincula. Ese espacio simulado para reproducirnos ante el mundo es “como una ventana en la que se vé lo mismo desde los dos lados”. El mundo está en uno, porque en mi ventana veo lo mismo que los de afuera. Un espacio de información y de organización visual. Una organización comunicacional al servicio de la multiplicidad de contextos y relaciones distintas, por tanto una organización ágil para adaptarse y de rápida comprensión desde el exterior. Leibniz viene a decir que considera necesaria la creación de interfaces.
Sin embargo, algunos barrocos decían que “el cuerpo es una necesidad para el ser”, porque es la única estrategia para que los demás sepan dónde estás. Leibniz y otros adaptaron el lenguaje binario digital. El mundo digital son construcciones representacionales, fachadas contratadas para localizar las cosas reales, las cosas que ya no están quietas. El Coyote no podía ver al Correcaminos, por eso se equipaba de toda la tecnología Acme posible. La fachada del lenguaje digital proporciona una sorprendente capacidad para construir estas estrategias; tal capacidad, que nosotros mismos nos hacemos dispositivos estratégicos, siempre listos para estar en el lugar apropiado y captar la mejor imagen. Y para matar de una vez por todas al repulsivo Correcaminos.
En 1960, Ivan Sutherland presentó una tesis doctoral en el área de la inteligencia artificial que demostró una nueva manera de interactuar con los ordenadores, que hasta ese momento no eran más que combinaciones alfanuméricas, interminables tiras de datos en cintas perforadas o dígitos en una pantalla de radar circular. Sutherland pensó que las pantallas y las computadoras digitales podían ofrecer un medio de familiarizarse con conceptos no perceptibles en el mundo físico, “mediante la colocación de una ventana, o cristal de algún tipo” en el maravilloso mundo de las matemáticas de un ordenador. Ocho años más tarde, Sutherland establecería el modelo “definitivo” de casco virtual o HMD (Head Mounted Display) incorporando la informática. Más tarde, la NASA y el Departamento de Defensa norteamericano expandieron estos experimentos como simuladores de vuelo y en entrenamiento para manejar tanques y submarinos.
En otoño de 1968, durante las sesiones del Fall Joint Computer Conference, celebradas en el Civic Auditorium de San Francisco, Doug Engelbart presentó un nuevo modelo de relación con los computadores que a la postre revolucionaría de arriba a abajo el mundo informático. Se trataba en realidad de un nuevo sistema de simulación de vuelo.
Durante la presentación, un sistema de proyección electrónica proporcionaba una imagen de gran definición, veinte veces el tamaño de una persona sobre una gran pantalla. Engelbart se situó sobre una especie de tarima dando la espalda a la pantalla, sentado y con sus manos en una extraña cónsola, llevando en la cabeza un juego de auriculares y micrófonos. En la cónsola, una pantalla pequeña le permitía observar lo mismo que en la grande y un teclado de escritura estaba en el centro. A la izquierda, un juego de cinco teclas numéricas le servía para introducir órdenes y a la derecha había una especie de caja del tamaño de un paquete de cigarrillos, con botones encima y conectado por un cable a la cónsola. Engelbart lo movía sobre la mesa con su mano derecha. Era el “mouse” o ratón.
“Imagina que estás en un nuevo tipo de vehículo con un alcance ilimitado en el tiempo y en el espacio”, ha escrito Howard Rheingold respecto a los experimentos de Engelbart. “En este vehículo hay una ventana mágica que te permite escoger entre una gran variedad de visiones posibles y filtrar rápidamente un vasto campo de posibilidades, desde lo microscópico a lo galáctico, desde una palabra concreta en un libro concreto en una biblioteca determinada hasta el resumen de un entero campo de conocimiento (...) El territorio que ves a través de la ventana aumentada en tu nuevo vehículo no es el paisaje normal de llanos, árboles y océanos, sino un paisaje de información cuyos elementos son palabras, números, gráficos, imágenes, conceptos, párrafos, argumentos, relaciones, fórmulas, diagramas, etc. El efecto marea al principio. En palabras de Engelbart, ‘todos nuestros viejos hábitos sobre organizar la información se han dinamitado por la exposición a un sistema modelado, no sobre lápices e imprentas, sino sobre la forma misma en que la mente humana procesa la información’.”
¿Qué pasa si sólo soy ciego cuando salgo de la habitación? ¿Cómo puede ser que perciba lo que tengo en casa y en cambio no vea un pimiento de lo que hay fuera? La única solución posible sería invitar a los de fuera a entrar en casa para así poder saber cómo son. Pero entonces, asumiendo que a los demás les pasa lo mismo que a mi, cuando salgan de sus casas -si es que han conseguido descubrir la manera de hacerlo, lo que es de amplio dudar- estarán ciegos y no podrán verme. Con lo que en realidad no ganamos nada. ¿Qué tenemos que hacer pues para poder ver nuestros traseros, para olernos el aliento y estar seguros de que no se trata de un ejercicio de imaginación sino que verdaderamente esa otra persona desprende la inevitable fragancia de un ágape con ajos? ¿Habría que entender cuando dice Leibniz que “este es el mejor de los mundos posibles” que lo es porque se puede ver y por lo tanto es posible? ¿Es decir, que existe porque se puede ver? ¿Y qué es lo que se puede ver si no es sólo nuestra propia habitación sin ventanas y poco aireada? ¿O habría que entender que de lo que se trata es que “es el mejor de los mundos posibles” por que no lo podemos ver, eso que está más allá de la pared? ¿Porque lo único que podemos hacer es imaginarlo?
En el Renacimiento, se asumía que las ventanas era transparentes y las paredes oclusivas. Otra asunción fundamental en la perspectiva lineal renacentista era que la ventana era plana. Organizar el mundo de manera que pueda ser comprendido en dos dimensiones es bastante patético. Pero eso no es todo. ¿Por qué demonios tenemos que pensar el mundo de la misma manera que lo vemos, con primeros, segundos y terceros planos? se preguntaba Leibniz (Newton no soportaba a Leibniz cuando se ponía a pensar estas cosas; al fin y al cabo toda esa historia se acababa de cuajo cuando la manzana golpeaba estruendosamente el suelo y todos los planos y estratos posibles se iban a hacer gárgaras).
Pienso en las pocas ventanas que tengo a mi disposición. La cuestión de la disposición lleva normalmente a pensar que alguien lo ha dispuesto así. Pero en cambio yo juraría que están allí porque son los boletos que me han tocado en la tómbola ocular. Creo recordarlos. Pienso en el visor de mi cámara fotográfica, en el visor de mi cámara de video, en el caso de que en algún cumpleaños me hubieran regalado una (siempre me caen plantas que por la ley de la gravedad humana, esto es, el olvido acuático, se tuercen hacia abajo prematuramente); pienso en mi Mac que no pide agua, acostumbrado a las bebidas de más voltaje, pienso en los prismáticos que me dejan ver relativamente, siempre en contínua batalla con mis gafas, y pienso en los puntitos negros que pululan en mi campo de visión con regularidad y tesón.
Las conciencias individuales, en sí mismas, están cerradas unas de otras; sólo pueden comunicarse por medio de signos donde se traducen sus estados interiores, escribió Emile Durkheim.

Deleuze y las prótesis

Las reflexiones sobre un sujeto que utiliza prótesis ajenas a su organismo como forma de establecer una relación más directa con el mundo ha cautivado -y mucho- las mentes de intelectuales y artistas, cuya vinculación a la realidad se defiende por un afán de des-composición y recreación para así visualizar lo que la lógica mecanicista nos niega. La imagen de un sujeto (que se considera "natural" en la medida que dispone estrictamente de una morfología otorgada de golpe en el nacimiento) provisto de dispositivos simbióticos (interfaces informáticos) o implatandos (prótesis) nos acerca a algunos territorios espectrales, por lo atávicos, en lo que respecta a nuestra certeza o seguridad. La imagen del cyborg aparece en el centro de los discursos porque vivimos una realidad en completo movimiento y eso “se supone” que pone en jaque elementos esenciales de nuestro ser. Hoy, parecemos percibir una realidad borrosa que se compone de infinitos objetos, todos ellos sometidos a una ley caótica de la velocidad y la migración; un objeto en movimiento que comporta una correlación en la forma en que nosotros miramos, percibimos y en la manera en que desarrollamos nuestras estrategias a la hora de captar, definir y describir lo que "se nos pone" delante de los ojos. Por tanto, en realidad, el discurso sobre lo protésico tiene que ver directamente con el ámbito de la representación, pues en el fondo se trata de cómo mostrar lo que está en movimiento. Y es esa, quizás, una de las razones fundamentales para que éste debate se haga especialmente intenso en el ámbito de la expresión visual, de la experimentación artística; ¿cómo conseguir que las cosas se vean? Es más ¿es realmente necesario hacer que las cosas "aparezcan" cuando las cosas ya nunca más se definen por "sí mismas" sino en función de dónde aparecen o desde dónde las vemos aparecer?

Un mundo en vértigo provoca una mirada vertiginosa. El impulso de captar lo que está sujeto a la velocidad conlleva que, como observadores, también nos pongamos en movimiento; que seamos capaces de diseñar unas estrategias que nos permitan jugar "paritariamente" con lo que nos rodea. Me viene a la cabeza, por ejemplo, la película “Depredador”. La visión del alienígena está equipada para detectar el movimiento instantáneamente y su misma naturaleza simbiótica se define por su voluntad de adaptación y supervivencia. Deleuze, de mano de Whitehead, ha tocado estas cuestiones de manera muy sugerente. El habló de objetiles (objetos como proyectiles) y de superjetos, o sujetos preparados y entrenados para hacer frente a la extrema movilidad. Para fijar la imagen de un coche de Fórmula 1 en un circuito de carreras, no nos basta con una simple cámara fotográfica: hemos de ajustarla para que sea capaz de sacar una instantánea del objeto que esté definida y sin los contornos desdibujados. De la misma manera, un miope necesita unas gafas para establecer relaciones fiables con aquello que intuye en su mirada. Necesita "corregir" una desproporción; crea un juego de anamorfosis a la manera barroca. El sujeto, ante una realidad huidiza, debe tomar medidas. Medidas que básicamente afectan a la representación, a la via por la cual unæ define la apariencia de las cosas, a la forma en que unæ se define a sí mismo ante ellas, pues si nosotræs vemos el mundo como una nube fugaz, es de esperar que el mundo también pueda vernos de la misma manera. Así pues, ¿qué voz segura puede existir si, al hablar de apariencias, lo hacemos sabiendo que nosotræs mismæs somos aparentes? Los interfaces se legitimarán como placebos ante esa angustia.

Leibniz y la habitación sin ventanas

Leibniz abre la concepción moderna del interfaz al sugerir que el cuerpo es como una habitación sin ventanas: una mónada oscura, y que para comunicarse con el exterior, “debería haber una pantalla que recibiera las informaciones: una pantalla no uniforme sino diversificada mediante pliegues que representen temas de conocimiento innato. Esta pantalla o membrana, que está en tensión, tiene elasticidad y fuerza activa, y en verdad actúa (o reacciona) de manera que se adapta tanto a los pliegues pasados como a los nuevos”.

En esa pantalla, una serie de signos deberían codificarse de manera que cualquiera con conocimiento del código pudiera descifrarlos. Si todo y todos somos relativos, puesto que vivimos en una habitación oscura y “suponemos” (dentro la felicidad leibniziana) que los demás están en las mismas condiciones, se hace necesario pensar en un lenguaje universal, un protocolo que Leibniz llamará Characteristica Universalis: un espacio general de comunicación.

"Mediante este lenguaje universal, cualquier información podría grabarse sistemáticamente en símbolos abstractos con los que cualquier problema de razonamiento podría ser articulado y resuelto. Esta escritura universal podría ser entendida por todos, cada uno en su propia lengua, y proporcionaría el medio de comunicar por doquier. Incluyo entre los signos a los vocablos, las letras, las figuras químicas, astronómicas y chinas, los jeroglíficos, las notas musicales, las figuras estenográficas, aritméticas, algebráicas y todas las demás figuras que utilizamos al pensar en lugar de las cosas […]
Y ahora que definitivamente podemos elogiar la máquina como se merece, diremos que será de utilidad para todos aquellos que se vean envueltos en cálculos, los cuales, como es bien sabido, son los amos de los auntos financieros: los administradores de las haciendas de otros, los comerciantes, los agrimensores, los geógrafos, los navegantes, los astrónomos […] Pero si nos limitamos a los usos científicos, gracias a ella podrían corregirse las viejas tablas geométricas y astronómicas y elaborarse otras nuevas, con ayuda de las cuales podríamos medir todo tipo de curvas y figuras […] Convendrá ampliar todo lo posible las principales tablas pitagóricas, las tablas de cuadrados, cubos y demás potencias, y las tablas de combinaciones, variaciones y progresiones de todo tipo […] Seguramente, los astrónomos no tendrán que seguir agotando su paciencia con el cálculo […] ya que no vale la pena que hombres excelsos pierdan horas como si fueran esclavos en la tarea de calcular aquello que se puede relegar de un modo fiable a cualquier otro que utilice la máquina”.

Leibniz presentó en 1675 el lenguaje binario. Todo se podía escribir en ceros y unos. Hasta el infinito. El mundo digital es una construcción representacional, una mapa impecable de localización y seguimiento de las cosas reales, que ya no están quietas, porque en el cálculo de sumas tan enormes (infinitas) el porcentaje de variables que pueden ejercer su influencia en el resultado aumenta proporcionalmente. Esas variables deberían servir, según Leibniz, para sostener las relaciones entre los elementos, ya que los vincula aún estando éstos a velocidades distintas. Se va a la velocidad de la luz y se hace urgente un nuevo orden simbólico que atrape la idea de lo múltiple. Einstein sueña con atrapar una onda de luz. No funcionó. La luz huía de él. Pero se encontró en “el centro de una burbuja de luz concéntrica” , en donde a tiempo normal, y alucinado como un niño, fue capaz de observar la propia velocidad. Un interfaz que cambió la física moderna: un punto de encuentro y de predicción de dimensiones que se consideraban antagónicas.

Leibniz asentó de golpe el Cálculo de límites, que en matemáticas no es otra cosa que hallar las áreas de figuras hechas con líneas curvas y fijar valores diferenciales exactos, como las variaciones de velocidad de un cuerpo en movimiento: esto es, ser exacto, no conformarse con aproximaciones. Las funciones variables debían ser precisas, puesto que en realidad nacían para ser estándar y referente en un nuevo mundo estratégico en el que impera el cálculo: “¡Calculemos! Entonces tendrían que sacar las plumillas y hallarían una solución cuya exactitud todos aceptarían necesariamente.”

Para Leibniz, la Característica Universal era un alfabeto del pensamiento humano, no solamente de las cosas reales: un alfabeto que representara todos los conceptos fundamentales del conocimiento. Se necesitaban caracteres especiales que representaran complejos cálculos lógicos y matemáticos, para a su vez vincularlos a otros grandes grupos. Esos caracteres eran transitivos, eran verbos. Los símbolos alfabéticos, las letras, no tienen ningún significado por sí mismos. En cambio, los nuevos símbolos propuestos, como ¶ (integrar) y d (derivar), venían con definición bajo el brazo, ya que existían para hacer posible la negociación entre conjuntos distintos dentro del cálculo diferencial leibniziano: las derivadas. Introdujo además un nuevo símbolo muy especial, ≈, para representar la combinación de pluralidades de términos un tanto arbitrarios . El nuevo símbolo servía para combinar dos conjuntos de cosas en uno solo que contuviera todos los elementos de cada uno. El signo más nos anima a pensar en una suma ordinaria, pero el círculo que lo rodea nos advierte que no se trata de números que se sumen. El símbolo ≈ los vincula, los relaciona, no los suma.

En velocidad, la gestión científica de la realidad se ha ido definiendo en términos de rapidez a la hora de analizar situaciones siempre cambiantes. La investigación moderna ha valorado por encima de todo la capacidad de ponernos en el lugar de las cosas, emplazándolas en espacios de simulación creados al efecto. Desde la cibernética hasta los medios audiovisuales nacidos en el siglo XX, lo importante es la representación. La membrana en(de) la que se proyecta es el interfaz, la ventana para captar con más definición un mundo borroso y ubícuo. Pero también para marcar unas nuevas fronteras de espacio y tiempo. Leibniz dijo que “el presente es grande en el futuro, el futuro puede ser real en el pasado, la distancia se expresa en lo cercano”.