EL BLOG DE ENRIQUE DANS

Materializando Glass – en todos los sentidos


Google publica la guía para desarrolladores y las especificaciones de Google Glass: cámara de 5MP, vídeo a 720p, 16GB de memoria flash, WiFi, Bluetooth, audio por conducción ósea y batería de día completo.




Al tiempo que se van definiendo las incógnitas sobre la configuración de Glass (que será de entrada un entorno sin publicidad y con apps gratuitas), van apareciendo más análisis sobre el efecto que su uso podría tener sobre el día a día y la vida social. Especialmente recomendable me ha parecido el de Jan Chipchase en AllThingsD, titulado “You lookin’ at me? Reflections on Google Glass“, que incide en precisamente en el factor interacción, tanto con respecto a alguien que veamos que lleva el artefacto puesto como a la inversa, en las sensaciones que tendrá aquel que intente utilizarlas. Factores de materialización de la experiencia, como lo que ocurre cuando reaccionamos a algo que vemos u oímos en Glass y nuestra gestualidad, aunque discreta, interfiera con las personas que nos rodean en sitios como un bar, un vagón de metro o cualquier otro espacio en el que los gestos, las sonrisas o los comandos en voz baja pueden ser interpretados de manera ambigua. O en las implicaciones de las posibilidades de grabación indiscriminada de prácticamente cualquier espacio, público o privado.

En el mismo sentido, me llamó la atención otro artículo similar, este sobre “el coche que conduce solo”, publicado en MIT Tech Review y titulado “Proceed with caution toward the self-driving car“, en el que se plantea otra reflexión interesante: muchas de las tecnologías que Google utiliza en su modelo de automóvil de conducción autónoma están ya desarrollados en otros modelos de automóviles de múltiples empresas, pero no diseñados hacia liberar al conductor de su tarea, sino hacia asistirle en la misma. En muchos modelos actuales de automóvil puedes soltar el volante, y el propio automóvil mantendrá la velocidad, la adaptará para mantener la distancia con el vehículo que circula delante de ti, se mantendrá entre las líneas de la calzada, e incluso frenará ante un obstáculo, por no mencionar la posibilidad de que aparque directamente solo. La duda, claro, es cómo se conecta esto con el cerebro humano, si sigue siendo verdad (como afirma el artículo) que el ser humano y su cerebro siguen gestionando las situaciones inesperadas mejor que su contrapartida automatizada, o qué ocurre con el desarrollo de habilidades de conducción cuando las relegamos a un uso secundario. De nuevo, una lectura muy interesante.

La tecnología, en muchos casos, juega al aprendiz de brujo. A Google esa actitud le gusta especialmente: lancemos, y ya veremos. Cuando el lanzamiento se relaciona con lo que hacemos en la red, con nuestros hábitos online o con nuestros modos de uso de la información, la cosa puede tener su gracia, pero tiene cierta dosis de control. Cuando se relaciona con cómo vivimos e interaccionamos fuera de la red, o cómo conducimos, las connotaciones y posibles consecuencias son diferentes. No quiere decir que no me muera por probar cualquier prototipo que pueda caer en mis manos, como efectivamente ocurre, pero conviene pensar en todas las consecuencias de esa materialización.

Reproducido de El Blog de Enrique Dans


pdfprintpmail