Archivado en Noticias, Privacidad, Mundo Internauta

IGFSPAIN 2015

¿Privacidad en riesgo? Vigilancia, big data e IoT


La vigilancia y la posibilidad de que la LOPD sea una barrera para las Apps fueron algunos de los temas clave que se llevaron a debate en la mesa ¿Privacidad en Riesgo? Vigilancia, Big Data e IoT (#igfPriv) moderada por Ricard Martínez, representante de la APEP. Emilio Aced, en representación de la AEPD, Norman Heckh, de Ramón y Cajal Abogados y Roberto Luis Ferrer, profesor de la Universidad de Zaragoza dieron su visión sobre estos temas junto a la abogada de la Asociación de Internautas Ofelia Tejerina.





La mesa redonda sobre "¿Privacidad en Riesgo? Vigilancia, big data e IoT" puso el broche de oro a los debates llevados a cabo en el aula magna. Moderada por Ricard Martínez, representante de la APEP, dicha mesa tuvo como objeto el replanteamiento de términos como big data, el Internet de las cosas, la seguridad o el incremento de las capacidades del tratamiento de la información. 

En base a estas cuestiones, Martínez lanzó a los ponentes interesantes preguntas como ¿cuál es el precio que se debe pagar en términos de privacidad? ¿podría establecerse un balance adecuado entre los modelos de negocio y los derechos de las personas? ¿cuáles son los nuevos retos y estrategias que debemos plantearnos a la hora de informar al usuario?...

Para cerrar su intervención, el representante de la APEP, aludió a dos ideas presentes en el capítulo de privacidad del informe sobre La Gobernanza de Internet de España. La primera de ellas, "la privacidad será muy importante para disponer de un gobierno democrático de Internet que asegura el pleno respeto de la libertad". La segunda, "en el mundo de las redes, la privacidad opera sin duda como el catalizador que contribuye a salvaguardar el uso correcto de la tecnología".

Ofelia Tejerina, abogada de la Asociación de Internautas, se refirió a cuestiones de actualidad que la preocupan "por como se están desarrollando los hechos, las normativas y las noticias en los medios". Hace ya 15 años se empezó a hablar de nuevas tecnologías sin embargo, es hoy cuando nos encontramos con cuestiones de inteligencia artificial y los nuevos retos que nos plantean la tecnología. "Ya no se trata de nuevas tecnologías sino de los retos que nos plantean", aseguró.

Tejerina comenzó hablando del big data y de los riesgos que hoy en día nos permiten con mucha facilidad "evaluar a una persona" con las redes sociales y los resultados de los buscadores. Evaluar a los ciudadanos es algo bastante fácil y es esa inteligencia artificial la que se encarga de perfilar a las personas y saber qué es lo que quieren. "Nos encontramos con una estandarización de protocolos para poder conocer mejor a las personas y buscar nuestros propios intereses". Esa inteligencia artifical nos lleva a la toma de decisiones y de ahí nos vamos a la norma, a la Ley de Proteccion de Datos. Es en este punto donde entra en juego la privacidad.

Otro de los puntos clave que la abogada abordó en su discurso fue el espionaje masivo. Un espionaje que realizan los gobiernos para acceder a toda nuestra información. Un ejemplo claro es el utilizado con el terrorismo pero ¿qué ocurre cuando ese espionaje se utiliza con fines políticos o industriales? "Ahí es donde está el verdadero problema", aseveró Tejerina. En este punto, la ponente quiso destacar, entre otros temas, el derecho al olvido y el registro remoto de equipos informáticos. Una propuesta que, en su opinión, "está mal redactada". Tampoco quiso dejar de lado el Internet de las cosas que, según sus palabras, ofrece "muchas utilidades, muchos riesgos y normativas descontroladas".

Roberto Luis Ferrer, representante de la Universidad de Zaragoza, comenzó hablando de la condición que en la actualidad se le da a la tecnología. "Hemos oido muchas veces que la tecnología no es ni buena ni mala ya que depende del uso que se le dé. Sin embargo, "la tecnología no es neutral porque condiciona nuestra vida", sentenció. Es, por tanto, "una neutralidad relativa".

Para Ferrer, todo esto ha producido una evolución de nuestra dimensión social hacia un nuevo concepto jurídico que denominó "dimensión digital". Se trata de un nuevo concepto que se debe definir como "ese aspecto de la vida en la que se enmarcan nuestras acciones susceptibles de digitalización por terceras personas". Para el representante de la Universiad de Zaragoza, esa digitalización de la vida humana se está produciendo sin el consentimiento de la ciudadanos "incluso de aquellos que no hacen uso de la tecnología" porque sus datos ya están circulando por la red. 

Según Ferrer, "lo que no nos habíamos imaginado y que nos estamos empezando a dar cuenta ahora es que esa sociedad del conocimiento era una sociedad aislada mientras que ahora la masificación de la información volcada en redes sociales genera una sociedad con un conocimiento colectivo que es interdependiente y que da lugar a estrategias de inteligencia colectiva". Este conocimiento colectivo requiere ingentes cantidades de información de todo tipo (incluida la personal). Información que, según el ponente, "hay que controlar". 

La función social de la privacidad fue también abordada en el discurso de Ferrer que destacó la necesidad de que la libertad y la dignidad de la persona se impongan como límites para que "las personas no se vean reducidas a unos y ceros".

Emilio Aced, representante de AEPD, definió la discriminación de la información en el Internet de las cosas como un riesgo. Respecto a la cuestión planteada por el moderador de la mesa acerca del precio que puede tener o no nuestra privacidad, Aced mostró su desacuerdo a la hora de abordar el problema. "No se trata pagar algo para conseguir algo a cambio cuando hablamos de derechos de las personas". Para el ponente antes de poner en marcha un proceso masivo de datos es necesaria una previa reflexión ética para ver bajo qué condiciones tiene que hacerse porque "no todo lo que es posible hacerse, debe de hacerse".

Para Aced, cuando abordamos este tipo de tratamientos debemos preguntarnos antes ¿a quién beneficia? ¿qué riesgos tiene para las personas cuyos datos se tratan? ¿ese beneficio beneficia a las mismas personas que asumen los riesgos?

La permanencia en el tiempo es también un punto importante para el ponente que aseguró que "utilizamos big data e inteligencia artificial para hacer predicciones". Pero "estas predicciones no pueden ser eternas sino que deben tener un plazo", aseguró.

"Hay que ser leal con las personas ya que en muchas ocasiones las personas no son conscientes de lo que puede pasar con sus datos", afirmó el ponente que no quiso dejar pasar por alto los riesgos asociados a la protección de datos.

Para Norman Heckh, representante de Ramón y Cajal Abodados, los usuarios somos usarios de derechos "pero también de obligaciones". A nadie escapa que un determinado comportamiento deja huella. De hecho, "ahora tenemos medios que hacen que ese recuerdo sea más amplio", aseguró el ponente. De  esta forma, en la medida que el usuario se expone públicamente debe ser consciente de que que eso puede tener una transcencia. En este punto, Heckh apeló a la responsabilidad del usuario.

La conservación de datos, la información que se le da a los usuarios que, según el ponente, en la práctica no se lee nadie (un ejemplo son las cookies) y el big data fueron otros de los temas que Heckh trató en su intervención.
FUENTE: CLUB DE INNOVACIÓN




pdfprintpmail